logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

ICLR 2023 | Self-Consistency: Google超简单方法改善大模型推理能力

论文地址:https://arxiv.org/abs/2203.11171大模型(10B以上)生成结果的多样性diversity和质量比较好。本文的一大特点是没有利用不同的多个模型来集成,而是只用当个大模型采样输出不同的推理路径和结果来集成,有一个现象就是随着模型size的变大,集成的效果越来越高,说明大size的模型(一般要求要10B以上),其多样性diversity足够好,同时其生成的答案的质

文章图片
#人工智能#大数据#ChatGPT
微软 LoRA| 使用万分之一的参数微调你的GPT3模型

NLP重要的范式为在通用数据集上预训练,然后特定领域微调,但是随着模型越来越大,继续全量fine-tuning变得越来越不可能。本文提出低秩Adaptation(LoRA),冻结了预先训练的模型参数,将可训练的秩分解矩阵注入到Transformer架构的每一层中,大大减少了下游任务的可训练参数的数量,训练参数只有GPT-3 175B模型的万分之一,GPU内存只需要1/3。

文章图片
#深度学习#人工智能#机器学习
1 pydicom使用体验

1 安装http://pydicom.readthedocs.io/en/stable/getting_started.htmlwindows需要下载exe文件安装,linux直接命令安装即可2 使用https://pyscience.wordpress.com/2014/09/08/dicom-in-python-importing-medical-image-data-into-

1 docker环境使用tensorflow以及jupyter notebook的使用

1 docker一些介绍注(92服务器上已经配置好docker,但是需要sudo命令才能运行)这俩篇文章介绍了docker大概是怎么玩的。大白话Docker入门(一)https://www.atatech.org/articles/65782#6大白话Docker入门(二)https://www.atatech.org/articles/65863基本使用的话,了解这些应该差不多

#python#docker#jupyter
1 docker环境使用tensorflow以及jupyter notebook的使用

1 docker一些介绍注(92服务器上已经配置好docker,但是需要sudo命令才能运行)这俩篇文章介绍了docker大概是怎么玩的。大白话Docker入门(一)https://www.atatech.org/articles/65782#6大白话Docker入门(二)https://www.atatech.org/articles/65863基本使用的话,了解这些应该差不多

#python#docker#jupyter
TensorFlow学习记录-- 7.TensorFlow高效读取数据之tfrecord详细解读

一 why tfrecord?对于数据量较小而言,可能一般选择直接将数据加载进内存,然后再分batch输入网络进行训练(tip:使用这种方法时,结合yield 使用更为简洁,大家自己尝试一下吧,我就不赘述了)。但是,如果数据量较大,这样的方法就不适用了,因为太耗内存,所以这时最好使用tensorflow提供的队列queue,也就是第二种方法 从文件读取数据。对于一些特定的读取,比如csv文件格式,

#tensorflow
3 opencv平滑边缘锯齿代码

#include <opencv2/highgui.hpp>#include <opencv2/imgproc.hpp>#include <iostream>using namespace cv;using namespace std;int main(int argc, const char** argv){//Mat im = imread("D:\\software\\ope

#opencv
ubuntu 14.04LTS下源码编译安装TensorFlow-No GPU

ubuntu 14.04LTS下源码编译安装TensorFlow-No GPU1 下载源代码git clone --recurse-submodules https://github.com/tensorflow/tensorflow2 安装goolge构建工程工具Bazel系统环境:Ubuntu Linux 14.04 LTSJava JDK8或者更新1) 安装JDK8sudo apt-g

#ubuntu#tensorflow
ACL2023 | 黑盒大模型如何微调?清华Decoder Tuning方法提升大模型few-shot场景效果

title:Decoder Tuning: Efficient Language Understanding as Decoding论文地址:https://arxiv.org/abs/2212.08408代码:GitHub - thunlp/DecT1 PipeLine of DecT在黑盒模型的输出端进行tuning,提升其在下游任务的表现pipeline解读:2 输入输出以及融合方法3 PL

文章图片
#深度学习#机器学习#人工智能
jupyter notebook远程配置

1 配置vim ~/.jupyter/jupyter_notebook_config.py#!/usr/bin/python#****************************************************************## ScriptName: jupyter_notebook_config.py# Author: $SHTERM_REAL_USER@al

    共 20 条
  • 1
  • 2
  • 请选择