logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

GPT-4博客介绍

为防止模型拒绝有效请求,我们从各种来源收集了多样化的数据集(例如,标记的生产数据、人类红队、模型生成的提示),并在允许和不允许的类别上应用安全奖励信号(具有正面或负面价值)。与之前的GPT模型一样,GPT-4基础模型的训练目标是预测文档中的下一个单词,并使用公开可用的数据(如网络数据)以及我们许可的数据进行训练。需要注意的是,RLHF并不能提高在各类考试上的成绩,模型的能力主要依赖数据和算力的堆砌

文章图片
#深度学习#人工智能#机器学习
pytorch搭建多层神经网络解决多分类问题(采用MNIST数据集)

前置知识可以参考同系列文章:目录pytorch搭建神经网络解决多分类问题softmax损失函数多分类的实现数据的准备构建模型、损失函数及优化器训练及测试部分训练结果pytorch搭建神经网络解决多分类问题softmax核心:最后一层使用softmax层1.求指数将负值转化为非负值2.分母将所有输出求和(归一化)保证条件如下:损失函数使用负对数似然函数(只有y=1的项才真正被计算,为0不影响结果):

#pytorch#神经网络#分类
自然语言处理Word2Vec

CBOW模型Word2Vec是从大量文本语料中以无监督的方式学习语义知识的一种模型,它被大量地用在自然语言处理(NLP)中,通过学习文本来用词向量的方式表征词的语义信息,即通过一个嵌入空间使得语义上相似的单词在该空间内距离很近。Embedding其实就是一个映射,将单词从原先所属的空间映射到新的多维空间中,也就是把原先词所在空间嵌入到一个新的空间中去。Word2Vec模型中,主要有Skip-Gra

#自然语言处理#word2vec#机器学习
深度学习面试题汇总(一)

规范化将越来越偏的分布拉回到标准化的分布,使得激活函数的输入值落在激活函数对输入比较敏感的区域,从而使梯度变大,加快学习收敛速度,避免梯度消失的问题。第L层每个神经元的激活值进行Normalization操作,比如BatchNorm/ LayerNorm/ InstanceNorm/ GroupNorm等方法都属于这一类;对神经网络中连接相邻隐层神经元之间的边上的权重进行规范化操作,比如Weigh

文章图片
#深度学习#神经网络#人工智能
安装fabricmanager解决print(torch.cuda.is_available())报错NumCudaDevices()

print(torch.cuda.is_available())报错但是CUDA和cudnn都安装完成,版本对应良好,报错如下UserWarning: CUDA initialization: Unexpected error from cudaGetDeviceCount(). Did you run some cuda functions before calling NumCudaDevic

#linux#pytorch
人工神经网络基础——前馈神经网络

什么是人工神经网络?人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs)或称作连接模型(Connection Model),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络:是一种应用类似于大脑神经突触联接的结构进

#神经网络#网络#深度学习
BertTokenizer的使用方法(超详细)

convert_tokens_to_ids是将分词后的token转化为id序列,而encode包含了分词和token转id过程,即encode是一个更全的过程,另外,encode默认使用basic的分词工具,以及会在句子前和尾部添加特殊字符[CLS]和[SEP],无需自己添加。从下可以看到,虽然encode直接使用tokenizer.tokenize()进行词拆分,会保留头尾特殊字符的完整性,但是

#人工智能#深度学习#python +1
pytorch搭建多层神经网络解决多分类问题(采用MNIST数据集)

前置知识可以参考同系列文章:目录pytorch搭建神经网络解决多分类问题softmax损失函数多分类的实现数据的准备构建模型、损失函数及优化器训练及测试部分训练结果pytorch搭建神经网络解决多分类问题softmax核心:最后一层使用softmax层1.求指数将负值转化为非负值2.分母将所有输出求和(归一化)保证条件如下:损失函数使用负对数似然函数(只有y=1的项才真正被计算,为0不影响结果):

#pytorch#神经网络#分类
自注意力和位置编码(含pytorch代码)

目录自注意力和位置编码自注意力位置编码绝对位置信息相对位置信息代码实现导入模块自注意力位置编码自注意力和位置编码自注意力自注意力池化层将xi当作key, value, query来对序列特征得到yi与CNN、RNN进行比较:最长路径:信息从序列前端的某个位置传递到末端的某个位置的路径self-attention在长句子中虽然计算复杂度很好,但能很快地抓取距离很远的信息(适合处理较长的序列,付出了计

#pytorch#深度学习#python
命名实体识别问题(NER)系列——实体级/词级别评估(precision, recall, f1)

实现思路代码实现词级别的评价from collections import Counterclass Metrics(object):"""用于评价模型,计算每个标签的精确率,召回率,F1分数"""def __init__(self, golden_tags, predict_tags, remove_O=False):# [[t1, t2], [t3, t4]...] --> [t1, t

#机器学习#深度学习#算法
    共 20 条
  • 1
  • 2
  • 请选择