logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

自然语言处理(NLP)入门——Transformer详解(1)

Transformer的背景:2017年发表的的Transformer论文2018年出现优势:Transformer能够利用分布式GPU进行并行训练,提升模型训练效率.在分析预测更长的文本时, 捕捉间隔较长的语义关联效果更好.attention机制的使用.Transformer结构解析输入部分源语言的文本嵌入层 + 位置编码器目标语言的文本嵌入层 + 位置编码器编码器部分编码器是有N个编码器层组成

#pytorch#python#人工智能
自然语言处理(NLP)入门(3)——文本预处理

**数据和特征决定了机器学习的上限,而模型和算法只是无线逼近这个上限。**正是因为数据处理的重要性,在NLP算法的工作中,大部分的时间是与数据打交道,文本预处理更是重中之重!文本预处理方法:文本处理的基本方法分词作用: 为了更好的进行语言语义的理解(why)工具: jieba安装: pip install jiebjieba特性:多种分词模式精确模式(how)jieba.cut(content,

#pytorch#python#人工智能
自然语言处理(NLP)入门——Transformer精讲问答、Bert

1.1 认识BERT定义: 实质就是Transformer的encoder部分表现: 在阅读理解上会有更好的表现.BERT分为三个模块最底层: Embeddingtoken embedingSegment embeding 句子分段嵌入向量position embeding中间层: Transformer只是用了encoder部分最上层: 预微调模块句子对关系的判断单文本的主题分类QA问题模型st

#pytorch#python#人工智能
自然语言处理(NLP)入门——预训练模型

ELMo和GPT认识ELMO模型本质: Embeddings from Language Models.解决的问题: 多义词的问题结构图结构:最下层是embedding层中间是双向的LSTM最上层是词向量表征2L+1L —> 层数ELMo的预训练过程第一个阶段: 预训练语言模型第二个阶段: 根据下游任务, 去动态调整word embedding的向量表示,然后将去融入到之前的向量中, 就完成

#pytorch#python#人工智能
什么是nvidia-ngc?

首先ngc全称是Nidia GPU Cloud,英伟达云计算平台,该平台是一个集成式平台,专门为人工智能、机器学习和深度学习应用而设计。下面主要介绍的是ngc 容器,ngc容器是基于 Docker 容器构建的深度学习应用程序,其中包含了经过优化的深度学习框架和库、各种 AI 工具和预训练模型,是 Docker Hub 的有效补充。这里就和普通的docker hub一致了,在官方网站找到适合的镜像进

文章图片
#人工智能
什么是nvidia-ngc?

首先ngc全称是Nidia GPU Cloud,英伟达云计算平台,该平台是一个集成式平台,专门为人工智能、机器学习和深度学习应用而设计。下面主要介绍的是ngc 容器,ngc容器是基于 Docker 容器构建的深度学习应用程序,其中包含了经过优化的深度学习框架和库、各种 AI 工具和预训练模型,是 Docker Hub 的有效补充。这里就和普通的docker hub一致了,在官方网站找到适合的镜像进

文章图片
#人工智能
自然语言处理(NLP)入门(1)——前言

什么是NLP?​自然语言处理(Natural Language Processing, 简称NLP), 是计算机科学与语言学中关注于计算机与人类语言间转换的领域, 简单来说就是让计算机识别并理解我们人类的语言,帮助我们完成一些类似翻译、问答等任务,NLP解决文本任务但并不限于文本,语音识别、看图说话等领域也属于NLP任务。​计算机科学之父图灵在1950年发表的论文中提出“Can machines

#人工智能#python
深度学习(1) ——图像分类

图像分类概述图像分类实质上就是从给定的类别集合中为图像分配对应标签的任务,当我们输入一张图片,返回一个该图像类别的标签。限制条件:只能输入单目标图像。常用数据集:mnist、CIFAR-10、CIFAR-100、ImageNet图像分类算法这里介绍四种。LeNet-5意义:LeNet-5是最早的卷积神经网络,是其他深度学习模型的基础, 主要用来做手写数字识别。结构:2个5x5卷积层 + 2个全连接

#pytorch#python#人工智能
到底了