简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
第一章:Transformer背景介绍1.1 Transformer的诞生2018年10月,Google发出一篇论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》, BERT模型横空出世, 并横扫NLP领域11项任务的最佳成绩!论文地址: https://arxiv.org/pdf
BERT,Transformer的模型架构与详解1.1 认识BERT学习目标了解什么是BERT.掌握BERT的架构.掌握BERT的预训练任务.什么是BERTBERT是2018年10月由Google AI研究院提出的一种预训练模型.BERT的全称是Bidirectional Encoder Representation from Transformers.BERT在机器阅读理解顶级水平测试SQuAD
1. RNN架构解析1.1 认识RNN模型学习目标了解什么是RNN模型.了解RNN模型的作用.了解RNN模型的分类.什么是RNN模型RNN(Recurrent Neural Network), 中文称作循环神经网络, 它一般以序列数据为输入, 通过网络内部的结构设计有效捕捉序列之间的关系特征, 一般也是以序列形式进行输出.一般单层神经网络结构:RNN单层网络结构:以时间步对RNN进行展开后的单层网
HiveHive简介Hive 由 Facebook 实现并开源,是基于 Hadoop 的一个数据仓库工具,可以将结构化的数据映射为一张数据库表,并提供 HQL(Hive SQL)查询功能,底层数据是存储在 HDFS 上。Hive 本质: 将 SQL 语句转换为 MapReduce 任务运行,使不熟悉 MapReduce 的用户很方便地利用 HQL 处理和计算 HDFS 上的结构化的数据,是一款基于
机器学习机器学习机器学习是从数据中自动分析获得模型,并利用模型对未知数据进行预测。机器学习工作流程机器学习工作流程总结获取数据数据基本处理特征工程机器学习(模型训练)模型评估数据集数据简介在数据集中一般:一行数据我们称为一个样本一列数据我们成为一个特征有些数据有目标值(标签值),有些数据没有目标值数据类型构成:数据类型一:特征值+目标值(目标值是连续的和离散的)数据类型二:只有特征值,没有目标值数
git地址传送门传送门2(含bert情感分析)仅学习使用,侵删中文自然语言处理Transformer模型(一)transformer是谷歌大脑在2017年底发表的论文attention is all you need中所提出的seq2seq模型. 现在已经取得了大范围的应用和扩展, 而BERT就是从transformer中衍生出来的预训练语言模型.目前transformer模型已经得到广泛认可和应
线性回归线性回归(Linear regression)是利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式。只有一个自变量的情况称为单变量回归,多于一个自变量情况的叫做多元回归线性回归用矩阵表示举例线性回归的特征与目标的关系线性关系单变量线性关系多变量线性关系单特征与目标值的关系呈直线关系,或者两个特征与目标值呈现平面的关系非线性关系如果是非线性关系,