
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
NLP最著名的Bert语言模型详细解读
NLP最著名的Bert语言模型详细解读

Pytorch实现Bert模型
Pytorch实现Bert模型
基于Bert语言模型的中文短文本分类
运行Bert开源框架报错:`tensorflow.python.framework.errors_impl.DataLossError: Checksum does not match: stored 4283821441 vs. calculated on the restored bytes 2653108158`报错:`tensorflow.python.framework.errors_i

Python爬虫_音乐案例
python爬虫音乐案例
中文句法分析_句法分析StanfordParser+依存句法分析pyhanlp
使用stanfordparser实现中文句法分析,nltk生成句法分析树 以及pyhanlp实现依存句法分析

【论文阅读】Bag of Tricks for Efficient Text Classification高效率文本分类技巧包
Bag of Tricks for Efficient Text Classification高效率文本分类技巧包

全网最详细的Gephi安装与使用教程
全网最详细得Gephi安装与使用教程

全网最详细的Neo4j安装教程
全网最详细的Neo4j安装教程

中文预训练大模型—文心Ernie技术原理
文心Ernie技术原理一、背景技术Ernie是基于Bert模型进行改进,基本模型是Transformer,Bert完成的预训练任务是:完形填空(通过基本语言单元掩码);上下句预测。Bert模型的缺陷是:只能捕获局部的语言信号,缺乏对句子全局的建模,从而难以学习到词、短语、实体的完整语义。Bert模型的训练任务之一是掩码语言模型,它将单个的字(中文)、词(英文)进行随机mask标记后,去预测被mas
Python爬虫_Scrapy(一)
一、Scrapy简述二、58同城项目案例三、汽车之家案例四、scrapy shell