logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

《自然语言处理:基于预训练模型的方法》第三章 LTP工具集

之前介绍的工具集主要用于英文的处理,而以中文为代表的汉藏语系与以英语为代表的印欧语系不同,一个显著的区别在于词语之间不存在明显的分隔符,句子一般是由一串连续的字符构成,因此在处理中文时,需要使用更有针对性的分析工具。语言技术平台(Language Technology Platform,LTP)是哈尔滨工业大学社会计算与信息检索研究中心(HIT-SCIR)历时多年研发的一整套高效、高精度的中文自然

#自然语言处理#人工智能#nlp
《自然语言处理:基于预训练模型的方法》第三章 PyTorch基础

现代深度学习系统的模型结构变得越来越复杂,若要从头开始则极其耗时耗力,而且非常容易出错。幸好,看似纷繁复杂的深度学习模型,都可以分解为一些同构的简单网络结构,通过将这些简单网络结构连接在一起,就可构成复杂的模型。因此,很多深度学习库应运而生,它们可以帮助用户快速搭建一个深度学习模型,并完成模型的训练(也称学习或优化)、预测和部署等功能。本书使用的是PyTorch开源深度学习库,它由Facebook

#pytorch#自然语言处理#深度学习
idea中跨多行搜索

idea快捷键:ctrl+shift+F(?is)key1.*?key2如果想搜索同时包含key1和key2的关键词,同时,允许跨行,则可以这样搜索

#idea#java#搜索
《白话强化学习与PyTorch》第1章 强化学习是什么----读书笔记

强化学习主要是(Reinforcement learning)是一个独立的机器学习研究领域。1.监督学习:监督学习主要希望研究映射关系::它是待定系数。机器学习范畴:知道x,y,不知道。反向推导出“”训练过程:足够的x,及对应的y,作为参数,逐步求出待定系数的过程当通过这样一个过程学习到应该为什么值的时候,如果再有x,通过函数可以计算出y的值。这是监督学习中一个典型问题---线性回归。2.非监督学

#机器学习#深度学习
《自然语言处理:基于预训练模型的方法》第七章 预训练语言模型-BERT

BERT(Bidirectional Encoder Representation from Transformers)是由Devlin等人在2018年提出的基于深层Transformer的预训练语言模型。BERT不仅充分利用了大规模无标注文本来挖掘其中丰富的语义信息,同时还进一步加深了自然语言处理模型的深度。这一节将着重介绍BERT的建模方法,其中包括两个基本的预训练任务以及两个进阶预训练任务。

#自然语言处理#语言模型#bert
Python如何用自带的IDLE进行调试DEBUG

1.在编辑的py文件中,在想要调试的语句上,加上断点:右键:set Breakpoint,clear Breakpoint可以清除断点。2.运行该py文件,快捷键:fn+f5在出现的shell窗口中,点击菜单栏Debug中的Debugger,出现调试控制窗口。

《数据清洗》第八章 综合案例--构建DVD租赁商店数据仓库

1) 了解数据库sakila中的数据表sakila样本数据库是MySql官方提供的一个模拟DVD租赁商店管理的数据库。sakila数据库--->数据清洗--->构建数据仓库1.案例概述1.1 案例背景介绍对于在线DVD租赁商店的决策者来说,他们需要从不同的商业角度观察数据,如从时间、电影、演员、用户等角度观察数据,并进行相关的分析得出决策,但是数据库中的数据不适合从多个角度进行分析,无

#数据仓库#数据库#database
《数据仓库与商业智能宝典(第2版)》第一章 读本概览--读书笔记

1.1 抑制住立即开始编码的冲动设计一个DW/BI系统最重要的第一步,就是停下来,花一周时间好好想想,要完全确保对于项目所需要的所有需求具有足够全面的了解。

#数据仓库
两个互相引用对象的垃圾回收

转载自《http://blog.csdn.net/lynn_kun/article/details/73468705》部分转自:《深入理解java虚拟机》一书。判断对象是否存活1、引用计数算法给对象添加一个引用计数器,每当有一个地方引用它时,计数器值就加1。当引用失效时,计数器值就减1。任何时刻计数器为0的对象就是不可能再被使用的。但是主流的

到底了