logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Resource stopwords not found. Please use the NLTK Downloader to obtain the resource的解决

文章目录引言第一种下载方式第二种下载方式总结引言  这个问题出现的原因是因为缺失corpora/stopwords文件,所以我们要做的就是下载这个文件。我知道的有两种下载方式第一种下载方式  在控制台通过以下代码直接下载import nltknltk.download()然后就可以找到stopwords进行下载这个可能遇到两个问题:一个问题是出现这个错误[Errno 11004] getaddri

#nlp
python—gc.collect()清楚内存

import osgc.collect()作用清楚内存,尽量避免主动调用gc.collect()除非当你new出一个大对象,使用完毕后希望立刻回收,释放内存想详细了解的,参考这篇博客

NLP学习—22.Transformer的代码实现

文章目录引言一、准备工作二、背景介绍三、模型结构1.Encoder-Decoder结构2.Encoder and Decoder Stacks2.1 Encoder2.2 decoder3.Attention3.1self-attention3.2 Multi-Head Attention3.3 Attention在模型中的应用4.Feed-Forward5.Embeddings5.1 Posit

#transformer#深度学习
数据预处理—3.变量选择之逐步挑选—向前挑选、向后挑选、双向挑选python实现

文章目录引言1.最优子集法2.向前逐步选择3.向后逐步选择4.双向挑选引言  逐步挑选法是基于最优子集法上的改进。逐步挑选法分为向前挑选、向后挑选、双向挑选。其中最常用的是双向挑选,能够兼顾模型复杂度与模型精度的要求。逐步回归法计算量大,python中也没有现成的包调用,使用的不多。常用到的指标有AIC,BIC,R2R^2R2,在python中没有找到直接计算AIC,BIC的包,自定义也很复杂,这

tensorflow - model.predict

predict(x, batch_size=None, verbose=0, steps=None, callbacks=None, max_queue_size=10,workers=1, use_multiprocessing=False)参数:x:输入样本,格式可以是- Numpy数组(或类似array的数组)或数组列表(如果模型具有多个输入)。- TensorFlow张量或张量列表(如果模

BERT模型—2.BERT模型预训练与微调

文章目录引言一、预训练语言模型1.为什么要进行预训练?引言  本节将按照思维导图逐步了解BERT语言模型(基于transformer的网络结构)。一、预训练语言模型  大规模的预训练语言模型的模型参数量呈几何倍数的增长趋势。下面我们了解BERT预训练的原理。1.为什么要进行预训练?  基于词向量的预训练方式并不是在BERT中首次出现。...

数据预处理—4.为什么要趋近于正态分布?详解

文章目录1.为什么变量分布要呈现正态分布?2.判断数据是否服从正态分布的指标:偏态与峰度3.如何调整原始分布趋于正态分布?正态性当谈论正态性时,即数据应该看起来像正态分布。这很重要,因为几个统计检验都依赖于此(例如t统计)。单变量正态性虽然不能确保多变量正态性(这是我们想要的),但它有帮助。在大样本数据中,如果我们解决正态性,我们就避免了很多其他问题(例如异方差),所以这就是我们进行这种分析的主要

BERT模型—2.BERT模型预训练与微调

文章目录引言一、预训练语言模型1.为什么要进行预训练?引言  本节将按照思维导图逐步了解BERT语言模型(基于transformer的网络结构)。一、预训练语言模型  大规模的预训练语言模型的模型参数量呈几何倍数的增长趋势。下面我们了解BERT预训练的原理。1.为什么要进行预训练?  基于词向量的预训练方式并不是在BERT中首次出现。...

    共 38 条
  • 1
  • 2
  • 3
  • 4
  • 请选择