
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1、fasttext 核心思想fastText的核心思想就是:将整篇文档的词及n-gram向量叠加平均得到文档向量,然后使用文档向量做softmax多分类。2、首先导入数据from keras.datasets import imdbmax_features = 20000# 词典最大长度(x_train, y_train), (x_test, y_test) = imdb.load_data(n
一、背景最近在研究文本相似度,利用Bert去实现。如果是在通用领域内进行文本相似度计算的话,就无需对Bert中文模型进行预训练,如果在特定领域内,就需要提前用大量的语料进行对google原版的中文模型进行预训练。bert用来提取句向量,然后利用余弦距离去计算相似度。二、具体实现利用苏神的bert4keras去构建网络模型,简单而又方便。from bert4keras.models import b
对文本数据进行EDA(同义词替换、随机插入、随机交换、随机删除)简介:实现这些功能需要使用 synonyms 第三方库来实现import synonymsstring_text = "向日葵"print(synonyms.nearby(string_text,5))# 打印5个 向日葵 的近义词# output:(['向日葵', '铃兰', '蒲公英', '雏菊', '头序'], [1.0, 0.
使用 pytorch 实现 AlexNet 网络闲话少说,直接上代码!额…算了。还是过一下 AlexNet 网络吧,辉煌历史就不再赘述,从别的博主那里(忘记哪个博主了,不好意思哈,应该引用的)偷来了张图,直接上图。这里面参数什么的都有,像一个呆瓜直接照着敲就完了!class AlexNet(nn.Module):def __init__(self):super(AlexNet, self).__i
1.数据加载及预处理# 数据预处理将数据进行类型转换def process(x, y):x = tf.cast(x, dtype=tf.float32) / 255.y = tf.cast(y, dtype=tf.int64)return x, y# 加载数据 并进行 shuffle 和 batch 等操作(x, y), (x_test, y_test) = datasets.cifar100.l
一、背景最近在研究文本相似度,利用Bert去实现。如果是在通用领域内进行文本相似度计算的话,就无需对Bert中文模型进行预训练,如果在特定领域内,就需要提前用大量的语料进行对google原版的中文模型进行预训练。bert用来提取句向量,然后利用余弦距离去计算相似度。二、具体实现利用苏神的bert4keras去构建网络模型,简单而又方便。from bert4keras.models import b
网址:https://github.com/ehang-io/nps/releases。这时打开浏览器输入:服务器公网IP:8080 就可以访问 nps 的后台管理页面了。根据自己的喜好设置相应的 web 页面的用户名和密码。进入 conf 文件 修改 nps.conf 文件。输入你设置的用户名和密码,就可以登录进行设置了。出现这个,就代表已经安装成功了。

一、背景最近在研究文本相似度,利用Bert去实现。如果是在通用领域内进行文本相似度计算的话,就无需对Bert中文模型进行预训练,如果在特定领域内,就需要提前用大量的语料进行对google原版的中文模型进行预训练。bert用来提取句向量,然后利用余弦距离去计算相似度。二、具体实现利用苏神的bert4keras去构建网络模型,简单而又方便。from bert4keras.models import b