logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

《Attention Is All You Need》(Transformer)论文阅读

2017年,Vaswani 等人在 NLP 领域顶级会议上发表了论文《Attention Is All You Need》,提出了 NLP 历史上里程碑的模型——Transformer。Transformer 创造性地抛弃了经典的 CNN、RNN 结构,仅使用 attention 机制和全连接网络搭建,在序列到序列(Seq2Seq)任务上取得了良好效果。自 Transformer 始,attent

#transformer#论文阅读#深度学习
Python初级爬虫——爬取UIBE教务处(requests+bs4)

最基础爬虫——Python requests+bs4爬取UIBE教务处1.使用工具1.Python 3.x2.第三方库 requests,bs43.浏览器2.具体思路UIBE教务处网站开放程度较高,无反爬虫措施,只需要使用最基础的爬虫手段即可。使用requests库获取网页源码,使用bs4中BeautifulSoup库进行网页解析,定位到目标元素即可。首先得到教务处网站url为:http://jw

#python#爬虫#大数据
基于Pytorch的中文情感分析实践

本文为学习 DataWhale 开源教程《深入浅出 Pytorch》第四章所做学习笔记,基于实战教程,实现了使用 LSTM 模型的中文微博情感分析全过程。

#pytorch#python#深度学习
TorchText简介

记录了TorchText的安装及简单使用

#深度学习#pytorch#神经网络
《Attention Is All You Need》(Transformer)论文阅读

2017年,Vaswani 等人在 NLP 领域顶级会议上发表了论文《Attention Is All You Need》,提出了 NLP 历史上里程碑的模型——Transformer。Transformer 创造性地抛弃了经典的 CNN、RNN 结构,仅使用 attention 机制和全连接网络搭建,在序列到序列(Seq2Seq)任务上取得了良好效果。自 Transformer 始,attent

#transformer#论文阅读#深度学习
Word2Vec原论文阅读

Word2Vec 是自然语言处理、文本表示学习的典型模型,首次提出了 CBOW、Skip-gram 等目前仍在沿用的词向量学习思想。本文主要阅读并总结了 Word2Vec 原始论文《Efficient Estimation of Word Representations in Vector Space》,对该论文及其提出的 Word2Vec 模型基本原理、复杂度计算、多维语义相似度测试标准进行了一

#word2vec#论文阅读#深度学习
基于Pytorch的中文情感分析实践

本文为学习 DataWhale 开源教程《深入浅出 Pytorch》第四章所做学习笔记,基于实战教程,实现了使用 LSTM 模型的中文微博情感分析全过程。

#pytorch#python#深度学习
Python POST 爬虫爬取掘金用户信息

Python POST 爬虫爬取掘金用户信息1. 概述Python第三方库requests提供了两种访问http网页的函数,基于GET方式的get()函数和基于POST方式的post()函数。get函数是最为常用的爬取方式,可以获取静态HTML页面和大部分动态加载json文件,但有一些网站对部分数据文件进行了加密处理,不能使用get来获取到文件内容,此时就需要使用post函数来进行获取。例如本文中

#python#爬虫#大数据
Pytorch 可视化——Torchinfo以及TensorBoard(服务器使用)

本文章记录了Pytorch的两种可视化方法,分别为Torchinfo和TensorBoard,并分别在服务器进行了对应安装、配置和使用,针对TensorBoard,记录了服务器安装配置全过程,并记录了包括找不到命令、无法导入Mapping等问题的解决方法。

#pytorch#服务器#python
Linux 服务器配置selenium 爬虫

在 Linux 服务器运行爬虫有时可以取得奇效,但在 Linux 服务器环境(即无图形化界面)下配置爬虫环境、代理 IP 与常见的 Windows 环境有着较大区别。本文为对在 Linux 服务器上配置 selenium 及 Google Chrome 环境并基于代理 IP 运行爬虫的经历记录,针对一些笔者遇到的坑提供了解决方案,供读者参考。

#服务器#linux#selenium
    共 11 条
  • 1
  • 2
  • 请选择