
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
感觉这一方面网上资源好少……整理一份出来作为学习笔记,方便以后忘记了还有地方可以查看……感谢师兄用他早饭中的鸡蛋给我讲懂了这个问题,摸摸大!昨天看综述《情感分析综述》就正好讲到了这个问题,这篇论文里面写的是“甄别句子中针对不同属性所表达的观点倾向,推出其正面、负面还是中性”,这就是上面的这些内容的概括,有兴趣的朋友可以下载下来阅读下,反正就3页,几分钟就看完了对吧。然后我把师兄说的两句话糅在一起给
本文参考的是《动手学深度学习》(PyTorch版),链接在下面。由于照着网站上的代码敲一遍自己印象也不是很深刻,所以我整理了该书本中的内容,整理了自己的思路梳理了一遍。希望该文章能够对初学者的你来说有所帮助。同时由于我也是第一次用torch写代码,可能会有许多疏漏,如果有错误,希望各位能够指正。目录0 代码目的1 数据集创建2 神经网络搭建流程3 从0搭建一个线性回归神经网络3.1 参数定义3.2

其实我很不愿意写这篇文章的,主要是我代码没跑通!没跑通!没跑通!对于我一个多月没敲过代码后敲的第一份代码来说打击感巨大。但是想了想之前两篇文章都说了国庆要写一篇……然后我的完美主义犯了……代码没跑通其实真不是我的原因,因为书上代码是错的……一方面是书上用python2写的,我是python3环境,第二方面是代码中的公式错了……这个代码我用了3天时间,推了整整3页草稿纸,又向师兄请教了两天,最后发现
对了宝贝儿们,卑微小李的公众号【野指针小李】已开通,期待与你一起探讨学术哟~摸摸大!目录1 离散型随机变量1.1 (0-1)分布1.2 伯努利试验1.3 二项分布1.4 几何分布1.5 泊松分布2. 连续型随机变量2.1 分布函数与概率密度函数2.2 均匀分布2.3 指数分布2.4 正态分布2.4.1 标准正态分布2.4.2 一般正态分布References1 离散型随机变量离散型随机变量指的是取
目录1 self-supervised learning2 pre-train model2.1 one-hot2.2 BOW2.3 TF-IDF2.4 n元语言模型2.5 Word2vec and GloVe2.6 contextualized word embedding参考1 self-supervised learningself-supervised learning (自监督学习)据李
相信许多朋友在使用深度学习时,将模型放在GPU上运行,然后就会报一堆跟CUDA相关的错误,于是开始百度这些错误该怎么修复。得到的结果可能大多数都是该怎么升级CUDA之类的。当按照网上的流程一步步走下来后,却始终无法解决这些问题。而实际上在我遇到的所有跟CUDA相关的错误,其实都与CUDA没有任何关系,比如有可能是你的Embedding层的维度与词表不匹配等。发生这些错误的时候,我建议先将模型放到C
曾经有个人给我说过,当年有个男的追她,天天给她发天气预报。但是女神不会看天气预报啊?或者她不会抬头望望天啊?于是秉持着舔到最后应有尽有,偷懒是人类进步的最大动力这两大原则,我为女神训练出了一个专属的衣服穿搭神经网络。整个项目已开源至github:https://github.com/Balding-Lee/PyTorch-MLP-for-personalized-dress-matching。目录
该博客是我根据自己学习过程中的思考与总结来写作的,由于初次学习,可能会有错误或者不足的地方,望批评与指正。

结合上上两篇文章的叙述,这一篇文章主要讲解梯度的公式的推导,笔记来自于3B1B的视频,链接会放在最后。同样的,这一篇文章依旧没有代码。上篇文章中稍稍写漏了点东西,就是说在梯度下降过程中,步长是与该点的斜率有关,如果无关的话,那么如果步长太大,是不是就从坑中心滚过去了呀?比如这样:下面开始正文。每层只有一个神经元根据上篇文章的内容,梯度会有正有负,代表的意思就是这个点该如何移动。而每一项的相对大小告
PageRank(Page et al., 1998)最开始做出来并非是用于情感分析的,只不过我最近看到一个无监督的情感分析算法名叫PolarityRank(Cruz et al. 2011),这是基于PageRank的思想做的,所以在动手做PolarityRank之前先把PageRank给制作了。本文不会过多的提起算法原理之类的内容,毕竟基本是搬运的其他大佬的文章,我会把参考链接放在文章中,本文