logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

[Python] Pandas 学习笔记(一)

Pandas的两个主要数据结构:Series和DataFrameSeries1.类似于一维数组对象,由一组数据(value)和一组与之相关的数据标签(index)组成。2.Index可以自己指定,也可自动生成obj = Series([4,7, -5, 3])obj2 =Series([4, 7, -5, 3], index=['d', 'b', 'a', 'c'])

#python#pandas
获取历史和实时股票数据接口

股票数据的获取目前有如下两种方法可以获取:http/javascript接口取数据web-service接口1.1Sina股票数据接口以大秦铁路(股票代码:601006)为例,如果要获取它的最新行情,只需访问新浪的股票数据接口:http://hq.sinajs.cn/list=sh601006这个url会返回一串文本,例如:var hq_str_sh601006=”大秦铁路

异步爬虫: async/await 与 aiohttp的使用,以及例子

在python3.5中,加入了asyncio/await 关键字,使得回调的写法更加直观和人性化。而aiohttp是一个提供异步web服务的库,分为服务器端和客户端。这里主要使用其客户端。本文分为三步分,第一部分简单介绍python3.5的异步,asyncio/await 关键字。第二部分介绍aiohttp客户端部分的使用。第三部分是一个例子,列举了如何爬取CSDN某个博客中的所有文章。1.

#python#爬虫
Matrix Factorization 学习记录(一):基本原理及实现

Matrix Factorization 学习记录(一):基本原理及实现最近在学习Matrix Factorization,也就是矩阵的分解。 这个技术目前主要应用于推荐系统领域,用于实现隐含语义模型(Latent Factor Model)。通过矩阵分解,一方面可以减少运算量,另一方面可以很好的解决由于用户数目和物品数目过多引起的行为矩阵稀疏化问题。我虽然暂时不去做推荐系统,但是我觉得这...

#机器学习
深度学习笔记(三):激活函数和损失函数

这一部分来探讨下激活函数和损失函数。在之前的logistic和神经网络中,激活函数是sigmoid, 损失函数是平方函数。但是这并不是固定的。事实上,这两部分都有很多其他不错的选项,下面来一一讨论3. 激活函数和损失函数3.1 激活函数关于激活函数,首先要搞清楚的问题是,激活函数是什么,有什么用?不用激活函数可不可以?答案是不可以。激活函数的主要作用是提供网络的非线性建模能力。如果没有激活函数,那

#深度学习
关于Python 的@操作符 Decorator 的用法

原帖转自http://blog.sina.com.cn/s/blog_571b19a001013h7j.html直接翻译过来应该叫做 装饰符吧,不知是不是python特有的用法,看了下说明,艰难的弄明白了一些运作的原理。简单的说,@操作符是用来提供调用的,光是说明可能无法理解,写了一个小小的例子:def f1(arg):print ("f1")rl = arg()p

#python
深度学习笔记(六):Encoder-Decoder模型和Attention模型

这两天在看attention模型,看了下知乎上的几个回答,很多人都推荐了一篇文章Neural Machine Translation by Jointly Learning to Align and Translate 我看了下,感觉非常的不错,里面还大概阐述了encoder-decoder(编码)模型的概念,以及传统的RNN实现。然后还阐述了自己的attention模型。我看了一下,自己做了一些

#深度学习#nlp#自然语言处理
深度学习笔记(六):Encoder-Decoder模型和Attention模型

这两天在看attention模型,看了下知乎上的几个回答,很多人都推荐了一篇文章Neural Machine Translation by Jointly Learning to Align and Translate 我看了下,感觉非常的不错,里面还大概阐述了encoder-decoder(编码)模型的概念,以及传统的RNN实现。然后还阐述了自己的attention模型。我看了一下,自己做了一些

#深度学习#nlp#自然语言处理
深度学习笔记(二):简单神经网络,后向传播算法及实现

在之前的深度学习笔记(一):logistic分类 中,已经描述了普通logistic回归以及如何将logistic回归用于多类分类。在这一节,我们再进一步,往其中加入隐藏层,构建出最简单的神经网络2.简单神经网络及后向传播算法2.1 大概描述和公式表达神经网络的大概结构如图所示,从左往右,分别是输入层,隐藏层,输出层,分别记为x\mathbf x,h\mathbf h, y\mathb

#神经网络#深度学习#算法
深度学习笔记(一):logistic分类

这个系列主要记录我在学习各个深度学习算法时候的笔记,因为之前已经学过大概的概念,所以这轮学习比较着重于公式推导和具体实现,而对概念上的描述不多,因此比较适合对此有一定基础的同学。 在正式开始写深度学习的知识之前,会有两节传统神经网络的内容,因为深度学习中大量运用了以往神经网络的知识。搞懂传统的神经网络如何工作是很有必要的,有助于对之后的学习打下坚实的基础。1. logistic分类几乎所有的教材都

#深度学习#神经网络#算法 +1
    共 14 条
  • 1
  • 2
  • 请选择