logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

模仿学习笔记:行为克隆

1 模仿学习模仿学习 (Imitation Learning) 不是强化学习,而是强化学习的一种替代品。模仿学习与强化学习有相同的目的:两者的目的都是学习策略网络,从而控制智能体。模仿学习与强化学习又有不同的原理:模仿学习向人类专家学习,目标是让策略网络做出的决策与人类专家相同;强化学习利用环境反馈的奖励改进策略,目标是让累计奖励(即回报)最大化。2 行为克隆概述行为克隆 (Behavior Cl

python 笔记:shapely(形状篇)

主要是点(point)、线(linestring)、面(surface)

文章图片
DTW 笔记: Dynamic Time Warping 动态时间规整 (&DTW的python实现) 【DDTW,WDTW】

0 总述DTW可以计算两个时间序列的相似度,尤其适用于不同长度、不同节奏的时间序列(比如不同的人读同一个词的音频序列)DTW将自动扭曲(warping)时间序列(即在时间轴上进行局部的缩放),使得两个序列的形态尽可能的一致,得到最大可能的相似度。DTW采用了动态规划的方法来进行时间规整的计算1 欧几里得距离的局限性描述两个序列之间的相似性,欧氏距离是一种十分简单且直观的方法,但对于序列之间步调不统

文章图片
#p2p#linq#fpga开发
sklearn笔记:neighbors.NearestNeighbors

({‘connectivity’, ‘distance’}, 默认为 ‘connectivity’)返回每个点从数据集中位于查询数组点周围大小为半径的球内的点的索引和距离。位于边界上的点也包括在结果中。和neighbors_graph类似,在radius限制下的neighbors_graph。虽然n_neighbors也是2,但是举例卡在1.2,所以返回的也只有一个。到点的距离的数组,仅当 ret

文章图片
#sklearn#人工智能
NLP 笔记:Skip-gram

1 skip-gram举例假设在我们的文本序列中有5个词,[“the”,“man”,“loves”,“his”,“son”]。假设我们的窗口大小skip-window=2,中心词为“loves”,那么上下文的词即为:“the”、“man”、“his”、“son”。这里的上下文词又被称作“背景词”,对应的窗口称作“背景窗口”。跳字模型能帮我们做的就是,通过中心词“loves”,生成与它距离不超过2的

#自然语言处理
pytorch 笔记:torch.distributions 概率分布相关(更新中)

1 包介绍torch.distributions包包含可参数化的概率分布和采样函数。 这允许构建用于优化的随机计算图和随机梯度估计器。不可能通过随机样本直接反向传播。 但是,有两种主要方法可以创建可以反向传播的代理函数。这些是评分函数估计量 score function estimato似然比估计量 likelihood ratio estimatorREINFORCE路径导数估计量 pathwi

#pytorch#深度学习#人工智能
论文笔记:DCRNN (Diffusion Convolutional Recurrent Neural Network: Data-Driven Traffic Forecasting)

交通预测是一项具有挑战的任务对道路网络的复杂空间依赖性随道路条件变化的非线性时间动态长期预测的固有困难——>将交通流建模为有向图上的扩散过程——>引入扩散卷积递归神经网络 (DCRNN)使用图上的双向随机游走来捕获空间依赖性使用具有计划采样(scheduled sampling)的编码器-解码器架构来捕获时间依赖性交通预测的目标是根据道路网络上 N 个相关传感器先前观察到的交通流量来预测未来的交通

#论文阅读
概率统计笔记:威沙特分布(Wishart Distribution)

1 威沙特分布定义1.1 中心威沙特分布假设X是一个n×p维的矩阵,其中每一行的p元向量均为满足p维正态分布的向量,即:记为n×p维矩阵,则称随机阵的分布就是威沙特分布,记作当p=1,即每个X维为1维的时候,威沙特分布就变成了一个自由度为n的卡方分布1.2 非中心威沙特分布2 威沙特分布与随机协方差矩阵2.1 E(W)=nΣ组成散度矩阵【离差阵】W的每个向量X都满足:我们计算一下 散度矩阵S的数学

#概率论#机器学习#线性代数
暂无文章信息