logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

增强学习(五)----- 时间差分学习(Q learning, Sarsa learning)

增强学习(五)----- 时间差分学习(Q learning, Sarsa learning)接下来我们回顾一下动态规划算法(DP)和蒙特卡罗方法(MC)的特点,对于动态规划算法有如下特性:需要环境模型,即状态转移概率PsaPsa状态值函数的估计是自举的(bootstrapping),即当前状态值函数的更新依赖于已知的其他状态值函数。相对的,蒙特卡罗方法的特点则有:

语音识别(ASR)评估指标-WER(字错误率)和SER(句错误率)

https://blog.csdn.net/sty945/article/details/80438587

增强学习(Reinforcement Learning and Control)

http://www.cnblogs.com/jerrylead/archive/2011/05/13/2045309.html [pdf版本]增强学习.pdf     在之前的讨论中,我们总是给定一个样本x,然后给或者不给label y。之后对样本进行拟合、分类、聚类或者降维等操作。然而对于很多序列决策或者控制问题,很难有这么规则的样本。比如,四足机器人的控制问题

语音识别中的End2End模型: CTC, RNN-T与LAS

自动语音识别(Automatic Speech Recognition,简称ASR)是一项将机器学习与实际需要紧密结合的领域,应用场景如语音助手,聊天机器人,客服等等。今天就来比较一下比较流行的几种End-to-End的ASR模型。经典语音识别系统在了解End-to-End模型之前,我们先来看看经典的语音识别系统是怎样工作的以及为什么需要End-to-End模型。经典语音识别系统通常有如下几个组成

干货 | Attention注意力机制超全综述

作者:CHEONG来自:机器学习与自然语言处理一、Attention机制原理理解Attention机制通俗的说,对于某个时刻的输出y,它在输入x上各个部分上的注意力,这里的注意力也就是权重,即输入x的各个部分对某时刻输入y贡献的权重,在此基础上我们先来简单理解一下Transformer模型中提到的self-attention和context-attention(1) Self-at...

python的位置参数、默认参数、关键字参数、可变参数区别

python的位置参数、默认参数、关键字参数、可变参数区别一、位置参数调用函数时根据函数定义的参数位置来传递参数。#!/usr/bin/env python# coding=utf-8def print_hello(name, sex):sex_dict = {1: u'先生', 2: u'女士'}print 'hello %s %s, welcome to python...

Fisher判别分析

Fisher判别分析首先我们得搞清楚什么是Fisher算法?选取任何一本模式识别与智能计算的书都有这方面的讲解。首先得知道Fisher线性判别函数,在处理数据的时候,我们经常遇到高维数据,这个时候往往就会遇到“维数灾难”的问题,即在低维空间可行,那么在高维空间往往却不可行,那么此时我们就可以降数据降维,将高维空间降到低维空间。可以考虑把维空间的样本投影到一条直线上,形成一维空间,即把数据压缩到一维

深度解读Soft Actor-Critic 算法

1 前言机器人学习Robot Learning正在快速的发展,其中深度强化学习deep reinforcement learning(DRL),特别是面向连续控制continous control的DRL算法起着重要的作用。在这一领域中,目前可以说有三类行之有效的modle free DRL算法:TRPO,PPODDPG及其拓展(D4PG,TD3等)Soft Q-Learning, Soft Ac

Deep Q-Network 学习笔记(二)

一、思路Q-Learning与神经网络结合使用就是 Deep Q-Network,简称 DQN。在现实中,状态的数量极多,并且需要人工去设计特征,而且一旦特征设计不好,则得不到想要的结果。神经网络正是能处理解决这个问题,取代原来 Q 表的功能。当神经网络与Q-Learning结合使用的时候,又会碰到几个问题:1.loss 要怎么计算?增强学习是试错学习(Tr

强大的端到端语音识别框架—RNN-T

前言:基于联结时序分类(CTC)的声学模型不再需要对训练的音频序列和文本序列进行强制对齐,实际上已经初步具备了端到端的声学模型建模能力。但是CTC模型进行声学建模存在着两个严重的瓶颈,一是缺乏语言模型建模能力,不能整合语言模型进行联合优化,二是不能建模模型输出之间的依赖关系。RNN-Transducer针对CTC的不足,进行了改进,使得模型具有了端到端联合优化、具有语言建模能力、便于实现Onlin

暂无文章信息