logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

ACL 2025 - 基于片段监督偏好优化的字幕翻译时延对齐

另外,这些方法的主要目的是为了让模型生成更短的文本。如果仅仅依靠TTS来调整单词的停顿和时延,那么由于不同语言之间差异巨大的信息密度,TTS必须在一个广阔的范围内调整每个词的语速以匹配整体的语音时延,这将会严重影响合成语音的流畅性和自然度,也就是会带来相邻台词间语速不一致的违和感。然而,我们并不能直接应用偏好对齐的算法(例如DPO或者RLHF等),这主要是因为对每一句台词的翻译需要依赖于其上下文,

模型压缩|深度学习(李宏毅)(十三)

一、概述需要做模型压缩的原因在于我们有将模型部署在资源受限的设备上的需求,比如很多移动设备,在这些设备上有受限的存储空间和受限的计算能力。本文主要介绍五种模型压缩的方法:①网络剪枝(Ne...

#网络#神经网络#机器学习 +1
生成对抗网络-改进方法|深度学习(李宏毅)(二十四)

视频地址:①B站:https://www.bilibili.com/video/BV15W411i7uP?p=2②油管:https://www.youtube.com/watch?v=KSN4QYgAtao之前的博客地址:①生成对抗网络-基本概念|深度学习(李宏毅)(二十二)②生成对抗网络-理论部分|深度学习(李宏毅)(二十三)一、GAN的通用框架f-divergence之前说GAN的Discri

#算法#机器学习#深度学习 +1
生成对抗网络-基本概念|深度学习(李宏毅)(二十二)

视频地址:①B站:https://www.bilibili.com/video/BV1JE411g7XF?p=72②油管:https://www.youtube.com/watch?v=DQNNMiAP5lw一、基本概念Generation生成(Generation)是指通过让机器学习的模型输入一个随机的向量,来让它产生图片或者文字等,而生成对抗网络(Generative Adversarial

#算法#神经网络#机器学习 +1
配分函数|机器学习推导系列(二十六)

一、概述对于有向概率图模型来说,由于图中存在天然的拓扑排序关系,所以有向概率图的因式分解的形式很容易写出来。而对于无向图来说就需要根据它图中的最大团来写成一个因式分解的形式,无向图模型在局部并没有表现出是一个概率模型,在整体上才表现地是一个概率模型,由此我们也就遇到了配分函数。在无向图模型的学习和评估问题中,我们会面对概率公式中的配分函数(Partition Function),往往这个配分函数是

#机器学习#算法#人工智能 +1
Transformer|深度学习(李宏毅)(八)

一、RNN与CNN处理Seq2seq问题的局限性RNN的局限性处理Seq2seq问题时一般会首先想到RNN,但是RNN的问题在于无论使用单向还是双向RNN都无法并行运算,输出一个值必须等待其依赖的其他部分计算完成。CNN的局限性为了解决并行计算的问题,可以尝试使用CNN来处理。如下图,使用CNN时其同一个卷积层的卷积核的运算是可以并行执行的,但是浅层的卷积核只能获取部分数据作为输入,只有深层的卷积

#深度学习#神经网络#机器学习 +2
核方法|机器学习推导系列(八)

#一、线性不可分问题有时线性可分的数据夹杂一点噪声,可以通过改进算法来实现分类,比如感知机的口袋算法和支持向量机的软间隔。但是有时候数据往往完全不是线性可分的,比如下面这种情况:在异或问题中数据往往不是线性可分的,但通过将数据映射到高维空间后就可以实现线性可分。可以认为高维空间中的数据比低维空间的数据更易线性可分。对于异或问题,我们可以通过寻找一个映射ϕ(x)\phi (x)ϕ(x)将低维空间中的

#机器学习#算法#支持向量机
卡尔曼滤波|机器学习推导系列(十八)

一、概述HMM 模型适用于隐变量是离散的值的时候,对于连续隐变量的 HMM,常用卡尔曼滤波(Kalman Filtering)描述线性高斯模型的态变量,使用粒子滤波(Particle Filter)来表述非高斯非线性的态变量。线性体现在上一时刻和这一时刻的隐变量以及隐变量和观测变量之间,它们的关系可以表示为:zt=A⋅zt−1+B+εxt=C⋅zt+D+δε∼N(0,Q)δ∼N(0,R)z_{t}

#算法#机器学习#人工智能 +2
配分函数|机器学习推导系列(二十六)

一、概述对于有向概率图模型来说,由于图中存在天然的拓扑排序关系,所以有向概率图的因式分解的形式很容易写出来。而对于无向图来说就需要根据它图中的最大团来写成一个因式分解的形式,无向图模型在局部并没有表现出是一个概率模型,在整体上才表现地是一个概率模型,由此我们也就遇到了配分函数。在无向图模型的学习和评估问题中,我们会面对概率公式中的配分函数(Partition Function),往往这个配分函数是

#机器学习#算法#人工智能 +1
指数族分布|机器学习推导系列(九)

一、介绍一般形式指数族分布有:高斯分布、伯努利分布、二项分布、泊松分布、beta分布、Dirichlet分布、gamma分布等。指数族分布的一般形式:P(x∣η)=h(x)exp{ηTϕ(x)−A(η)}P(x|\eta )=h(x)exp\left \{\eta ^{T}\phi (x)-A(\eta )\right \}P(x∣η)=h(x)exp{ηTϕ(x)−A(η)}其中:①$\eta

#机器学习#算法#人工智能 +1
    共 11 条
  • 1
  • 2
  • 请选择