logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

论文阅读:ACL 2022 Long Time No See! Open-Domain Conversation with Long-Term Persona Memory

论文聚焦于开放域对话系统在长期对话中的表现问题,尤其是对话系统缺乏理解和记忆长期对话历史信息的能力,导致在与人类进行长期交流时效果不佳。为解决这一难题,论文提出了一个名为“长期记忆对话”(LeMon)的新任务,并构建了相应的对话数据集 DuLeMon 和一个带有长期记忆机制的对话生成框架 PLATO-LTM。这在以往的研究中鲜有涉及,而该论文首次尝试对双方的人物信息进行实时管理,包括记忆和利用用户

文章图片
#论文阅读
论文阅读:PMLR 2023 Better Diffusion Models Further Improve Adversarial Training

更厉害的扩散模型(EDM)生成的高质量假数据,能让对抗训练的效果再上一个台阶——既提升了模型的抗干扰能力,又提高了真实图片的识别准确率,而且没依赖额外的真实数据。同时还搞清楚了“假数据怎么用才最好”,给后面的研究提供了参考。

文章图片
#论文阅读
论文阅读:ICLR 2021 BAG OF TRICKS FOR ADVERSARIAL TRAINING

AI模型(比如看图识物)很容易被“骗”——比如给一张猫的图片加一点点人眼看不见的噪音,模型就会把它认成狗。这种“骗人图片”叫“对抗样本”。“对抗训练”就是训练时故意往数据里加这些“骗人图片”,让模型提前适应,变得更“抗骗”。目前最常用的基础框架是“PGD-AT”,很多新方法都是在它上面改的。做对抗训练时,别光顾着搞复杂的新方法,先把基础参数调对、统一;以后比不同方法的效果时,必须用一样的基础设置(

文章图片
#论文阅读
论文阅读:SaTML 2023 A Light Recipe to Train Robust Vision Transformers

相反,该论文提出,省略所有重型数据增强,并添加一些额外的技巧(如ε-warmup和更大的权重衰减),可以显著提升鲁棒ViT的性能。此外,该论文还展示了这种配方能够推广到不同类别的ViT架构和大规模模型,并在完整的ImageNet-1k上取得良好的效果。该论文的研究为提升ViT在对抗性环境下的鲁棒性提供了新的视角和方法,对计算机视觉领域的安全性和可靠性研究具有重要意义。该论文进一步探讨了模型鲁棒性的

文章图片
#论文阅读
论文阅读:Nature Medicine 2025 Medical large language models are vulnerable to data-poisoning attacks

研究团队通过模拟对常用LLM开发数据集The Pile的数据投毒攻击,发现仅需替换0.001%的训练数据为错误的医疗信息,就会使模型更倾向于传播医疗错误,且这种被污染的模型在常用的开源基准测试中表现与未被污染的模型相当,难以被察觉。该方法通过将LLM生成的文本与知识图谱中的确定性关系进行比对验证,有效识别出潜在的错误信息,为医疗LLM的输出提供了一种模型无关的实时监控手段,且对硬件要求不高,易于实

文章图片
#论文阅读#语言模型#人工智能
EduChat的EduChat-R1 (educhat-r1-001-8b-qwen3.0)的下载与使用

EduChat是华东师范大学开发的教育领域大模型,基于Qwen3.0 8B微调而成。本文介绍了如何下载使用该模型,包括选择educhat-r1-001-8b-qwen3.0版本,并提供了处理Excel文件的Python脚本。脚本自动加载模型,批量读取指定文件夹中的Excel文件,对每行第一列内容进行模型推理生成结果,并将输出写入第二列后保存。测试结果显示模型能成功处理教育相关问题,但作者认为这种微

文章图片
#人工智能
【代码复现失败】BMN: Boundary-Matching Network for Temporal Action Proposal Generation

前言现在有那么多视频检测框架,为什么选BMN进行复现?1,2019 年 ActivityNet 夺冠方案2,这是中国人做出来的,而且作者在知乎也写了详细的讲解(这一点才是最重要的)3,BMN距离现在时间很近,能算是最前沿的技术,通过对BMN的改进,可以用作我的毕业论文的写作。参考ActivityNet Challenge 2019 冠军模型BMN算法全解析[ICCV 2019][时序动作提名] 边

#人工智能#深度学习
论文阅读:FACTSCORE: Fine-grained Atomic Evaluation of Factual Precision in Long Form Text Generation

评估大语言模型(LMs)生成的长文本的事实性并不容易。一方面,生成的文本里往往既有真实信息,也有虚假信息,只用 “对” 或 “错” 来判断文本质量不够准确;另一方面,人工评估既费时间又费钱。在这篇论文里,研究人员提出了FACTSCORE(事实精确原子分数)这种新的评估方法。它会把模型生成的文本拆解成一个个 “原子事实”,然后计算这些原子事实里能在可靠知识来源里找到依据的比例。

文章图片
#人工智能
循环神经网络(Recurrent Neural Network, RNN)中的隐状态(hidden state)

隐状态是RNN中每个时间步所计算出的内部状态,起到了记忆和传递信息的作用。在编码器-解码器架构中,编码器的隐状态包含了输入序列的全部信息,解码器使用这个隐状态来生成输出序列。隐状态的更新是通过处理当前输入和前一时间步的隐状态来实现的。通过上述解释,希望能帮助你理解隐状态的概念及其在序列到序列学习中的作用。如果有更多疑问,请继续提问!

文章图片
#rnn#人工智能#深度学习
    共 165 条
  • 1
  • 2
  • 3
  • 17
  • 请选择