logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

PaperReading:《AGENTREVIEW: Exploring Peer Review Dynamics with LLM Agents》

链接: https://arxiv.org/pdf/2406.12708v1该部分主要围绕学术同行评审的现状、挑战及研究动机展开:该部分聚焦于AGENTREVIEW框架的核心设计与实现,从目标、智能体角色、评审流程、数据选择、基线设置五方面展开,解释如何通过该框架模拟同行评审以解决传统分析的痛点:为解决传统同行评审分析的“多变量复杂性、潜变量难测量、数据隐私敏感”三大挑战,提出基于大型语言模型(L

#语言模型
PaperReading:《MAMORX: Multi-agent Multi-Modal Scientific Review Generation with External Knowledge》

论文链接: https://openreview.net/pdf?id=frvkE8rCfX论文1的Introduction部分(对应文档1-8至1-20段落)围绕“科学论文评审的痛点与MAMORX框架的提出”展开,核心可总结为三部分:研究背景与问题、现有方案局限、MAMORX的创新与贡献,具体内容如下:该部分核心是梳理“人工评审逻辑”与“自动化评审技术演进”两条脉络,明确现有研究的进展与不足,为

#语言模型
Masked Language Models是什么?

MLM本质是一种“让模型通过猜词学语言”的训练方法,核心优势是能让模型深刻理解上下文语义,是很多语言理解类模型的“地基”。它就像一个“语言学霸”,通过大量“填空练习”吃透了语言的规律,之后不管是做阅读、匹配信息,还是辅助生成内容(比如RAG里的检索环节),都能发挥扎实的基础作用~

#语言模型#自然语言处理#人工智能
5篇“大模型(尤其是多模态模型)的安全漏洞与对抗攻击”文章之间的关系

第5篇是“网的框架”,划定了“单模态、多模态、复杂系统”三个风险区域;前4篇是“网的节点”,分别在“多模态数字场景(1、2)、多模态物理场景(3)、单模态特定场景(4)”这几个关键位置,填上了具体的风险案例;最终织成一张“从理论到实践、从数字到物理、从通用到场景”的大模型安全风险图,帮研究者和开发者看清“大模型哪里容易被攻、怎么被攻”,为后续防御铺路。

#人工智能#网络安全#语言模型 +1
PaperReading:《Manipulating Multimodal Agents via Cross-Modal Prompt Injection》

比如想让“菜谱AI”别做菜谱、改去帮人编辑文字,先找个画图AI(比如Stable Diffusion)生成一张“人在改文字”的图,然后把这张图的“特征”(AI认图靠的是特征,不是人眼看到的画面)嵌到一张普通食材图里——人眼看还是食材图,但AI看这张图时,会自动关联“改文字”的任务。比如不直接说“帮我改文字”,而是先猜AI的安全指令(比如“你是菜谱大师,只能处理菜谱相关任务”),再生成一句绕弯子的话

#人工智能#网络安全#语言模型 +1
大模型安全测评领域如何入门

通过实战(如复现实验、参与竞赛)深化理解,同时保持对政策(如《生成式人工智能服务管理暂行办法》)与技术动态的敏锐感知,确保研究方向的前沿性与合规性。通过以上路径,可在3-6个月内建立扎实的领域基础,并逐步开展独立研究。

#安全#网络安全#安全性测试 +1
联邦大型语言模型、多智能体大型语言模型是什么?

不传原始数据,只传“模型碎片”比如摘要3提到的「FL-GLM框架」:把大模型拆成三部分——客户端(比如医院的电脑)存“输入层+输出层”,服务器存“中间核心层”。训练时,客户端只传“处理后的特征数据”(不是原始病历),服务器用这些数据优化中间层,再把优化结果传回客户端,全程原始数据不离开本地。加密+高效,降低成本风险加密:数据传输用RSA等非对称加密(摘要3),防止中途被窃取;

#语言模型#人工智能#自然语言处理
PaperReading:《DeepReview: Improving LLM-based Paper Review with Human-like Deep Thinking Process》

核心目标:给定输入论文(q),生成“定性评审文本(元评审(s))+定量评分((a))”的评审对((s,a)),推理过程需遵循“(q \to z_1 \to z_2 \to z_3 \to (s,a))”的顺序,确保每一步推理都基于前序结论。概率模型。

#语言模型
PaperReding:《LLaMA: Open and Efficient Foundation Language Models》

LLaMA 本质是 “用公开数据训练、兼顾性能和实用性的开源大模型”—— 它证明了 “不用专属数据、不用超大参数,也能做出顶尖 AI”,而且人人都能获取、使用、改进,大大降低了大语言模型的研究和使用门槛。数学题、写代码:没专门针对性训练,却能打赢一些专门优化过的模型 —— 比如 650 亿参数版本写 Python 代码,比 PaLM 620 亿参数版本还强。模型大小从 70 亿参数到 650 亿参

#语言模型#人工智能
PaperReding:《LLaMA: Open and Efficient Foundation Language Models》

LLaMA 本质是 “用公开数据训练、兼顾性能和实用性的开源大模型”—— 它证明了 “不用专属数据、不用超大参数,也能做出顶尖 AI”,而且人人都能获取、使用、改进,大大降低了大语言模型的研究和使用门槛。数学题、写代码:没专门针对性训练,却能打赢一些专门优化过的模型 —— 比如 650 亿参数版本写 Python 代码,比 PaLM 620 亿参数版本还强。模型大小从 70 亿参数到 650 亿参

#语言模型#人工智能
    共 25 条
  • 1
  • 2
  • 3
  • 请选择