logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【大模型安全】怎么防御提示词注入攻击 --- OWASP 十大威胁之首

这是指通过改变提示(指令或用户输入)的格式和结构,来提高系统的安全性和准确性。现在,假设相同的在线银行服务聊天机器人经过了良好的语义增强和结构增强训练,以提高安全性。这种情况下,即使面对可能的安全威胁,机器人也能保持信息的安全性,不泄露任何敏感数据。最后,优化模型,使得能灵活地生成各种类型的提示词,来绕过不同主流模型的防御机制。分类器判断,学了一堆坏事例子,然后把它们当作标准,来甄别哪些是好的,哪

文章图片
#安全
如何复现o1模型,打造医疗 o1:大模型自改进(Self-Improve / Revision)、左右互博 Self-Play 思路?

DeepSeek-R1 所谓“慢系统”,本质是让模型自然写出超长推理链 (因为 RL 回合数够多,Reward 主要看最终对错+格式),相当于一种纯后验策略:一边生成 COT,一边计算结果能不能通过,让模型在训练中逐渐形成了“先多想一会再回答”的习惯。与其把更多算力用在“训练/模型规模”上,不如把算力放到“推理时的搜索/迭代过程”上,也许可以在某些(尤其是难度中等或较简单)任务上取得与“大模型+一

文章图片
#人工智能#深度学习#机器学习
AoT:解决CoT一步错步步错的脆弱,TOT算力高耗,GoT灵活但失控

在数学推理中,AOT 会先将复杂题目拆解成若干子问题,并识别这些子问题之间的依赖。如果一个子问题的结果对下一步推理是必要的,则将该结果标记成“已知条件”,而不再保留所有中间推理步骤。这样在下一个迭代时,模型只面向“当前问题 + 前一步结论”,并不带着完整的历史推理链。比如,若一道几何题包含“求三角形某边再算圆半径”,只需保留最后的“边长数值”给下一步算圆半径,省去三角形求边的推理历史。

文章图片
#人工智能#算法#大数据
openCHA 个性化健康代理

问题本质缺乏个性化支持(无法访问用户实时健康数据)知识过时(无法获取最新医疗知识库)工具集成缺失(无法调用外部AI模型和分析工具)缺乏多步推理能力(无法解决复杂的序列任务)架构创新:将对话系统分解为Interface + Orchestrator + External Sources,实现关注点分离规划创新:采用Tree of Thought进行多策略规划,提高决策质量执行创新:Task Plan

文章图片
#人工智能
Moe 混合多专家模型 原理 + 大模型的有性繁殖 + DIY 自己的 Moe 专家系统

大模型最开始设计思路是 — 通用。一个通才能够处理多个不同的任务,但一群专家能够更高效、更专业地解决多个问题。与一个“通才网络”相比,一组术业有专攻的“专家网络”能够:让用户获得更快的响应速度提供更好的模型性能 — 每个专家模型都能针对不同的数据分布和构建模式进行搭建更好地完成复杂的多种任务在不显著增加计算成本的情况下大幅增加模型容量开发时间更短让一个大模型既代码牛逼,又医疗牛逼,还数学、角色扮演

文章图片
#分类#数据挖掘#人工智能
思考的秘籍:成为富人必须掌握的思维模式,可给大模型推理事情

惠勒提问法 - 重新定义问题的思维工具## 角色定位你现在是一位具有惠勒式思维的探索者,像理论物理学家约翰·惠勒一样,通过提出深刻的问题来推动理解的边界。你不满足于表面答案,而是要挖掘问题背后的问题。## 核心原则- **好的问题比答案更重要**- **最简单的问题往往最深刻**- **质疑一切"显而易见"的事物**- **在悖论中寻找突破**## 执行框架### 第一步:基础假设挖掘针对用户提出

文章图片
#人工智能
谷歌DeepMind再放大招:AlphaEvolve让算法自进化,56年算法难题被攻克!

AlphaEvolve代表了自动算法发现领域的里程碑式突破方法论创新首次将LLM驱动的进化计算扩展至完整程序级别双模型协同(Gemini Flash + Pro)的创新架构多目标优化的通用框架技术突破56年来首次改进Strassen矩阵乘法算法在20%数学开放问题上超越现有最佳构造Google关键基础设施的实际优化效率提升样本需求从百万级降至千级(1000倍提升)从单语言单函数扩展至多语言全程序并

文章图片
#算法
KARPA:复杂多跳知识图谱+大模型问答的全局规划框架,避免陷入局部最优,实现91.2%的准确率,降低50%以上交互成本,支持4跳复杂推理路径

为了解决细节丧失的问题,我们在全局规划阶段特别强调路径的多样性和语义相关性,在选择候选路径时,考虑的不仅仅是路径长度和关系之间的相似度,还会综合考虑这些路径如何协同工作以推导出正确答案。具体来说,我们设计了一个语义匹配机制,它会根据路径的语义相关性来筛选和排序路径,从而确保路径的多样性,同时避免过于相似的路径被选中,从而导致推理偏差。如果生成的路径过于相似,这是否会导致推理过程中的偏差?本解法通过

文章图片
#知识图谱#人工智能
Mindful-RAG:大模型 + 知识图谱增强问答框架,更重视对问题意图和约束的理解,不仅是浅层的关键词匹配,解决 RAG 八大问题

整体解法(Mindful-RAG)旨在利用 LLM 的内置(参数化)知识与外部知识图谱(非参数化)相结合,增强在复杂问答任务中的准确度和可解释性。核心思路是:通过“意图识别 + 上下文对齐 + 约束处理 + 验证反馈”的一系列步骤,减少 LLM 产生的推理错误和不必要的“幻觉”。与传统的 KG-RAG 方法相比,更强调在检索过程中的“意图理解”与“上下文对齐”,而不仅仅依赖语义相似度来检索知识图谱

文章图片
#知识图谱#人工智能
ROG:大模型 + 知识图谱 + 关系路径引导机制

如果由模型先“显式生成关系路径”,能够保证“推理链”是大语言模型与知识图谱彼此协作而非相互割裂;让模型先说出它要用到的关系序列,可以减少“盲搜”或“手动写 SPARQL 不一定能执行”的尴尬;这就意味着检索过程更有指向性。我们在 KG 里只需按这条路径做有限的 BFS/DFS,就能大幅减少无关三元组的干扰,提升检索质量。也能让后续在推理时(reasoning module)输出的解释更加清晰。

文章图片
#人工智能
    共 474 条
  • 1
  • 2
  • 3
  • 48
  • 请选择