logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI智能体如何摆脱“健忘症”?

AI 智能体(Agent)热度不减,但不少系统都有个扎心的共同点 —— 有 “健忘症”。特别是上下文内容较长时,这一问题会更明显:它们没有长期、连贯的记忆能力,不仅没法深入理解用户,连持续的上下文关联都建立不起来,更别说提供个性化服务了,这直接困住了 AI 智能体的潜力,也影响了用户的使用感受。

文章图片
#人工智能#算法#AI
AI智能体如何摆脱“健忘症”?

AI 智能体(Agent)热度不减,但不少系统都有个扎心的共同点 —— 有 “健忘症”。特别是上下文内容较长时,这一问题会更明显:它们没有长期、连贯的记忆能力,不仅没法深入理解用户,连持续的上下文关联都建立不起来,更别说提供个性化服务了,这直接困住了 AI 智能体的潜力,也影响了用户的使用感受。

文章图片
#人工智能#算法#AI
别再让大模型 “只查不做”!Agentic RAG 从检索到行动,让 AI 真干活(技术全解)

你肯定听过 RAG 吧?是不是觉得:“这不就是个找资料的工具嘛,挺酷的。”确实酷 —— 但这只是它的 “半副本事”。真正的 “全能选手” 是 Agentic RAG!传统 RAG 只做 “检索信息” 这一步,而它不一样:既能找资料,还能把资料用起来,帮你把事儿真真正正搞定。下面,咱用大白话好好拆解拆解。

文章图片
#人工智能#数据库#深度学习 +2
亲测有效!RAG 检索总踩坑?用对查询优化,召回率直接上一个 level

在 AI 领域,“Garbage In, Garbage Out”(输入垃圾,输出垃圾)是公认的黄金法则。而对 RAG 系统来说,检索环节正是决定 “输入质量” 的关键 —— 若无法从知识库中捞出精准、全面的信息,哪怕是性能顶尖的 LLM,也会因 “无材可用” 陷入困境,甚至大概率开启 “一本正经的胡说八道” 模式,也就是我们常说的 AI “幻觉”。因此,想要从根源解决 RAG“找不到、找不准”

文章图片
#人工智能#算法#大数据 +2
人山人海遇 AI!1222 万毕业生迎史上最 “卷” 毕业季,破局方法看这里

人山人海遇 AI!1222 万毕业生迎史上最 “卷” 毕业季,破局方法看这里

文章图片
#人工智能#深度学习#机器学习 +1
收藏必备 | 大模型微调新范式:LoRA技术如何让参数更新效率提升千倍

收藏必备 | 大模型微调新范式:LoRA技术如何让参数更新效率提升千倍

文章图片
#人工智能#深度学习#机器学习
无需改代码!微软 Agent Lightning 框架:任意 AI Agent 皆可强化学习,重塑训练范式

AI Agent 已逐步从科幻构想走向现实落地:不仅能独立完成代码编写、外部工具调用、多轮对话交互等复杂任务,甚至可实现端到端的软件开发全流程,目前已在金融数据分析、游戏智能交互、企业级软件开发等多个领域实现场景化应用。但与此同时,当前 AI Agent 的训练与优化环节仍面临诸多严峻挑战,尤其在复杂、动态的交互场景中,传统强化学习(RL)方法的适配性与性能表现均难以满足需求。为此,微软团队推出了

文章图片
#人工智能#深度学习#机器学习 +2
大模型修仙传:从预训练到对齐的完整修炼指南(程序员必藏宝典)

大模型修仙传:从预训练到对齐的完整修炼指南(程序员必藏宝典)

文章图片
#深度学习#人工智能#机器学习 +3
【大模型面试】LoRA vs 全参数微调终极对比

摘要:大模型微调方法LoRA与全参数微调各有优劣。全参数微调更新所有参数,效果上限高但成本极高(需100GB显存),易过拟合;LoRA通过低秩适配器仅更新少量参数(约原模型2%),成本低(仅0.2GB显存)、部署灵活(适配器仅2MB/任务),适合数据少场景,但效果上限略低。全参数微调适用于任务差异大、数据多的企业级场景,LoRA则更适合多任务、资源有限的开发者。当前大模型人才缺口达百万级,系统学习

文章图片
#人工智能#深度学习#机器学习 +2
提示工程非但没死,还能更精进!5 个高阶玩法,突破模型性能上限

摘要:提示工程专家Sander Schulhoff指出,优质提示可显著提升AI模型准确率(从0%到90%)。文章解析提示工程的两大模式(对话模式注重灵活性,产品模式追求稳定性)和五种有效技术:少样本提示、任务分解、自我批评、附加信息和集成技术。同时指出角色提示和奖励威胁等早期技术已失效。随着大模型发展,提示工程在工业级产品中仍具重要价值,尤其在确保输出稳定性和精确性方面。文末提供大模型学习资料,助

文章图片
#人工智能#算法#AI
    共 510 条
  • 1
  • 2
  • 3
  • 51
  • 请选择