logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【万字长文】深度解读LLM五大天花板:一文看懂斯坦福、Meta、Google的核心发现!

近年来,LLMs如GPT系列、Llama等,以惊人的速度发展,参数规模从几亿跃升至万亿级别,性能在多类任务中显著提升。人们普遍认为:只要模型更大、数据更多、算力更强,LLM就能无限接近“通用人工智能”。然而,这篇论文《On the Fundamental Limits of LLMs at Scale》提出了截然不同的观点:**LLM的性能提升存在不可逾越的理论天花板**。

文章图片
#人工智能#科技#机器学习 +1
20251126_102520_告别“下次一定”:用AI三大武器(Skills、Prompt

在软件开发的世界里,代码安全扫描就像是体检,人人都知道重要,但真正能坚持下来的却寥寥无几。你是否也遇到过这样的场景:

文章图片
#人工智能#科技#机器学习 +2
NeurIPS 2025惊现“黑科技”!A-MEM:不止于记忆,它让大模型拥有了“成长性思维”!

本工作提出 A-MEM(Agentic Memory),一种受 Zettelkasten 知识管理法 启发的智能记忆系统,让大语言模型代理(LLM Agents)能够自主组织、链接并进化记忆,从而实现持续学习与长程推理。

文章图片
#科技#milvus#人工智能 +3
NeurIPS 2025惊现“黑科技”!A-MEM:不止于记忆,它让大模型拥有了“成长性思维”!

本工作提出 A-MEM(Agentic Memory),一种受 Zettelkasten 知识管理法 启发的智能记忆系统,让大语言模型代理(LLM Agents)能够自主组织、链接并进化记忆,从而实现持续学习与长程推理。

文章图片
#科技#milvus#人工智能 +3
Agentic LLM训练大变革!快手“Tree Training”终结暴力炼丹,效率飙升!

本文提出了一种名为Tree Training的新训练范式,通过将智能体交互产生的树状轨迹数据进行高效打包和计算复用,在训练的前向和后向传播中对共享的前缀(prefix)只计算一次,从而显著提升了智能体大语言模型(Agentic LLM)的训练效率。

文章图片
#android#机器学习#开源 +2
Agentic LLM训练大变革!快手“Tree Training”终结暴力炼丹,效率飙升!

本文提出了一种名为Tree Training的新训练范式,通过将智能体交互产生的树状轨迹数据进行高效打包和计算复用,在训练的前向和后向传播中对共享的前缀(prefix)只计算一次,从而显著提升了智能体大语言模型(Agentic LLM)的训练效率。

文章图片
#android#机器学习#开源 +2
我直接把Agent开发代码删了!微软这个工具太逆天,加个装饰器就跑,本地GPT都能用!

想让AI代理更聪明,却被复杂的训练流程、框架限制和代码改写困住?Agent Lightning 让你几乎不用改代码,就能给任何框架的代理轻松装上强化学习等优化能力,直接突破性能瓶颈。

文章图片
#microsoft#人工智能#机器学习
我直接把Agent开发代码删了!微软这个工具太逆天,加个装饰器就跑,本地GPT都能用!

想让AI代理更聪明,却被复杂的训练流程、框架限制和代码改写困住?Agent Lightning 让你几乎不用改代码,就能给任何框架的代理轻松装上强化学习等优化能力,直接突破性能瓶颈。

文章图片
#microsoft#人工智能#机器学习
Claude开发者的“圣经”来了!Cookbooks中文版,颠覆你对构建AI应用的所有认知!

开发 Claude 应用时还在为代码整合、功能实现挠头?Claude Cookbooks 直接送上可复用代码片段与指南,帮你轻松搞定分类、生成增强等各类开发难题。

文章图片
#人工智能#sql#数据库 +1
别再忍受低效检索了!22.9k stars的LightRAG,让你的AI应用检索性能飙升10倍!

导语:在大语言模型蓬勃发展的今天,如何让AI更准确地理解和回答问题?香港大学团队开源的LightRAG项目给出了一个优雅的答案。这个在EMNLP 2025上发表的框架,已经获得了超过22,000个GitHub星标,成为RAG领域最受关注的项目之一。

文章图片
#人工智能#数据库#机器学习 +2
    共 716 条
  • 1
  • 2
  • 3
  • 72
  • 请选择