
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
近年来,LLMs如GPT系列、Llama等,以惊人的速度发展,参数规模从几亿跃升至万亿级别,性能在多类任务中显著提升。人们普遍认为:只要模型更大、数据更多、算力更强,LLM就能无限接近“通用人工智能”。然而,这篇论文《On the Fundamental Limits of LLMs at Scale》提出了截然不同的观点:**LLM的性能提升存在不可逾越的理论天花板**。

在软件开发的世界里,代码安全扫描就像是体检,人人都知道重要,但真正能坚持下来的却寥寥无几。你是否也遇到过这样的场景:

本工作提出 A-MEM(Agentic Memory),一种受 Zettelkasten 知识管理法 启发的智能记忆系统,让大语言模型代理(LLM Agents)能够自主组织、链接并进化记忆,从而实现持续学习与长程推理。

本工作提出 A-MEM(Agentic Memory),一种受 Zettelkasten 知识管理法 启发的智能记忆系统,让大语言模型代理(LLM Agents)能够自主组织、链接并进化记忆,从而实现持续学习与长程推理。

本文提出了一种名为Tree Training的新训练范式,通过将智能体交互产生的树状轨迹数据进行高效打包和计算复用,在训练的前向和后向传播中对共享的前缀(prefix)只计算一次,从而显著提升了智能体大语言模型(Agentic LLM)的训练效率。

本文提出了一种名为Tree Training的新训练范式,通过将智能体交互产生的树状轨迹数据进行高效打包和计算复用,在训练的前向和后向传播中对共享的前缀(prefix)只计算一次,从而显著提升了智能体大语言模型(Agentic LLM)的训练效率。

想让AI代理更聪明,却被复杂的训练流程、框架限制和代码改写困住?Agent Lightning 让你几乎不用改代码,就能给任何框架的代理轻松装上强化学习等优化能力,直接突破性能瓶颈。

想让AI代理更聪明,却被复杂的训练流程、框架限制和代码改写困住?Agent Lightning 让你几乎不用改代码,就能给任何框架的代理轻松装上强化学习等优化能力,直接突破性能瓶颈。

开发 Claude 应用时还在为代码整合、功能实现挠头?Claude Cookbooks 直接送上可复用代码片段与指南,帮你轻松搞定分类、生成增强等各类开发难题。

导语:在大语言模型蓬勃发展的今天,如何让AI更准确地理解和回答问题?香港大学团队开源的LightRAG项目给出了一个优雅的答案。这个在EMNLP 2025上发表的框架,已经获得了超过22,000个GitHub星标,成为RAG领域最受关注的项目之一。








