
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了一种名为"自底向上策略优化"(BuPO)的大模型新训练方法。研究发现Transformer的每一层都可视为独立的"内部策略",不同模型展现不同推理演化模式。BuPO先优化底层内部策略,再优化整体策略,在复杂推理任务上比标准GRPO提升3.43%,尤其在数学竞赛数据集上表现优异。这揭示了模型内部"潜意识"训练对提升整体推理能力的关键作用。

本文记录了作者从手动到全自动AI开发流程的半年实践历程。6月开始使用Claude Code需要全程盯守,11月实现云端触发解放人力,12月最终完成全自动流程:只需确认PRD后,需求可自动拆分、并发执行、review修复、合并上线并测试闭环。关键经验包括:分阶段渐进实现、职责分离、用现有工具快速验证、控制AI权限、智能选择模型后端。目前系统已实现从需求到上线的全自动处理,仅在PRD阶段需人工确认一次

AI大模型竞赛已进入周级节奏,技术优势不再是护城河。智能成本持续下降,推动生成式AI应用即将大规模爆发。AI正从Chatbot向Agent转变,但面临多步复合误差挑战。传统行业专业领域因"认知负载结构性超载"而快速采纳AI。2026年将迎来AI应用爆发期,关键是从Bolt-on模式转向AI-First产品理念,将60分模型做成生产级产品。

《AI智能体记忆机制研究综述》摘要:由多所顶尖高校联合发布的百页综述《Memory in the Age of AI Agents》系统探讨了AI智能体的记忆机制,提出三大研究视角:形式(存储介质)、功能(应用场景)和动态(演化过程)。研究指出记忆是AI从"工具"进化为"伙伴"的核心能力,包含短期记忆(对话上下文)、长期记忆(经验数据库)和反思记忆(元认知)

本文分享了作者在淘天、字节AML和商汤三家公司的面试经历及获得的offer情况。淘天未来生活实验室主要聚焦大模型在搜广推和内容化场景的应用,面试涉及OCR训练、实验设置等技术问题;字节AML注重多模态大模型和算法基础,考察了哈希表设计、交叉熵计算等题目;商汤则关注视觉与多模态结合的应用场景。作者最终选择加入淘天,认为其面试体验较好且阿里文化氛围相对温和。三家公司都围绕大模型技术展开深入的技术探讨和

这篇由李飞飞等14位专家联合撰写的80页论文探讨了多模态AI系统的前沿发展,重点分析了AI代理与环境交互的关键技术。研究涵盖基础模型应用、多模态感知、外部知识整合及人类反馈机制,提出通过改进具身行为预测来增强代理系统性能。论文展望了AI代理在虚拟现实中的创新应用场景,如用户自主创建交互式模拟环境,同时探讨了NLP领域的机器翻译、语音识别等技术进步及其应对假新闻等挑战的解决方案。研究还前瞻性地提出了

Github项目上有一个大语言模型学习路线笔记,它全面涵盖了大语言模型的所需的基础知识学习,LLM前沿算法和架构,以及如何将大语言模型进行工程化实践。这份资料是初学者或有一定基础的开发/算法人员入门活深入大型语言模型学习的优秀参考。这份资料重点介绍了我们应该掌握哪些核心知识,并推荐了一系列优质的学习视频和博客,旨在帮助大家系统性地掌握大型语言模型的相关技术。

文章提供系统化的大语言模型学习路径,涵盖数学基础、编程技能、NLP知识、Transformer架构及LLM进阶技术。通过分层次实践项目(入门到高级)和持续学习资源,帮助读者从基础到前沿逐步掌握LLM技术。文章还提供时间规划学习路线图和避坑建议,目标是培养独立开发大模型的能力,并提供学习资源获取方式。

2018年,OpenAI实验室推出的1.17亿参数的GPT-1刚掌握预测下一个单词的基础能力;而到了2022年,谷歌发布的PaLM模型参数量已达5400亿,能同时处理语言、代码和逻辑推理任务。短短4年,AI模型参数量实现了约5000倍的跨越式增长,这场模型的“军备竞赛”重塑了人工智能的发展格局。

本文介绍了AI大模型上下文管理的五大核心技术:上下文卸载(将非必要信息移至外部存储)、上下文缩减(压缩冗余内容)、上下文检索(按需获取相关信息)、上下文隔离(拆分不同任务模块)和上下文缓存(复用稳定内容)。文章分析了各项技术的实现方法、潜在风险及产品设计考量,为优化大模型性能提供了系统化解决方案。此外,还提供了AI大模型从入门到进阶的全套学习资源,包括学习路线、商业化案例、视频教程及面试题库等,帮








