
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
大模型应用开发之所以对我来说是更好的选择,不是因为它比传统后端”更高级”,恰恰是因为它把工程能力放到了一个增长更快的场景里。同样的能力,放在不同的场景,杠杆率是不一样的。(哈哈哈哈,不过有一说一,煮啵不晓得什么是感兴趣,所以说很佩服那些去按照自己兴趣去生活的人,煮啵觉得是一件很浪漫的事,害,有的时候,会因为自己的抽离而感觉人生有点太剧透了一些,任何事情都不由自主的权衡利弊真的是一件,很不浪漫的事情
本文对比了主流AI Agent框架的优缺点及适用场景。作者通过亲身踩坑经历,指出没有"最好用"的框架,只有"最适合"的框架。详细分析了LangChain、LangGraph、AutoGen、CrewAI等框架的特点,强调框架选择应基于具体需求:快速验证用Phidata/OpenAI API,复杂控制流用LangGraph,多Agent协作选AutoGen/C
本文对比了主流AI Agent框架的优缺点及适用场景。作者通过亲身踩坑经历,指出没有"最好用"的框架,只有"最适合"的框架。详细分析了LangChain、LangGraph、AutoGen、CrewAI等框架的特点,强调框架选择应基于具体需求:快速验证用Phidata/OpenAI API,复杂控制流用LangGraph,多Agent协作选AutoGen/C
因为自己摸索的过程中,你会遇到真实的问题——不是教程里精心安排好的、有标准答案的问题,而是乱七八糟的、文档没写清楚的、Stack Overflow上搜了半天才找到答案的问题。在这种情况下,处于中间层的”能写代码但没有太多思考深度”的程序员会被压缩,而两端——”完全不会写代码但现在可以借助AI做一些简单的事情”的人和”真正理解系统设计和底层原理”的人——都会获益。就像前面那个师兄一样。不用学得多深,
第1天:理解Git和GitHub的区别, 安装Git,配置用户名邮箱 第2天:创建第一个仓库, 走通 add → commit → push 流程 第3天:学会 git status、git log、git diff 能看懂自己做了什么变更 第4天:学会分支, 创建分支、切换分支、合并分支 第5天:去 first-contributions 完成第一次Pull Request 第6天:用GitHu
摘要 本文探讨了AI Agent研究的现状与发展方向。作者指出当前Agent研究存在"表面热闹但核心问题未解"的现象:虽然基础框架(如ReAct、工具调用、多Agent协作)已成熟,但在长程任务可靠性、规划决策、记忆机制、多Agent协作、安全性和评估体系等核心问题上仍有大量研究空间。特别值得关注的是语言模型作为决策核心时,其文本生成特性与真实规划需求间的本质矛盾,以及记忆系统
本文总结了AI基础设施岗位面试的六个核心考察模块:1)Transformer计算分析能力,要求准确估算FLOPs并理解Roofline模型;2)FlashAttention等算子优化技术,需掌握其减少HBM访问的原理;3)KV Cache管理与推理系统优化,包括GQA、PagedAttention等技术;4)分布式训练并行策略,需理解数据/张量/流水线并行的组合应用;5)量化压缩技术,要明确访存优
AI编程的真相:效率提升与能力陷阱 通过搭建多源RAG系统的实践,作者发现AI编程呈现出明显的"二八效应":AI能高效完成80%的基础代码(从0到0.6),但剩余20%的复杂问题(调试、联调、业务适配)仍需人工解决。核心结论是:AI是能力放大器而非替代者,其价值取决于使用者的专业水平。 关键发现: AI擅长模块化代码生成,但难以处理系统级问题(隐式约束、性能调优、跨模块调试)
本文通俗解释了AI处理文本时的"token"概念。token是模型处理文本的基本单元,不同于简单的字母或词语,而是根据字母组合出现频率划分的片段。英文常见组合如"ing"会打包成1个token,生僻词则被切分到字母级别;中文通常1字1token,但高频词组可能合并。采用token既能压缩序列长度,又比字母更有语义。模型上下文限制、计费都以token为单位,例
摘要: 本文详细介绍了终端AI编程助手Claude Code的安装与使用指南,涵盖快速入门、多系统安装(Windows/WSL、macOS、Linux)、配置认证、基础/高级命令操作、MCP服务器配置等核心内容。提供了从环境准备到成本控制的全套解决方案,包含10+实用命令示例和故障排除技巧,适用于开发者快速部署AI编程助手环境。重点包括WSL配置方案、代理设置、会话管理及Think模式等高级功能,








