
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文探讨了如何将模糊需求转化为高质量AI Skill。作者对比了Claude和Codex两种工具的特点:Claude擅长挖掘模糊需求中的隐藏约束,Codex擅长将清晰需求转化为符合Skill机制的结构化产物。文章提出实践路径:先用Claude处理模糊需求,明确真实意图和约束;再用Codex的skill-creator创建或更新Skill,确保结构合理、按需加载。这种串联方式能有效解决需求模糊时Sk

文章介绍大模型面临的幻觉、时效性和数据安全三大问题,提出RAG作为解决方案。RAG通过检索外部知识库增强模型能力,降低幻觉问题,提供最新权威信息,保障数据安全。文章详细解释RAG架构,并通过LangChain代码示例展示从文档加载、分割、向量化到检索生成的完整流程。最后对比RAG与微调的区别,指出二者可互补使用,并提供学习大模型的四个阶段路径。

本文系统梳理了AI大模型领域的14个核心概念,从基础架构(Transformer、Token、嵌入模型)到训练优化(预训练、微调、对齐),再到前沿应用(RAG、Agent、协议等)。文章深入浅出地解释了大模型实现"智能涌现"的原理,以及如何解决幻觉、对齐等关键挑战,帮助读者建立全面认知框架,为深入研究与应用大模型奠定基础。

本文探讨了如何将模糊需求转化为高质量AI Skill。作者对比了Claude和Codex两种工具的特点:Claude擅长挖掘模糊需求中的隐藏约束,Codex擅长将清晰需求转化为符合Skill机制的结构化产物。文章提出实践路径:先用Claude处理模糊需求,明确真实意图和约束;再用Codex的skill-creator创建或更新Skill,确保结构合理、按需加载。这种串联方式能有效解决需求模糊时Sk

文章从7个维度系统介绍了AI领域的36个关键术语,包括底层逻辑、模型架构、核心技术、训练方法、应用技巧、评估标准和伦理安全等。通过通俗易懂的比喻和解释,帮助读者理解AI基础知识,如AGI、Transformer、RAG等概念,以及如何提示词工程、微调模型等实用技能,为学习大模型奠定基础。

本文系统解析RAG技术栈三大核心组件:Embedding模型、检索策略与Rerank重排序。对比分析了主流Embedding模型性能与选型策略,整理20个高频面试问题及12种调优策略,深入解析向量搜索与Rerank的本质区别,强调"粗排+精排"两阶段架构的设计智慧,为构建高性能RAG系统提供全面指导。

本文系统解析RAG技术栈三大核心组件:Embedding模型、检索策略与Rerank重排序。对比分析了主流Embedding模型性能与选型策略,整理20个高频面试问题及12种调优策略,深入解析向量搜索与Rerank的本质区别,强调"粗排+精排"两阶段架构的设计智慧,为构建高性能RAG系统提供全面指导。

模型训练与推理是AI大模型的核心环节。训练包括预训练(自监督学习海量数据)和后训练(微调与RLHF),是一次性高投入的"创造能力"过程;推理则是模型实际应用阶段,通过处理输入和迭代生成回答,是持续的"使用能力"体现。两者相辅相成,共同构成大模型从学习到应用的完整生命周期。

Tokenization是LLM处理流程中的关键步骤,将文本转换为模型可理解的数值表示。本文详细介绍了字符级、词级和子词级等多种分词算法,分析了它们对模型性能、上下文窗口和API成本的影响,并探讨了语言偏见、非常见文本等挑战。最后提供了提高Token效率的最佳实践和实现方法,帮助开发者优化大模型应用。

Langchain-Chatchat是一个基于ChatGLM大语言模型与Langchain应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型的本地知识库问答应用项目。








