
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
说实话,看到这些问题我特别有共鸣——因为5年前的我,就是踩着这些坑一步步摸爬滚打过来的。那时候我还深耕分布式系统开发,日常和Redis缓存、Kafka消息队列、微服务架构打交道,一次偶然的行业技术峰会上,亲眼见到大模型落地的企业级案例,“用自然语言就能驱动代码生成、完成业务逻辑”的能力,瞬间颠覆了我的技术认知。

本文系统性梳理了现代AI大模型技术栈的14个核心概念,覆盖从底层架构到上层应用的全链路知识:以Transformer、Token、嵌入模型筑牢技术基础,以预训练、微调、MoE优化模型能力,以RAG、AI Agent拓展应用边界,以对齐技术、提示工程、幻觉处理保障应用安全可控,最后通过MCP、A2A、Agentic RL推动大模型向自主协作、通用智能演进。这些概念并非孤立存在,而是相互关联、层层递进

检索增强生成(RAG,Retrieval-Augmented Generation) 作为前沿的人工智能技术框架,创造性地融合了大规模语言模型(LLM)与外部知识源检索功能,致力于提升模型在问答与内容生成方面的表现。它通过从外部知识库提取相关信息,为语言模型输出注入更精准、更具深度的上下文信息,使模型响应更贴合实际需求。从技术内核来看,RAG 的本质是 InContext Learning,可简单

大模型生态系统通过分层技术(Prompt优化输入、RAG增强知识、Agent实现自主)逐步解决模型幻觉、知识局限和动态适应问题。未来发展方向包括更高效的代理协作、多模态融合及闭环优化机制,最终推动AI向AGI演进。

AIGC的全称为“Artificial Intelligence Generated Content”,中文翻译为“人工智能生成内容”。这是一种新的创作方式,利用人工智能技术来生成各种形式的内容,包括文字、音乐、图像、视频等大模型与AIGC的关系大模型与AIGC之间的关系可以说是相辅相成、相互促进的。大模型为AIGC提供了强大的技术基础和支撑,而AIGC则进一步推动了大模型的发展和应用AIGC应用

Qwen3的发布不仅是技术突破,更是一场开源生态的胜利。正如阿里CEO吴泳铭所言:“开源是AI普惠的基石。” 从春晚舞台到矿山深处,从开发者社区到全球市场,Qwen3正在重新定义AI的未来。

RAG是一种将外部知识库检索与生成模型相结合的技术,不过最近的Agent,MCP喧嚣至上,包括DS-R1模型的热度,让RAG的技术热度下降了很多。甚至我和一些AI的从业者讨论基本技术的时候,大家对RAG嗤之以鼻。其实RAG一点都不简单,我今天就总结了一下RAG的经常遇到的“左右手”怎么选的问题,算是给自己的学习做个总结。

GPT在处理Prompt时,GPT模型将输入的文本(也就是Prompt)转换为一系列的词向量。 然后,模型通过自回归生成过程逐个生成回答中的词汇。在生成每个词时,模型会基于输入的Prompt以及前面生成的所有词来进行预测。

RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了信息检索和文本生成的技术框架,旨在通过引入外部知识库来提升生成模型(如GPT等)的准确性和可靠性。RAG知识库是这一技术的核心组成部分,它存储了结构化或非结构化的海量数据(如文档、网页、数据库等),供模型在生成答案时动态检索并参考。

用DeepSeek的方法做微调,可以显著提升传统模型的思考能力。这是我训练好的模型文件,已经传到Hugging Face上了,大家自取。它是基于Qwen2.5 3B,通过微调加强了数学能力,最后生成了Q4、Q5和Q8三个版本。咱们来对比一下Q4精度的效果。我问一个经典问题:9.9和9.11这两个数字,哪个更大?先来看原版的回答。不仅答案错了,而且给的理由也是完全混乱的——什么叫“小数部分相同,唯一







