
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
看完这张AI模型时间线,我悟出了一个道理,大模型入门到精通,收藏这篇就足够了!

大家用大语言模型 (LLM) 时候肯定都遇到过一个问题。就是当我们给模型输入很长的信息时,它的表现就会下降。

随着我们从2024年进入2025年,AI领域的焦点正从检索增强生成(RAG)转向更具突破性的技术——智能体式RAG。

这个项目以“动手学大模型应用开发”为口号,旨在帮助零基础的开发者通过实践掌握大模型开发技能。让我们一起来看看它的魅力吧!

最初,大语言模型LLM的训练过程只关注于预训练,但如今已经扩展到包含预训练和后训练两个阶段。后训练通常包括监督指令微调和对齐,这一方法在ChatGPT发布后广泛流行!

MoE通过“分而治之”的思想,为大模型突破参数规模与计算效率的瓶颈提供了新方向。随着国产模型DeepSeekMoE、Qwen-2.5 Max、国际标杆GPT-4的实践验证,MoE已成为下一代大模型的核心架构。
本文就来分享下我的安装部署经验,包括本地和租用云服务器的方式,以及如何通过API调用大模型开发自己的AI应用,希望能解决一些下不去手的问题。

不管学习什么技术,每个技术里面都会包含一些专业术语, 了解这些术语,有助于我们更好的理解技术,以及更好的使用技术。针对 AI 领域,我们先从网上找到一篇AI技术应用文章《使用RAG-GPT和Ollama搭建智能客服》,摘取部分精要内容,如下:智能文档的在线检索流程可以用一张图说明,上图中展示了一个完整的问答流程:• 用户发起query• 结合Bot实际应用场景,评估是否对query进行rewrit
方法参数数量训练速度精度原理特点LoRA少快好低秩矩阵更新LoRA-FA中中较好输入特征感知VeRA极少极快一般向量构造矩阵Delta-LoRA多慢更好加入权重残差LoRA+少快更好更优更新策略3. RAG 与 Agentic RAG 对比如上图清晰地对比了两种RAG(Retrieval-Augmented Generation)检索增强生成方法:✅ 上半部分:传统 RAG🤖 下半部分:Agen

近年来,随着大语言模型(LLM)的爆发式发展,AI Agent(人工智能代理)逐渐成为AI落地的重要载体。







