
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
将开源的大语言预训练模型部署到用户设备上进行推理应用,特别是结合用户专业领域知识库构建AI应用,让AI在回答时更具有专业性,目前已经有很多成熟的应用方案。其中,支持大模型本地化部署的平台及工具很多,比较出名的有ollama、vLLM、LangChain、Ray Serve等,大大简化了模型的部署工作,并提供模型全生命周期管理。对应地,需要知识库构建的相应工具,能处理各种格式(doc/pdf/txt

本文从工程视角出发,通过LLM、Token、Context、Prompt、Tool、MCP、Agent、Agent Skill这8个核心概念,逐步拆解大模型工作原理。从文字接龙的游戏本质,到Token化处理、上下文记忆、提示词设计、工具调用、统一接口协议,再到智能体自主规划和技能手册,构建了AI运行的全景图。理解这些概念能帮你看懂AI新技术,掌握AI技术栈主干,为进阶学习打下坚实基础。
本文深入解析了Transformer模型中的残差连接,从其起源到在模型中的作用,以及如何解决梯度消失问题。文章还探讨了残差连接在现代Transformer中的改进和未来趋势,强调残差连接对于构建深度学习模型的重要性。
本文深入浅出地介绍了AI智能体的概念、特征及其与传统AI的区别,强调其自主性、目标导向和行动能力。文章详细阐述了AI智能体的必要性,包括提升效率、自动化复杂任务和释放人力创造力等方面。此外,还解析了AI智能体的架构、与大模型的关系,并对比了主流AI智能体开发平台。最后,文章鼓励读者学习AI智能体技术,以适应AI时代的发展趋势。
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。真诚无偿分享!!!vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座
本文将指导读者使用Python和LangChain框架构建一个小型AI智能体团队,实现从问候到网络搜索、内容抓取与摘要生成的完整流程。通过DuckDuckGo进行网络搜索,并利用Hugging Face Hub的免费模型完成关键任务。文章详细介绍了环境配置、各个智能体的实现方法以及它们之间的协同工作原理,适合想要入门大模型应用的程序小白学习参考。---

入门阶段(0-6个月)目标:掌握Python编程与数学基础,理解机器学习核心概念。行动计划完成Python基础课程,掌握NumPy/Pandas/Matplotlib。学习线性代数、概率论,结合Scikit-learn实现KNN、线性回归。参与Kaggle入门竞赛,提交第一个模型(如Titanic生存预测)。只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱

大语言模型(LLM)在通用知识和语言表达上表现出色,但面临知识固化、实时性缺失、知识幻觉等挑战。RAG(检索增强生成)架构通过“检索先行,生成在后”的核心逻辑,有效解决这些问题。RAG通过向量化处理用户问题,检索相关片段,再与大模型结合生成答案,大幅提升准确性。RAG的优势在于知识实时更新、支持私有知识、提升准确性与可信度、降低训练成本,已在智能客服、法律助手、教育平台等领域展现巨大潜力。学习RA

本文详细介绍了如何通过优化分块策略、设置合理的重叠窗口、采用混合检索(向量+BM25)以及使用Rerank模型来提升RAG(检索增强生成)的效果。文章强调了分块质量、检索召回与精准率的重要性,并通过实际案例和代码展示了具体实现方法。此外,还提供了参数调优建议和常见问题自查清单,旨在帮助开发者提升RAG系统的性能,减少幻觉,提供更准确的答案。

本文系统梳理了大模型落地过程中的训练、推理和性能优化相关算法与实践,重点分享大模型在推理与训练中的性能优化方法。针对推理延迟高、显存占用大及计算效率低等核心挑战,介绍了连续批处理、分块注意力机制、分布式训练等技术,并结合实践分析了优化策略在显存效率、吞吐量及训练加速中的应用效果,以及roofline模型分析和定位瓶颈等相关内容。文章涵盖了从语言模型到大模型的演进过程,详细解析了Transforme








