logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LazyLLM教程 | 第9讲:微调实践:让大模型和向量模型更懂你的领域

RAG需要的知识库往往对用户来说具有隐私性,用户更希望能在本地部署,这意味着要同时部署本地的大模型,而本地部署大模型又需要算力支持,一般用户很难有较强的算力,此时在算力资源下往往只能选择一些较小的LLM模型,比如7B大小的模型,而这些较小的LLM基本能力上无法和600多B的LLM相比,此时模型的能力也就较弱。前面教程中,我们通过优化检索策略、召回重排略以及基于大模型的查询重写策略来提升了RAG系统

#人工智能#算法#机器学习 +1
LazyLLM教程 | 第9讲:微调实践:让大模型和向量模型更懂你的领域

RAG需要的知识库往往对用户来说具有隐私性,用户更希望能在本地部署,这意味着要同时部署本地的大模型,而本地部署大模型又需要算力支持,一般用户很难有较强的算力,此时在算力资源下往往只能选择一些较小的LLM模型,比如7B大小的模型,而这些较小的LLM基本能力上无法和600多B的LLM相比,此时模型的能力也就较弱。前面教程中,我们通过优化检索策略、召回重排略以及基于大模型的查询重写策略来提升了RAG系统

#人工智能#算法#机器学习 +1
LazyLLM教程 | 第6讲:检索更准:RAG召回效果优化的底层逻辑与技巧

从前面的课程中我们知道了 RAG(Retrieval-Augmented Generation)系统是一种结合检索和生成两个核心组件实现基于外部知识源回答用户查询的智能系统,可以在一定程度上克服大模型幻觉问题在特定领域问答任务上给出与上下文相关的答案。RAG 的基本思想是先通过检索模块从大量文档中找到与用户问题相关的上下文,然后将这些信息提供给生成模型,以生成更加精准和可靠的答案。尽管 RAG 系

#人工智能#科技#大数据
LazyLLM教程 | 第3讲:大模型怎么玩:用LazyLLM带你理解调用逻辑与Prompt魔法!

LazyLLM是一款以数据流(Data Flow)为核心的多Agent大模型应用开发框架,所以 LazyLLM 中定义了大量的数据流组件,配合 LazyLLM 中提供的工具和组件,可以让您像搭积木一样搭建复杂的大模型应用。数据流的核心设计思路是无需您手动对数据流动进行指定,而是通过数据流内部将上一阶段的数据直接分发给对应的下游接收组件。LazyLLM支持Pipeline、Parallel、Swit

#人工智能#科技
系列文章(十一)丨边缘计算的安全思考

*本文作者系VMware中国研发中心研发总监 路广从文章(二)到文章(十),我们讨论的重点都是边缘计算系统内对用户可直接产生使用价值的功能,涵盖构造、部署、编排、集成、管理、运维、智能加速等话题。本篇讨论的中心是安全,即如何降低风险、应对挑战,响应威胁。在与众多用户的交流中,我们发现大家对安全的一个流行看法是:技术复杂的业务负担。即“完全不做不大好,做得太少易暴雷,做得太多划不来,做得很好显不出,

一文讲透“MCP协议+LazyLLM”实战:零基础秒建Agent分身!

MCP(Model Context Protocol,模型上下文协议)是由Anthropic公司于2024年11月推出的一种开放标准协议,旨在让大语言模型能够“无缝连接”外部工具和数据源。简单来说,MCP就是为了解决开头那些痛点而生的“标准化利器”。MCP 相当于 AI 应用的“USB-C接口”。正如USB-C统一了不同品牌电子设备的充电和数据接口一样,MCP则标准化了AI与外部世界交互的方式,使

#人工智能
LlamaFactory × 多模态RAG × Chat-BI,万字长文揭秘RAG进化迷踪,打造专业AI助手!

RAG(检索增强生成,Retrieval-Augmented Generation)是一种结合信息检索(Retrieval)和文本生成(Generation)的技术,用于提高大模型的准确性和实用性。通过在生成文本前检索外部知识库中的相关信息,RAG 可以让大模型在回答问题时结合最新、最相关的数据,从而减少幻觉现象,并提升答案的专业性和时效性。简单说就是:让大模型在回答问题前,先去「翻书」(检索知识

#人工智能
万字干货分享最新AI指南:用LazyLLM把Deep Research做成赛博屠龙刀!

Deep Research是OpenAI在2025.2月发布的一种新型的代理(Agent)能力,其被集成在ChatGPT中,能够通过大模型的推理能力和工具调用能力,自主从网络检索、整合信息,同时支持读取用户提供的文件,并通过编写和执行 Python 代码来分析数据,通过深度分析数据,对用户的问题进行深度解答,最终输出专业的长篇报告。

#人工智能#大数据#机器学习
到底了