
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文详细介绍了如何在Dify平台上集成RAGFlow知识库,通过创建知识库、配置API KEY、连接外部知识库等步骤,实现两种工具的优势互补。这种集成方式充分利用了Dify的工作流能力和RAGFlow优秀的知识库构建与召回功能,解决了Dify文档解析不足的问题,让开发者能够构建更精准、更强大的大模型应用。

2025年已然过半,今年大模型发展既有激动人心,也有惴惴不安,今天我们就从我个人的视角,盘点大语言模型2025年上半年发展的总结,并对下半年发展趋势进行预测分析。

大模型是如何训练的?这六个关键步骤要记牢!

在他看来,模型层依然重要,但是单独靠模型无法完成商业化闭环,绝大多数企业空有模型无用,无法兑现为生产力,企业也不愿意为此付费。AI应用价值越来越显化,模型之上的能力才是决定差异化的关键,当下企业级大模型应用的工程化能力被大大低估了。

很多人刚入门AI,可能对大模型如何学习数据知识的原理不太了解,今天就用一个例子来说明模型学习的过程。如果你将准备从事AI开发,或者也对原理感兴趣,不妨看一看。

本文详细介绍了LoRA(Low Rank Adaptation)低秩微调技术的原理及在vLLM框架中的实现。文章通过替换原始模型层、预分配显存、动态加载LoRA权重等技术,实现了在不修改原始模型的情况下,用少量额外参数高效微调大模型的能力。详细解析了LoRA的加载、切分和推理过程,为开发者提供了完整的LoRA技术实现指南。

本系列主要通过调用天气的mcp server查询天气这个例子来学习什么是mcp,以及怎么设计mcp。话不多说,我们开始吧。

文章详细介绍了搭建大模型RAG系统的完整流程:首先配置Pycharm和conda环境,安装必要包如chromadb、langchain等;然后启动chromadb向量数据库并安装ollama及所需模型;最后通过代码实现RAG系统,包括加载文档、文本分割、创建向量数据库、定义提示词模板和测试问答功能。整个教程提供了从环境配置到实际应用的完整指南,帮助读者快速构建基于大模型的问答系统。

Dify最牛的地方就是像搭积木一样简单——不用懂代码,普通人稍微学学就能用它的「智能机器人」和「流程图」功能,自己拼出一套自动化工具。比如自动回复客户、处理文件这些事,你拖拖拽拽就能搭出想要的功能,特别适合折腾些好玩的小发明。

今天一口气给大家介绍五种不同的 AI 知识库方案。我会通俗易懂地介绍,不同 AI 知识库方案的主要特点和适用场景。无论你是个人用户,还是企业用户,相信你一定能找到适合自己的 AI 知识库方案。如果你看完还是不确定选哪个,欢迎留言沟通。








