
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
这是我们大数据工程师的“本行”,用 AI 来学习我们自己的专业文档,没有比这更酷的了。这就是“文本分块”的“硬科学”。如果 Retrieval(检索)这一步返回的“原文”都是垃圾,那 Generation(生成)那一端的 LLM 再聪明,也是“垃圾进,垃圾出”。我们利用 Dify 的“知识库”产线,把“数据治理”这个专业领域的“私有知识”,成功“注入”到了 Dify 的向量库中。这是 Dify 的
这是我们大数据工程师的“本行”,用 AI 来学习我们自己的专业文档,没有比这更酷的了。这就是“文本分块”的“硬科学”。如果 Retrieval(检索)这一步返回的“原文”都是垃圾,那 Generation(生成)那一端的 LLM 再聪明,也是“垃圾进,垃圾出”。我们利用 Dify 的“知识库”产线,把“数据治理”这个专业领域的“私有知识”,成功“注入”到了 Dify 的向量库中。这是 Dify 的
不管是国外的 GPT-4、Claude,还是国产的 DeepSeek、通义千问,甚至是你在本地跑的 Llama3,都能像插优盘一样“插”进来,统一管理。Dify 本身不生产大模型(LLM),它是一个“AI 应用开发与运营平台”(LLMOps),它的核心能力是“管理”和“编排”。对于“私有化部署”的我们来说,Key 就存在我们自己的服务器(的db 容器)里,数据 100% 在内网,非常安全。但是,它
不管是国外的 GPT-4、Claude,还是国产的 DeepSeek、通义千问,甚至是你在本地跑的 Llama3,都能像插优盘一样“插”进来,统一管理。Dify 本身不生产大模型(LLM),它是一个“AI 应用开发与运营平台”(LLMOps),它的核心能力是“管理”和“编排”。对于“私有化部署”的我们来说,Key 就存在我们自己的服务器(的db 容器)里,数据 100% 在内网,非常安全。但是,它
不管是国外的 GPT-4、Claude,还是国产的 DeepSeek、通义千问,甚至是你在本地跑的 Llama3,都能像插优盘一样“插”进来,统一管理。Dify 本身不生产大模型(LLM),它是一个“AI 应用开发与运营平台”(LLMOps),它的核心能力是“管理”和“编排”。对于“私有化部署”的我们来说,Key 就存在我们自己的服务器(的db 容器)里,数据 100% 在内网,非常安全。但是,它
这意味着,你的 64GB 内存既是系统内存,也是显存!我将站在工程师的视角,手把手带你从零开始,用最硬核的方式玩转 Ollama,从本地部署到云端算力租赁,彻底告别 API 焦虑,为我们后续搭建 Dify 和 Agent 工作流打下最坚实的地桩。使用它们,可以显著提升模型的可管理性,将原本散乱的文件和脚本变成标准化的服务,极大地提高了我们的工作效率。这就好比 Docker 的镜像(Image),它
不管是国外的 GPT-4、Claude,还是国产的 DeepSeek、通义千问,甚至是你在本地跑的 Llama3,都能像插优盘一样“插”进来,统一管理。Dify 本身不生产大模型(LLM),它是一个“AI 应用开发与运营平台”(LLMOps),它的核心能力是“管理”和“编排”。对于“私有化部署”的我们来说,Key 就存在我们自己的服务器(的db 容器)里,数据 100% 在内网,非常安全。但是,它
你应该能看到一个名为 docker 的组,里面包含 api-1、web-1、db-1 等好几个容器,它们的状态都必须是绿色的 Running。直接访问github.com/langgenius/dify,点击绿色的 “Code” 按钮,然后选择 “Download ZIP”,下载后解压,效果一样。下一篇,将是本系列的高潮。我们不玩虚的,直接上“硬核”的,把它装到我们自己的电脑上。没有炫酷的图表,没
从只会聊天的 Chatbot,到拥有审美、能写界面、能独立规划任务、逻辑严密的“数字同事”,Gemini 3 Pro 确实让 Google 重新夺回了 AI 领域的王座。新 SOTA(当前最佳): 开发者反馈,它在调试复杂的编译器错误、重构代码且不破坏逻辑、甚至解决 λ-演算问题上,都建立了新的标准。对于程序员来说,它不再只是写写简单的 Python 脚本,而是能参与到复杂系统架构的真正的“结对编
正文共:9053字12图预计阅读时间:23分钟前几天,Datahub提供了最新的字段级别数据血缘功能,很多朋友迫不及待想对比一下Datahub的字段级血缘与Atlas的区别。这个时候问题来了,在Atlas收集Hive血缘的时候,由于部分版本问题,没有显示出字段级的数据血缘。这是为什么呢?其实只要做一个简单的修复就可以了,但是知其然也要知其所以然。今天我们就来看一下这个问题到底...







