
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了一个创新的信息可视化工作流解决方案,通过整合Dify的工作流编排能力和MD2Card的开放API,实现了从问题输入到生成可视化知识卡片的自动化流程。该方案包含五个核心步骤:用户输入、大模型调用、文本转图片、结果校验和在线编辑功能。MD2Card作为关键组件,能将结构化文本快速转换为美观的知识卡片,支持个性化编辑。该方案在教育、企业培训、客户服务等领域具有广泛应用价值,显著提升了信息传递效

生成式 AI 应用创新引擎开源的 LLM 应用开发平台。提供从 Agent 构建到 AI workflow 编排、RAG 检索、模型管理等能力,轻松构建和运营生成式 AI 原生应用。

Dify v1.7.1安装指南摘要:Dify是一款开源大语言模型应用开发平台,支持快速搭建生成式AI应用。本文详细介绍了v1.7.1版本的安装流程:1)创建目录并下载安装脚本;2)执行脚本自动安装docker和所需镜像;3)通过80端口访问完成账号初始化;4)验证版本更新。安装过程包含镜像拉取、容器启动等关键步骤截图,并提供问题咨询方式。该平台适合技术人员和非技术人员使用,内置RAG引擎、Agen

本文详细介绍了使用Docker部署Qwen3-30B-A3B大语言模型的完整流程。首先提供Docker和Git-LFS的安装教程链接,然后指导用户快速拉取vLLM 0.9.0镜像。接着说明如何通过Git-LFS下载约60G的模型文件。重点讲解了docker-compose.yaml文件的配置方法,包括GPU资源分配和参数设置,并提供了验证API调用的curl命令示例。最后展示了模型推理效果,并附有

Dify v1.9.0发布:全新知识流水线助力企业AI落地 Dify是一款开源大语言模型应用开发平台,通过Backend as Service和LLMOps理念,帮助开发者快速构建生产级生成式AI应用。最新v1.9.0版本推出"Knowledge Pipeline"解决方案,解决了企业AI落地中的数据瓶颈问题。 该版本核心亮点包括: 可视化画布编排RAG流程 支持Notion、

通过以上步骤,您应该能成功在Ubuntu 22.04上安装并运行NVIDIA V100s显卡驱动,如有疑问可以在博客首页通过微信联系。如果输出显示GPU信息(如V100S),则驱动安装成功。

A100 够用,H100 更强,但价格高昂,适合超大规模企业级部署。

OpenAI在2025年9月底推出的Sora 2,以更逼真的物理模拟、精准的音画同步和创新的社交功能,成为AI短视频领域的焦点。但对于中国用户而言,这款海外热门工具能否使用?合规前提下有哪些尝试路径?本土又有哪些替代选择?本文将为你逐一解答。

Python是基础语言,提供编程接口。PyTorch是模型开发的核心框架。vLLM是 PyTorch 模型的推理加速器,专为 LLM 设计。三者共同支撑了大模型从开发到落地的全流程。

Dify v1.9.2版本发布,带来多项优化升级。该开源大语言模型开发平台支持快速构建AI应用,新增工作流暂停/恢复、分布式追踪等功能,优化了流式输出和前端性能。安装时需注意Weaviate客户端升级要求(v1.24.0+),可通过提供的脚本快速部署。验证步骤包括初始化账号和版本检查,默认访问端口改为8066。遇到问题可通过微信cqyunxinai咨询。完整更新日志见GitHub发布页。








