logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Ubantu22.04系统docker部署Open WebUI+Ollama【教程】

是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。

文章图片
#docker#容器#人工智能 +1
docker利用docker-compose-gpu.yml启动RAGFLOW,文档解析出错【亲测已解决】

想要让RAGFLOW利用GPU资源跑起来,可以选择docker-compose-gpu.yml启动。(但是官网启动案例是×86平台的不是NVIDIA GPU的,docker-compose-gpu.yml又是第三方维护,所以稍有问题)下面是修改后的完整docker-compose-gpu.yml文件,可以直接复制。

文章图片
#docker#ubuntu#linux
Ubuntu22系统上源码部署LLamaFactory+微调模型 教程【亲测成功】

是一个大模型训练与微调框架,旨在简化大规模语言模型(LLM)的微调、评估和部署流程,帮助开发者和研究人员更高效地定制和优化模型。

文章图片
在Ubuntu系统上部署GPUStack从节点加入集群教程【亲测成功】

在同一集群内整合 NVIDIA、AMD、Apple Silicon、昇腾、海光、摩尔线程​ 等异构 GPU/NPU,兼容 Linux、Windows、macOS,把分散设备汇聚为可共享的算力池,提升资源利用率并降低 TCO。提供 OpenAI 兼容 API、RBAC 认证与访问控制、配额/计量、全链路可观测,支持从 Hugging Face​ 快速部署开源模型,业务侧几乎零改造接入。平台侧进行最佳

文章图片
#ubuntu#linux#运维
在Ubuntu系统上部署GPUStack从节点加入集群教程【亲测成功】

在同一集群内整合 NVIDIA、AMD、Apple Silicon、昇腾、海光、摩尔线程​ 等异构 GPU/NPU,兼容 Linux、Windows、macOS,把分散设备汇聚为可共享的算力池,提升资源利用率并降低 TCO。提供 OpenAI 兼容 API、RBAC 认证与访问控制、配额/计量、全链路可观测,支持从 Hugging Face​ 快速部署开源模型,业务侧几乎零改造接入。平台侧进行最佳

文章图片
#ubuntu#linux#运维
在Ubuntu系统上部署GPUStack从节点加入集群教程【亲测成功】

在同一集群内整合 NVIDIA、AMD、Apple Silicon、昇腾、海光、摩尔线程​ 等异构 GPU/NPU,兼容 Linux、Windows、macOS,把分散设备汇聚为可共享的算力池,提升资源利用率并降低 TCO。提供 OpenAI 兼容 API、RBAC 认证与访问控制、配额/计量、全链路可观测,支持从 Hugging Face​ 快速部署开源模型,业务侧几乎零改造接入。平台侧进行最佳

文章图片
#ubuntu#linux#运维
在Ubuntu系统上使用docker部署GPUStack教程【亲测成功】

它支持在Linux、Windows、macOS上管理 NVIDIA、AMD、Apple Silicon、昇腾、海光、摩尔线程等异构 GPU,覆盖 LLM、VLM、Embedding、Reranker、扩散图像、语音 STT/TTS​ 等多类型模型提供OpenAI 兼容 API​ 与可视化控制台,便于快速搭建企业级私有模型服务。项目采用Apache License 2.0,代码托管于 GitHub。

文章图片
#ubuntu#docker#linux
在Ubuntu系统上使用docker部署GPUStack教程【亲测成功】

它支持在Linux、Windows、macOS上管理 NVIDIA、AMD、Apple Silicon、昇腾、海光、摩尔线程等异构 GPU,覆盖 LLM、VLM、Embedding、Reranker、扩散图像、语音 STT/TTS​ 等多类型模型提供OpenAI 兼容 API​ 与可视化控制台,便于快速搭建企业级私有模型服务。项目采用Apache License 2.0,代码托管于 GitHub。

文章图片
#ubuntu#docker#linux
在Ubuntu系统上使用docker部署GPUStack教程【亲测成功】

它支持在Linux、Windows、macOS上管理 NVIDIA、AMD、Apple Silicon、昇腾、海光、摩尔线程等异构 GPU,覆盖 LLM、VLM、Embedding、Reranker、扩散图像、语音 STT/TTS​ 等多类型模型提供OpenAI 兼容 API​ 与可视化控制台,便于快速搭建企业级私有模型服务。项目采用Apache License 2.0,代码托管于 GitHub。

文章图片
#ubuntu#docker#linux
docker利用docker-compose-gpu.yml启动RAGFLOW,文档解析出错【亲测已解决】

想要让RAGFLOW利用GPU资源跑起来,可以选择docker-compose-gpu.yml启动。(但是官网启动案例是×86平台的不是NVIDIA GPU的,docker-compose-gpu.yml又是第三方维护,所以稍有问题)下面是修改后的完整docker-compose-gpu.yml文件,可以直接复制。

文章图片
#docker#ubuntu#linux
    共 26 条
  • 1
  • 2
  • 3
  • 请选择