logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

modelscope上 vllm 部署模型(笔记)

附加部署量化30BInt4 版本。. 流式输出测试命令​。

autodl vLLM 部署MinerU2.5

vLLM 推理服务器,需要持续运行mineru:客户端工具,连接服务器处理文档关系是服务端,mineru是客户端,通过 HTTP 通信您现在可以尝试在另一个终端中使用mineru命令连接已启动的服务器了!

DeepSeek-OCR VLLM 环境配置指南

✅ 系统基础环境配置✅ Python 虚拟环境与依赖管理✅ PyTorch + vLLM 安装✅ flash-attn 编译与验证✅ 模型下载与离线部署如有问题,请参考「常见问题排查」章节或提交 Issue。

modelscope 上PaddleOCR-VL 部署(2026年1月17日亲测可用)

创建时间: 2026-01-16环境: ModelScope PAI-DSW 免费实例。

在本地玩转大模型:Ollama 与 Hugging Face GGUF 模型部署深度指南

Modelfile是 Ollama 赋能用户深度定制本地模型体验的关键。通过精确配置FROMPARAMETER和最关键的TEMPLATE指令,你可以将 Hugging Face Model Hub 上种类繁多的 GGUF 模型,无缝地集成到你的本地 Ollama 环境中,享受私人大模型带来的便利和乐趣。希望这篇指南能帮助你更好地理解和掌握在 Ollama 上部署 Hugging Face GGUF

Ollama和OpenAI Compatible对比

摘要:Ollama和OpenAI Compatible的主要区别在于API提供商类型、基础URL设置、API密钥需求及模型配置选项。Ollama专注于本地部署模型,无需API密钥,配置简单;而OpenAI Compatible更通用,支持云端服务,需要API密钥并提供更多高级配置。要在Ollama上部署Hugging Face模型,需确保模型为GGUF格式,并通过Modelfile定义模型参数、模

centos7 install rocketmq 宿主机快速搭建RocketMQ单机开发环境

在 Docker 方式下,虽然可以使用环境变量来设置配置项,但是有时候需要对容器内部的配置文件进行修改,(默认RocketMQ broker 吃内存8个G电脑配置差docker更本起不来)这可能不太方便。综上所述,虽然 Docker 提供了快速部署和便捷管理的优势,但在某些情况下,直接在宿主机上安装 RocketMQ 可能更加灵活、性能更好,并且更容易调试和排查问题。在搭建 RocketMQ 测试

文章图片
#rocketmq
在本地玩转大模型:Ollama 与 Hugging Face GGUF 模型部署深度指南

Modelfile是 Ollama 赋能用户深度定制本地模型体验的关键。通过精确配置FROMPARAMETER和最关键的TEMPLATE指令,你可以将 Hugging Face Model Hub 上种类繁多的 GGUF 模型,无缝地集成到你的本地 Ollama 环境中,享受私人大模型带来的便利和乐趣。希望这篇指南能帮助你更好地理解和掌握在 Ollama 上部署 Hugging Face GGUF

Ollama和OpenAI Compatible对比

摘要:Ollama和OpenAI Compatible的主要区别在于API提供商类型、基础URL设置、API密钥需求及模型配置选项。Ollama专注于本地部署模型,无需API密钥,配置简单;而OpenAI Compatible更通用,支持云端服务,需要API密钥并提供更多高级配置。要在Ollama上部署Hugging Face模型,需确保模型为GGUF格式,并通过Modelfile定义模型参数、模

javascript .entries()用法示例

.entries()是 JavaScript 中用于获取对象的键值对的迭代器。这些例子涵盖了一些常见的情况,你可以根据实际需要进一步扩展测试用例。键值对的迭代器对象。

文章图片
#javascript#开发语言
    共 14 条
  • 1
  • 2
  • 请选择