logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

保姆级教程:搭建自己的 Minecraft 服务器,跟好友一起玩!

一步一步教你如何搭建一个自己的《我的世界》服务器,与好友一起在同一个服务器中搭建、创造。

文章图片
#服务器#运维#游戏 +2
DeepSeek结合MCP Server与Cursor,实现服务器资源的自动化管理

MCP Server是最近AI圈子中又一个新的热门话题。很多用户都通过结合大语言模型、MCP Server,实现了一些工具流的自动化,例如,你只需要给出文字指令,就可以让Blender自动化完成建模的工作。你有没有想过,利用MCP来让AI Agent根据目前的项目情况,自动管理服务器资源的扩展呢?本文我们就以DigitalOcean服务器为例,来做一个示例。因为DigitalOcean 提供了简单

#自动化#运维
从零搭建AI客服!基于GPT-OSS和知识库的客户支持系统实战

Gpt-oss-120b 和 gpt-oss-20b 是 OpenAI 发布的两个开源推理模型。现在 DigitalOcean 的用户在 Gradient AI 平台创建 GPU Droplet 服务器时,可以直接。在本教程中,我们将演示如何在 DigitalOcean 的 Gradient™ AI 平台上使用 gpt-oss-120B 构建一个客户支持 AI Agent。

文章图片
#人工智能
从7B到671B:DeepSeek R1大模型微调的GPU选型终极指南

当 DeepSeek R1 系列以 7B 到 671B的参数跨度构建起完整技术栈时,微调场景的硬件选择已演变为一场精密的数学游戏。以 FP16 精度计算,7B 模型微调需要至少 14GB显存(含优化器状态),而 671B 版本则需要惊人的 3TB 级存储空间。这种指数级增长不仅考验硬件工程师的决策能力,更揭示了算力投资的核心法则:选错 GPU 的代价,远不止于训练失败——轻则增加 30% 推理延迟

文章图片
#运维#服务器#DeepSeek
高性能AI推理与工作站GPU:DigitalOcean L40s、RTX 6000 Ada与A6000全解析

要做出明智的硬件选择,首先需要明确每款GPU的核心定位与最适合的应用场景。作为为数据中心优化而生的GPU,L40s主攻AI推理、大规模生成式AI模型的快速响应与多路视频处理。其架构专为提升推理吞吐量而设计,是追求极致性价比与效率的AI工作负载首选。这是一款真正的全能型工作站旗舰卡,它在AI推理与专业渲染之间实现了完美的平衡。无论是训练AI模型、进行复杂的3D渲染,还是运行CAD/CAE软件,都能提

#人工智能
从零开始:用Qwen3-Coder在H100上构建你的智能编程工作流

凭借其令人印象深刻的上下文窗口、可通过 Qwen3-Coder-30B-A3B-Instruct 访问的较小变体,以及通义千问 Code CLI 的推出,该模型有望为开发者提供强大的智能体编程辅助。另外,Qwen3 系列的旗舰版本Qwen3-235B-A22B,需要多卡并行才能完整运行,例如2-3张H100或1-2张H200显卡,如果你需要运行期间版本,那么也可以使用 DigitalOcean 上

文章图片
#人工智能#开源
做大模型训练与AI推理,GPU服务器哪个便宜好用?

无论是需要训练千亿参数级的大型语言模型(LLM),还是运行对成本敏感的高效推理任务,高性能且易于管理的GPU资源是你成功的基石。DigitalOcean是海外知名的上市云服务平台,除了提供常见的云服务产品,还汇集了行业领先的AMD和NVIDIA的顶尖GPU产品。选择DigitalOcean的GPU Droplet,你不仅获得了强大的硬件,更享有便捷、灵活且安全的一站式云服务体验。对于需要高效推理、

#人工智能#服务器#运维
DigitalOcean Gradient AI平台现已支持OpenAI gpt-oss

OpenAI 的首批开源 GPT 模型(200 亿和 1200 亿参数)现已登陆 Gradient AI 平台。此次发布让开发者在构建 AI 应用时拥有更高的灵活度和更多选择,无论是快速原型还是大规模生产级智能体,都能轻松上手。

#人工智能
DigitalOcean Gradient AI平台现已支持OpenAI gpt-oss

OpenAI 的首批开源 GPT 模型(200 亿和 1200 亿参数)现已登陆 Gradient AI 平台。此次发布让开发者在构建 AI 应用时拥有更高的灵活度和更多选择,无论是快速原型还是大规模生产级智能体,都能轻松上手。

#人工智能
DigitalOcean 一键模型部署,新增支持百度开源大模型ERNIE 4.5 21B

使用过DigitalOcean GPU Droplet 服务器的用户应该对我们的一键模型部署功能不陌生。DigitalOcean 的功能是 DO 为开发者和企业提供的一种便捷方式,用于快速部署和运行预训练的生成式 AI 模型,尤其是大型语言模型 (LLM)。这项功能是 DigitalOcean 与 Hugging Face 合作的成果,旨在简化 AI 模型的部署流程,让用户无需复杂的配置即可开始构

#百度#人工智能#深度学习 +2
    共 59 条
  • 1
  • 2
  • 3
  • 6
  • 请选择