logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

DigitalOcean 云平台 H200 GPU 按需实例,正式上线 !

DigitalOcean 曾在 2025 年 2 月率先推出了​基于 NVIDIA H200 的 GPU 裸金属服务器。​DigitalOcean 不断地在扩展 AI/ML 产品阵容,现在。这是让全球开发者都能用上最简单、最易扩展的云平台的重要一步。对于奋战在 AI 前沿的开发者来说,合适的硬件决定成败。NVIDIA H200 专为生成式 AI 和高性能计算(HPC)中最繁重的任务而生。现在,你无

#人工智能#语言模型#AIGC
DigitalOcean 开发者沙龙上海站落幕:五大硬核议题拆解 AIGC 落地的真实挑战

随着五位嘉宾的深度分享,本次 DigitalOcean 开发者沙龙以完整的技术链路,呈现了 AIGC 落地过程中最重要的四个底座:​算力、存储、知识结构化与高效推理​。从硬件到软件、从本地到云端、从模型工具链到工程优化,每一个环节都在快速迭代,而这也意味着企业与开发者正站在一个前所未有的创新窗口期。

#AIGC#人工智能
英伟达、AMD 同步涨价,企业如何锁定 2026 年的低价 GPU 云算力?

当算力变成一种像石油一样的“战略储备”时,等待往往意味着更高的成本。在英伟达和 AMD 全线调价的倒计时里,提前布局稳定的云端资源,或许能让你在 2026 年的 AI 竞赛中省下一大笔不必要的开支。

#服务器#GPU
H100 云算力哪家强?AWS、Azure、DigitalOcean等8大平台对比

除非你的业务已经深度锁定在某家大厂生态中,否则在通用 GPU 算力需求上,DigitalOcean 的性价比和灵活性远超云计算巨头。

#人工智能
裸金属 vs. 虚拟化 GPU 服务器:AI 训练与推理应该怎么选

AI 基础设施的选择,本质上是“性能”与“弹性”的权衡。​裸金属服务器代表确定性与极致算力​​,虚拟化服务器代表敏捷与成本效率。​成熟的团队会根据任务阶段动态切换两种架构——在开发阶段快步试错,在生产阶段稳定提速。当 AI 成为业务的核心生产力,算力架构的每一个选择,都将成为你竞争力的放大器。

#服务器#人工智能#运维
出海 AI 部署,选 RunPod 还是 DigitalOcean?GPU 云服务平台深度对比

按照 GPU 型号丰富程度来看,DigitalOcean 在目前所有云平台中处于第一梯队,甚至不逊于 AWS、谷歌云服务等老牌厂商。对于追求极致GPU型号自由度、对架构精细调优的AI团队或个人,RunPod提供更多消费级选择。但若你更侧重主流高性能GPU、关注长期稳定性和GPU服务器性价比,DigitalOcean无疑是更稳健的选择。

#人工智能#GPU#AIGC
GPU 选型指南(一):AI 训练巅峰之选 H100、H200与MI300X/MI325X深度对比

过去几年间,以大型语言模型(LLM)和生成式 AI 为代表的新浪潮席卷全球,对算力基础设施提出了前所未有的严苛挑战。从 GPT-4 到 Llama 3,参数量级的飞跃不仅意味着计算复杂度的几何级数增长,更直接推动了对高性能 GPU 的需求井喷。然而,对于大多数创新型企业和科研团队而言,自建 GPU 服务器集群不仅面临高昂的初始投资、漫长的采购周期,还要承担复杂的运维和折旧成本。正因如此,像 Dig

#人工智能
教程:利用智源悟界Emu3.5,生成可视化任务指南

Emu3.5 可以说是近期图像生成领域最具突破性的技术之一。它能把图像和文本交替生成,组合成故事或操作指南,这让 LLM 与视觉能力真正集成到了可解决实际问题的方向。此外,Emu3.5 本身也是非常强大的图像生成和编辑模型。我们非常推荐使用 Emu3.5 来创作视觉指导内容或图像编辑任务。它在多个维度上都领先于同类模型。

#人工智能#深度学习#计算机视觉
从7B到671B:DeepSeek R1大模型微调的GPU选型终极指南

当 DeepSeek R1 系列以 7B 到 671B的参数跨度构建起完整技术栈时,微调场景的硬件选择已演变为一场精密的数学游戏。以 FP16 精度计算,7B 模型微调需要至少 14GB显存(含优化器状态),而 671B 版本则需要惊人的 3TB 级存储空间。这种指数级增长不仅考验硬件工程师的决策能力,更揭示了算力投资的核心法则:选错 GPU 的代价,远不止于训练失败——轻则增加 30% 推理延迟

文章图片
#运维#服务器#DeepSeek
零门槛部署:在AMD MI300X上极速部署运行GPT-OSS 120B全流程实践

vLLM 是一个开源的高性能推理引擎,专为以卓越的速度和内存效率提供大型语言模型(LLM)服务而设计。通过优化 GPU 内存利用率,vLLM 比许多其他竞争方案提供更快的响应速度、更高的吞吐量和更低的延迟。其核心创新包括 PagedAttention 算法、对连续批处理的支持,以及与 Hugging Face 等主流模型生态系统的无缝兼容性。我们推荐使用 vLLM,正是基于这些优势特性。

文章图片
#AI
    共 76 条
  • 1
  • 2
  • 3
  • 8
  • 请选择