
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
H20 芯片基于 Hopper 架构,配备了 96GB 的 HBM3 存储器,运行速度可以达到 4.0TB/s,功耗 400w. 其算力方面,int8/fp8 tensor 算力为 296T,bf16/fp16 tensor 算力为 148T,fp32 算力为 44T,fp64 算力为 1T。英伟达的 H20 芯片在中国市场的销售轨迹,深刻映射出中国对 GPU 旺盛且多元的需求态势,尤其是在人工智

从 Vera Rubin 到 DRIVE Thor,从 AI-原生 6G 到数字孪生工厂,GTC DC25 展示了 AI 正在从“模型革命”迈向“系统革命”。AI 不再只是算法的竞争,而是算力、连接与应用协同的生态重塑。

据路透社报道,在Hopper架构的H20加速器被中国禁售后,英伟达计划于今年推出基于Blackwell架构的新产品,价格更低。大规模生产预计于6月启动,中国市场可能在第三或第四季度全面铺货。尽管技术细节尚未完全披露,但已有部分关键信息浮出水面。

AMD 持续推动其高端桌面产品线发展,推出了全新的 Ryzen Threadripper 9980X 和 9970X。基于最新的 Zen 5 架构打造,这些新处理器面向在 3D 渲染、视频制作、软件编译和科学计算等多线程环境中工作的专业用户。

近期行业爆出 NVIDIA 与 AI 芯片初创企业 Groq 达成了一项重磅 技术许可与人才招募协议。虽然市场上有传闻称 NVIDIA 以约 200 亿美元收购 Groq,但官方声明显示,这并不是一次传统意义上的公司并购。

在高端 AI 服务器领域,Supermicro(超微)SYS-821GE-TNHR 是一款颇具代表性的“非典型产品”。当行业讨论的重心普遍集中在液冷方案与极限算力密度时,这台服务器选择了另一条更务实的路径:基于 NVIDIA HGX H200 的 8 卡平台,采用风冷设计,并以 8U 机箱形态,面向主流数据中心的真实部署环境。

不同规模的 DeepSeek-R1 模型对硬件需求差异巨大。从轻量级的 1.5B 到顶级超大型的 671B,硬件配置需要根据模型规模、计算需求和预算进行选择。无论是个人开发者还是企业用户,都可以根据本文的推荐找到适合自己的硬件方案,高效部署 DeepSeek-R1 模型。希望这篇文章能帮助你在搭建 AI 运算站的道路上少走弯路。如果在部署过程中遇到问题,欢迎在评论区留言交流,让我们一起攻克难题!想

英伟达近期在超级计算领域遭遇持续争议。部分 HPC 领域专家批评其在新架构中优先强化 AI 所需的低精度算力,而对传统建模与仿真高度依赖的 64 位(FP64)性能投入不足。

50系显卡(RTX 5090 / RTX 5080)凭借革命性的架构,在AI推理与科研应用中展现出显著优势。我们针对不同性能需求和预算场景,提供基于这两款旗舰GPU的整机解决方案。

特朗普政府宣布允许英伟达等公司向中国出售AI芯片,但将从中抽取25%的分成,并表示这一安排也将适用于AMD、英特尔等其他芯片公司。









