
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
AI项目始终围绕两个本质不同的阶段展开:训练(Training)与推理(Inference)。训练是数据科学家将标注数据输入模型、让其学习模式与规律的过程;推理则是模型在训练完成后,将这些规律应用到新数据上进行预测或生成结果。两者同等重要,但如果在系统设计中混淆,会直接带来预算失控、延迟问题以及用户体验下降。

在数据中心GPU领域,以H100为代表的纯计算卡专注于极致AI算力却完全舍弃图形加速能力;而传统专业视觉显卡又难以承载现代推理任务和新兴AI图形应用的需求。L40S的推出,恰恰为合成数据生成、多模态AI开发以及需要并行处理计算与图形任务的Omniverse应用提供了理想解决方案。

AMD 最近推出了一个面向开发者的开源框架 OpenClaw,并配套提出两种硬件参考配置:RyzenClaw 与 RadeonClaw。其核心思路并不是继续把 AI 推向更大的数据中心,而是尝试让 AI Agent 能够稳定运行在本地计算设备上,并支持多 Agent 协作、长期上下文记忆以及离线运行。

摘要:美国政府正讨论建立AI芯片"全球许可证制度",可能对高性能GPU实施全球销售审批。同时,NVIDIA调整H200加速器产能,转向下一代GPU架构。这两大变化凸显AI算力产业正进入新阶段:政策监管加强、技术迭代加速与算力需求持续增长。企业需更灵活规划算力方案,考虑异构架构以应对供应链风险。AI基础设施发展正面临政策、技术和需求三重变量的共同塑造。

特朗普政府宣布允许英伟达等公司向中国出售AI芯片,但将从中抽取25%的分成,并表示这一安排也将适用于AMD、英特尔等其他芯片公司。

MLPerf v5.1 AI推理基准测试对决:NVIDIA Blackwell Ultra GB300 AMD Instinct MI355X成为焦点

随着Groq的收购完成,NVIDIA对这一概念进行了彻底重构,CPX最终进化为Groq 3 LPX机架——核心差异在于,LPX摒弃了原有的上下文处理导向,转而采用基于Groq芯片的全新解码加速架构。

NVIDIA GTC 2026自Blackwell架构推出以来最全面的平台革新,核心围绕Vera Rubin架构的量产落地与Groq 3 LPU技术的深度整合,标志着AI行业正式迈入智能体时代(agentic AI),而Vera Rubin平台正成为这场基础设施建设浪潮的核心支柱。正如黄仁勋所言,智能体AI的拐点已然到来,NVIDIA正推动史上规模最宏大的算力基建部署。

AMD 最近推出了一个面向开发者的开源框架 OpenClaw,并配套提出两种硬件参考配置:RyzenClaw 与 RadeonClaw。其核心思路并不是继续把 AI 推向更大的数据中心,而是尝试让 AI Agent 能够稳定运行在本地计算设备上,并支持多 Agent 协作、长期上下文记忆以及离线运行。

当本地算力部署与安全策略同时落实后,OpenClaw 才真正具备成为 数字助手或“数字员工” 的运行条件。









