
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
小米YU7发布会后,雷军在接受采访时说了一句很实在的话:"做玄戒O1的时候,我们完全没有想到做得有这么好。玄戒O1的成功,连雷军自己都觉得意外。他坦言,正是因为没想到效果这么好,所以手机和平板的备货都很少,结果被人说卖不动。"三四年前你敢拼多大量?你能知道做出来有这么好吗?"雷军的反问很有意思。做芯片这件事,本身就充满了不确定性。芯片研发周期长,投入大,风险高。三四年前开始做玄戒芯片的时候,小米内
HW5的到来,对中国的自动驾驶玩家来说,既是压力也是机遇。2500 TOPS的算力,已经能够支撑更复杂的端到端神经网络,处理城市道路的各种边缘场景。感知需要处理海量的视觉、雷达数据,决策需要实时运行复杂的神经网络模型,执行需要精确的控制算法。国内的地平线、黑芝麻等公司,面临的挑战更大。谁的芯片更强,谁就能处理更复杂的场景,做出更准确的判断。很多时候,用好现有的芯片平台,配合优秀的算法,同样能做出不
"这些推理模型会自言自语,"黄仁勋解释说,"它们不再是一次性回答,而是会反复思考,生成大量的思维过程。这不是一个小数目——相当于说,如果现在的AI需要一台电脑的算力,未来的推理模型需要一个小型数据中心的算力。想象一下,当你在思考一个商业决策时,你的"计算机伙伴"不只是查找相关数据,而是能够模拟不同的市场情况,预测各种可能的结果,甚至提醒你考虑一些被忽视的风险因素。就像工业革命时期对机械设备的需求,
在芯片行业,关于验证团队该放哪里的争论从未停止。有的观点认为验证应该独立成平台部门,统一管理、标准化流程。但现实告诉我们,。把验证做成平台部门,表面上优势明显:资源统一调配,工具链标准化,人员专业化程度高。管理层最爱这套说辞——看起来既专业又高效。但问题在于,。每个产品线的验证需求千差万别,AI芯片和存储芯片的验证重点完全不同。平台部门的验证工程师很难深入理解业务特性,只能按照标准化流程机械执行。
CUDA的可怕之处,不在于芯片硬件有多强,而在于它建立了一个完整的软件生态。从开发工具到编程框架,从算法库到应用软件,整个AI开发圈子都在用CUDA的那套东西。但英伟达持续投入,不断完善,最终建成了今天的庞大生态。还需要有配套的软件栈,需要有开发者社区,需要有足够的应用案例。大家都在自己的小圈子里转悠,软件生态各搞各的,标准也不统一。用了你家的芯片,就要学你家的开发工具。开发者一比较,CUDA什么
说起AI芯片,大家第一反应肯定是英伟达的GPU,毕竟这家公司已经把AI训练和推理市场吃得死死的。但最近有个叫Positron的美国小公司,居然用FPGA来挑战英伟达的地位,而且数据还挺唬人的。Positron这家2023年才成立的公司,居然已经把AI加速器送到了美国各地的数据中心,他们的Atlas系统在AI推理任务上,性能功耗比比英伟达H100强3.5倍,能耗比也是3.5倍。
阿里云出来澄清了,说什么"采购寒武纪15万片GPU"的传言是假的。为什么这样一个"澄清"会成为新闻?说白了,因为大家心里都有一杆秤——国产AI芯片到底行不行,最直接的证明就是看大厂买不买账。这些年,国产AI芯片公司一个接一个地冒出来,PPT做得比谁都漂亮,发布会开得比谁都热闹。但有个很现实的问题:你的芯片再好,如果阿里、腾讯、百度这些大厂不买,那基本上就是"叫好不叫座"。为什么?道理很简单。这些互
英伟达这个AI芯片界的老大,居然要自己动手做HBM基础芯片了,预计2027年下半年就要试产。一直以来,英伟达都是那个"甲方爸爸"的角色。需要什么芯片就找供应商定制,SK海力士、三星这些大厂都抢着给它供货。为什么要这么干?道理其实很简单——掌控权。现在的AI大潮下,HBM内存就是那个卡脖子的关键零件。英伟达虽然财大气粗,但终究要看别人脸色。万一哪天供应商出了问题,或者价格被卡住了,那可就被动了。做H
美光这次能够率先锁定2026年订单,表面上看是靠12层堆叠的HBM3E和即将量产的HBM4。按理说,在HBM这个赛道上,SK海力士一直是老大,三星紧随其后,美光长期被认为是"老三"。在当前的国际环境下,英伟达作为美国AI芯片的领军企业,在选择供应商时很可能会优先考虑本土公司。当然,美光自身的努力也不能忽视。他们在HBM4上选择了相对保守但稳妥的1β工艺节点,而不是三星那种激进的1c节点。其实仔细想
刷到一个新闻,说深圳有个修GPU的师傅,一个月能修500块英伟达的高端芯片。我第一反应是:这不就是修电脑的吗?仔细一看才发现,人家修的可不是普通显卡,而是那些动辄几十万一块的AI芯片。以前大家都觉得AI会抢走人类的工作,结果现在AI火了,反倒催生出了一堆新工作。修芯片这活儿,以前谁能想到会这么赚钱?







