
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
谷歌量子AI团队,在量子计算领域取得震惊世界的结果,他们成功实现了一种名为量子回声的算法,人类历史上首次在量子硬件上展示了可以被反复验证的量子优势。这一成果登上了Nature。巧合的是,团队核心成员Michel Devoret,因其在超导电路领域的开创性工作,刚刚获得了2025年的诺贝尔物理学奖。这是谷歌在量子硬件领域地位最有力的注脚。

AI处理长文本的尽头,或许是把文本变成图或视频。DeepSeek-OCR刚发布,马斯克说:从长远来看,人工智能模型的输入和输出中 99% 以上都将是光子。直到不能缩放。第二天,智谱就发布论文《Glyph: Scaling Context Windows via Visual-Text Compression》(通过可视文本压缩缩放上下文窗口),核心思想简直一模一样。GitHub的开源链接也同一时间
AI处理长文本的尽头,或许是把文本变成图或视频。DeepSeek-OCR刚发布,马斯克说:从长远来看,人工智能模型的输入和输出中 99% 以上都将是光子。直到不能缩放。第二天,智谱就发布论文《Glyph: Scaling Context Windows via Visual-Text Compression》(通过可视文本压缩缩放上下文窗口),核心思想简直一模一样。GitHub的开源链接也同一时间
AI处理长文本的尽头,或许是把文本变成图或视频。DeepSeek-OCR刚发布,马斯克说:从长远来看,人工智能模型的输入和输出中 99% 以上都将是光子。直到不能缩放。第二天,智谱就发布论文《Glyph: Scaling Context Windows via Visual-Text Compression》(通过可视文本压缩缩放上下文窗口),核心思想简直一模一样。GitHub的开源链接也同一时间
清华大学朱军教授团队与英伟达Deep Imagination研究组联合提出rCM(Score-Regularized Continuous-Time Consistency Model,分数正则化连续时间一致性模型)。将百亿参数扩散模型的上百步推理过程压缩至1-4步,实现了高达50倍的加速,同时保证了生成质量与多样性。Wan2.1 T2V 14B 4步生成的视频扩散模型在图像与视频合成等领域已经是
清华大学MADSys实验室与趋境科技(Approaching.AI)联合研发了一个系统KTransformers,一张消费级显卡就能跑一个万亿级参数模型。该系统的论文正式入选了计算机系统领域的顶级会议SOSP 2025。混合专家(MoE)模型的稀疏性,特别适合混合CPU/GPU推理,尤其是在低并发场景下。这种混合方法利用了CPU/DRAM的大而经济高效的内存容量和GPU/VRAM的高带宽。

哈佛和麻省理工学院的研究者们,联手打造了一个名为ToolUniverse的生态系统,目标是让每个科研人,都能构建自己的AI科学家。ToolUniverse,甚至被Nature的一篇《AI智能体将如何改变研究:科学家指南》的文章推荐。想象一下,未来的科学发现,不再是少数顶尖科学家长年累月泡在实验室里的专利,而是一个任何有点子、有想法的研究者,都能通过一个平台,像搭积木一样,快速构建一个专属的AI助手

异构算力在自动驾驶中主要支持传感器数据处理、环境感知、路径规划等任务。药物研发是另一个受益于大模型和异构算力的领域。通过自然语言处理、关联关系分析、行业产业知识推理等为动态、多维度的基本面分析做支持。异构算力在数字孪生中主要支持实时仿真、数据分析和可视化等任务。异构算力在药物研发中主要支持分子模拟和虚拟筛选等计算密集型任务。大模型技术在搜索与推荐领域的应用正在深刻改变传统的信息获取方式。芯片是支持

AI的进化已经快摸到天花板了,Meta想出个新招,让AI从自己犯的错里学习,而且不需要一个老师在旁边打分。几个月前,人工智能领域的两位大神,图灵奖得主Richard Sutton和谷歌DeepMind的科学家David Silver,联手抛出了一篇檄文——《欢迎来到经验时代》。文章观点很犀利,AI想变得更聪明,不能再像个书呆子一样只埋头啃人类数据了。它必须像个活生生的动物,被扔进一个真实的环境里,
高质量图像生成又加速了!斯坦福大学和 Adobe 研究院联手,用 pi-Flow(基于策略的流模型)技术,让 200 亿参数的文本到图像大模型,在 4 步之内就生成了媲美教师模型的高质量、高多样性图片。








