
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
2026年真正爆点,必将是「超级组织」崛起。AI开始进入团队重写工作流,自动执行共享记忆,与团队协同让效率原地起飞。你的下一位同事,可能是AI。这几天,全世界的目光,都聚焦在拉斯维加斯这场科技盛宴。2026 CES大会在空前的热度中落下帷幕,毫无疑问,AI依旧是本届展会最核心的主题。老黄带来了下一代Rubin平台,六颗芯让算力狂飙5倍;苏妈也带着AI全家桶登场,豪言未来四年算力涨千倍。不仅如此,C
扩散模型(Diffusion Models)重塑了图像合成、视频生成和3D创作的格局,全面超越了生成对抗网络(GANs),但其背后的算力消耗惊人。南京大学,腾讯优图实验室,新加坡国立大学发布了DiP框架(模型、代码也即将开源)。DiP框架在不依赖VAE的情况下,以仅增加0.3%参数量的代价,将推理速度提升10倍并在ImageNet上取得1.79的FID分数,彻底解决了扩散模型在像素空间难以兼顾质量

腾讯混元AI Infra团队正式开源生产级高性能LLM推理核心算子库HPC-Ops。大模型竞赛中,算力不再只是堆显卡,更是抢效率。面对H20等推理卡在主流算子库下难以跑满性能的痛点,腾讯混元AI Infra团队正式。该算子库采用CUDA和CuTe从零构建,通过抽象化工程架构、微架构深度适配及指令级极致优化等,降低底层算子开发门槛,将核心算子性能逼近硬件峰值,实现了显著性能突破。在真实场景下,基于H

MemoRAG的出现,标志着RAG从“工具”向“智能系统”迈进了一步——它不再依赖用户提供明确查询,而是能主动理解模糊需求,通过“记忆-线索”环节搭建“需求与数据”的桥梁。降低长文本处理成本:无需为128K+上下文的LLM支付高昂算力,用轻量级模型+KV压缩即可处理超长文本;拓展RAG应用边界:首次将RAG从简单QA推向摘要、跨文档分析、法律合同解读等复杂场景;

DLCM(Dynamic Large Concept Models)将大模型的推理单位从token(词) 动态且自适应地推到了concept(概念)层级。LLM的下一个推理单位,何必是Token?刚刚,字节Seed团队发布最新研究——将大模型的推理单位从token(词) 动态且自适应地推到了concept(概念)层级。DLCM通过。由此,传统LLM中基于均匀、冗余Token信息密度的计算分配,被转

是硅谷最具影响力、也最具争议性的投资人之一,

黄仁勋指出,随着市场不断扩大,每个模型公司都可以选择自己想要差异化竞争的垂直方向或细分领域,比如“最强的编程模型”或“最容易使用、最适合大众的消费级产品”,他预测大模型领域未来会呈现出高度多样化的形态。在最新采访中,老黄自信满满地放出了这句豪言。这句话背后的原因是,前段时间,《No Prior》的Sarah Guo 与 Elad Gil 邀请英伟达 CEO 黄仁勋做了一场“2025年终总结”。

在今日上午的小米“人车家全生态”合作伙伴大会上,Xiaomi MiMo大模型负责人罗福莉也首秀并介绍了这款最新发布的大模型。中国开源模型再次迎来一位重磅选手:就在刚刚,小米正式发布并开源新模型 MiMo-V2-Flash。在今日上午的,Xiaomi MiMo大模型负责人罗福莉也首秀并介绍了这款最新发布的大模型。MiMo-V2-Flash 采用专家混合架构 (MoE),总参数 3090 亿,活跃参数

其集代码大模型、IDE、自主开发模式为一体,覆盖代码生成、研发知识问答、单元测试用例生成、专家技能Skills、Codebase代码库索引、规范驱动开发等AI Coding技术,同时接入开源模型GLM-5.0、DeepSeek-V3.2以及华为自研模型,并提供鸿蒙的专属模型,可为开发者提高研发效率,提供极致的智能化编码体验。在质量保障方面,华为云码道将多年的研发工程经验总结提炼,形成可以被AI智能
LLMs 的消息重复度极高。重复消息共享率(任何重复):36.3%。还有近似重复。Top Moltbook 重复出现 434 次,跨越 427 个线程(对我来说是一个强烈的“跨线程相同模板”信号)。并且成对 Jaccard 相似度也显示相同(在 Moltbook 中高 3 倍)。三天前,一个名叫 Moltbook 的平台在技术圈刷屏。它长得很像 Reddit,却有一个极端设定:平台上没有任何人类用








