
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
当下,企业正站在一场深刻技术变革的洪流之中。AI 落地的前提,是多模态数据处理走向标准化与智能化。对坚定投身于 AI 浪潮的企业来说,在见证大模型所带来的能力飞跃的同时,更应关注到多模态数据管理作为基础设施的必要性。构建能够支撑未来十年 AI 发展的数据基座,是这场变革中最应锚定的重心。对企业而言,多模态数据湖的意义远不止步于一套数据架构。它是承载 AI 应用持续演进的土壤,是企业在技术红利窗口期
当智能体数量足够多时,就可以让它们各司其职:有人专门清理重复代码,有人负责优化编译器性能,有人关注生成代码的效率,有人从 Rust 工程结构角度做重构,还有人专职维护文档。这种“类团队结构”,显著提升了整体质量和推进效率。整体读下来,Nicholas 给出了一个跟“Vibe Coding”截然不同的编程方式!在他看来,智能体团队的上限,很大程度上不取决于模型本身,而取决于你是否为它们设计了一个“不

在多模态嵌入模型的发展脉络中,jina-clip-v2(2024 年工作,2025 年发表)是 CLIP 体系的重要升级,而阿里后续推出的 GME 与 Qwen3-VL-Embedding 则代表了基于多模态大语言模型(MLLM)的新一代技术路线。

这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性能超过了带 LayerNorm 的标准 Transformer。刘壮带队的无需归一化 Transformer 又有新的版本了。一直以来,在 Transformer 架构里,LayerNorm 几乎是标配,但它也
其集代码大模型、IDE、自主开发模式为一体,覆盖代码生成、研发知识问答、单元测试用例生成、专家技能Skills、Codebase代码库索引、规范驱动开发等AI Coding技术,同时接入开源模型GLM-5.0、DeepSeek-V3.2以及华为自研模型,并提供鸿蒙的专属模型,可为开发者提高研发效率,提供极致的智能化编码体验。在质量保障方面,华为云码道将多年的研发工程经验总结提炼,形成可以被AI智能
这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性能超过了带 LayerNorm 的标准 Transformer。刘壮带队的无需归一化 Transformer 又有新的版本了。一直以来,在 Transformer 架构里,LayerNorm 几乎是标配,但它也

2026年真正爆点,必将是「超级组织」崛起。AI开始进入团队重写工作流,自动执行共享记忆,与团队协同让效率原地起飞。你的下一位同事,可能是AI。这几天,全世界的目光,都聚焦在拉斯维加斯这场科技盛宴。2026 CES大会在空前的热度中落下帷幕,毫无疑问,AI依旧是本届展会最核心的主题。老黄带来了下一代Rubin平台,六颗芯让算力狂飙5倍;苏妈也带着AI全家桶登场,豪言未来四年算力涨千倍。不仅如此,C
扩散模型(Diffusion Models)重塑了图像合成、视频生成和3D创作的格局,全面超越了生成对抗网络(GANs),但其背后的算力消耗惊人。南京大学,腾讯优图实验室,新加坡国立大学发布了DiP框架(模型、代码也即将开源)。DiP框架在不依赖VAE的情况下,以仅增加0.3%参数量的代价,将推理速度提升10倍并在ImageNet上取得1.79的FID分数,彻底解决了扩散模型在像素空间难以兼顾质量

DLCM(Dynamic Large Concept Models)将大模型的推理单位从token(词) 动态且自适应地推到了concept(概念)层级。LLM的下一个推理单位,何必是Token?刚刚,字节Seed团队发布最新研究——将大模型的推理单位从token(词) 动态且自适应地推到了concept(概念)层级。DLCM通过。由此,传统LLM中基于均匀、冗余Token信息密度的计算分配,被转

是硅谷最具影响力、也最具争议性的投资人之一,








