logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Agent时代,为什么多模态数据湖是必选项?

当下,企业正站在一场深刻技术变革的洪流之中。AI 落地的前提,是多模态数据处理走向标准化与智能化。对坚定投身于 AI 浪潮的企业来说,在见证大模型所带来的能力飞跃的同时,更应关注到多模态数据管理作为基础设施的必要性。构建能够支撑未来十年 AI 发展的数据基座,是这场变革中最应锚定的重心。对企业而言,多模态数据湖的意义远不止步于一套数据架构。它是承载 AI 应用持续演进的土壤,是企业在技术红利窗口期

#人工智能#深度学习#大数据 +3
Claude Opus4.6内部实用经验公开!16个智能体并行跑2周,中间几乎无人插手!曝 Vibe Coding过时了,以后是agent团队自主完成软件开发!

当智能体数量足够多时,就可以让它们各司其职:有人专门清理重复代码,有人负责优化编译器性能,有人关注生成代码的效率,有人从 Rust 工程结构角度做重构,还有人专职维护文档。这种“类团队结构”,显著提升了整体质量和推进效率。整体读下来,Nicholas 给出了一个跟“Vibe Coding”截然不同的编程方式!在他看来,智能体团队的上限,很大程度上不取决于模型本身,而取决于你是否为它们设计了一个“不

文章图片
#人工智能#xcode#macos +3
多模态 Embedding 技术迭代:jina-clip-v2 的 CLIP 突破与 MLLM 范式对比

在多模态嵌入模型的发展脉络中,jina-clip-v2(2024 年工作,2025 年发表)是 CLIP 体系的重要升级,而阿里后续推出的 GME 与 Qwen3-VL-Embedding 则代表了基于多模态大语言模型(MLLM)的新一代技术路线。

文章图片
#jina#人工智能#AI +2
清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性能超过了带 LayerNorm 的标准 Transformer。刘壮带队的无需归一化 Transformer 又有新的版本了。一直以来,在 Transformer 架构里,LayerNorm 几乎是标配,但它也

#transformer#深度学习#人工智能 +3
华为云码道代码智能体公测版正式发布:以“AI实干派”开启研发新范式,赋能千万开发者与企业

其集代码大模型、IDE、自主开发模式为一体,覆盖代码生成、研发知识问答、单元测试用例生成、专家技能Skills、Codebase代码库索引、规范驱动开发等AI Coding技术,同时接入开源模型GLM-5.0、DeepSeek-V3.2以及华为自研模型,并提供鸿蒙的专属模型,可为开发者提高研发效率,提供极致的智能化编码体验。在质量保障方面,华为云码道将多年的研发工程经验总结提炼,形成可以被AI智能

#人工智能#大数据#AI
清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性能超过了带 LayerNorm 的标准 Transformer。刘壮带队的无需归一化 Transformer 又有新的版本了。一直以来,在 Transformer 架构里,LayerNorm 几乎是标配,但它也

文章图片
#transformer#深度学习#人工智能 +3
首个AI同事正式「入编」!CES 2026超级组织引爆

2026年真正爆点,必将是「超级组织」崛起。AI开始进入团队重写工作流,自动执行共享记忆,与团队协同让效率原地起飞。你的下一位同事,可能是AI。这几天,全世界的目光,都聚焦在拉斯维加斯这场科技盛宴。2026 CES大会在空前的热度中落下帷幕,毫无疑问,AI依旧是本届展会最核心的主题。老黄带来了下一代Rubin平台,六颗芯让算力狂飙5倍;苏妈也带着AI全家桶登场,豪言未来四年算力涨千倍。不仅如此,C

#人工智能#机器学习#深度学习 +3
告别VAE压缩损耗,南京大学用DiP让扩散模型回归像素空间,实现10倍加速与SOTA级画质

扩散模型(Diffusion Models)重塑了图像合成、视频生成和3D创作的格局,全面超越了生成对抗网络(GANs),但其背后的算力消耗惊人。南京大学,腾讯优图实验室,新加坡国立大学发布了DiP框架(模型、代码也即将开源)。DiP框架在不依赖VAE的情况下,以仅增加0.3%参数量的代价,将推理速度提升10倍并在ImageNet上取得1.79的FID分数,彻底解决了扩散模型在像素空间难以兼顾质量

文章图片
#AI#人工智能
字节Seed:大概念模型来了,推理的何必是下一个token

DLCM(Dynamic Large Concept Models)将大模型的推理单位从token(词) 动态且自适应地推到了concept(概念)层级。LLM的下一个推理单位,何必是Token?刚刚,字节Seed团队发布最新研究——将大模型的推理单位从token(词) 动态且自适应地推到了concept(概念)层级。DLCM通过。由此,传统LLM中基于均匀、冗余Token信息密度的计算分配,被转

文章图片
#人工智能#大数据#算法 +1
    共 413 条
  • 1
  • 2
  • 3
  • 42
  • 请选择