logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

小米的首代机器人VLA大模型来了!丝滑赛德芙,推理延迟仅80ms丨全面开源

在LIBERO、CALVIN、SimplerEnv等六个仿真环境中,Xiaomi-Robotics-0全面超过现有的包括π0、π0.5、OpenVLA、RT-1、RT-2等头部模型在内的约30个模型。这种松耦合的设计大幅降低了推理延迟,让机器人的动作不仅平滑灵巧,反应速度也达到了毫秒级——4.7B总参数的模型,推理延迟80ms,支持30Hz控制频率,在消费级显卡。这个设计的高明之处在于,大脑输出的

#机器人
小米模型实现声音理解新SOTA!数据吞吐效率暴增20倍,推理速度快4倍 | 全量开源

Dasheng-denoiser是小米近期已开源并将在荷兰鹿特丹召开的国际会议Interspeech 2025上展示的降噪模型,它使用Xiaomi Dasheng从带噪语音中提取音频嵌入向量,然后通过一个简单的降噪编码器网络模型对这些嵌入做降噪处理,最后利用声码器由降噪后的嵌入向量得到干净的语音。作为该模型的重要扩展,MiDashengLM-7B模型其训练数据由100%的公开数据构成,模型以宽松的

字节版龙虾架构火爆GitHub!开源获35k+ Star,内置Skill全家桶,原生适配飞书

内置了Tavily、Brave Search、DuckDuckGo等多种搜索引擎,还集成了Jina等爬虫工具,基本把信息收集的十八般兵器都给配齐了。在此基础上,框架还通过多层中间件链、上下文自动摘要压缩、外部文件存储、子任务限流等设计,系统性解决长时任务中上下文窗口不足的问题。核心能力上,多智能体协同、沙箱安全执行、一键部署全都有,Docker快速部署和本地开发任你挑,主流大模型统统兼容。Dock

#架构#github
具身智能数据战开打!每个普通人都能上手,边采边筛,只投喂机器人爱吃的丨穹彻

如果追求采集质量,就往往要牺牲便携性;尤其是在开放复杂环境中的多步骤任务中,模型执行的稳定性更强,不容易因光照变化、背景变化或任务干扰而出错,准确识别每一步的上下文意图,在不确定情境下仍保持清晰的目标推进逻辑。如果系统检测到采集者的操作可能低效或错误,比如动作过快、夹爪超出操作区域、多样性不足等,就会实时发出提醒,引导采集者进行调整,避免采到低价值甚至废弃的数据。在每一帧数据生成时,系统都会判断采

机器人视觉语言导航进入R1时代!港大联合上海AI Lab提出全新具身智能框架

模型会以较高频率采样最近M步的短期记忆(如当前看到的沙发位置),同时以较低频率抽取更早的长期记忆(如走廊的初始方向),通过这种”远近结合”的方式,确保Agent在复杂环境中既不迷失方向,又能对突发情况做出反应。这种设计让模型学会优先确保眼前动作的精准执行,比如先完成关键的转弯避开障碍,再循序渐进地考虑后续步骤,避免因过度关注远处目标而忽视当下的环境风险,如同人类行走时总是先看好脚下的每一步,再规划

#人工智能#机器人
全球首个具身智能本科专业!上海交大公告,联合华为培养,李飞飞高徒带队

当前学术界和产业界都在紧锣密鼓投入相关资源,例如包括斯坦福、MIT等欧美高校和研究机构都在增设具身智能实验室,谷歌、特斯拉等科技巨头也纷纷下场具身智能应用。与北大联合建设实验室,该实验室将借助智平方在机器人产业化落地的技术积淀,以及北大的科研能力,携手突破4D世界模型、端到端智能体等具身智能相关的前沿技术难题。也在今年新增机器人工程专业,依托工程科学学院、人形机器人研究院的学科优势,设立智能制造与

#华为#人工智能
具身智能的数据难题,终于有了可规模化的解法

为了捕捉人类在真实场景中的自然行为与反馈,Gen DAS在设计上完全遵循人机工程学,采用轻量化材质打造,确保用户长时间佩戴无负担、操作无干扰,从根本上避免了设备不适导致的“动作变形”。的理念,融合线上线下运营机制与众包模式,构建起业内首个规模化、自动化的真实场景数据闭环生产系统,成功将数据采集从“实验室”推向“千万家真实场景”。等全球顶尖企业与科研机构的资深专家,曾多次在智驾领域取得破圈成果。:端

#大数据#人工智能
蚂蚁具身智能明牌了:做大脑,和宇树们错位竞争

低成本后训练:高效的代码库与数据高效性优势(实验显示,仅用对手60%的数据量就能达到更好效果),让企业能用更少的数据、更低的算力成本完成对特定场景的适配。从2023年开始,他们联合星海图、松灵机器人等展开合作,在一间间真实的实验室里,通过遥控操作的方式,让机器人完成成千上万次抓取、放置、组装等动作。效率的提升,是解锁数据缩放定律的前提。思路,也就是不做机器人的本体,但求做一个通用大脑:通过在海量异

算力直降97%,GPT-3存储只用20MB?!这篇直接在1.58-bit下训练模型的新论文火了...

一水 发自 凹非寺量子位 | 公众号 QbitAI好家伙!1750亿参数的GPT-3只需20MB存储空间了?!基于1.58-bit训练,在不损失精度的情况下,大幅节省算力(↓97%)和存储(↓90%)。最近,从事机器学习的Will小哥发了一篇论文,直接引来几十万网友or同行围观。他提出了一项名为“noise_step”的新技术,允许模型直接在1.58-bit低精度下训练,且无需反向传播或动量(Mo

#gpt-3
从DeepSeek崛起到下一个亿级销量市场,这份硬核报告说明白了

比如,达摩院即将交付的玄铁C930处理器,通用算力性能在SPECint2006基准测试下能达到15/GHz,并且基于RISC-V灵活、可定制的特点,将高性能与AI算力有机结合,能更好地应对AI时代的应用需求。在预训练阶段,模型要在海量的通用数据上进行训练,训练一个大语言模型,可能要处理数十亿甚至数万亿字的文本数据,模型参数众多,为了让模型能学习到复杂的模式和特征,往往要进行成千上万次的迭代优化。从

#人工智能
    共 1632 条
  • 1
  • 2
  • 3
  • 164
  • 请选择