
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
这篇文章瞄准的是AutoGen框架官方教程中的Tutorial章节中的官网链接:https://microsoft.github.io/autogen/stable/user-guide/agentchat-user-guide/tutorial/human-in-the-loop.html#;

这篇论文是一篇有关图片转3D mesh并理解对象的模型,其最大的创新点在于用了一种新的方法对体素的表达进行压缩,大幅度减少了 token 消耗,仅用 1024 个离散 token 就能表示一个 3D 对象。从生成的表现来看优于目前的 SOTA 并且模型对 3D 对象的理解能力也保留了下来。就是训练对 GPU 的消耗很大,用了 48 块 H100,和其基座模型 Qwen-2.5-vl-7B-Inst

这篇文章瞄的是AutoGen官方教学文档Advanced章节中的Memory篇章,介绍了如何将外部知识添加进 Team或Agent中以实现RAG功能。

这篇笔记用来描述2025年发表在arxiv上的一篇有关VLN领域的论文,我个人觉得其应用场景比较有意思所以写下这篇读书笔记。该论文由多伦多大学团队发布,其主要研究方向在于使用手绘地图实现机器人在真实环境下的导航。

这篇论文是北大和北京智源研究院(不是上海智元机器人)共同发表的一篇具身大脑的 VLA 论文。智源研究院作为国内在 VLA 领域中科研实力强劲的一个机构,其发表的论文还是相当有技术水平和思想的,值得阅读。

这篇博客是上一篇博客的续集,所有测试和评测均基于第一篇刷机博客的环境上完成的测试。此篇博客对一些目标跟踪领域优秀的开源项目提供了在 Nvidia Jetson Thor 硬件平台上部署的参考操作。

这篇论文是一篇有关 VLA 领域的论文,其创新点在于退出了一个时空感知路由,配合蒸馏的方式动态选择大模型的功能层进行激活,以此来实现推理加速,模型的参数总量并没有减少。

这篇论文讲的是 LLM 推理加速的综述,比较全面地讲述了在推理加速领域中从算法到硬件上当前取得的进展以及存在的问题,在文章发表的时候(2023年)多模态大模型还没出现爆炸性增长,单单处理自然语言的话推理加速其实没有那么紧切,但现在(2025年)随着多模态模型的井喷,一张图像输入就可能消耗掉几千几万个 token,推理加速就变得非常重要,这也是很多公司 CTO 和 CIO 的共识。现在再回头看这篇综

这个文档用来记录 Nvidia Orin DK Ubuntu 20.04 刷机 + CUDA TensorRT + 硬盘扩容 + ROS 安装 + OpenCV-CUDA + Ollama + Yolo11 一站式解决方案

这篇论文是 DeepSeek 的 2025 年 09 月《Nature》 封面文章,主要强调的是 LLM 的推理能力可以通过纯强化学习 (RL) 来激励而无需人工标注的推理轨迹。他们提出的强化学习框架促进了高级推理模式的涌现,例如自我反思、验证和动态策略自适应。








