
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了具身智能的四个应用方向:实时检测、智能管家、视觉追踪和智能搬运。通过阿里云大模型API和ROS2系统实现多模态信息融合,包括早期/晚期/混合融合等方法。具体应用包括:1)实时场景分析;2)语音控制导航与任务执行;3)目标物体追踪;4)物体夹取搬运。每个应用都包含详细的操作步骤、程序分析和效果演示,展示了具身智能在环境交互中的实际应用能力。(149字)
大模型求职总结与职业发展建议 本文记录了作者在25家AI公司的面试经历,包括字节、阿里、百度等大厂及多家初创企业。成功获得9个offer,涵盖大模型研究、框架开发等方向。面试内容普遍侧重coding能力(LeetCode)和大模型技术深度(Transformer架构、分布式训练等)。从体验来看,初创公司技术考察更全面深入,而大厂更注重工程能力与团队匹配。 核心发现: 大模型领域竞争激烈,需持续跟踪
本文介绍了Hiwonder幻尔科技多模态大模型的应用教程,主要内容包括:1)阿里云和阶跃星辰API密钥的获取与配置方法;2)基于语音控制的机器人运动实现;3)自主巡线功能开发;4)颜色追踪功能实现。文档详细说明了各项功能的准备工作、操作步骤和程序逻辑,并提供了相关技术平台的关键引用。该教程通过整合语音识别、自然语言处理等技术,展示了多模态大模型在机器人控制中的实际应用方案。
每个家庭的烹饪方式、食材偏好、饮食习惯等都有所不同,尤其是对于“色香味俱全”的高要求。但智能厨房设备可能更多地提供通用的功能和设置,而没有充分考虑到个性化的差异,导致设备无法很好地适应特定用户的独特需求。也难以适应用户在烹饪过程中的即兴调整和个性化操作。例如,自动烹饪程序可能无法满足用户临时改变烹饪方法的需求。以上这些难题,共同造成了厨电行业一个有意思的现象。在家庭的其他区域,智能家电可能已经很好

ManySpeech是一个基于C#开发的AI语音处理套件,专注于解决.NET生态下的语音应用开发难题。该项目依托ONNX模型,提供语音识别、端点检测、标点恢复和音频增强等核心功能,支持多语言处理和跨平台部署。主要特点包括:全平台兼容(Windows/macOS/Linux/移动端)、轻量化优化(AOT编译减30%体积)、多任务组件协同(17种ONNX模型支持)以及企业级应用场景适配(实时/离线处理
本文提出打造无人餐厅与自动化智能厨房系统的建设方案。该系统通过智能终端设备群、物料管理系统、订单调度中枢等六大核心要素构建闭环控制流,采用"云边端协同+微服务架构"的三层信息系统设计,实现从点餐到出餐的全程自动化。方案重点解决食材识别与投料难题,建立双闭环控制架构和数字孪生系统,并建议分三阶段逐步提升自动化水平。同时明确了招标技术要求,包括系统性能、设备接口、数据安全等标准。该
面向快餐店的全程无人化自动化餐厅深度研究方案摘要 本研究提出一套完整的无人化快餐店解决方案,采用“云-边-端”协同架构,通过中央控制系统(CCS)实现订单处理、任务调度、设备管理和数据分析。系统分为四层:用户交互层(小程序、语音点餐、自助终端)、业务逻辑层(订单处理与资源调度)、设备控制层(PLC与机器人控制器)和物理执行层(智能厨具与送餐机器人)。关键信息系统包括多模态点餐支付系统、厨房自动化系
LUMI大模型分拣机器人应用摘要 本项目基于视觉大模型与机器人集成,实现多站点分拣、手眼标定、智能检测与抓取功能。核心功能包括: 多站点调度:通过multi_station_demo.py实现AGV与机器人协同作业 视觉检测:visualDetect_ali.py支持自动/手动模式的目标识别与抓取 手眼标定:采用棋盘格标定法,通过AutoCalibProccess.py采集数据并计算相机-机器人坐
本文详细拆解了从语音点餐到自动化烹饪的全流程技术方案,重点分析了食材识别分拣、切配加工和智能烹饪三个核心工序。在食材分拣环节,采用语音识别、AGV导航和机械臂抓取的协同系统,实现精准取料;切菜工序通过视觉检测、智能参数配置和力觉监控确保加工质量;烹饪阶段则运用动态参数调整和多传感器监测来把控出品。针对执行单元可靠性问题,提出了机械臂集成专用刀具、多工具快换系统和全自动切菜机三种替代方案,并对比了各
本项目基于视觉大模型与机器人集成,实现多站点智能分拣系统。系统核心功能包括手眼标定、视觉识别抓取和多站点任务调度,支持AGV联动。采用Orbbec相机和JAKA机器人,通过配置文件灵活设置分拣参数。主要技术亮点: 增强型手眼标定模块,支持多尺度棋盘格检测和亚像素优化 智能分拣流程,实现自动识别、抓取和放置一体化 多站点协同调度,支持不同操作模式配置 完善的标定验证机制,确保坐标转换精度 系统环境配







