logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

不用摄像头,WiFi 就能穿墙看人?我用笔记本 + 家里 WiFi,玩明白了这个黑科技

WiFi传感新突破:RuView实现无接触人体监测 RuView是一款基于WiFi信号的开源空间传感平台,无需摄像头或穿戴设备,仅通过普通路由器信号即可穿透墙壁,实现人体位置追踪、呼吸心跳监测等功能。其核心原理是分析WiFi信号因人体活动产生的散射变化,通过AI算法还原动作与生命体征。 优势包括: 隐私安全:不采集图像,数据本地处理; 低成本:ESP32开发板仅需几十元; 强适应性:全黑、穿墙、烟

文章图片
#科技#边缘计算#目标检测 +1
不用摄像头,WiFi 就能穿墙看人?我用笔记本 + 家里 WiFi,玩明白了这个黑科技

WiFi传感新突破:RuView实现无接触人体监测 RuView是一款基于WiFi信号的开源空间传感平台,无需摄像头或穿戴设备,仅通过普通路由器信号即可穿透墙壁,实现人体位置追踪、呼吸心跳监测等功能。其核心原理是分析WiFi信号因人体活动产生的散射变化,通过AI算法还原动作与生命体征。 优势包括: 隐私安全:不采集图像,数据本地处理; 低成本:ESP32开发板仅需几十元; 强适应性:全黑、穿墙、烟

文章图片
#科技#边缘计算#目标检测 +1
从 Sim2Sim 到 Sim2Real:以 ONNX 为核心的机器人策略实机落地全指南

本文探讨了从仿真训练到实机部署的关键挑战与解决方案,重点介绍了ONNX作为标准化交付载体的核心作用。文章指出,Sim2Sim是Sim2Real的必要准入门槛,能提前解决80%的实机问题。通过分析工业级落地经验,作者详细阐述了完整交付清单(包括ONNX模型、配置文件等)和渐进式实机测试流程(从模型校验到全场景验证)。特别强调了对齐输入输出规范、避免常见踩坑点(如维度不匹配、数据类型错误等)的重要性,

文章图片
#机器人#python
从仿真到现实:Sim2Real 迁移的完整工程实践

Sim2Real 的成功 =高保真仿真×合理的域随机化×可靠的模型导出与部署链路×安全包装。它是一个需要多次迭代的工程实践,但一旦走通,将极大缩短机器人算法的迭代周期。“迁移到 real”不是把模型拷贝过去,而是把仿真里的“观测→动作”闭环,用真机的传感器、计算芯片和执行器精确复现,同时兜住所有现实物理边界。

#人工智能
AiScan-N:AI全自动化渗透测试工具的深度技术解析

与传统签名匹配不同,ExploitAgent采用“上下文理解+Payload动态生成”的双驱动模式——LLM分析注入点的语义上下文(参数名称、业务含义、前后端错误响应模式),自适应生成绕过Payload,大幅提升对定制化防护机制的突破能力。系统深度支持与Burp Suite、Nuclei、Metasploit、xray等主流工具的集成——既可作为上层调度引擎调用这些工具的能力,也可将其发现的结果作

#自动化#运维
深度解析 NVIDIA IsaacLab:GPU 加速的机器人学仿真与研究全栈框架

摘要:NVIDIA Isaac Lab是一个基于GPU加速的开源机器人仿真与研究框架,旨在解决传统仿真工具在精度和效率上的瓶颈问题。该框架整合了高精度物理仿真、传感器模拟和强化学习生态,支持多种机器人模型和复杂场景的快速仿真。通过GPU批处理技术,Isaac Lab能实现数千个并行环境的同步运算,显著提升算法训练效率。其模块化设计和跨平台支持降低了研究门槛,同时双许可证模式兼顾学术与工业需求。该框

#学习#机器人
视觉-语言-动作模型(VLA)深度解析:当 AI 学会“看、读、动”

视觉-语言-动作模型(VLA)是具身智能的关键技术,通过融合视觉感知、语言理解和动作生成能力,使机器人能自主执行物理任务。从RT-1到RT-2的演进表明,预训练的视觉-语言模型可为机器人控制提供语义基础。典型VLA架构包含视觉编码器、语言模型、融合模块和动作解码器,训练数据来自互联网图文、机器人操作数据集和仿真环境。开源项目OpenVLA等支持快速部署和微调,推动VLA向通用机器人"大脑

#人工智能#计算机视觉
视觉-语言-动作模型(VLA)深度解析:当 AI 学会“看、读、动”

视觉-语言-动作模型(VLA)是具身智能的关键技术,通过融合视觉感知、语言理解和动作生成能力,使机器人能自主执行物理任务。从RT-1到RT-2的演进表明,预训练的视觉-语言模型可为机器人控制提供语义基础。典型VLA架构包含视觉编码器、语言模型、融合模块和动作解码器,训练数据来自互联网图文、机器人操作数据集和仿真环境。开源项目OpenVLA等支持快速部署和微调,推动VLA向通用机器人"大脑

#人工智能#计算机视觉
DINOv2 基础环境搭建与快速上手指南 —— Meta自监督视觉模型实战入门

DINOv2是MetaAI开发的基于Vision Transformer的自监督视觉模型,在1.42亿张无标注图像上预训练,能直接应用于多种视觉任务。它采用自蒸馏技术,通过学生网络预测教师网络对图像不同局部的输出,学习稳定的视觉特征。DINOv2提供四种规模模型(ViT-S/B/L/g),用户可通过PyTorchHub快速加载预训练模型进行特征提取或下游任务。环境配置推荐使用Conda管理,需匹配

#机器学习#计算机视觉#python
Codex 辅助运维自动化脚本批量生成实践

《基于OpenAI Codex的运维自动化脚本批量生成实践》 摘要:运维与DevOps工程师日常需要大量编写Shell/Python脚本,传统开发方式存在效率低、易出错等问题。OpenAI Codex通过自然语言描述直接生成代码的能力,为运维自动化提供了新思路。本文介绍了Codex在运维脚本批量生成中的具体应用方法,包括单脚本生成、批量模式、CI/CD集成等实践方案,重点阐述了优化生成质量的Pro

#运维#自动化
    共 24 条
  • 1
  • 2
  • 3
  • 请选择