logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

[VT-Refine] 仿真平台 | Isaac Gym引擎 | easysim-envs配置

本章我们探索了驱动VT-Refine机器人训练的至关重要的**仿真平台**。我们了解到:*它提供了一个**安全高效的虚拟环境**,让机器人学习复杂的双手装配任务。***Isaac Gym**是高性能、GPU加速的"游戏引擎",负责处理逼真的物理和渲染虚拟世界。***easysim-envs**在Isaac Gym的基础上,为VT-Refine的挑战提供了特定的机器人模型、任务定义和交互接口。*你主

文章图片
#算法
[GICP] 点云预处理 | 近似最近邻搜索结构(ANN) | KdTree构建 & 体素地图实时管理

利用GPU实现大规模ANN并行构建**分布式ANN**支持超大规模点云的==分布式存储与查询==

文章图片
#c++#算法#人工智能
[sam2图像分割] docs | SAM 2的构建 | SA-V数据集

SAM2是一个强大的==对象分割框架==,适用于`静态`*图像*和`动态`*视频*场景

文章图片
pii dfs|prim

/ 子树和为0,节点数记为0。邻接表建图后pair<int, int> dfs(int node)

#算法
[CUDA#8] GPU Performance Analysis | NVIDIA Nsight(GUI)

文章摘要: 本文介绍了GPU性能优化的核心方法论,通过矩阵-向量运算案例展示了三个优化版本。关键要点包括:1)GPU性能优化的三大目标(高效内存利用、充分并行化、消除瓶颈);2)NVIDIA推荐的性能分析循环流程(分析-确定瓶颈-优化);3)占用率对性能的影响;4)从CPU基准版本到GPU优化版本的演进过程,逐步改进内存访问模式和归约算法。文章强调优秀的GPU代码是通过持续分析和迭代优化产生的,而

文章图片
[CUDA#7] Concurrency | Streams

本文介绍了CUDA编程中利用流(Stream)实现任务并行的优化方法。通过将GPU数据处理流程分解为多个独立任务流,可以实现主机与设备间的异步数据传输和内核计算的并行执行,显著提升整体性能。关键点包括:1) 使用页锁定内存(pinned memory)加速数据传输;2) 创建多个CUDA流实现任务并行;3) 通过异步API(cudaMemcpyAsync等)实现不同流的并发操作。文中通过代码示例展

文章图片
[CUDA#7] Concurrency | Streams

本文介绍了CUDA编程中利用流(Stream)实现任务并行的优化方法。通过将GPU数据处理流程分解为多个独立任务流,可以实现主机与设备间的异步数据传输和内核计算的并行执行,显著提升整体性能。关键点包括:1) 使用页锁定内存(pinned memory)加速数据传输;2) 创建多个CUDA流实现任务并行;3) 通过异步API(cudaMemcpyAsync等)实现不同流的并发操作。文中通过代码示例展

文章图片
[CUDA#6] Managed Memory | 异构编程

CUDA统一内存技术(Unified Memory)通过cudaMallocManaged实现了CPU与GPU内存的统一管理,简化了异构编程中的内存操作。该技术具有以下特点:1)支持超量内存分配,允许GPU访问超过显存容量的数据;2)自动按需迁移内存页,优化数据访问效率;3)Pascal+架构支持系统级原子操作和细粒度内存管理。开发者可通过cudaMemAdvise和cudaMemPrefetch

文章图片
#架构
[Agent可视化] 策略引擎(OPA) | Rego规则 | 多级执行模式(dry-run/enforce)

策略引擎通过:- 声明式的Rego规则语言- 多级执行模式(dry-run/enforce)- 动态热加载机制

文章图片
#python
    共 188 条
  • 1
  • 2
  • 3
  • 19
  • 请选择