logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

argus/nvarguscamerasrc 远程显示报错

argus/nvarguscamerasrc(NVIDIA Jetson 平台的 CSI 摄像头采集驱动和 GStreamer 插件)确实依赖本地物理 X11 环境,在远程 X11 转发(如 ssh -X)、虚拟 X11(如 xvfb、xdummy)等环境下经常会出错,常见表现包括:总结:依赖本地物理 X11 环境,远程 X11 转发和虚拟 X11 环境下经常会出错,建议在本地物理桌面环境下运行相

机器人等级划分: 从level0到level4

该报告系统性地提出了一个从商业可行性角度划分机器人发展的五级框架,清晰地描绘了从当前自动化到未来通用机器人(General-Purpose Robots)的演进路径。报告的核心是将机器人技术的发展划分为五个渐进的、商业上可实现的等级(Level)。每一级都建立在前一级的基础之上,解锁新的能力,并逐步取代更多的人类劳动力。SemiAnalysis发布了《机器人自主性等级》

#机器人
Hugging Face多卡训练“假快”?一文讲透`per_device_train_batch_size`的“陷阱”

多卡训练时GPU利用率低?可能是启动方式不对!用python直接运行会触发低效的DataParallel模式,导致batch_size被误解为总样本数。正确做法是使用accelerate launch启动,配合删除device_map参数并调整SFTConfig设置,启用高效的DistributedDataParallel模式。三步优化即可让所有GPU满负荷工作:1)改用accelerate la

模型上下文协议(MCP)实践指南

本文介绍了Model Context Protocol (MCP) Python SDK的安装和使用过程。首先需要通过pip install "mcp[cli]"安装MCP,要求Python版本大于3.10。运行测试demo时可能遇到"npx not found"错误,需安装Node.js和npm。在Ubuntu系统中可使用sudo apt install

文章图片
#MCP
Hugging Face 训练避坑指南:`device_map=“auto“` 在 SFTTrainer, Accelerate, Unsloth 中的正确用法

运行方式 / 使用的库用法核心原因 (一句话)pythonSFTTrainer必须加手动模式,需要开发者开启高级加载功能。不能加自动模式,与外部环境的管理权限冲突。unsloth可选 (不影响)智能模式,库本身已内置最佳实践。希望这篇博客能帮助你彻底搞懂的用法,让你的大模型微调之路更加顺畅!

DINOv3不同尺寸模型效果比较

可以看到, 4个尺寸的模型都能较好的提取到图像的特征。实际使用时可以根据硬件情况合理选用, 不用盲目追求大的模型。选取 29M, 86M, 300M和840M 4个尺寸的模型进行特征可视化对比。

文章图片
Google 系列大模型时间线与主要特性

Google大模型发展历程可分为三个阶段:2017-2019年为奠基期,核心突破包括Transformer架构(奠定技术基础)、BERT(双向预训练模型)和T5(统一文本任务框架);2020-2022年进入快速发展阶段,诞生了对话专用模型LaMDA、超大参数模型PaLM,以及跨模态的Imagen(文生图)和MusicLM(文生音乐);2023年后聚焦多模态与开源,推出升级版PaLM 2、Gemin

文章图片
#AI
【LLM硬核】大模型显存精算指南:从推理到训练,模型到底需要多少显存?

无论是自己部署本地知识库,还是尝试微调一个垂直领域的模型,“显存到底够不够”永远是第一个要计算的问题。很多同学有一个误区:“7B 的模型文件只有 14GB,为什么我 24G 的 3090 跑训练还是直接爆显存?这篇文章将从底层原理出发,详细拆解推理、全量微调、LoRA微调三种场景下的显存计算公式,并附带 7B 和 70B 模型的实战估算。

#人工智能
国内主要人形机器人公司全景对比

国内人形机器人行业快速发展,多家新兴企业崭露头角。智元机器人(上海)由华为前高管创立,获高瓴、红杉等投资,估值150亿元,产品远征A1拥有40+自由度。宇树科技(杭州)专注工业应用,其H1机器人扭矩达240Nm。傅里叶智能(上海)依托上海交大,研发康养机器人GR-1。星动纪元(北京)由清华孵化,获5亿元融资,L7机器人速度达3.6m/s。银河通用(北京)与北大合作研发工业机器人Galbot G1。

#机器人#人工智能
OpenAI 系列大模型发展时间轴与主要特性

这个阶段的核心是验证了“生成式预训练 Transformer” (Generative Pre-trained Transformer) 这一技术路径的巨大潜力。这是AI走向大众的关键一年。核心从“模型能做什么”转向“模型应该做什么”,并通过一款现象级产品引爆全球。模型规模达到前所未有的高度,并开始通过API对外提供服务,同时能力拓展到代码和图像领域。模型在推理能力上达到新高度,并开始原生、无缝地

文章图片
    共 110 条
  • 1
  • 2
  • 3
  • 11
  • 请选择