logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

VLA模型,下一个风口

在可预见的未来,会有与LLM同等的现象级的VLA通用模型出现,VLA 将推动智能机器人从 “工业专用” 走向 “家庭通用”,最终实现 “具身智能” 的终极目标 —— 机器人能像人类一样 “看、懂、做”,无缝融入物理世界与人类社会。

#python#人工智能
【langchain-ai】专业智能体开发框架-deepagents

Deep Agents 是一个基于 LangGraph 构建的 Python 库,旨在解决传统 LLM 工具调用代理在处理长周期、复杂任务时表现"肤浅"的问题。它通过整合规划工具、子代理、文件系统访问和详细提示等功能,使代理能够更有效地处理长期复杂任务。该项目主要受 Claude Code 启发,并在其基础上进行了通用化改进。

#人工智能
雷达回波图光流法外推项目实战!

本文介绍了一个基于OpenCV的雷达回波图光流法外推工具,支持Farneback、Lucas-Kanade和DIS三种光流算法。该工具提供完整的评估体系(TS、POD、FAR等指标),可实现多步外推预测,并通过反向映射技术确保输出图像连续平滑。DIS算法表现最佳(TS评分0.936),推荐用于雷达图像处理。项目提供命令行和API两种调用方式,适用于气象预测等场景,要求输入为时间连续的同尺寸雷达图像

#webpack#前端#node.js
如何学习跨模态对齐(尤其是 CLIP 思想)

本文系统介绍了跨模态对齐(尤其是CLIP模型)的学习路径。首先需要掌握深度学习、CV/NLP基础及对比学习原理。然后深入理解CLIP的核心思想:通过对比学习将图像和文本映射到同一语义空间,实现图文匹配。建议通过实践调用预训练CLIP模型或复现简化版来加深理解。最后,可扩展学习CLIP的改进模型如ALBEF、BLIP等,了解从独立编码到交互编码的演进。学习资源包括原始论文、代码库及相关课程。整体路径

#学习
什么是Qlora ? 消费级显卡微调大模型

QLORA()是一种高效的大模型微调技术,通过4位NormalFloat(NF4)量化(针对正态分布权重的信息最优格式)、双重量化(量化量化常量,平均每参数节省0.37位)和分页优化器(利用NVIDIA统一内存避免显存峰值)三大核心创新,将65B参数模型的微调显存需求从>780GB降至<48GB,同时完全匹配16位全参数微调的性能;基于QLORA训练的Guanaco模型。

#人工智能
深度学习和高性能计算中的BF16和FP16是什么意思

简单来说,浮点数用类似科学计数法的方式来表示一个很大或很小的数字。符号位:表示正负。指数位:表示数值的规模(例如,10的几次方)。尾数位:表示数值的精度(例如,1.234…)。FP16和BF16的区别就在于如何分配这16个比特(位)给这三个部分。特性FP16(半精度)BF16(脑浮点数)FP32(单精度)总位数16位16位32位符号位1位1位1位指数位5位8位8位尾数位10位7位23位动态范围较小

#深度学习#人工智能
AlphaEarth模型架构梳理及借鉴哪些深度学习领域方面的思想

谷歌Earth AI 模型alpha earth的模型架构介绍及思想借鉴,对深度学习建模带来深刻启发。

#架构#深度学习#人工智能
什么是Qlora ? 消费级显卡微调大模型

QLORA()是一种高效的大模型微调技术,通过4位NormalFloat(NF4)量化(针对正态分布权重的信息最优格式)、双重量化(量化量化常量,平均每参数节省0.37位)和分页优化器(利用NVIDIA统一内存避免显存峰值)三大核心创新,将65B参数模型的微调显存需求从>780GB降至<48GB,同时完全匹配16位全参数微调的性能;基于QLORA训练的Guanaco模型。

#人工智能
modelscope方式下载大模型

【代码】modelscope方式下载大模型。

文章图片
#python
    共 17 条
  • 1
  • 2
  • 请选择