logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【Reading Notes】(4)Favorite Articles from 2021

其实波尔象限与巴斯德象限,在具体科研实践时其实是一样的,就是「把问题的底层原理搞清楚」,只是问题的来源有所不同。美国普林斯顿大学的唐纳德 · 斯托克斯(Donald E. Stokes)通过 4 个象限定义了不同的研究类型,其中基础研究包括纯基础研究(波尔象限)与由应用驱动的基础研究(巴斯德象限)公式认为,任何重复的自然图案,都是通过两种具有特定特征的事物(如分子、细胞)进行相互作用而产生的。(左

文章图片
#业界资讯#人工智能#深度学习
【Linux】learning notes(4)cat、more、less、head、tail、vi、vim

如果你在使用某个特定的 Unix 系统或旧版本的 Linux,建议查看该系统的 cat 命令手册页(通过运行 man cat 命令)以获取最准确的参数列表和描述。:显示非打印字符(如制表符和换行符)。当你打开一个非常大的文本文件时,使用 more 命令可以让你逐页或逐行地查看文件内容,而不是一次性将整个文件内容滚动输出到终端,这有助于更好地管理和阅读文件。more 命令是文本处理的基本工具之一,但

文章图片
#linux#less#vim
【C】fseek、fread、ftell

fseek👉 跳位置:灵活定位文件指针,支持随机访问(如跳过模型元数据)。fread👉 读数据:高效读取二进制数据,需注意返回值和缓冲区管理。ftell👉 查位置:获取当前指针位置,便于调试或分块处理。优化建议大文件优先使用mmap或fseekoftello。嵌入式场景中,结合fseek和块读取减少I/O次数。始终检查函数返回值以确保鲁棒性。在很多推理框架(比如 TensorRT / TFL

文章图片
#c语言#开发语言
【VLA】Vision Language Action

世界模型是智能体(Agent)内部对环境动态(dynamics)的可学习、可推理的内部表征或模拟器。它能预测“如果我执行某个动作,环境会如何变化”。VLA 模型是一种端到端的策略网络,直接将视觉观测 + 自然语言指令 映射为机器人动作。。概念角色类比世界模型智能体的“想象力”和“物理直觉”大脑中的模拟器VLA智能体的“语言理解+反射动作”听到指令立刻伸手RL智能体的“实践经验”通过摔跤学会平衡未来

文章图片
#深度学习#人工智能
【VLA】Vision Language Action

世界模型是智能体(Agent)内部对环境动态(dynamics)的可学习、可推理的内部表征或模拟器。它能预测“如果我执行某个动作,环境会如何变化”。VLA 模型是一种端到端的策略网络,直接将视觉观测 + 自然语言指令 映射为机器人动作。。概念角色类比世界模型智能体的“想象力”和“物理直觉”大脑中的模拟器VLA智能体的“语言理解+反射动作”听到指令立刻伸手RL智能体的“实践经验”通过摔跤学会平衡未来

文章图片
#深度学习#人工智能
【AI】《Explainable Machine Learning》(2)

我只想知道,在这一块局部的几何区域里,如果我们改变一个特征,最后的预测结果会怎么变。我们其实没有那么在乎机器真正想的是什么(eg 生成的相应最高的图片都是杂讯),我们希望有些方法解读出来的东西,人看起来觉得很开心,然后就说机器想的可能就是这个样子的。下面是 global explanation,采用的是 gradient ascent,最大化 filter 1 的相应,求出对应的 X。gradie

文章图片
#人工智能#机器学习#深度学习 +1
【AI】Explaining AI with AI:Language models can explain neurons in language models

https://openai.com/index/language-models-can-explain-neurons-in-language-models/【AI】《Explainable Machine Learning》(1)【AI】《Explainable Machine Learning》(2)目标不同,可解释的东西不同,会采用各式各样的技术来解释Language models can

文章图片
#人工智能#语言模型
【AI】Explaining AI with AI:Language models can explain neurons in language models

https://openai.com/index/language-models-can-explain-neurons-in-language-models/【AI】《Explainable Machine Learning》(1)【AI】《Explainable Machine Learning》(2)目标不同,可解释的东西不同,会采用各式各样的技术来解释Language models can

文章图片
#人工智能#语言模型
【MOE】Understanding Yolo-Master Code

组件解决的问题作用对象是否可微Expert 使用不均衡✅ importance可微z_losslogits 数值过大✅ 完全可微路由决策模糊✅ 完全可微all_reduce多卡均衡不一致importancecode 和 paper 还是有些差异的地方,因为 code 升级过实现 soft top-k 采用了工程上的兜底,单纯 mask 是没有梯度的shared_expert 作为 residual

文章图片
#人工智能#深度学习
    共 67 条
  • 1
  • 2
  • 3
  • 7
  • 请选择