logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

ubuntu 20.04 安装微信

蛋疼的微信动不动就更新,更新了旧的还不能用这里 记录 ubuntu 20.04 安装 微信笔记。

#ubuntu#微信#linux
NLP-transformer学习:(8)trainer 使用方法

11月工作996压力较大,任务完成后,目前休息了一个月,2025年新的一天继续开始补基础。本章节是单独的 NLP-transformer学习 章节,主要实践了evaluate。同时,最近将学习代码传到:https://github.com/MexWayne/mexwayne_transformers-code,作者的代码版本有些细节我发现到目前不能完全行的通,为了尊重原作者,我这里保持了大部分的内

文章图片
#自然语言处理#transformer#学习
基础学习(13): 变分自编码器 VAE 的 loss

随着大模型以及大head 的广泛使用, 很多特征需要压缩到 latent space, 然后在通过解码器解码到自己需要的维度.本文就vae 和 rae 进行学习论文链接: https://arxiv.org/pdf/2510.11690提示:以下是本篇文章正文内容,下面案例可供参考本文就是对VAE 用的 loss 原理进行了剖析:1 MSE 的原理和局限2 其他的 loss3 为什么要用 LPIP

#学习
LeRobot SO-ARM101 学习笔记(4) pi0 fast (主要对比 pi0)

继上一篇深扣pi0 ,这里 继续 看下 pi0 fast因为我的工程一直追求实践到机器人上干看论文只有空乏的理论. 我按照惯性一直使用的 lerobot, 我之前用的工程已经没有 pi0 fast, 这里我用之前的工程进行代码和 论文的研读. 代码链接见 https://github.com/MexWayne/mexwayne_lerobot_0605因为 pi0 代码非常简单,所以不详细说明,只

文章图片
NLP-transformer学习:(3)transformer的 tokenizer

本章节主要是对 transformer 里的tokenizer 进行学习,tokenizer 比较简单,欢迎交流

文章图片
#人工智能#transformer
到底了