
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
构建.github.io主页

准备gcc: 需要参考windows+cpp(二):安装cpp开发环境 MinGW 或 msys2 或 Cygwin 安装 MinGW 或 msys2 (推荐后者)vscode编写cpp的基本配置tasks.json, launch.json, .json, 可参考windows+cpp(三): VS code + MinGW, windows上编写调试cppMakefile创建一个main.cp
大型语言模型(如 GPT 系列)在训练后,往往需要“对齐”(alignment),让它们生成更符合人类偏好的输出。比如,你问 AI 一个问题,它应该给出有帮助、礼貌的回答,而不是胡说八道或有害的内容。传统的对齐方法是 RLHF(Reinforcement Learning from Human Feedback,从人类反馈中强化学习):Step1:收集人类反馈数据。通常是给模型一个提示(promp
VACE模型除了支持基本的文本和图像作为控制条件输入,还支持将视频和视频mask作为输入控制。简单理解就是视频版本的ControlNet和Flux-Fill。与图片生成的结构很像,VAE encode->Diffusion->VAE decode的形式,只是多了一个时间维度(T+1, H, W, C)
大型语言模型(如 GPT 系列)在训练后,往往需要“对齐”(alignment),让它们生成更符合人类偏好的输出。比如,你问 AI 一个问题,它应该给出有帮助、礼貌的回答,而不是胡说八道或有害的内容。传统的对齐方法是 RLHF(Reinforcement Learning from Human Feedback,从人类反馈中强化学习):Step1:收集人类反馈数据。通常是给模型一个提示(promp
大型语言模型(如 GPT 系列)在训练后,往往需要“对齐”(alignment),让它们生成更符合人类偏好的输出。比如,你问 AI 一个问题,它应该给出有帮助、礼貌的回答,而不是胡说八道或有害的内容。传统的对齐方法是 RLHF(Reinforcement Learning from Human Feedback,从人类反馈中强化学习):Step1:收集人类反馈数据。通常是给模型一个提示(promp
peft中的LoRA层对象(BaseTunerLayer的子类,比如Linear替换成peft.tuners.lora.layer.Linear),并将原本的Linear对象放到新对象的base_layer这个成员变量下,而peft.tuners.lora.layer.Linear调用时会根据激活的adapter自动应用lora。),会发现代码中既没有创建LoRA层,也没有在推理的时候调用LoRA
是生成模型推理时的一种操作,目的是使的生成图像与输入的text prompt更接近。
VACE模型除了支持基本的文本和图像作为控制条件输入,还支持将视频和视频mask作为输入控制。简单理解就是视频版本的ControlNet和Flux-Fill。与图片生成的结构很像,VAE encode->Diffusion->VAE decode的形式,只是多了一个时间维度(T+1, H, W, C)
安装make(机器不能获取最新版的make)需要torch>=2.5。







