logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

制作github个人主页

构建.github.io主页

文章图片
#github
windows+cpp(四): vscode + Makefile开发cpp

准备gcc: 需要参考windows+cpp(二):安装cpp开发环境 MinGW 或 msys2 或 Cygwin 安装 MinGW 或 msys2 (推荐后者)vscode编写cpp的基本配置tasks.json, launch.json, .json, 可参考windows+cpp(三): VS code + MinGW, windows上编写调试cppMakefile创建一个main.cp

#vscode
【生成模型】【强化学习】(一)RLHF & DPO

大型语言模型(如 GPT 系列)在训练后,往往需要“对齐”(alignment),让它们生成更符合人类偏好的输出。比如,你问 AI 一个问题,它应该给出有帮助、礼貌的回答,而不是胡说八道或有害的内容。传统的对齐方法是 RLHF(Reinforcement Learning from Human Feedback,从人类反馈中强化学习):Step1:收集人类反馈数据。通常是给模型一个提示(promp

#人工智能#深度学习#AIGC
【生成模型】【模型介绍】(一)视频生成Wan2.1速度质量简单评测

VACE模型除了支持基本的文本和图像作为控制条件输入,还支持将视频和视频mask作为输入控制。简单理解就是视频版本的ControlNet和Flux-Fill。与图片生成的结构很像,VAE encode->Diffusion->VAE decode的形式,只是多了一个时间维度(T+1, H, W, C)

#音视频
【生成模型】【强化学习】(一)RLHF & DPO

大型语言模型(如 GPT 系列)在训练后,往往需要“对齐”(alignment),让它们生成更符合人类偏好的输出。比如,你问 AI 一个问题,它应该给出有帮助、礼貌的回答,而不是胡说八道或有害的内容。传统的对齐方法是 RLHF(Reinforcement Learning from Human Feedback,从人类反馈中强化学习):Step1:收集人类反馈数据。通常是给模型一个提示(promp

#人工智能#深度学习#AIGC
【生成模型】【强化学习】(一)RLHF & DPO

大型语言模型(如 GPT 系列)在训练后,往往需要“对齐”(alignment),让它们生成更符合人类偏好的输出。比如,你问 AI 一个问题,它应该给出有帮助、礼貌的回答,而不是胡说八道或有害的内容。传统的对齐方法是 RLHF(Reinforcement Learning from Human Feedback,从人类反馈中强化学习):Step1:收集人类反馈数据。通常是给模型一个提示(promp

#人工智能#深度学习#AIGC
【生成模型】【模型介绍】(五)Qwen-Image-Edit:diffusers中LoRA加载与分析

peft中的LoRA层对象(BaseTunerLayer的子类,比如Linear替换成peft.tuners.lora.layer.Linear),并将原本的Linear对象放到新对象的base_layer这个成员变量下,而peft.tuners.lora.layer.Linear调用时会根据激活的adapter自动应用lora。),会发现代码中既没有创建LoRA层,也没有在推理的时候调用LoRA

#人工智能#AIGC
【生成模型】【基础知识】CFG与CFG蒸馏

是生成模型推理时的一种操作,目的是使的生成图像与输入的text prompt更接近。

#人工智能#计算机视觉#AIGC
【生成模型】【模型介绍】(一)视频生成Wan2.1速度质量简单评测

VACE模型除了支持基本的文本和图像作为控制条件输入,还支持将视频和视频mask作为输入控制。简单理解就是视频版本的ControlNet和Flux-Fill。与图片生成的结构很像,VAE encode->Diffusion->VAE decode的形式,只是多了一个时间维度(T+1, H, W, C)

#音视频
【环境安装常见问题】

安装make(机器不能获取最新版的make)需要torch>=2.5。

#人工智能#AIGC#深度学习
    共 15 条
  • 1
  • 2
  • 请选择