
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
使用命令行前,请确保已经通过pip install modelscope 安装ModelScope。

23.06 LLaVA-Med 使用通用领域( general-domain)的 LLaVA 进行初始化.然后60W+6W的数据以课程学习方式(curriculum learning)持续训练(首先是**生物医学概念对齐**(biomedical concept alignment), 然后是全面的指令微调( instruction-tuning))。

核心参考:本博客代码完全是采用该博主的思路编写的,非常感谢!!How to load the pre-trained model of the tensorflow by using the opencv dnn model!项目背景需根据一批多维数据,回归计算评分,为方便移动端部署,采用C++版的opencv库调用实现BP神经网络的回归模型。思路与参考使用tensorflow搭建bp神经网络,主
百度、清华的代码助手安装与使用

虽然,当前有很多stable-diffusion-webui 的一键安装包,但是不易于彻底理解该项目主要介绍了,手动安装 stable-diffusion-webui 基础功能的过程,手动安装,了解代码结构、依赖、模型出处。

Qwen-VL-7B`是阿里基于语言模型`Qwen-7B`(LLMs),研发的**大规模视觉语言模型**(Large Vision Language Model, **LVLM**)> Qwen-VL-Chat =大语言模型(Qwen-7B) +视觉图片特征编码器(Openclip's `ViT-bigG`)+ 位置感知视觉语言适配器(可训练Adapter)+`约15亿`训练数据+`多轮训练`

comfyui的图像基本操作,重绘,img2img图像生成

【云平台】在线免费运行stable-diffusion-webui (无需配置环境)

微软的Azure页面 : https://learn.microsoft.com/zh-cn/azure/ai-services/openai/concepts/models调用代码:https://learn.microsoft.com/zh-cn/azure/ai-services/openai/how-to/switching-endpointsopenai说明: https://platf

2023年11月21日** 由 `Stability AI` 开源2个`图片到视频模型它将静止图像(still image)作为条件帧(conditioning frame),并从中生成视频分辨率(`1024x576`)。1. 上传已有1张图片,生成相关的视频片段、生成视频长度2-5秒,帧率 3-30帧每秒,2. 串联一个Stable-XL模型,生成图片后,再生成视频(文字到图片再到视频)
