logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AIGC:阿里开源大模型通义千问部署与实战_通义大模型部署

2.1 介绍我们开源了Qwen(通义千问)系列工作,当前开源模型的参数规模为18亿(1.8B)、70亿(7B)、140亿(14B)和720亿(72B)。本次开源包括基础模型Qwen,即Qwen-1.8B、Qwen-7B、Qwen-14B、Qwen-72B,以及对话模型Qwen-Chat,即Qwen-1.8B-Chat、Qwen-7B-Chat、Qwen-14B-Chat和Qwen-72B-Chat

文章图片
#AIGC#开源
“探索AIGC市场:腾讯元宝APP加入竞争,大模型产品的未来走向与个人选择“_腾讯元宝竞品分析

我们生活在一个由数据和算法驱动的时代,人工智能大模型产品正逐渐渗透到各个行业和日常生活的方方面面。从内容创作到语言翻译,从图像识别到智能推荐,这些“全能”的AIGC产品正在重塑我们的工作和生活方式。近日,随着腾讯元宝APP的加入,国内大模型产品市场变得更加多元化。每一款产品都以其独特的功能和优势,吸引着不同用户群体的关注。你是否曾经使用过这些大模型产品?它们的使用体验如何?在这些产品中,你更倾向于

文章图片
#python#开发语言#AIGC
超详细Python教程——Python接入MySQL数据库

操作后面跟上多组数据),大家可以尝试向一张表插入10000条记录,然后看看不使用批处理一条条的插入和使用批处理有什么差别。一次性将所有记录抓取到一个嵌套元组中,会造成非常大的内存开销,这在很多场景下并不是一个好主意。大家可以参考上面的例子,试一试把 Excel 文件的数据导入到指定数据库的指定表中,看看是否可以成功。的数据库为例,为大家演示如何通过 Python 程序操作 MySQL 数据库实现数

文章图片
#数据库#python#mysql
Ai绘画工具Stable Diffusion,最全提示词使用指南!建议收藏!_ai生图提示词包含哪些

1、提示词通常是在文生图和图生图的时候会使用到,就是这里的两个功能。2、提示词由多个描述性词汇组成,由逗号隔开,结尾不需要加分隔符(注:一般都是英文词汇和英文逗号)例如:1girl,long hair,white hair表示我们想生成一个长发且头发是白色的女孩。3、提示词分为正向提示词(positive prompt)和反向提示词(negative prompt),用来告诉AI我们想要生成什么和

文章图片
#AIGC#开源#python
文心一言API使用教程(python版)

注:在做项目的时候需要调用文心一言,发现网上的版本很乱,基本都止步在官方文档的代码上,所以写了一篇博客来记录自己的尝试实现了对文心一言的循环调用和自定义询问,本篇文章不需要有任何对api的基础知识,代码全部成功运行,并引用官方文档,祝大家成功实现自己的调用预置准备部分。

文章图片
#python#dubbo
Stable Diffusion文生图模型训练入门实战(完整代码)_stable-diffusion-v1-5

(SD1.5)是由Stability AI在2022年8月22日开源的文生图模型,是SD最经典也是社区最活跃的模型之一。以SD1.5作为预训练模型,在火影忍者数据集上微调一个火影风格的文生图模型(非Lora方式),是学习的入门任务。显存要求 22GB左右在本文中,我们会使用模型在数据集上做训练,同时使用监控训练过程、评估模型效果。

文章图片
#AIGC
Llama-Factory 简介 二, 脚本详解 LLaMA-Factory/src/train_bash.py LLaMA-Factory/src/llmtuner/train/pt/workfl_

examples/│├── pretrain.sh: 基于 LoRA 进行增量预训练│├── sft.sh: 基于 LoRA 进行指令监督│├── reward.sh: 基于 LoRA 进行奖励模型训练│├── ppo.sh: 基于 LoRA 进行 PPO 训练│├── dpo.sh: 基于 LoRA 进行 DPO 训练│├── orpo.sh: 基于 LoRA 进行ORPO 训练│├── pre

文章图片
#AIGC
AI智能体研发之路-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用_llamafactory 部署

多种模型:LLaMA、LLaVA、Mistral、Mixtral-MoE、Qwen、Yi、Gemma、Baichuan、ChatGLM、Phi 等等。集成方法:(增量)预训练、(多模态)指令监督微调、奖励模型训练、PPO 训练、DPO 训练和 ORPO 训练。多种精度:32 比特全参数微调、16 比特冻结微调、16 比特 LoRA 微调和基于 AQLM/AWQ/GPTQ/LLM.int8 的 2/

文章图片
#人工智能#网络
Stable-DiffusionLoRA模型训练教程(新手篇)|LoRA训练个人经验总结与复盘_lora训练页面文件太小,无法完成操作

在此之前,StableDiffusion只能通过使用Dreambooth的方法训练大模型,如果对大模型的效果不满意,那么就只能从头开始,重新训练,但是大模型的训练要求高,算力要求大,速度慢。每次训练的loss图都是独一无二的,loss曲线只是参考,重点要观察loss逐步降低的状态,loss越低,拟合度就会越高,过低也有可能会过拟合,需要找到合理值,可以通过loss值来选择几个训练好的lora模型进

文章图片
#AIGC
VsCode 配置Copilot的详细步骤与示例_vscode copilot

配置 Copilot 安装完成后,点击 VsCode 编辑器的设置图标(齿轮形状),选择 "设置"。搜索栏中输入 "GitHub Copilot",找到 "GitHub Copilot: Api Key" 设置项,并点击 "编辑设置.json" 进行编辑。找到 "GitHub Copilot" 与 "GitHub Copilot Chat" 插件并点击安装按钮进行安装。首先,你需要安装 VsCod

文章图片
#人工智能#AIGC
    共 280 条
  • 1
  • 2
  • 3
  • 28
  • 请选择