本文将为你提供一份全面的 ComfyUI 入门指南,涵盖从 ComfyUI 的介绍,到它的生图工作流程,再到实操。我将通过简单的一些生图流程案例来向你介绍 ComfyUI 中的各项操作。
最近国产大模型DeepSeek特别火,以至于频繁出现反应迟缓甚至宕机的情况,和两年多之前ChatGPT的遭遇颇为相似。万幸,DeepSeek是一个开源模型,我们大可以通过本地部署,在自己的终端上随时使用!接下来就教大家具体的操作:**一、用Ollama下载模型**首先我们需要安装Ollama,它可以在本地运行和管理大模型。
在人工智能技术日新月异的今天,影视艺术创作正经历着前所未有的范式变革。我们已不再满足于单纯观看经典,而是通过AI技术实现艺术场景的精准重构,本文将带您解密《花样年华》经典场景的AI复现之道。实现AI复刻经典电影的核心,在于构建"精准指令-优化模型"的双螺旋架构。Deepseek提示词工程如同数字时代的导演分镜脚本,通过语义解构将王家卫的迷离光影转化为"60年代港风胶片质感、暗红色丝绸旗袍、潮湿街道
《手搓DeepSeek应用,开启AI新纪元》:一个免费开源库让AI应用开发变得触手可及。无需专业技能,人人都能轻松创建属于自己的DeepSeek应用,开启智能化探索之旅。
短视频时代,AI工具已经成为设计师和视频创作者的“神助攻”!尤其是像DeepSeek这样的AI平台,凭借其强大的AI创作能力,正在改变全行业创作的面貌。今天,我们将通过一个实际案例——制作一个在抖音投放的短视频,来分享如何利用DeepSeek + comfy UI + 可灵,高效产出AI视频内容。从分镜设计到生图咒语优化,再到视频生成与后期合成,更先进的AI工具能够帮助我们提升效率,释放更多创意空
ComfyUI-aki-v1.3这个绘世启动器我点开就成这样,Devixe Guard全部调成0也没用,那位大佬说一下这玩意咋回事
今天来聊聊DeepSeek结合创作AI视频如何提效的,效果很惊人,AI的快速发展,让普通人也能安上创作的翅膀,我爱死AI时代了。
今天通过一篇文章用国产之光DeepSeek+即梦+剪映,10分钟教你制作一个中餐饮食计划视频。
在科技日新月异的今天,每一个重大的技术突破都可能成为推动社会进步的强大动力。2025年,似乎正成为这样一个充满无限可能的年份。继DeepSeek之后,又一款带有中国印记的AI产品——Manus,以其独特的魅力和强大的功能,再次震惊了全球AI界。
最近一个月deepseek是火热般的存大,几乎全渠道无人不知,所以这期不是关于deepseek的本地部署,本地能部署的deepseek大语言模型都是玩玩的,要真正发挥它的价值老实点使用大平台部署的满血版或直接在官方上的,是一款开源的多模态模型,能够在 ComfyUI 中实现图像理解和生成。所以,要在 ComfyUI 中使用 DeepSeek Janus Pro,首先需要安装 ComfyUI-Jan
Comfy UI 是一个基于节点的可视化编程工具,主要用于构建和定制复杂的工作流程,尤其在 AI 图像生成领域(如 Stable Diffusion)中广受欢迎。它通过模块化的节点连接方式,让用户能够灵活控制生成过程的每一步,适合需要精细调整参数的高级用户。为了帮助大家更好地掌握 ComfyUI,我花了几个月的时间,撰写并录制了一套ComfyUI的基础教程,共六篇。这套教程详细介绍了由于篇幅原因,
这是一个关于模特智能换装的工作流,使用的主要节点是Joy_caption图片反推提取提示词,然后使用 Inpaint Crop分区重绘,分割选出除人物皮肤外的服饰遮罩。然后进行服饰重绘。以下是完整工作流:首先要上传服饰图片,可以定义上装和下装,图片尽量大些,清楚些。首先要上传服饰图片,可以定义上装和下装,图片尽量大些,清楚些。然后还需要上传一张人物模特姿势图。服饰将来就要穿在该模特身上(只更改角色
ComfyUI中的这一功能允许用户轻松地将选定的人物图像中的服装更换为不同的材质或风格。无论是将普通衣物转变为华丽的礼服,还是将现代装扮改为复古风格,这一功能都能迅速完成,极大地丰富了用户在数字时尚领域的实验和创作空间。
(来自DeepSeek回答)Stable Diffusion 是一种基于扩散模型(Diffusion Model)的生成式AI模型,主要用于文本到图像(Text-to-Image)的生成。它能够根据用户输入的文本提示(Prompt),生成高质量的图像。
译者评论:\1. 个人利用AI赚钱变现这件事本身是成立的,但合适的渠道平台和能力运气很难遇到,AI只是能力的放大器,能做的事情太多了,只有你想不到的,没有别人做不出来了。AI绘画(电商产品图很多都是,当然也有高水平艺术创作),AI写小说(番茄小说的作品很多有明显的AI感觉,对现实中已有的作品排列组合感觉很强,更新贼快,但文字水平一般般),AI编程(程序员快速创意和上线各种APP,试错成本极低,赚了
我们复制 DeepSeek 返回的结果,在浏览器中打开 https://mermaid.live ,将复制的结果粘贴上去就能得到思维导图,然后点击下载 PNG 和 SVG 图片即可。我这里的卡片样式没有仔细打磨,如果你在小红书小绿书做图文赛道,可以花时间弄一套自己的提示词,直接让 DeepSeek 变成你的出图神器!如果你觉得生成的样式是你满意的样式,则复制整块内容,创建一个新文件,修改后缀名为
2025年1月28日凌晨,中国AI公司DeepSeek突然放出“王炸”——开源多模态模型Janus-Pro-7B,在GenEval和DPG-Bench两大权威测试中,直接击败OpenAI的DALL·E 3和Stable Diffusion等业界标杆!更令人震撼的是,这款参数仅7B的模型竟支持图像生成+多模态理解,甚至能在普通高端电脑上运行。消息一出,英伟达股价暴跌17%,AI芯片市场掀起巨浪……官
今天这个工具太强了,非常适合新手,学习ComfyUI效率提升不止10倍。
今天来跟大家聊聊提示词的写法。**很多人想要尝试AI绘图****,却总是被提示词卡住。**往往要出一个画面,比如雪山湖泊,只会用美丽的、壮丽的,这种简单日常形容词,再多的东西就说不出来了。说的是不是你?
最近《哪吒之魔童闹海》票房破百亿,热度非常的火爆,各大自媒体平台都有这种哪吒角色的走秀视频,如下图这样很多人在问怎么做的,其实过程很简单,和以前宝宝时装秀异曲同工,今天就结合目前最火热的大模型DeepSeek,结合 ComfyUI 给大家出一期教程,很简单。
最近DeepSeek火爆出圈,我也优化了我的ComfyUI跑图工作流,通过配置API,实现了DeepSeek自由。对于AI绘画来说,DeepSeek都有哪些用途呢?主要有三个。一、优化提示词随着AI绘画技术的不断迭代,大模型对自然语言的理解越来越容易,之前我曾经参与创作的一些提示词插件已经没有太大必要了。但是对于绝大多数AI绘画爱好者来说,能把一幅画面表述清晰(尤其是用英语),也是一件困难的事。如
大家好!这些天Deepseek玩得怎么样啊?今天,不给大家聊Deepseek,转移一下注意力,碰巧有个新模型最近刚发布–Lumina Image 2.0。我们先来看下这个模型的介绍从上图可以看到,Lumina Image 2.0模型具有2.6B的参数量,并且使用Gemma2作为分词器,使用的是FLUX的VAE模型,基本可以确定是属于FLUX的一个分支吧。
大家好,关注AI发展趋势与专注研究AI绘画!分享一些学习AI心得!希望对您有丢丢帮助!敬请期待下期见!今天闲来无事,汇聚几个AI绘画效果,做个无聊的比较......1、用Deepseek撰写中文提示词,再翻译成英文(为了Flux.1)。提示词如下:
今天给大家分享如何在comfyui中调用Deepseek API,配合现有工作流出图。这个api调用节点也是通过我的简单引导,由Deepseek r1模型完成的,希望这篇分享可以给你一些启发。Deepseek绝对是2025开年最火的关键词之一,但是很多小伙伴使用过程中都遇到以下困扰:1.Deepseek如何助力现有工作流?2.APP一直显示“服务器繁忙,请稍后再试”3.新人小白,不懂如何调用API
🌹大家好呀!现在的AI技术一日千里,如果不及时学习,就有可能掉队!在探索道路上,我将与大家一起共同进步。**第一步:****为了确认****安装成功,**由于篇幅原因,本文精选几个章节,详细版点击下方卡片免费领取。
我觉得用来完全可以和 JoyCaption 媲美,而且可以提示词控制输出非常的自由,7B 的模型 16G 显存可用。但是目前有点不好的是节点没有自动卸载模型,会一直占用显存如果用来反推在用 FLux 生图是有些不方便的。为了帮助大家更好地掌握 ComfyUI,我在去年花了几个月的时间,撰写并录制了一套ComfyUI的基础教程,共六篇。这套教程详细介绍了。
大家好,最近到处都是Deepseek的新闻,今天来给大家分享点不一样的。在使用FLUX出图过程中,想必大家都被一个问题始终困扰着。这个问题就是FLUX在真人出图时,人物的皮肤太假,我们通常称之为塑料皮肤。今天,老金给大家介绍一个使用LORA的方法来改善人物的皮肤。这个LORA的作者在C站上相当受欢迎,拥有10K+的粉丝,他训练的LORA模型都非常棒!今天,老金介绍的皮肤改善LORA模型也是这个作者
感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,
1.ComfyUI-MixLab-Nodes 是一个专为最新版 ComfyUI 设计的多功能节点库,能够通过丰富的功能节点扩展 ComfyUI 的能力2.使用优秀的flux模型+lora,人物角色的统一 性会更佳。3.如果对生成效果不满意可使用之前文章中介绍的,进一步采样优化ai角色,使人物质感真实感。为了帮助大家更好地掌握 ComfyUI,我在去年花了几个月的时间,撰写并录制了一套ComfyUI
通过这个工作流, 通过一个模型我们可以实现 “图片描述” 和 “图片生成”双工作流通过模型自己描述图片然后再生成新的图片, 可以实现 “图片转绘” 功能, 绘图效果更加可控.省去提示描述的随机性和模型理解的歧义, 生成图片更准确这里为了帮助大家更好地掌握 ComfyUI,分享一套字节大佬整理的ComfyUI工作流集合,其包含了很多好玩有趣,但又有点复杂的工作流节点和json配置。
大家好,8天的春节假期快过完了。这个假期AI界的新闻都给Deepseek给淹没咯。今天,老金就给大家分享一个基于本地部署的Deepseek-R1模型的新用法,帮助我们在Comfyui中扩写提示词。老金给大家分享的是使用Deepseek-R1模型对提示词进行扩写的工作流:这个工作流涉及多个comfyui节点的使用,接下来,老金就给大家逐个讲解。我们先来看这部分节点,老金使用了一般模型加载和GGUF模
蛇年春节前,DeepSeek陆续发布了 v3版本和r1版本,除夕夜发布了Janus-Pro,引起了轰动。整个春节假期,DeepSeek在github和huggingface屠榜。同时,DeepSeek也遭到了国家级的DDoS攻击,服务时不时中断,严重影响了广大AI爱好者的体验。我申请的API服务,半个晚上只能输出error。好在年初二早上基本恢复了正常(联网功能还是时断时续)。DeepSeek最大
这里为了帮助大家更好地掌握 ComfyUI,分享一套字节大佬整理的ComfyUI工作流集合,其包含了很多好玩有趣,但又有点复杂的工作流节点和json配置。因为这是和DeepSeek直接交互,所以可能会出现DeepSeek自作主张的解释内容,为了方便绘画,可以让DeepSeek“闭嘴”不说无用词。尽管有很多提示词工具,但在SDXL、Flux时代,需要对提示词进行非常详尽的描述,同时还要考验英文水平。
一是从我创作的角度来说,提示词非常繁琐,尤其是Flux时代,提示词要写的非常详细,才能跑出满意的效果,作为CET-4的选手,能把场景写明白就很不容易了,只能硬着头皮填充单词:beautiful…连提示词也不去想了,找一些参考图片,用AI识别并生成提示词(反推),然后用AI翻译成中文,同时把英文提示词送给推荐的AI绘画大模型生成图片。幸运的是,我在DeepSeek官宣停止充值服务前一小时,充了10块
例如,DeepSeek-V3可以为ComfyUI提供更高质量的图像和视频生成能力,而ComfyUI则可以为DeepSeek提供一个直观、易用的用户界面,使得复杂的生成任务变得更加简单易行。例如,DeepSeek-V3的强大生成能力可以为ComfyUI提供高质量的图像素材,而ComfyUI则可以为用户提供一个直观的操作界面,使得用户能够轻松生成复杂的图像内容。例如,DeepSeek的技术可以为Com
今天文章主题将介绍当前爆火的LLM大模型DeepSeek。关于DeepSeek的成本和开源等优势网上已有大堆资料,在本文将不再赘述。本文将使用DeepSeek超强的编程能力实现ComfyUI插件。重要笔者演示需求全程以DeepSeek自动化编程为主,人工引导LLM编码和修正错误。以同为DeepSeek开源的Janus-Pro模型为例,实现Janus-Pro模型的图像反推和文生图功能的ComfyUI
ComfyUI
——ComfyUI
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net
登录社区云,与社区用户共同成长
邀请您加入社区