
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
要使用python依赖来更新ComfyUI,只有在python依赖有问题时才需要运行此命令。:用于更新ComfyUI,如果官网有ComfyUI最新版本运行此脚本进行更新升级。:插件节点的安装目录,如果有需要的插件从github上下载下来解压到此目录即可。下载后解压,双击运行 run_cpu.bat。目录下,自己下载好模型后放到对应的文件夹下。文件夹下的命令时用来跟新ComfyUI相关的。Comfy

也可以用收费的模型,只需要把API的KEY拿过来。API_KEY:从deepseek官网申请。还有其他的功能,大家可以探索探索。可以使用免费的大模型引擎。

Ollama 是一个本地运行大型语言模型的简易框架,支持一键安装和部署。文章提供了 Linux环境下的 Docker 安装配置、Ollama 容器部署、Deepseek 模型下载以及 Open WebUI 可视化界面安装等功能,简化了本地大模型的运行流程。安装完成后,用户可通过指定端口访问 Ollama 服务和 Web 管理界面。
ollama是一个简明易用的本地大模型运行框架,只需一条命令即可在本地跑大模型。开源项目,专注于开发和部署先进的大型语言模型(LLM)1b是10亿参数,通常1B,意味着需要机器需要1G以上的内存,大的数据通常在需要更高性能的任务中使用。Python3.13.0版本安装open-webui时报错。默认是7b,但是需要切换下,这样右边的命令参数才会变。双击下载的OllamaSetup.exe,无脑安装

ollama是一个简明易用的本地大模型运行框架,只需一条命令即可在本地跑大模型。开源项目,专注于开发和部署先进的大型语言模型(LLM)1b是10亿参数,通常1B,意味着需要机器需要1G以上的内存,大的数据通常在需要更高性能的任务中使用。Python3.13.0版本安装open-webui时报错。默认是7b,但是需要切换下,这样右边的命令参数才会变。双击下载的OllamaSetup.exe,无脑安装

可视化工作流编排:通过零代码拖拽式界面,无需编写代码就能构建复杂的AI工作流程,降低开发门槛,提高开发效率。多模型支持:可无缝集成GPT系列、Llama、Mistral等数百种语言模型,兼容OpenAI API兼容的私有化模型,也支持本地部署的LLaMA2、ChatGLM3等开源模型,让企业能根据业务需求和成本灵活选择。RAG增强检索。
然后将ip配置到host文件中。然后重启idea就好了。打开ip查看网站查看。
我这里用的 :ollama+ qwen 大家可以根据自己的环境自行更改Windows版本Linux版本。
可视化工作流编排:通过零代码拖拽式界面,无需编写代码就能构建复杂的AI工作流程,降低开发门槛,提高开发效率。多模型支持:可无缝集成GPT系列、Llama、Mistral等数百种语言模型,兼容OpenAI API兼容的私有化模型,也支持本地部署的LLaMA2、ChatGLM3等开源模型,让企业能根据业务需求和成本灵活选择。RAG增强检索。
搭建青龙面板







