logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Ionic图表(饼状图等)的使用

一、html核心代码"""……<ion-content padding><div style="display: block;"><canvas baseChart[data]="doughnutCha...

Redis 可视化管理(AnotherRedisDesktopManager / Medis / redis-commander / RedisDesktopManager)

零、本机环境macOS:10.14.5redis:5.0.3一、AnotherRedisDesktopManager(免费)(推荐)1、资源链接GitHub:https://github.com/qishibo/AnotherRedisDesktopManager安装包:https://github.com/qishibo/AnotherRedisDesktopManager/rel...

Redis 可视化管理(AnotherRedisDesktopManager / Medis / redis-commander / RedisDesktopManager)

零、本机环境macOS:10.14.5redis:5.0.3一、AnotherRedisDesktopManager(免费)(推荐)1、资源链接GitHub:https://github.com/qishibo/AnotherRedisDesktopManager安装包:https://github.com/qishibo/AnotherRedisDesktopManager/rel...

Ollama 安装、运行大模型(CPU 实操版)

1. 操作步骤1.1 安装# 通过 homebrew 安装brew install ollama1.2 验证(可跳过)# 输出命令使用提示则安装成功ollama --help1.3 启动服务端# 启动 ollama 服务(默认在 11434 端口,模型文件在 ~/.ollama)ollama serve1.4 跑通第一个模型# 新开一个终端窗口,执行如下命令(将下载并运行 Q...

Ollama 安装、运行大模型(CPU 实操版)

1. 操作步骤1.1 安装# 通过 homebrew 安装brew install ollama1.2 验证(可跳过)# 输出命令使用提示则安装成功ollama --help1.3 启动服务端# 启动 ollama 服务(默认在 11434 端口,模型文件在 ~/.ollama)ollama serve1.4 跑通第一个模型# 新开一个终端窗口,执行如下命令(将下载并运行 Q...

LLM | Ollama 安装、运行大模型(CPU 实操版)

Ollama 安装与运行大模型步骤:首先通过 Homebrew 安装 Ollama,验证安装成功后启动服务端(默认端口 11434),然后在新终端运行指定模型(如 Qwen2 的 0.5B Chat 模型)

文章图片
Ollama WebUI 安装使用(pip 版)

Open WebUI (Formerly Ollama WebUI) 也可以通过 docker 来安装使用1. 详细步骤1.1 安装 Open WebUI# 官方建议使用 python3.11(2024.09.27),conda 的使用参考其他文章conda create -n open-webui python=3.11conda activate open-webui# 相关依赖挺...

#pip
组建软件RAID(mdadm完整实操版)

1. 详细步骤以 Ubuntu 上,组建 4 盘 RAID-10 为例挂载的位置以 /Volumes/RAID10 为例, 可替换为其他任意自定义路径1.1 初始化磁盘(确保初始化,不然重启后会有问题)# 清除分区信息等,将磁盘还原到类似出厂状态# 使用 fdisk 删除分区(p 列出分区,d 删除分区,w 保存更改并退出)sudo fdisk /dev/xxx# 使用 wipe...

#数据库#服务器#运维
LLM | Ollama 安装、运行大模型(CPU 实操版)

Ollama 安装与运行大模型步骤:首先通过 Homebrew 安装 Ollama,验证安装成功后启动服务端(默认端口 11434),然后在新终端运行指定模型(如 Qwen2 的 0.5B Chat 模型)

文章图片
Ollama 安装、运行大模型(CPU 实操版)

1. 操作步骤1.1 安装# 通过 homebrew 安装brew install ollama1.2 验证(可跳过)# 输出命令使用提示则安装成功ollama --help1.3 启动服务端# 启动 ollama 服务(默认在 11434 端口,模型文件在 ~/.ollama)ollama serve1.4 跑通第一个模型# 新开一个终端窗口,执行如下命令(将下载并运行 Q...

    共 13 条
  • 1
  • 2
  • 请选择