logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

CubeMx 配置FreeRTOS是存在报错,osSemaphoreCreate, osSemaphoreWait未定义

和Hal库版本不兼容问题导致的,使用CubeMa生成的函数会生成老版本的,所以需要改掉。F470\F470.axf: Error: L6218E: Undefined symbol osSemaphoreWait (referred from syscall.o).F470\F470.axf: Error: L6218E: Undefined symbol osSemaphoreCreate (r

文章图片
#stm32#嵌入式硬件#单片机 +1
本地部署openclaw+大模型

本文详细介绍了使用Ollama和OpenClaw部署本地大模型的完整流程。首先下载安装Ollama,然后部署量化版Qwen3.5 27B模型。接着通过npm安装OpenClaw,并完成手动配置向导,设置本地网关、模型参数和API端点等关键选项。配置过程中选择OpenAI兼容格式,指定量化模型ID,设置网关端口和认证令牌。最后启动OpenClaw与Qwen3.5模型的集成,为后续配置功能插件(ski

文章图片
本地部署openclaw+大模型-skill的安装

本文介绍了三种安装OpenClaw Skill的方法:1.通过ClawHub安装(推荐),需先安装ClawHub并完成GitHub认证,再使用clawhub install指令安装Skill;2.手动安装,需从ClawHub网站下载Skill并解压到指定目录。两种方式安装后都可通过指令验证。3.使用openclaw config命令配置Skill的步骤,包括选择本地网关运行、勾选Skills选项、

文章图片
OpenClaw 多 Agent 与飞书机器人(AI团队)

本文介绍了如何使用OpenClaw框架构建多Agent系统并与飞书机器人集成。OpenClaw包含核心网关、Agent和消息渠道等组件,支持创建具有不同角色的AI智能体。文章详细说明了通过Web界面、命令行或配置文件三种方式创建Agent,并指导完成飞书机器人注册配置。重点讲解了两种绑定模式:单机器人多Agent路由和多机器人多Agent专业分工。最后演示了如何将多个机器人加入飞书群聊,形成AI协

#机器人#人工智能
OpenClaw 多 Agent 与飞书机器人(AI团队)

本文介绍了如何使用OpenClaw框架构建多Agent系统并与飞书机器人集成。OpenClaw包含核心网关、Agent和消息渠道等组件,支持创建具有不同角色的AI智能体。文章详细说明了通过Web界面、命令行或配置文件三种方式创建Agent,并指导完成飞书机器人注册配置。重点讲解了两种绑定模式:单机器人多Agent路由和多机器人多Agent专业分工。最后演示了如何将多个机器人加入飞书群聊,形成AI协

#机器人#人工智能
通过WSL安装Ubuntu并使用GPU部署运行大模型

本文介绍了在Ubuntu 24.04系统中配置AI开发环境的完整流程。首先通过WSL安装Ubuntu并完成基础配置,包括网络设置和Docker安装。重点讲解了NVIDIA环境配置:安装CUDA Toolkit 12.6、设置环境变量,以及配置NVIDIA Container Toolkit以支持GPU加速。随后详细说明了Ollama容器的部署方法,包括使用--gpus参数启用GPU支持,并通过do

文章图片
从零搭建局域网大模型服务器:Ubuntu Server + Ollama + LiteLLM + Claude Code 完整指南

本文详细介绍了在Ubuntu服务器上搭建本地大模型服务的完整流程。主要内容包括:1) 安装Docker环境;2) 部署Ollama模型服务并下载DeepSeek-R1和Qwen3.5等大模型;3) 通过LiteLLM搭建统一API网关;4) 配置ClaudeCode客户端连接本地模型。该方案支持局域网内设备安全访问,提供私有化AI服务,适合团队协作和开发使用。文章还包含详细的硬件要求、架构图示、操

文章图片
本地部署openclaw+大模型-skill的安装

本文介绍了三种安装OpenClaw Skill的方法:1.通过ClawHub安装(推荐),需先安装ClawHub并完成GitHub认证,再使用clawhub install指令安装Skill;2.手动安装,需从ClawHub网站下载Skill并解压到指定目录。两种方式安装后都可通过指令验证。3.使用openclaw config命令配置Skill的步骤,包括选择本地网关运行、勾选Skills选项、

文章图片
本地部署openclaw+大模型

本文详细介绍了使用Ollama和OpenClaw部署本地大模型的完整流程。首先下载安装Ollama,然后部署量化版Qwen3.5 27B模型。接着通过npm安装OpenClaw,并完成手动配置向导,设置本地网关、模型参数和API端点等关键选项。配置过程中选择OpenAI兼容格式,指定量化模型ID,设置网关端口和认证令牌。最后启动OpenClaw与Qwen3.5模型的集成,为后续配置功能插件(ski

文章图片
本地部署openclaw+大模型

本文详细介绍了使用Ollama和OpenClaw部署本地大模型的完整流程。首先下载安装Ollama,然后部署量化版Qwen3.5 27B模型。接着通过npm安装OpenClaw,并完成手动配置向导,设置本地网关、模型参数和API端点等关键选项。配置过程中选择OpenAI兼容格式,指定量化模型ID,设置网关端口和认证令牌。最后启动OpenClaw与Qwen3.5模型的集成,为后续配置功能插件(ski

文章图片
    共 14 条
  • 1
  • 2
  • 请选择