
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
BeeWare 是一个有前景的项目,它的"原生 UI"理念很吸引人。打包复杂:需要配置各平台 SDK库兼容性:不是所有 Python 库都能用文档不足:遇到问题可能要翻源码如果你只是想快速验证想法,BeeWare 值得一试。但如果是生产级应用,我建议还是考虑 Server + Client 架构——把 AI 逻辑放在服务器,客户端只做展示。下一篇预告:服务器+移动端:AI助手的最佳架构?我们将探讨
太简单:功能受限,不够灵活太复杂:学习成本高,用户不愿意用nanobot 目前的方案是"约定优于配置":技能目录结构固定,SKILL.md格式固定,用户只要按规矩写就行。如果你也在做 AI 助手,强烈建议早点把技能系统搞起来。一开始可能觉得多余,等功能多了就知道香了。有问题欢迎评论区交流,下一篇聊聊定时任务系统。
LLM 可能返回{"age": "25"} # 字符串# 但你的函数期望...# 解决:类型转换工具系统是 AI Agent 的核心能力之一。注册机制:让 LLM 知道能做什么参数解析:把文本转成函数调用安全边界:防止 AI 搞事情这三点缺一不可。尤其是安全边界,宁可保守,不要激进。毕竟,你不想让 AI 帮你"清理"硬盘。下一篇文章,我们聊聊消息总线设计——怎么用 asyncio.Queue 实现
消息总线设计:asyncio.Queue实战搞了两天,终于把 nanobot 的消息总线重构完了。说实话,一开始觉得这玩意儿挺简单的,不就是个队列吗?结果踩了一堆坑,记录一下。为什么需要消息总线?nanobot 是一个多渠道 AI 助手,要同时支持 Telegram、Discord、飞书、WhatsApp 等 20 多个平台。每个平台发来的消息都要:1. 解析格式 2.
多模型调用的碎片化。如果你只用一个模型,那确实不需要。想做成本优化需要容错和 fallback在多个模型之间做对比测试不想维护一堆 SDK那 LiteLLM 真的值得一试。官方文档写得也不错,遇到问题直接搜就行。一句话总结:早用早享受,别像我一样踩了坑才后悔。本文基于 LiteLLM v1.x 版本,API 可能有变化,请以官方文档为准。
这篇文章只是个入门,帮你搭建起AI助手的基本骨架。更复杂的功能——比如记忆系统、多渠道接入、定时任务——可以在这个基础上慢慢加。如果你也想动手做一个,建议从最简单的开始:先跑通消息循环,再加LLM调用,最后加工具。一步一步来,别一上来就想搞个大而全的。有问题欢迎评论区交流。下一篇打算聊聊LiteLLM的进阶用法,感兴趣的可以关注一下。开源项目推荐- 香港大学开源的AI助手框架,支持20+平台,功能
OpenClaw 是一个开放式个人 AI 助手平台,它可以将大语言模型(LLM)连接到你日常使用的消息应用——WhatsApp、Telegram、Discord、Slack、iMessage 等。与其他闭源方案不同,OpenClaw 完全开源,你可以在自己的服务器上运行,完全掌控自己的数据和隐私。中心化网关:单一 Gateway 管理所有渠道,避免连接碎片化工作区驱动:通过文件系统定义智能体的行为
OpenClaw 是一个强大的多渠道 AI Agent 网关,让你的 AI 助手能够跨 WhatsApp、Telegram、Discord、iMessage 等多个聊天平台运行。通过单一的 Gateway 进程,实现消息收发、媒体处理、多 Agent 路由等功能。
OpenClaw 是一个强大的多渠道 AI Agent 网关,让你的 AI 助手能够跨 WhatsApp、Telegram、Discord、iMessage 等多个聊天平台运行。通过单一的 Gateway 进程,实现消息收发、媒体处理、多 Agent 路由等功能。
在 Linux 和 Windows 系统中,都可以将 socket 设置为非阻塞模式。








