
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
LLM部署快速入门
本文对比了 Ollama、vLLM 与 llama.server 三种开源 LLM 部署方案,并介绍了 ModelScope 与 Hugging Face 的模型获取方式。追求易用和管理:优选 Ollama + Open WebUI;追求高吞吐与硬件加速:可采用 vLLM;追求轻量、兼容 OpenAI API:可使用 llama.server。
MCP快速入门Demo
MCP使用快速入门。本文将带您了解 MCP 协议的基本概念,介绍著名的仓库,并演示如何通过 FastMCP 客户端 +LLM的Fuctioncalling调用多个 MCP 服务(查询天气+计算器)。mcp-clientMCP(Model Context Protocol)是一种开放协议,旨在为大型模型(LLM)与本地或远程资源之间提供安全、标准化的交互接口,类似于专为 LLM 设计的 API。
到底了







