
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
DeepSeek API 输出解析【非流式输出篇】 - OpenAI SDK
关于 OpenAI SDK 的通用知识,以 DeepSeek 聊天/推理模型为例进行演示:- 认识 API 的返回字段- 打印模型回复和每次对话的用量信息

DeepSeek API 的获取与对话示例
DeepSeek API 的多种获取方式与不同平台对话示例

深入 FastMCP 源码:认识 tool()、resource() 和 prompt() 装饰器
在使用 FastMCP 开发 MCP 服务器时经常会用到 `@mcp.tool()` 等装饰器。虽然它们用起来很简单,但当作黑匣子总让人感觉"不得劲"。接下来我们将深入相关的源码实现,别担心,不会钻没有意义的“[兔子洞](https://en.wikipedia.org/wiki/Wiki_rabbit_hole)”,你可以通过这篇文章了解到:- 如何简单启动本地的 MCP Server 和 MC

GPT 系列论文精读:从 GPT-1 到 GPT-4
GPT 数字系列论文精读:从 GPT-1 到 GPT-4

李宏毅2024生成式人工智能导论 中文镜像版指导与作业
这里是李宏毅老师2024年生成式人工智能导论的大陆镜像版的索引文章,你可以在不翻墙的情况下完成课程的所有作业。制作与分享已经获得李宏毅老师的授权,非常感谢老师!

从加载到对话:使用 Llama-cpp-python 本地运行量化 LLM 大模型(GGUF)
(无需显卡)使用 Llama-cpp-python 在本地加载具有 70 亿参数的 LLM 大语言模型,通过这篇文章你将学会用代码创建属于自己的 GPT。

李宏毅2023机器学习作业HW02解析和代码分享
李宏毅2023机器学习作业HW02解析和代码分享

生成式人工智能导论 Homework 02 样例展示
生成式人工智能导论(INTRODUCTION TO GENERATIVE AI 2024 SPRING) Homework 02 样例展示

DPO 微调示例:根据人类偏好优化 LLM 大语言模型
在本文中,我们将利用 DPO 来微调一个模型让其按照偏好进行输出。









