
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
随着大模型技术的飞速发展,我们正站在一个全新的技术前沿,探索着如何将这些强大的工具应用于实际问题的解决。如果你对AI大模型应用开发充满热情,那么你可以读一下这篇文章——一个系统全面的入门指南,专为渴望深入AI世界的你设计。
本文以ThinkRAG项目为实例,基于LlamaIndex框架,介绍大模型应用的架构设计。

本文将通过实战案例,详细介绍如何基于模型上下文协议(MCP)构建一套高性能企业RAG系统,帮助企业快速打造智能知识库应用。

本文将从性能、成本、安全、运维复杂度四个维度,系统对比两种方案,并给出可落地的混合架构建议,帮助 CTO 和技术负责人做出理性选择。

我在 GitHub 上发现了一个名为 BettaFish (微舆) 的开源项目。不同于简单的爬虫脚本,它是一个完整的 Multi-Agent(多智能体)舆情系统。
Ollama 是一个框架,允许你使用 CLI 在本地下载和访问模型。使用简单的命令,我们可以下载、聊天和设置一个服务器,其中包含我们想要从我们的应用程序中使用的模型。安装 Ollama 后,我们可以通过运行其中一个可用模型来测试一切是否正常。让我们使用 3B 参数安装 llama3.2。该库包含下载和运行模型所需的命令:`ollama run llama3.2:latest`代码解读第一次,它会下

通俗而言大模型与外界交互的唯一方式是提示词(prompt),也就是我们发给大模型的一段提问。因此学习大模型的使用得从提示词工程说起。

大家好,大模型推理框架代码绕晕人?运行速度还跟不上需求?Nano-vllm用1200行代码把这些麻烦全解决了,离线推理比vllm还快,看完就知道有多香。

我将介绍一个基于 LangGraph 构建的全面 GraphRAG 多智能体系统,它作为一个智能的食物助手。

Function calling 作为现代大模型应用中的核心机制之一,是大模型能够与外部世界交互的关键。没有这个功能,大模型的能力将仅限于自然语言处理,无法与外部数据或工具进行交互,甚至无法完成如查询天气这类基本任务。








