logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【大模型入门】零基础入门AI大模型应用开发,你需要一个系统的大模型入门路径

随着大模型技术的飞速发展,我们正站在一个全新的技术前沿,探索着如何将这些强大的工具应用于实际问题的解决。如果你对AI大模型应用开发充满热情,那么你可以读一下这篇文章——一个系统全面的入门指南,专为渴望深入AI世界的你设计。

#人工智能#自然语言处理#RAG
大模型RAG实战|基于LlamaIndex的大模型应用架构设计(文末附开源项目代码和文档)

本文以ThinkRAG项目为实例,基于LlamaIndex框架,介绍大模型应用的架构设计。

文章图片
#人工智能#产品经理#RAG
RAG不好用?试试MCP这个“知识库优化大师”

本文将通过实战案例,详细介绍如何基于模型上下文协议(MCP)构建一套高性能企业RAG系统,帮助企业快速打造智能知识库应用。

文章图片
#大数据#人工智能#自然语言处理 +1
大模型选型终极指南:本地部署 vs 云 API,如何兼顾性能、成本与合规?

本文将从性能、成本、安全、运维复杂度四个维度,系统对比两种方案,并给出可落地的混合架构建议,帮助 CTO 和技术负责人做出理性选择。

文章图片
#人工智能#自然语言处理
GitHub 挖到宝:手把手教你用 AI Agent 搭建私人“情报指挥部” (本地实战)

我在 GitHub 上发现了一个名为 BettaFish (微舆) 的开源项目。不同于简单的爬虫脚本,它是一个完整的 Multi-Agent(多智能体)舆情系统。

#github#人工智能#开源 +2
使用 Ollama 和 Go 开发 RAG 应用程序

Ollama 是一个框架,允许你使用 CLI 在本地下载和访问模型。使用简单的命令,我们可以下载、聊天和设置一个服务器,其中包含我们想要从我们的应用程序中使用的模型。安装 Ollama 后,我们可以通过运行其中一个可用模型来测试一切是否正常。让我们使用 3B 参数安装 llama3.2。该库包含下载和运行模型所需的命令:`ollama run llama3.2:latest`代码解读第一次,它会下

文章图片
#人工智能#知识图谱#RAG
大模型提示词工程——大模型应用的核心技术

通俗而言大模型与外界交互的唯一方式是提示词(prompt),也就是我们发给大模型的一段提问。因此学习大模型的使用得从提示词工程说起。

文章图片
#microsoft#人工智能#python +1
大模型不用装显卡?nano-vllm 压缩到 85MB,树莓派 CPU 也能实时跑 Llama3

大家好,大模型推理框架代码绕晕人?运行速度还跟不上需求?Nano-vllm用1200行代码把这些麻烦全解决了,离线推理比vllm还快,看完就知道有多香。

文章图片
#人工智能#机器学习#python
下一代 RAG 系统实战:用 LangGraph + Neo4j 打造智能体级 GraphRAG

我将介绍一个基于 LangGraph 构建的全面 GraphRAG 多智能体系统,它作为一个智能的食物助手。

文章图片
#人工智能#python#机器学习 +1
LangChain开发框架(五)-- LangChain agent调用,大模型入门到精通,收藏这篇就足够了!

Function calling 作为现代大模型应用中的核心机制之一,是大模型能够与外部世界交互的关键。没有这个功能,大模型的能力将仅限于自然语言处理,无法与外部数据或工具进行交互,甚至无法完成如查询天气这类基本任务。

文章图片
#自然语言处理#人工智能#github
    共 726 条
  • 1
  • 2
  • 3
  • 73
  • 请选择