logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【30天做一个生产级RAG知识库系统】第6篇:后端接口开发,基于FastAPI实现标准化商用接口

前五篇我们完成了生产级RAG系统的全链路核心能力建设:到这里,我们已经实现了端到端的RAG问答核心能力,但它还只是一个跑在本地的代码工程,无法对接前端页面、无法被第三方系统集成、无法做权限管控、无法上线交付给用户使用。而这一切的核心桥梁,就是标准化的后端接口。很多新手在这一步最容易犯的错:一个核心结论必须记死:商用级接口的核心,从来不是“能跑通”,而是稳定、安全、规范、可维护、可观测。一个不合格的

#fastapi#状态模式
【30天做一个生产级RAG知识库系统】第10篇 最终篇:Docker/K8s生产级部署与全链路运维监控体系

本文是RAG系统商用部署的终极指南,涵盖从本地环境到生产上线的全流程解决方案。主要内容包括: 架构设计:提供生产级部署全景图,强调无状态服务、高可用集群、资源隔离等核心原则,给出Docker Compose单机部署和K8s集群两种方案选型。 环境准备:详细列出服务器最低配置要求(4核8G)和推荐配置(16核32G集群),提供Ubuntu系统优化脚本,包括关闭Swap、内核参数调优等关键设置。 核心

#运维#docker#kubernetes
10 个 Python 开发 AI 应用必用的工具库,效率直接翻倍

数据层:NumPy(数值计算)、Pandas(数据处理)、Matplotlib/Seaborn(可视化)模型层:Scikit-learn(传统 ML)、PyTorch(深度学习)、Hugging Face Transformers(预训练模型)、OpenCV(计算机视觉)应用层:LangChain(LLM 应用)、FastAPI(部署)、MLflow(实验管理)

#python#人工智能#开发语言
Spring AI 和 FastAPI+LangChain 哪个好?全维度对比与选型建议(后附实战案例)

本文对比了两种企业级AI应用架构:Spring Boot+Vue+Spring AI的全Java技术栈与Spring Boot+Vue+Python(FastAPI+LangChain)的混合架构。前者优势在于技术栈统一、依赖管理简单、部署运维方便,适合轻量级AI需求;后者通过独立AI服务层,充分利用Python在AI领域的生态优势,支持更复杂的RAG、Agent等高级功能,具有更强的定制化能力和

#spring#人工智能#fastapi +2
零基础从入门到精通 AI Agent 开发(全栈保姆级教程)附加篇:AI Agent 面试八股文全集

AI Agent面试核心摘要 本文系统梳理AI Agent六大面试模块:基础原理、核心框架、工程落地、高阶进阶、场景设计和项目实战。重点解析: 本质区别:AI Agent具备自主规划/执行/反思能力,突破大模型被动应答局限; 核心架构:六大组件(决策大脑、规划模块、工具调用、记忆系统、执行引擎、反思机制)缺一不可; 关键技术: ReAct框架实现"思考-行动-观察"闭环 工具调

#人工智能#面试#职场和发展
数据结构与算法之美:串(字符串)——从基础操作到KMP模式匹配,吃透面试最高频的字符串考点

本文系统介绍了串(String)这一特殊线性表结构。首先明确了串的基本定义和核心概念(主串、子串、模式串等),分析了串与普通线性表的本质区别。随后详细讲解了串的三种存储结构:定长顺序存储(静态数组)、堆分配存储(动态数组)和块链存储(链式结构),并给出相应代码实现。重点讨论了串的基础操作抽象数据类型(ADT),包括赋值、拼接、比较、求子串等核心功能。文章为后续深入讲解字符串模式匹配算法(如KMP算

#面试#职场和发展#数据结构
数据结构与算法之美:栈与队列——特殊线性表,笔试面试的“必考题收割机”

本文深入讲解栈和队列这两种线性表的特殊形态。栈遵循后进先出(LIFO)原则,队列遵循先进先出(FIFO)原则。文章详细介绍了顺序栈和链栈的实现方式,包括Python代码示例,并分析了它们的优缺点。栈和队列在算法面试中应用广泛,能解决括号匹配、二叉树遍历等经典问题。通过理解这些基础数据结构,可以更好地掌握浏览器后退、操作系统调度等底层实现原理。

#面试#职场和发展#数据结构
本地大模型私有化部署与推理加速全攻略:从个人玩具到企业级生产落地

大模型私有化部署全流程指南 本文提供一站式大模型私有化部署解决方案,覆盖Llama 3/Qwen/DeepSeek等主流开源模型。内容包含: 硬件选型指南:针对不同场景(个人学习/企业生产)提供最优配置方案 环境搭建:提供Ubuntu系统下一键安装CUDA/PyTorch/Docker的完整脚本 部署方案: 个人快速部署:Ollama一键开箱即用方案 企业级生产部署:Docker容器化方案 关键优

#人工智能
本地大模型私有化部署与推理加速全攻略:从个人玩具到企业级生产落地

大模型私有化部署全流程指南 本文提供一站式大模型私有化部署解决方案,覆盖Llama 3/Qwen/DeepSeek等主流开源模型。内容包含: 硬件选型指南:针对不同场景(个人学习/企业生产)提供最优配置方案 环境搭建:提供Ubuntu系统下一键安装CUDA/PyTorch/Docker的完整脚本 部署方案: 个人快速部署:Ollama一键开箱即用方案 企业级生产部署:Docker容器化方案 关键优

#人工智能
5个免费开源大模型API,完美平替OpenAI,个人开发完全够用了(2026最新保姆级指南)

开源大模型助力个人开发者实现OpenAI自由 随着开源大模型技术突破,个人开发者现可通过完全兼容OpenAI接口的开源模型解决核心痛点: 成本问题:Meta Llama4、DeepSeek V3等顶尖开源模型提供永久免费API服务,部分平台每月提供1000万token免费额度 能力对标:Llama4 70B在通用知识、代码生成等基准测试中超越GPT-3.5,接近GPT-4o水平 接口兼容:无需修改

#个人开发#人工智能
    共 42 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择