logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

《从零开始DeepSeek R1搭建本地知识库问答系统》五:实现问答系统前端 UI 框架,基于 vue3 + typescript + ElementPlus

使用 vue3 + ElementPlus 作为前端ui框架,实现问答系统前端功能。相信绝大部分的前端项目都是使用 Vue 或 React,python 写前端 web 框架毕竟不是主流。在企业级项目中,绝大部分的做法是将大模型 RAG 模块单独写 Api,然后接入到现有的业务系统 server 端,再统一接口给前端调用,亦或者直接给前端调用。上一章完成了框架搭建 server 端系统。本章开始着

文章图片
#typescript#语言模型
《从零开始DeepSeek R1搭建本地知识库问答系统》三:基于LangChain构建本地知识库问答RAG应用

RAG(检索、增强、生成)这种技术通过从外部知识库中检索相关信息,并将其作为提示(Prompt)输入给大型语言模型,以增强模型处理知识密集型任务的能力,如问答、文本摘要、内容生成等。完整的RAG应用流程主要包含两个阶段:1. 数据准备阶段:数据提取——>文本分割——> 向量化(embedding)——>数据入库。2. 应用阶段:用户提问——>数据检索(召回)——>注入Prompt——>LLM生成答

文章图片
#语言模型#python
《从零开始DeepSeek R1搭建本地知识库问答系统》四:FastApi 框架搭建本地知识库问答Web Server端

上一章我们实现了 RAG 的核心代码逻辑,本章我们就围绕核心代码来慢慢做大做强。既然是本地知识库问答,文档管理是必不可少的。对话聊天记录总不能一直放内存里,刷新就没了。1.**实现文档管理 API 接口**,有上传,更新,删除的操作。2.**添加会话管理 API 接口**,每一个会话都对应着相关的聊天历史记录,有 CRUD 操作。所以就不需要用到 LangChain 的 `Conversation

文章图片
#fastapi#python
《从零开始DeepSeek R1搭建本地知识库问答系统》五:实现问答系统前端 UI 框架,基于 vue3 + typescript + ElementPlus

使用 vue3 + ElementPlus 作为前端ui框架,实现问答系统前端功能。相信绝大部分的前端项目都是使用 Vue 或 React,python 写前端 web 框架毕竟不是主流。在企业级项目中,绝大部分的做法是将大模型 RAG 模块单独写 Api,然后接入到现有的业务系统 server 端,再统一接口给前端调用,亦或者直接给前端调用。上一章完成了框架搭建 server 端系统。本章开始着

文章图片
#typescript#语言模型
《从零开始DeepSeek R1搭建本地知识库问答系统》三:基于LangChain构建本地知识库问答RAG应用

RAG(检索、增强、生成)这种技术通过从外部知识库中检索相关信息,并将其作为提示(Prompt)输入给大型语言模型,以增强模型处理知识密集型任务的能力,如问答、文本摘要、内容生成等。完整的RAG应用流程主要包含两个阶段:1. 数据准备阶段:数据提取——>文本分割——> 向量化(embedding)——>数据入库。2. 应用阶段:用户提问——>数据检索(召回)——>注入Prompt——>LLM生成答

文章图片
#语言模型#python
《从零开始DeepSeek R1搭建本地知识库问答系统》二:Ollama 部署 DeepSeek R1 蒸馏模型及Api测试

下载 DeepSeek R1 蒸馏模型,使用 Ollama 框架作为服务载体部署运行。部署或推理模型会用到以下几种热门的推理引擎,分别是:原生启动:1.Hugging Face库,这是一个比较原生的推理架构,需要写一些底层代码来启动。这个库更多用在模型微调或推理方面上。部署模型引擎:有自己的启动方式,部署简单,往往只需要输入 sever 命令行直接启动即可。

文章图片
#语言模型#linux#python
《从零开始DeepSeek R1搭建本地知识库问答系统》四:FastApi 框架搭建本地知识库问答Web Server端

上一章我们实现了 RAG 的核心代码逻辑,本章我们就围绕核心代码来慢慢做大做强。既然是本地知识库问答,文档管理是必不可少的。对话聊天记录总不能一直放内存里,刷新就没了。1.**实现文档管理 API 接口**,有上传,更新,删除的操作。2.**添加会话管理 API 接口**,每一个会话都对应着相关的聊天历史记录,有 CRUD 操作。所以就不需要用到 LangChain 的 `Conversation

文章图片
#fastapi#python
《从零开始DeepSeek R1搭建本地知识库问答系统》三:基于LangChain构建本地知识库问答RAG应用

RAG(检索、增强、生成)这种技术通过从外部知识库中检索相关信息,并将其作为提示(Prompt)输入给大型语言模型,以增强模型处理知识密集型任务的能力,如问答、文本摘要、内容生成等。完整的RAG应用流程主要包含两个阶段:1. 数据准备阶段:数据提取——>文本分割——> 向量化(embedding)——>数据入库。2. 应用阶段:用户提问——>数据检索(召回)——>注入Prompt——>LLM生成答

文章图片
#语言模型#python
《从零开始DeepSeek R1搭建本地知识库问答系统》二:Ollama 部署 DeepSeek R1 蒸馏模型及Api测试

下载 DeepSeek R1 蒸馏模型,使用 Ollama 框架作为服务载体部署运行。部署或推理模型会用到以下几种热门的推理引擎,分别是:原生启动:1.Hugging Face库,这是一个比较原生的推理架构,需要写一些底层代码来启动。这个库更多用在模型微调或推理方面上。部署模型引擎:有自己的启动方式,部署简单,往往只需要输入 sever 命令行直接启动即可。

文章图片
#语言模型#linux#python
最详细vscode为uniapp,vite项目配置ESlint9+Prettier+Stylelint+husky规范

上周我 vscode 中创建 `uniapp vite-ts` 项目的时候,发现项目里并没有代码规范与格式化的 modules 。纳尼?又要自己手动配置一次?~~(痛苦面具)~~然后我去 `ESlint` 官网,发现 `ESlint` 已经更新到 `v9.16.0` 版本了[(请看更新变化↗)](https://eslint.org.cn/docs/latest/use/migrate-to-9.

文章图片
#vscode#uni-app
    共 16 条
  • 1
  • 2
  • 请选择