logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

基于InternLM和LangChain搭建自己的知识库

为了开发RAG应用,我们使用LangChain。LangChain是一个开源工具框架,通过为各种LLM提供通用接口来简化应用程序的开发流程,帮助开发者自由构建LLM应用。链(Chains):将组件组合实现端到端应用,通过一个对象封装实现一系列LLM操作Eg:检索问答链,覆盖实现RAG的全部流程下图是基于LangChain搭建RAG应用的流程图:后面我们将根据该流程来搭建自己的RAG应用。llm.p

文章图片
#云原生
Grafana Promtail 配置解析

由于目前项目一般都是部署在k8s上,因此这篇文章中的配置只摘录k8s相关的配置,仅供参考,其他的配置建议上官网查询。

文章图片
#grafana
基于OpenCompass的大模型评测实践

本算法库的主要评测对象为语言大模型与多模态大模型。我们以语言大模型为例介绍评测的具体模型类型。基座模型:一般是经过海量的文本数据以自监督学习的方式进行训练获得的模型(如OpenAI的GPT-3,Meta的LLaMA),往往具有强大的文字续写能力。对话模型:一般是在的基座模型的基础上,经过指令微调或人类偏好对齐获得的模型(如OpenAI的ChatGPT、上海人工智能实验室的书生·浦语),能理解人类指

文章图片
#云原生
基于XTuner微调书生·浦语大模型

XTuner 是一个傻瓜式、轻量级的大语言模型微调工具箱,由MMRazor和MMDeploy联合开发。其以配置文件的形式封装了大部分微调场景,0基础的非专业人员也能一键开始微调;对于 7B 参数量的LLM,微调所需的最小显存仅为 8GB。XTuner 支持的开源大模型:InternLM、Llama/Llama2、ChatGLM2/ChatGLM3、Qwen、Baichuan/Baichuan2、Z

文章图片
#云原生
书生·浦语大模型图文对话Demo搭建

本节我们先来搭建几个Demo来感受一下书生浦语大模型。

文章图片
#云原生
基于LMDeploy部署大模型和量化

LMDeploy 是LLM在英伟达设备上部署的全流程解决方案。包括模型轻量化、推理和服务。核心功能-量化核心功能-推理引擎TurboMind核心功能-推理服务。

文章图片
#云原生
书生·浦语大模型图文对话Demo搭建

本节我们先来搭建几个Demo来感受一下书生浦语大模型。

文章图片
#云原生
基于XTuner微调书生·浦语大模型

XTuner 是一个傻瓜式、轻量级的大语言模型微调工具箱,由MMRazor和MMDeploy联合开发。其以配置文件的形式封装了大部分微调场景,0基础的非专业人员也能一键开始微调;对于 7B 参数量的LLM,微调所需的最小显存仅为 8GB。XTuner 支持的开源大模型:InternLM、Llama/Llama2、ChatGLM2/ChatGLM3、Qwen、Baichuan/Baichuan2、Z

文章图片
#云原生
基于LMDeploy部署大模型和量化

LMDeploy 是LLM在英伟达设备上部署的全流程解决方案。包括模型轻量化、推理和服务。核心功能-量化核心功能-推理引擎TurboMind核心功能-推理服务。

文章图片
#云原生
基于LMDeploy部署大模型和量化

LMDeploy 是LLM在英伟达设备上部署的全流程解决方案。包括模型轻量化、推理和服务。核心功能-量化核心功能-推理引擎TurboMind核心功能-推理服务。

文章图片
#云原生
    共 19 条
  • 1
  • 2
  • 请选择