logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Langchain-Chatchat+Qwen实现本地知识库

Langchain-Chatchat一种利用思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。大致过程包括加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的top k个 -> 匹配出的文本作为上下文和问题一起添加到prompt中 -> 提交给LLM生成回答。Qwen

文章图片
#人工智能#机器人#大数据 +1
大模型应用开发必读,超赞的LangChain黑皮书,从基础概念到实际应用,轻松驾驭大模型技术

大语言模型 (large language model,LLM)是一种语言模型,由具有许多参数(通常数十亿个权重或更多)的人工神经网络组成,使用自监督学习或半监督学习对大量未标记文本进行训练。大语言模型在 2018 年左右出现,并在各种任务中表现出色。这个术语没有正式的定义,但它通常指的是参数数量在数十亿或更多数量级的深度学习模型。大型语言模型是通用的模型,在广泛的任务中表现出色,而不是针对一项特

文章图片
#深度学习#人工智能#机器学习 +2
国内有数十个医疗大模型,大模型如何赋能智慧医疗

目前国内至少有40个医疗大模型,足见这个行业的重要性,以及有着不错的发展前景。不过,大模型的本质是基于数据给出合理的判断和预测,帮助医生减负。在这种情况下,相同功能的大模型会逐渐拉开差距,性能差的医疗大模型将会被逐步淘汰,市场确实不需要如此多的医疗大模型。

#人工智能#AIGC#架构
【重点】人工智能大语言模型技术发展研究报告2024|附下载

还从互联网、金融、制造业等领域逐渐延伸至医疗、教育、交通等更多行业,较为成熟的大模型的应用生态丰富多样,从多模态数据处理到智能客服,人工智能技术正推动各行各业的数字化转型。2023 年以来,以ChatGPT、GPT-4 为代表的大模型技术的出台,因其强大的内容生成及多轮对话能力,引发全球新一轮人工智能创新热潮。通过对海量数据的深度学习和分析,大模型能够准确理解人类语言的深层含义,并将其与丰富的知识

文章图片
#人工智能#语言模型#自然语言处理 +3
大语言模型(LLMs)经典论文清单!

原文:https://zhuanlan.zhihu.com/p/620360553要说2023刷屏最多的词条,ChatGPT可以说是无出其右。到最近的GPT-4,技术的革新俨然已呈现破圈之势,从学术圈到工业界再到资本圈,同时也真切逐步影响到普通人的日常生活与工作。坦白来讲,对于大语言模型生成相关的工作,个人长期以来持保守态度,认为这个方向更多的是一种深度学习的理想追求。现在看小丑竟是我自己,也许优

文章图片
#语言模型#人工智能#自然语言处理 +3
大模型LangChain框架基础与使用示例

LangChain已经成为当前 LLM 应用框架的事实标准,这篇文章就来对 LangChain 基本概念以及其具体使用场景做一个整理。

文章图片
#microsoft#人工智能#transformer +3
使用 Langchain-Chatchat 搭建一个自己的知识库(使用google实验室环境)

本文将在 google 实验室中使用 Langchain-Chatchat 搭建一个知识库,还可以进行聊天等功能。由于是在 google 实验室上面跑代码,所以本地电脑什么配置都无所谓!效果图运行起来后可以上传各种文档文件到知识库。完整笔记: colab.research.google.com/drive/1TDYS…

文章图片
#语言模型#人工智能#金融
读书 |《人工智能产品经理-AI时代PM修炼手册》

人工智能产品经理的职位职责:将人工智能技术和行业知识结合,通过产品和项目的落地实现商业目标。

文章图片
#人工智能#产品经理#AIGC
详细比较LlamaIndex和LangChain,选择适合你的大模型RAG框架

LlamaIndex和LangChain都是构建定制化LLM应用的有力工具。LlamaIndex擅长搜索和检索,而LangChain则以其模块化和集成性胜出。选择哪个,取决于具体的项目需求、易用性偏好和定制化程度。如果追求多功能集成和AI智能体,LangChain是理想选择。若目标是高效的信息索引和检索,LlamaIndex则更加合适。实际上,两个框架可以协同工作,不必二选一。

文章图片
#人工智能#架构#AIGC
利用大模型构造数据集,并微调大模型

目前大模型的微调方法有很多,而且大多可以在消费级显卡上进行,每个人都可以在自己的电脑上微调自己的大模型。但是在微调时我们时常面对一个问题,就是数据集问题。网络上有许多开源数据集,但是很多时候我们并不想用这些数据集微调模型,我们更希望使用某本书、某个作者的作品、我们自己的聊天记录、某个角色的对话来微调模型。用于微调的数据通常是成千上万的问答对,如果手工搜集,需要花费大量时间。文本将介绍一种方式,利用

文章图片
#pytorch#人工智能#华为 +1
    共 38 条
  • 1
  • 2
  • 3
  • 4
  • 请选择