logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

数据处理后使用LangChain计算embedding

由于单个文档的长度往往会超过模型支持的上下文,导致检索得到的知识太长超出模型的处理能力,将单个文档按长度或者按固定的规则分割成若干个 chunk,然后将每个 chunk 转化为词向量,存储到向量数据库中。print(f"载入后的变量类型为:{type(md_pages)},",f"该 Markdown 一共包含 {len(md_pages)} 页")print(f"载入后的变量类型为:{type(

文章图片
#python#人工智能#语言模型
思维链 CoT(Chain of Thought)

思维链(CoT)是一种用于设计 prompt 的方法,即 prompt 中除了有任务的输入和输出外,还包含推理的中间步骤(中间思维COT通过要求/提示模型在输出最终答案之前,显式输出中间逐步的推理步骤这一方法来增强大模型的算数、常识和推理的性能,2022 年,在 Google 发布的论文《Chain-of-Thought Prompting Elicits Reasoning in Large L

文章图片
#人工智能
阿里云CentOS系统环境配置

centos安装mysql执行如下命令,更新YUM源。执行如下命令,安装MySQL。执行如下命令,查看MySQL版本号。mysql -V执行如下命令,启动MySQL服务。执行如下命令,设置MySQL服务开机自启动。配置MySQL的root用户密码。执行如下命令,查看/var/log/mysqld.log文件,获取root用户的初始密码。输入log中密码执行以下命令,修改MySQL的root用户的初

文章图片
#服务器#阿里云#centos
DW FastAPI Task01

本文介绍了如何使用FastAPI框架进行异步编程,并详细讲解了路径参数的使用。首先,确保Python版本为3.10+,并安装FastAPI和Uvicorn库。通过async和await关键字,可以实现非阻塞的异步操作。文章展示了如何创建第一个FastAPI程序,并返回简单的JSON响应。接着,介绍了路径参数的基本用法,包括如何定义和获取路径参数,以及如何使用枚举类预设有效参数。此外,还讲解了如何处

文章图片
#fastapi#python#人工智能
大模型理论调研

为了解决这个问题,在算法中引入加法平滑方法,对于分类算法的计算公式的分母加上取值范围的大小,在分子加1.平滑的目的也是正则化的目的之一:它可以令w的任何一个分量相比较于剩余分量变化程度保持一致,不至于出现变化特别明显的分量。(减少模型出现“幻觉”的可能性)LLaMA系列模型是Meta开源的一组参数规模从7B到70B的基础语言模型,使用了大规模的数据过滤和清理技术,以提高数据指令和多样性,减少噪声和

#人工智能#语言模型
大模型开发流程

question向量化,将用户知识库内容向量化存入数据库,并且,用户每次提问也会经过Embedding,然后利用向量相关性算法(例如余弦算法)找到最匹配的几个知识库片段,将这些知识库片段作为上下文,与用户问题一起作为 Prompt 提交给 LLM 回答。这一步需要认真考虑好,这个模型应用的目标群体是谁,需求方的具体应用场景是什么,不一定每次都要一个大模型为底座。文本分割,受限与大模型使用的toke

文章图片
#语言模型
NLP自然语言处理任务

即,大模型通过前t-1个token作为条件,来预测第t个token的是哪一个,当你的前面的条件文本过长时,大模型的输出的几个短文本会被原始的很长的条件文本淹没,继续预测下一个token的话,在模型看起来可能条件仍然是差不多的(因为对于很长的文本来说几乎没发生变化,只新增了非常短的文本),此时如果使用greedy search,只选择概率最大的一个token,模型极大可能会将前面已经生成的短文本重新

#人工智能#语言模型#python
大模型评估

但是,由于我们使用了 Prompt Template 来填充用户问题,用户问题中存在的格式要求往往会被忽略,针对该问题,一个存在的解决方案是,在我们的检索 LLM 之前,增加一层 LLM 来实现指令的解析,将用户问题的格式要求和问题内容拆分开来。针对用户输入的一个 query,系统会将其转化为向量并在向量数据库中匹配最相关的文本段,然后根据我们的设定选择 3~5 个文本段落和用户的 query 一

文章图片
#人工智能
大模型开发流程

question向量化,将用户知识库内容向量化存入数据库,并且,用户每次提问也会经过Embedding,然后利用向量相关性算法(例如余弦算法)找到最匹配的几个知识库片段,将这些知识库片段作为上下文,与用户问题一起作为 Prompt 提交给 LLM 回答。这一步需要认真考虑好,这个模型应用的目标群体是谁,需求方的具体应用场景是什么,不一定每次都要一个大模型为底座。文本分割,受限与大模型使用的toke

文章图片
#语言模型
Ollama部署本地模型

首先,把启动着的ollama关闭,然后在用户环境变量中点击新建环境变量OLLAMA_MODELS的值为你希望模型所在的地址。设置后需要ollama版本需要>0.2.0你可以通过在终端中输入ollama -v来检查你的版本启动ollama服务再打开一个新的终端,在终端输入在本地模式中配置接口地址在插件的配置页配置模型地址codegeex4。

文章图片
#语言模型
    共 12 条
  • 1
  • 2
  • 请选择