logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

使用 qdrant-client 连接到本地运行的 Qdrant 服务

👉 是容器的名字,用于你管理 Docker 进程RAGSAAS👉 是你在 Qdrant 里存储向量数据的集合(collection)名字是Qdrant 的官方 Docker 镜像名。Docker 镜像可以理解为一个打包好的应用程序操作系统基础环境(如 Linux)需要的软件和依赖(比如 Qdrant 数据库服务)启动这个服务所需的配置和指令你可以把它理解为:一份“做好的系统快照”,拿来就能跑,

文章图片
#python#开发语言
Neo4j 的向量搜索(Neo4jVector)和常见的向量数据库(比如 Milvus、Qdrant)之间的区别与联系

摘要 Neo4j向量存储与Milvus/Qdrant都支持向量检索和语义搜索,但核心定位不同。Neo4j将图数据库与向量搜索结合,适合结构化知识图谱问答;Milvus/Qdrant专注于高性能向量检索,适合大规模文档搜索。Neo4j的优势在于图结构与语义搜索的融合,而Milvus/Qdrant在纯向量相似度检索方面性能更优。选择取决于应用场景:结构化信息查询用Neo4j,纯文本语义匹配用Milvu

#neo4j#数据库#milvus
LangGraph 教程:初学者综合指南(1)

使用大型语言模型 ( LLMs ) 构建应用程序为创建复杂的交互式系统提供了令人兴奋的机会。但随着这些应用程序变得越来越复杂,特别是那些涉及多个LLMs协同工作的应用程序,新的挑战出现了。我们如何管理这些代理之间的信息流?我们如何确保他们无缝互动并保持对手头任务的一致理解?这就是LangGraph 的用武之地。

文章图片
LLaMA-Factory 训练数据默认使用 instruction、input、output 三个 key

LLaMA-Factory 训练数据默认使用 instruction、input、output 三个 key。✅ 确保 JSON 格式正确,否则模型无法正确学习。✅ 如果要自定义 key,建议修改 LLaMA-Factory 的代码(不推荐),或保持默认格式。✅ 数据结构要根据任务类型调整,比如:问答、闲聊:instruction + output翻译任务:instruction + input

#人工智能
AutoModelForCausalLM, AutoTokenizer简单理解

AutoModelForCausalLM 代表 "自动加载一个因果语言模型",它就是 LLaMA、Mistral、GPT-3 这类模型的载体。AutoModelForCausalLM 的作用加载预训练好的 LLM(比如 LLaMA-3-8B、Mistral-7B)根据输入文本,生成新的文本(进行对话、回答问题等)

文章图片
#人工智能
调用LangChain 的工具(Tool Calling) 功能,它允许 大语言模型(LLM) 调用外部工具(如计算器、数据库查询、API 调用等),从而增强其功能

调用外部工具(如计算器、数据库查询、API 调用等),从而增强其功能。例如,如果 LLM 需要执行数学运算,它可以调用一个计算函数,而不是自己尝试计算答案。方法是我们自定义乱写的一个方法,让模型直接调用这个方法它会不知道这个方法是什么的,因为我们并没有在工具中定义它,它会根据我们的提示工程(prompt)返回。这样,LLM 既可以聊天,又可以。方法被模型识别并正确返回结果。这就引出了下面的内容。✅

文章图片
#语言模型
利用 LangChain 和一个大语言模型(LLM)构建一个链条,自动从用户输入的问题中提取相关的 SQL 表信息,再生成对应的 SQL 查询

实现一个智能化的数据查询过程:输入: 用户问题(如关于 Alanis Morisette 歌曲的查询)。内部处理:利用 LLM 提取相关 SQL 表类别。根据类别映射出具体的 SQL 表名称。结合数据库的表结构和预定义的 SQL 提示模板,生成正确的 SQL 查询语句。输出: 一条 SQL 查询语句,用来从数据库中获取答案。

文章图片
#语言模型#sql#人工智能
调用LangChain 的工具(Tool Calling) 功能,它允许 大语言模型(LLM) 调用外部工具(如计算器、数据库查询、API 调用等),从而增强其功能

调用外部工具(如计算器、数据库查询、API 调用等),从而增强其功能。例如,如果 LLM 需要执行数学运算,它可以调用一个计算函数,而不是自己尝试计算答案。方法是我们自定义乱写的一个方法,让模型直接调用这个方法它会不知道这个方法是什么的,因为我们并没有在工具中定义它,它会根据我们的提示工程(prompt)返回。这样,LLM 既可以聊天,又可以。方法被模型识别并正确返回结果。这就引出了下面的内容。✅

文章图片
#语言模型
LLaMA-Factory 训练数据默认使用 instruction、input、output 三个 key

LLaMA-Factory 训练数据默认使用 instruction、input、output 三个 key。✅ 确保 JSON 格式正确,否则模型无法正确学习。✅ 如果要自定义 key,建议修改 LLaMA-Factory 的代码(不推荐),或保持默认格式。✅ 数据结构要根据任务类型调整,比如:问答、闲聊:instruction + output翻译任务:instruction + input

#人工智能
async await异步

介绍Promise既然有了promise 为什么还要有async await ? 因为promise 不是完美的异步解决方案,而 async await 的写法看起来更加简单且容易理解。Promise 对象用于表示一个异步操作的最终状态(完成或失败),以及其返回的值。Promise 对象是由关键字 new 及其 构造函数 来创建的。构造函数会把一个叫“处理器函数”(executor fu...

    共 100 条
  • 1
  • 2
  • 3
  • 10
  • 请选择