logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型崛起,向量数据库却凉透了?老码农这样看

首先,我们需要理解什么是向量?向量是基于不同特征或属性来描述对象的数据表示。每个向量代表一个单独的数据点,例如一个词或一张图片,由描述其许多特性的值的集合组成。这些变量有时被称为“特征”或“维度”。例如,一张图片可以表示为像素值的向量,整个句子也可以表示为单词嵌入的向量。

文章图片
#自然语言处理
RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验

环节要求CPU >= 4 核如果你并没有在本机安装 Docker(Windows、Mac,或者 Linux), 可以参考文档 Install Docker Engine 自行安装。是Linux内核中的一个重要参数,它定义了一个进程可以拥有的最大内存映射区域数。内存映射区域通常指的是内存映射文件、匿名内存映射等。性能优化:通过增加vm.max_map_count的值,可以允许应用程序创建更多的内存映

文章图片
#人工智能#自然语言处理#AI
浅谈大模型私有化+精调:面向垂直行业与特定场景之需

大模型私有化(Model Private Deployment)指的是将预训练的大型人工智能模型(如GPT、BERT等)部署到企业自己的硬件环境或私有云平台上。与公有云服务或模型即服务(Model-as-a-Service)相比,私有化部署能够给企业带来更高级别的数据安全性和自主控制能力。对数据隐私和安全要求高、需要自主控制AI模型运行环境的企业而言,或者在特定地理位置因法律法规限制不能使用公有云

文章图片
基于 LangChain 的自动化测试用例的生成与执行

自动化测试用例的生成与执行的实现原理。自动化测试用例的生成与执行的实现思路。利用 Agent 实现自动化测试用例的生成与执行。​。

文章图片
#自动化#测试用例#人工智能 +1
七天入门LLM大模型 :魔搭社区和LLM大模型基础知识

我们通常会看到某模型研发机构开源了base模型和chat模型,那base模型和chat模型有什么区别呢?首先,所有的大语言模型(LLM)的工作方式都是接收一些文本,然后预测最有可能出现在其后面的文本。

文章图片
#机器人#人工智能
一文读懂RAG和LLM微调,教你结合业务场景落地LLM应用

1. 需要外部知识吗?对于以前摘要的风格进行摘要的任务,主要数据源将是以前的摘要本身。如果这些摘要包含在静态数据集中,就不太需要持续外部数据检索。但是,如果有一个频繁更新的摘要动态数据库,目标是不断与最新条目对齐的话,RAG可能在这个场景更好发挥作用。\2. 需要模型适配吗?这个用例的核心是适应专业领域或特定的写作风格。微调特别擅长捕捉风格细微差异、语调变化和特定领域的词汇,因此对于这个维度来说,

文章图片
#人工智能#算法#深度学习
垂直领域的大模型应该如何构建?RAG还是微调呢?

在构建大型语言模型 (LLM) 应用程序时,开发人员可以通过两种常见方式整合专有数据和特定于领域的数据:检索增强生成 (RAG) 和微调。RAG使用外部数据增强提示,而微调则将其他知识合并到模型本身中。然而,这两种方法的优缺点尚不清楚。论文提出了一个用于微调和 RAG 的管道,并介绍了多种流行的 LLM(包括 Llama2-13B、GPT-3.5 和 GPT-4)的两者的权衡。我们的流程由多个阶段

文章图片
#搜索引擎#人工智能
【多模态大模型教程】在自定义数据上使用Qwen-VL多模态大模型的微调与部署指南

提供了这个脚本供用户实现在自己的数据上进行微调的功能,以接入下游任务。此外还提供了shell脚本减少用户的工作量。这个脚本支持 DeepSpeed 和 FSDP。

文章图片
#人工智能
Ollama 如何排除故障

有时,Ollama 可能无法如你所愿运行。解决问题的一个好方法是查看日志。(使用 docker ps 可以找到容器的名字)如果你是在终端里手动运行 ollama serve,那么日志会显示在该终端上。在 Windows 上运行 Ollama 时,日志的存放位置有一些不同。Ollama 内置了多个为不同 GPU 和 CPU 向量特性编译的大语言模型(LLM)库。Ollama 会尝试根据你的系统能力选

文章图片
#人工智能#语言模型
借助ollama实现AI绘画提示词自由,操作简单只需一个节点!

只需要将ollama部署到本地,借助comfyui ollama节点即可给你的Ai绘画提示词插上想象的翅膀。具体看详细步骤!第一步打开ollama官网:https://ollama.com/,并选择models显存太小选择的是llama3\8b参数的instruct-q6_k的这个模型。运行方式也很简单,只要你网络没问题,直接在终端里,运行ollama run llama3:8b-instruct

文章图片
#AI作画#人工智能#自然语言处理
    共 11 条
  • 1
  • 2
  • 请选择