logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

九大核心 NoSQL 数据库及使用场景详解

在现代应用中,NoSQL 数据库以其灵活性、扩展性和性能优势成为各类数据存储的首选。本文基于九种 NoSQL 数据库的典型用例,详细解析它们的技术特点和应用场景。1. MongoDB - 文档存储MongoDB 是最知名的文档存储数据库,支持 BSON 格式,具有无模式设计和水平扩展能力,常用于大规模非结构化数据的存储。发布日期/公司: 2009年,由 MongoDB Inc. 发布GitHub:

#数据库#nosql
大白话讲清楚:什么是 Langchain 及其核心概念

在AI和机器学习领域,每天都有新技术和框架涌现。今天,我们来聊聊最近引起广泛关注的一个框架 —— Langchain。https://python.langchain.com/docs/get_started/introduction那么,Langchain到底是什么,它为什么这么受欢迎,以及它是如何工作的呢?别担心,我会用大白话帮你一步步弄明白!1、Langchain 简介想象一下,如果你能让聊

Elasticsearch 设置默认值的三种方式

1、实战问题在使用 Elasticsearch 过程中,不免还会有 Mysql 等关系型数据库的使用痕迹,以下两个都是实战开发问到的问题:Elasticsearch 新增字段,能在 Map...

#数据库#elasticsearch#大数据 +1
Elasticsearch 使用误区之四——不合理的使用 track_total_hits

0、企业级实战问题在使用 Elasticsearch 进行搜索时,我们常常关心匹配查询的文档总数而将 track_total_hits 设置为 true,如下截图所示,在数据量非常大的情况下这种检索导致的问题是:查询特别慢,聚合会更慢!那么问题来了:track_total_hits 引入的背景是什么?哪个版本才有的?track_total_hits 含义是什么?track_total_hits 什

#elasticsearch#大数据#搜索引擎 +1
Elasticsearch FSCrawler 文档爬虫学习,请先看这一篇!

FSCrawler 是一个开源项目,可以帮助我们快速简便地将文件(如 PDFs、Office 文档等)索引到 Elasticsearch 中。其作者 David Pilato,有20年+工作经验。自 2013 年至今,一直在 Elastic公司工作,可以算作 Elastic 元老级员工。博客地址:https://david.pilato.fr/Github:https://github.com/d

#elasticsearch#学习#大数据 +2
干货 | Elasticsearch 词频统计的四种方案

1、词频相关实战问题最近词频统计问题被问到的非常多,词频统计问题清单如下:Q1:Elasticsearch可以根据检索词在doc中的词频进行检索排序嘛?Q2:求教 ES 可以查询某个索引中...

#elasticsearch#java#人工智能 +1
Elasticsearch ILM 索引生命周期管理常见坑及避坑指南

之前的博文和视频都讲过 ILM 索引生命周期管理。但从近期的反馈和我自己的实战经验看,依然会有很多坑。现将我自己和大家遇到的常见坑汇集如下,希望能让后来小伙伴少走弯路。少啰嗦,直接上干货。...

#java#大数据#elasticsearch +1
深入解密 Elasticsearch 查询优化:巧用 Profile 工具/API 提升性能

1、Elasticsearch Profile 工具介绍在使用 ES 进行检索查询时,我们常常要去优化一些复杂的查询语句,这里 ES 结合 lucene 的生态制作了 Profile API 和图形化的 Profile 分析界面以供用户使用。这里我们来简单讲解一下这个工具 API,希望能给广大的 ES 检索用户提供一些帮助。这里的 profile API 以 ES 8.15 版为准。1.1 Pro

#elasticsearch#mybatis#java +2
Elasticsearch 线程池和队列问题,请先看这一篇

1、线程池相关线上实战问题问题1:从Kafka消费数据导入 elasticsearch 时,批量 bulk 写入抛异常被拒绝。ES 集群四个节点,其中:两个节点node1和node4 th...

#elasticsearch#java#分布式
日志解析神器——Logstash中的Grok过滤器使用详解

0、引言在处理日志数据时,我们经常面临将非结构化文本转换为结构化数据的挑战。Logstash 作为一个强大的日志管理工具,提供了一个名为 Grok 的过滤器插件,专门用于解析复杂的文本数据。后文会解读,功能远不止于此......关于 Grok 过滤器插件,咱们之前有过两篇文章讲解:1、干货 | Logstash自定义正则表达式ETL实战2、干货 | Logstash Grok数据结构化ETL实战G

    共 101 条
  • 1
  • 2
  • 3
  • 11
  • 请选择