logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

elasticsearch配置性能优化

"index.refresh_interval": "5s","index.merge.scheduler.max_thread_count": "4", //后台合并segment线程数,一般=核数/2;"index.merge.policy.floor_segment": "10mb", //根据磁盘处理速度灵活设置,太大磁盘占满反而降低查询性能"index.max_result_window

#elasticsearch
docker daemon.json

/etc/docker/daemon.json{"registry-mirrors": ["https://akchsmlh.mirror.aliyuncs.com",""http://hub-mirror.c.163.com","https://registry.docker-cn.com","https://docker.mirrors.ustc.edu.cn"],"log-driver":

文章图片
#docker#json#容器
elasticsearch去重查询总条数

java APISearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();searchSourceBuilder.collapse(new CollapseBuilder("name.keyword"));但是有个问题,就是hits的total value不对,对应的还是未去重的数量,其实想要的是去重后的总数可以借助 A

#elasticsearch
mysql 查看锁表解锁

-- 查看那些表锁到了show OPEN TABLES where In_use > 0;-- 查看进程号show processlist;--删除进程 kill 1085850;

mysql 查看锁表解锁

-- 查看那些表锁到了show OPEN TABLES where In_use > 0;-- 查看进程号show processlist;--删除进程 kill 1085850;

redis 根据key前缀搜索

/*** 通过 key 获取 value* pattern:message:xxx:yyy:id:* limit:每次限制筛选的数量,不建议 Integer.MAX_VALUE*/public List<String> assembleScanValues(String pattern, Long limit) {List<String> values = assemble

#redis
elasticsearch 添加或修改分词器

1 索引的分析索引分析: 就是把输入的文本块按照一定的策略进行分解, 并建立倒排索引的过程. 在Lucene的架构中, 这个过程由分析器(analyzer)完成.1.1 分析器的组成① 字符过滤器(character filter): 比如去除HTML标签、把&替换为and等.② 分词器(tokenizer): 按照某种规律, 如根据空格、逗号等, 将文本块进行分解.③ 标记过滤器(tok

#elasticsearch
到底了