logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

idea可视化使用git rebase合并分支步骤,确保主分支树不会出现杂乱分叉

一、为什么用rebase?1、开发需求时,需要自己创建一个个人开发分支写需求。。假设是从dev或者master分支拉的新分支(dev-zld)当自己的需求写完了,一般我会把这个新需求的在dev-zld上多个提交记录先合并为一条commit记录(当然,主要看公司规范,之前的公司是要求一个需求只能有一条提交记录,怎么做的请看:https://blog.csdn.net/qq_36951116/arti

#java
git reset 回滚代码

1、ShowHistory打开git日志2、选中第2个commit,右键菜单Reset Current Branch to Here3、选择hard ,点Reset。((1)hard :当使用这个命令后,工作区、暂存区的内容都会和当前head指向的内容相同。也就是说hard之后,在本地分支中,所有代码都已经回到了指定的commit版本了,在这个版本之后的代码已经看不见了,想要看见的话,就先把本地分

elasticsearch 更新修改数据(添加和删除字段等)

本文主要内容:1、脚本更新文档(1).更新常规字段值(2).更新数组类型字段值(3).通过脚本进行一定判断,再执行更新操作2、传递部分文档形式更新文档,可以理解成追加文档(1).检查noop更新3、upsert更新,即存在更新,不存在另行其他操作4、更新操作支持以下查询字符串参数5、Java JestClient 更新示例前言:在 Elasticsearch 中 文档是不可改变 的,不能修改它们。

mybatis plus 更新数据,字段设为null不更新

【代码】mybatis plus 更新数据,字段设为null不更新。

文章图片
#mybatis#java#spring
spark ui各指标介绍

1、task执行是有三个指标shuffle writer size/Records:当前任务输出的数据量shuffle Spill(Memory):当前任务shuffle所使用的内存shuffle Spill(Disk):当前任务shuffle所使用的磁盘

elasticsearch bool联合查询的使用should、must、must_not、filter以及should与另外三个并列时无法生效问题

本意上想做到像这个sql一样select * from tablewhere( dynamicType = '201' and viewTime = '2019-10-11' )and( uniqueKey = 'xxx'oruniqueKey = 'zzz' )1、出现问题的写法,在bool下面有must和should同级的两个属性,像下面这样下就会导致should的筛选失效,只有must生效{

elasticsearch 删除某个index的某个字段

一、使用script删除,没成功,不再尝试二、使用reindex方式,成功1、(1)根据旧index建一个新索引(去掉你要删的字段)(2)如果要提高reindex性能,把刷新时间设为-1,副本数为0,等重建完索引再恢复PUT dy-talent-v22/_settings/{"settings":{"index":{"refresh_interval":"-1","number_of_replic

#elasticsearch
hbase 清空表

Hbase 清空表,truncate与truncate_preservetruncate会把表分区也清除掉hbase(main)> truncate 'namespace:tableName'truncate_preserve只清除数据hbase(main)> truncate_preserve 'namespace:tableName

es 增加字段

PUT xhs-note-v5/_mapping/origin{"origin":{"properties":{"generated_categories":{"type":"keyword"}}}}

elasticsearch 更新修改数据(添加和删除字段等)

本文主要内容:1、脚本更新文档(1).更新常规字段值(2).更新数组类型字段值(3).通过脚本进行一定判断,再执行更新操作2、传递部分文档形式更新文档,可以理解成追加文档(1).检查noop更新3、upsert更新,即存在更新,不存在另行其他操作4、更新操作支持以下查询字符串参数5、Java JestClient 更新示例前言:在 Elasticsearch 中 文档是不可改变 的,不能修改它们。

暂无文章信息