logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

git 的fetch 和 pull的区别

fetch: 获取所有分支,tag  ,如此用这个命令不必在新建分支,tag之后重建空间才能获取 pull:获取当前本地工作目录中现有分支的所有代码同步 switch: 一般是选择切换到本地分支 在本地和远端在merger之前有差异,可以先save stash ,然后合并,之后再pop stash...

#git
Hadoop-Windows下HDFS客户端环境搭建,Eclipse连接HDFS的心酸历程(内附winutils.exe(hadoop-2.6.5~hadoop-3.2.1))

虚拟机-Linux-CentOS 7吐血安装Hadoop2.9.2搭建集群教程(详细图解)HDFS客户端环境搭建搞了好久,成功了赶紧来总结一下。 ???? ????目录配置Hadoop配置winutils.exe和hadoop.dll配置Maven创建Maven工程配置log4j.properties编写测试用例查看源码配置Hadoop把Hadoop的压缩包解压到指定的目录,比如我解压到 D:\h

#hadoop#eclipse#windows
一下子打印的日志过多 Caused by: java.io.IOException: Broken pipe

一下子打印的日志过多:Caused by: java.io.IOException: Broken pipeat sun.nio.ch.FileDispatcherImpl.write0(Native Method)at sun.nio.ch.SocketDispatcher.write(SocketDispatcher.java:47)at sun.nio.ch.IOUtil.writeFrom

#java#tomcat#开发语言
MapperException: 无法获取实体类xxxxx对应的表名! 三种解决方法

先把自动重启关一下devtools:restart:#热部署生效enabled: false把devtools给删除了,说是这个jar包导致ApplyApplication里面的@MapperScan导入包由:org.mybatis.spring.annotation.MapperScan改成tk.mybatis.spring.annotation.MapperScan我是用第三种方法解决问题的。

#mybatis
Application report for application_1677722477520_0002 (state: ACCEPTED)

一直在这个没有在服务端设置本地域名,多个客户端或者防火墙导致spark-driver excutor通信失败spark(driver)-----> (excutor)ResourceManager(yarn)NodeManager(hadoop对外通信单元) (管理hadoop namenode(索引) 和datanode)ApplicationMaster(yarn) NodeManager(h

#hadoop#大数据#hdfs
数据库大数据(一次查询结果超过百万)量处理方法启用游标查询

数据库大数据量处理方法启用游标查询1,可以防止数据库一下返回过大,超时(超过数据库限制),效果类似分页查询2,需要开启事务---分批查询的缘故@Transactional@Overridepublic List<HHDto> getHNoPage(HRequest hRequest) {List<HH> result = new ArrayList<>();Li

#数据库#linq#p2p +1
springBoot参数联合校验,自定义分组校验

参数校验碰到个场景:两个参数或者多个参数需要联合校验,不能都为空,即至少有一个有值springboot提供的校验注解都无法满足,一般在controller写if判断public Result<DepositActivityMixVO> depositMixDetail(@RequestBody @Valid DepositRequest request){//参数校验if(reques

kafka 发送、接收大消息解决办法 - Spring Cloud Stream + Kafka

kafka默认发送和接收的消息是1M大小,如果要发送或者接收超过1M大小的数据,则需要修改以下配置

#kafka
暂无文章信息