logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Nginx报错:nginx: [emerg] CreateFile() nginx.conf“ failed (3: The system cannot find the path specified

windows下启动nginx报错:nginx: [emerg] CreateFile() “D:\桌面\nginx-1.12.0/conf/nginx.conf” failed (3: The system cannot find the path specified)路径中带中文了,换个目录就好了

#nginx
Hive环境搭建(完整版)-配置

Hive部署:前提:在安装Hive之前,要求先:- 安装JDK 8- 安装Hadoop-2.7.7- 安装MySQL 5.6.x!!!我这里主节点叫chun1,根据自己的进行修改一、安装1. 下载hive最新的稳定版本的包,并解压缩到用户主目录下:tar -xzvf apache-hive-2.1.5-bin.tar.gz改名:mv apache-hive-2.1.5-bin...

#hive#hdfs#hadoop
Nginx报错:nginx: [emerg] CreateFile() nginx.conf“ failed (3: The system cannot find the path specified

windows下启动nginx报错:nginx: [emerg] CreateFile() “D:\桌面\nginx-1.12.0/conf/nginx.conf” failed (3: The system cannot find the path specified)路径中带中文了,换个目录就好了

#nginx
记录一次HBase的scan的分页查询

修改前任bug,Hbase查询过于慢了,以至于都查不出来了,看了代码发现使用的Scan只设置了withStartRow、withEndRow、setCaching扫描,拿到全部数据后存入集合再subList进行分页,但是HBase中存在某些数据有几百万条,根本scan不出来了。前任设置如下: 其中start 和 end 拼接0和z是因为HBase中RowKey按照字典顺序排序,String sta

#java#hbase#hadoop
Hbase模糊查询优化 - 并发查询

HBase查询优化,多region,并发查询

#hbase#hadoop#大数据
第二次尝试修复Hbase2出现Region不一致,使用 HBCK2 - 2021.11.15

spark任务中入hbase任务全部失败了,查看日志发现hbase出现问题报错日志:在hbase的log中看到报错Call queue is full on xxxx,16000,1611197476326, too many items queued修改了配置文件,增加了队列数量参数说明:https://hijiazz.gitee.io/hbase-callqueue-isfull/并且zook

#hbase#hadoop
暂无文章信息