
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
题目:大概内容是 一个六位数的幸运数字 前三位和和后三位和相等,就认为是幸运数字;求输入一个数字之后,求出下一个幸运数字。例如:555555 的下一个幸运数字为 555564public class LuckNumber {public static void main(String[] args) {//输入一个幸运号Scanner sc = new Scanner(System.in);int
问题描述:Permission denied: user=dr.who, access=READ_EXECUTE,inode="/user":root:supergroup:drwx-wx-wx说明只有root用户能进行读写操作 ,目前user为dr.who 权限不允许分析在浏览器查看目录和删除目录及文件,为什么会是dr.who,dr.who其实是hadoop中http访问的静态用户名,并没有啥特
fastjson把map里的一个实例的Date类型属性的值转换成一长串数字fastjson默认把Date类型转换成long(一长串数字)做法:修改实体的属性@JSONField (format="yyyy-MM-dd")private Date date;@JSONField (format="yyyy-MM-dd HH:mm:ss")private Date date2;...
配置JpaBaseConfiguration.java:234- spring.jpa.打开-默认情况下,“视图中”处于启用状态。因此,可以在视图呈现期间执行数据库查询。显式配置spring.jpa.打开-以禁用此警告。
1. Assert 断言式的表达方式的用法:List<User> userList = userMapper.selectList(null);Assert.assertEquals(ArrayList.class, userList.getClass());上面进行的断言式的操作,可以去看一下assertEquals的源码public static v...
1. 进行搭建数据采集2. 数据从log日志进行flume 收集到kafka上面 file-flume-kafka (测试通过)3. 数据从kafka到flume进行上传至hdfs中 (出现数据channel有问题,数据上传不到kafka)最终检查发现 flume脚本 kafka-flume-hdfs出现问题,出现问题出错,修改完毕之后数据正确运行一般出现这种情况需要检查一下数据链路从哪里断掉的,
参考文章:MapReduce job被kill掉出现问题如图:经分析也能看出问题点所在进行扩充节点内存就可以了,mapreduce运行中发现有任务被kill掉,多半是因为内存分配不足造成,所以需要修改内存配置。首先在yarn-site.xml中添加下面内容:<property><name>yarn.nodemanager.resource.memory-mb</nam
目录思考:NameNode中的元数据是存储在哪里的?Fsimage和Edits解析利用oiv oev查看FsImage 和 editsCheckPoint时间设置思考:NameNode中的元数据是存储在哪里的?首先,我们做个假设,如果存储在NameNode节点的磁盘中,因为经常需要进行随机访问,还有响应客户请求,必然是效率过低。因此,元数据需要存放在内存中。但如果只存在内存中,一旦断电,元数据丢失
参考文章docker安装大数据框架
在搭建Kylin的时候,需要确保HDFS、yarn、hive、zookeeper、hbase等部署完毕。







