简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
前言给CDH添加入Flink、Kylin等组件的时候,需要把下载Flink的Parcel放在/var/www/html目录下,把文件放到这个目录下就可以通过IP很方便的访问,比如我在/var/www/html目录下创建/flink-1.9.0文件,并把Parcel文件放在该目录,然后就可以通过浏览器访问了如何访问http://[ip]/flink-1.9.0我第一次访问的时候,出现了一个...
前言实习生很不满,我给业务统计的CSV格式表格,他们说乱码,自己就不会在Windows上面转一下编码吗?非要我在Linux上面转,为啥是乱码?Linux咋转啊?为啥乱码这个很明显Linux上面的文件是UTF-8的,但是本地用EXCEL打开CSV文件默认是GBK格式,编码不一致,所以就乱码咯Linux如何转编码自带命令 iconviconv -f 原编码 -t 新编码 filename -o new
前言自己在Linux安装过很多次Python,每次都会由于各种各样的原因出现很多问题,很无奈安装流程去这里先看看有哪些可用版本可用下载下载sudo wget http://www.python.org/ftp/python/3.7.0/Python-3.7.0.tgz解压sudo tar -xzvf Python-3.7.0.tgz自定义安装目录sudo mkdi...
前言给CDH添加入Flink、Kylin等组件的时候,需要把下载Flink的Parcel放在/var/www/html目录下,把文件放到这个目录下就可以通过IP很方便的访问,比如我在/var/www/html目录下创建/flink-1.9.0文件,并把Parcel文件放在该目录,然后就可以通过浏览器访问了如何访问http://[ip]/flink-1.9.0我第一次访问的时候,出现了一个...
前言之前用的CDH 5.6.X版本,默认是没有Kafka的,刚刚搭建了一个新的集群,用的CDH6.2.1,自带了kafka不需要我们下载parcels包根据以往在CDH安装组件的经验,应该是非常easy的,没想到…问题一这里我选择了五台Broker,其他的不需要填写,在启动的时候报错:在网上搜了一圈,大概说是因为集群中broker默认都为0!!!我们必须得手动改为唯一的。于是我把...
前言在这之前做SparkStreaming连接Kafka,我会这么写:val sparkConf = new SparkConf().setAppName("Spark2Kafka")val ssc = new StreamingContext(sparkConf, Seconds(5))ssc.checkpoint("/xxx/xxx")val kafkaParameters = Ma...
Kafka从 0.11.0.0 版本开始提供了一种在生产者和消费者之间传递元数据的机制,叫做 Kafka header。使用这个机制,你可以在消息中添加一些与数据内容无关的附加信息,如消息的来源、类型、版本、生产时间、过期时间、分区数、用户 ID 等等。Kafka header 是由一个或多个键值对组成的列表,每个键值对都称为 header。消息可以包含零个或多个 header。Kafka hea
下载Maven官网配置环境变量我的下载目录是在D:\develop\maven\apache-maven-3.6.1,所以右键点击计算机->属性->高级系统设置->环境变量->新建,然后添加系统变量点击path,配置:然后打开命令提示符:输入mvn -v配置settings文件和respository打开settings文件配置本地respositor...
Retrofit适用于Android和Java的类型安全的HTTP客户端声明API接口方法及参数的注解用于控制一个请求.请求方法每一个方法必须带有一个HTTP注解, 用于提供相应的请求方法和URL. 目前有5种内置的注解: GET , POST , PUT , DELETE和 HEAD . 注解中指定了相应的URL.@GET("users/list")您还可以指定U