logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

利用flink从kafka接收消息,统计结果写入mysql,消息写入hive

利用flink从带有kerberos认证kafka中接收消息,每分钟统计各项指标,如每分钟接收的记录数,金额。在统计的时候要累计前一分钟的累计量。统计值 写入mysql,用来前端展示,同时要把消息存入hadoop平台,要在hive建立表现将把主要逻辑展示如下1、从指定的kafka的topic接收数据2、从指定的kafka的topic接收数据3、接收的数据写入hdfs,在hive中建外部表的方式,这

#kafka#hive#hdfs
带kerberos认证的kafka发送消息

向带有kerberos认证的kafka发送消息,要加入kerberos认证的配置文件:krb5.conf,kafka.jaas,加入环境变量中代码如下:一、生产者 MyProducer.javapackage com.tcloudata;import com.tcloudata.common.ChineseName;import com.tcloudata.model.Student;import

kafka启用Kerberos认证

kafka启用Kerberos认证1.环境准备1.1.建用户创建用户组ywjk groupadd ywjk新增用户useradd -g ywjk ywjk设置密码passwd ywjk1.2.上传kafk压缩包从官网下载kafka压缩包,这里用的是kafka_2.11-0.10.2.2.tgz上传kafka压缩包,利用git客户端从windows客户端上传至每台linux主机,传至/home/yw

#kafka
ES 加权重自定义排序

一、需求es搜索keyWord字段,需要给es指定字段weight加上系数进行排序二、建立测试索引curl -XDELETE 'http://flxapp01:9200/local_service'curl -X PUT '192.168.1.96:9200/local_service?pretty' \-H 'Accept: application/json,text/plain, */*' \

#elasticsearch#大数据
到底了