
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
利用flink从带有kerberos认证kafka中接收消息,每分钟统计各项指标,如每分钟接收的记录数,金额。在统计的时候要累计前一分钟的累计量。统计值 写入mysql,用来前端展示,同时要把消息存入hadoop平台,要在hive建立表现将把主要逻辑展示如下1、从指定的kafka的topic接收数据2、从指定的kafka的topic接收数据3、接收的数据写入hdfs,在hive中建外部表的方式,这
向带有kerberos认证的kafka发送消息,要加入kerberos认证的配置文件:krb5.conf,kafka.jaas,加入环境变量中代码如下:一、生产者 MyProducer.javapackage com.tcloudata;import com.tcloudata.common.ChineseName;import com.tcloudata.model.Student;import
kafka启用Kerberos认证1.环境准备1.1.建用户创建用户组ywjk groupadd ywjk新增用户useradd -g ywjk ywjk设置密码passwd ywjk1.2.上传kafk压缩包从官网下载kafka压缩包,这里用的是kafka_2.11-0.10.2.2.tgz上传kafka压缩包,利用git客户端从windows客户端上传至每台linux主机,传至/home/yw
一、需求es搜索keyWord字段,需要给es指定字段weight加上系数进行排序二、建立测试索引curl -XDELETE 'http://flxapp01:9200/local_service'curl -X PUT '192.168.1.96:9200/local_service?pretty' \-H 'Accept: application/json,text/plain, */*' \







