logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

实时Hadoop实战篇:基于Storm实时路况分析和实时路径推荐系统

实时Hadoop实战篇:基于Storm实时路况分析和实时路径推荐系统此博文包含图片 (2015-02-16 13:54:06)转载▼标签: gps storm 云计算 it分类: storm/haddop/云计算Hadoop分布式计算系统以其强大的计算性能和扩展能力称霸于海量历史数据处理领域,但是它目前还没能对传统的关系型数据系统(RDBMS:如oracle、SQL Serve

#hadoop#storm
Hadoop集群或者Spark集群IP地址发生改变的处理方法

之所以遇到这个问题是因为之前是在公司的工作机器上创建的三个Ubuntu虚拟机上搭建的Hadoop和spark伪分布集群,由于某种原因离职,还有部分任务没有完成,又不想就此废弃该环境,所以讲虚拟机文件拷贝到硬盘中,所以在我重新配置虚拟机并且导入到之前的虚拟机文件,然后我运行Hadoop的启动命令,发现日志中的master和slave1等节点启动均失败,查看虚拟机的IP后发现IP地址与之前配置的不一样

#hadoop#spark#ubuntu +1
大数据、云计算系统高级架构师课程学习路线图

大数据之Linux+大数据开发篇Java Linux基础 Shell编程 Hadoop2.x HDFS YARN MapReduce ETL数据清洗 Hive Sqoop Flume/Oozieo 大数据WEB工具Hue HBase Storm Storm Scala Spark Spark核心源码剖析 CM 5.3.x管理 CDH 5.3.x集群项目部分项目一:北风网用户行为分析 项目二:驴妈

#大数据
Linux中启动和停止jar包的运行

脚本一:startTest.sh内容如下:!/bin/shJava -jar Test.jar &#注意:必须有&让其后台执行,否则没有pid生成echo $! > /var/run/Test.pid# 将jar包启动对应的pid写入文件中,为停止时提供pidstopTest.sh内容如下:!/bin/shPID=(cat/var/run/Test.pid)kill−9(

#linux#jar
io.druid.java.util.common.ISE: Could not allocate segment for row with timestamp

今天使用阿里云druid.io服务,发现kafka-index-service这个任务都以失败结束,查询错误日志,错误如下io.druid.java.util.common.ISE: Could not allocate segment for row with timestamp[2019-11-21T09:17:29.000Z]at io.druid.indexing.kafka.Ka...

go程序向kafka中写入数据一段时间没有数据,然后再发数据报错

kafka: Failed to produce message to topic bi-data-cti-prod-sany: kafka server: Tried to send a message to a replica that is not the leader for some partition. Your metadata is out of date., &{Topi

kafka消费命令异常

[root@master conf]# ^C[root@master conf]# kafka-console-consumer.sh –zookeeper master:2181,node1:2181,node2:2181 –from-beginning –topic BROWSER_DATA[2017-07-25 11:16:19,698] ERROR Error processing

FlinkSQL读取kafka些消息,并且对消息计数实现

import com.alibaba.fastjson.JSONimport net.icsoc.report.CtiReportRealTime.Messageimport org.apache.flink.api.common.restartstrategy.RestartStrategiesimport org.apache.flink.api.common.typeinfo.Type...

SparkStream手动提交KafkaOffset实现数据容灾处理JAVA版本

啥也不说了,直接贴代码:KafkaOffsetManager.javapackage net.icsoc.bigdata.utils;import kafka.common.TopicAndPartition;import kafka.utils.ZKGroupDirs;import kafka.utils.ZKGroupTopicDirs;import kafka.utils....

Redis分布式锁实现数据写入幂等性

程序简要设计Flink时间窗口计算将计算结果写入Druid.io的拓补图结构如下:Flink从kafka消费数据,进行分别进行计量和及时的计算,最终将计算结果写入到kafka,最终druid.io使用kafka-inex-service从kafka中拉取数据,将结果写入到Druid.io程序中的问题在程序运行的过程中,由于非常偶然的原因,Flink程序异常了,然后Flink从最近的che...

    共 17 条
  • 1
  • 2
  • 请选择