logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

vmware搞cdh

我是搞单节点的自己研究的,要搞生产环境的就不要看本文章了。一、先决条件虚拟机用vmware不用多说吧。我用的12.0的注意解决无法虚拟化问题,因为我是thinkpad,所以重启按f1即可进入security,选择这样就行了,f10保存,且会自动重启。然后需要下载cdh,这里注意可以在这里下载。https://www.cloudera.com/downloads/qu...

#大数据#centos#linux
python3.5安装

开始python3.5的安装请注意linux自带python的版本。  1.安装依赖yum install openssl-devel bzip2-devel expat-devel gdbm-devel readline-devel sqlite-devel -y  2.下载源码官方地址:https://www.python.org/ftp/使用命令...

#python#linux
Linux如何查找文件安装路径

Linux中查看某 个软件的安装路径(地址)有时显得非常重要。比如某个文件的快速启动项被删除,或者你要建立快速启动项,或者想删除、 添加安装文件等等,很多地方都要用到查案文件安装路径的命令。这里给大家介绍Linux查看文件安装路径(地址)命令。 一、查看文件安装路径: 由于软件安装的地方不止一个地方,所有先说查看文件安装的所有路径(地址)。这里以hb

CentOS 6.9安装Docker

1.查看系统具体版本yum install lsb -ylsb_release -a 2.安装yum源yum -y install http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm 3.安装dockeryum install docker-io 4.查看...

#linux#docker#大数据
springboot开发(yml配置和注解解析)

so easy!第一个版本开发完了。需要进阶组件集成了。​微服务的概念及时组件即服务,服务即接口,接口也是服务。组件调用使用restful,编码风格其实也是restful风格,接下来,我们项目开发工作还需要进入白热化,例如yml配置引入端口,druid,eruaka等组件,一步步来。首先看下yum配置特性吧: 移除点击此处添加图片说明文字请注意,这样

#微服务#大数据#架构
今天来看下sparkstreaming做一个简单的实时数据处理并且保存到mysql中

已经搞定了开发环境,很快需求就要下来.话不多说,我们开始配置一下先研究部分实时部分的代码逻辑,提供将来实时计算逻辑。[root@node1 ~]# cat kafka_output.shfor((i=0;i<=1000;i++));do echo "hello world haha haha hello haha haha kafka_test-"+$i>...

#大数据#spark#kafka +1
kafka原理简介并且与RabbitMQ的选择

kafka原理简介并且与RabbitMQ的选择kafka原理简介,rabbitMQ介绍,大致说一下区别 Kafka是由LinkedIn开发的一个分布式的消息系统,使用Scala编写,它以可水平扩展和高吞吐率而被广泛使用。目前越来越多的开源分布式处理系统如Cloudera、Apache Storm、Spark都支持与Kafka集成。 消息的发布描述为producer,消息的订

#kafka#大数据#hadoop
fatal: not in a git directory Error: Command failed with exit 128: git

brew 装redis报错:==>==>==>==>Fetching==>==>==>==>==>解决办法:既可。

#redis#大数据
大数据角度给大家解释一下为什么大数据AI分析足彩是扯淡

从大数据角度给大家解释一下为什么大数据AI分析足彩是扯淡的:如果相同的维度,维度包括球员、场内、场外、教练组、基本面、伤病、阵容等不变,你让两个队踢100万场,那么我们确实可以回归出来一个胜平负的率,请注意我指的是这些维度都不变,狂踢100万场。实际情况呢?即使现在通过数据训练出来了模型,告知你,世界杯小组赛最后一轮,德国踢韩国,德国队必赢(或者韩国队必赢),你敢买?你敢买吗?球队几个月几年碰一次

#大数据
【HBase数据开发】解决Python类库Happyhbase读取数据中文乱码问题

首先说问题,我们遇到如下问题,python上传csv数据到hbase,用java读取没问题,但是使用python会遇到乱码问题。以下是贴图:这种就很讨厌,所以,来说解决办法:data = str(value).encode().decode('unicode-escape').encode('raw_unicode_escape').decode()print (key, str(data))ok

#hbase#大数据
到底了