logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Cassandra写入性能测试(集群环境)

环境:五个服务器节点(实质是用xserver虚拟出的虚拟机)master2   218G    29741MB(mem)   2coreslave1       438G   29741MB(mem)   2coreslave2       310G   29741MB(mem)   2coreslave4       366G  29741MB(mem)  

#大数据
F1V3.0-12 微服务开发规范

微服务划分原则按功能模块划分微服务之间减少互相调用微服务端4大模块原则微服务一个功能模块做成一个普通微服务interface对外提供接口starter用自动装配的方式在微服务启动时加载一些公共组件util经常用到的一些工具类库 命名规范服务命名采用递进式命名方式,用'-'作为间隔符。例如:f1-permission表示f1平台的授权相关的微服务模块,f1-starter

Fegin的基本使用介绍

一、 基本介绍;Feign是一种负载均衡的HTTP客户端, 使用Feign调用API就像调用本地方法一样,从避免了 调用目标微服务时,需要不断的解析/封装json 数据的繁琐。Fegin是一个声明似的web服务客户端,它使得编写web服务客户端变得更加容易。使用Fegin创建一个接口并对它进行注解。它具有可插拔的注解支持包括Feign注解与JAX-RS注解,Feign还支持可插拔的编码器与解码..

Apache Kafka0.10.0.0集群部署

转载请注明出处:http://blog.csdn.net/u012842205/article/details/73250288Kafka集群部署需要依赖一个Zookeeper集群,用于Kafka broker之间的消息触发。不建议使用Kafka内嵌的Zookeeper。本文不对Zookeeper部署做描述。另外,Kafka是Java语言实现的,也必须有JDK,部署前确定环境变量,用户

#kafka#大数据
Kafka Client API 基本使用

之前讲过了Kafka基本概念及原理,这次我们来看看Kafka Client的API。要使用Kafka Client的API,首先需要先部署Kafka集群,部署过程请参见官网。然后在项目中添加Kafka Client的依赖,在这里我们使用0.10.0.1版本:<dependency><groupId>org.apache.kafka</groupId><artifactId>kaf

Kafka安全认证SASL下附带工具的配置使用

转载请注明出处:http://blog.csdn.net/u012842205/article/details/73648170前两篇博客主要讲配置Kafka SASL认证,已经说明了,配置后Kafka自带的工具很多都不能使用。本文主要讲三个常用的Kafka附带工具的安全配置,在完成安全认证配置后,可以继续使用这些工具。本文基于前面的集群Kafka配置SASL用户名密码认证。确保Kaf

#kafka#大数据#安全
Kafka基础运维

在软件项目的生命周期中,开发只占开始的一小部分,大部分时间我们要对项目进行运行维护,Kafka相关的项目也不例外。所以这里介绍了一些Kafka服务器基础的运维方法

集群Kafka配置SASL用户名密码认证

转载请注明出处:http://blog.csdn.net/u012842205/article/details/73188684本文中配置的kafka集群为三节点,Zookeeper有4节点。两个集群相互独立。Apache Kafka v2.11-0.10.0.0Apache Zookeeper v3.4.8Kafka配置SASL PLAIN用于完成基本

#大数据#kafka
剖析基于Apache Common-Pool 实现 的PYDInfluxDBPool 主要逻辑(源代码)。

因开发需要,我们大数据组,基于Apache Common-Pool,对 InfluxDB的封装了一个连接池,现就主要逻辑涉及到的源代码(与Apache Common-Pool交叉)进行梳理。我们将从以下四个方面进行梳理:1、连接池初始化的操作:2、出借连接对象时的逻辑。3、归还连接对象时的逻辑。4、主要的异常信息 列举(与Apache Common-Pool交叉),1...

#大数据#java
电力项目中大数据技术的典型应用

典型业务场景在电力行业项目甚至大多数工业项目中,都会涉及到对传感器等设备的采集数据进行存储和处理这一典型的业务场景,具体流程为:将传感器的采集数据汇集到前置的汇集器前置的汇集器将实时数据数据传输到数据处理中心数据处理中心对传输过来的实时数据进行实时的清洗和告警将实时数据和告警、计算数据一并存入持久化存储对持久化存储中的数据进行多维分析与数据挖掘对持久化存储中的数据进行可视化展示如图所示

#大数据
到底了