logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

关于javax.crypto.BadPaddingException异常

关于Linux操作系统下AES解密失败的异常如下:javax.crypto.BadPaddingException: Given final block not properly padded. Such issues can arise if a bad key is used during decryption.由于windows上每次生成的key都相同,但是在solaris或部分li...

docker安装keycloak详细说明

注意安装过程中,需要数据库版本1.创建网络docker network create keycloak-network2.创建数据库,下面有三种执行方法:a.自带H2docker run -dt --name keycloak -p 8080:8080 -e KEYCLOAK_USER=keycloak -e KEYCLOAK_PASSWORD=keycloak jbos...

#docker
关于linux在VM如何扩充磁盘容量操作说明

1.查看本地磁盘使用情况。如下:[root@redis ~]# df -h文件系统 容量 已用 可用 已用%% 挂载点/dev/mapper/vg_redis-lv_root28G 1.2G25G5% /tmpfs491M0 491M0% /dev/shm/dev/sda1...

#linux
关于javax.crypto.BadPaddingException异常

关于Linux操作系统下AES解密失败的异常如下:javax.crypto.BadPaddingException: Given final block not properly padded. Such issues can arise if a bad key is used during decryption.由于windows上每次生成的key都相同,但是在solaris或部分li...

spark streaming + hbase

实时项目,从kafka拉取数据,存到hbase中环境(maven):dependency>groupId>org.scala-langgroupId>artifactId>scala-libraryartifactId>version>2.10.4version>dependency>dependency>groupId>org.apach

#hbase
kafka的测试用例

环境(maven管理)dependency>groupId>org.apache.kafkagroupId>artifactId>kafka_2.8.2artifactId>version>0.8.1version>dependency>生产者:import kafka.javaapi.producer.Producer;import

#kafka
logstash-out-hdfs

logstash从kafka拉取数据,并插入到hdfs中配置文件如下:input {  kafka {    type => "test"    auto_offset_reset => "smallest"    group_id => "mon2"    topic_id => "db100"    zk_connect => "192.168.199.6:21

#hdfs
spark streaming+mongodb(geo)

项目主要做实时,从kafka拉数据进行清洗保存到mongodb(注意:mongodb的save方法是根据_id替换整个事件)环境(maven管理):dependency>groupId>org.scala-langgroupId>artifactId>scala-libraryartifactId>version>2.10.6version>depen

#mongodb
关于logstash-out-mongodb插件说明

从kafka获取数据,存到mongodb中。适合空间查询geo_point设置。配置文件如下:input {  kafka {    type => "test"    auto_offset_reset => "smallest"    group_id => "m2"    topic_id => "db100"    zk_connect => "192.168.

logstash-out-elasticsearch 设置geo_point格式

此项目是logstash从kafka拉取数据,并取到elastisearch.并进行格式处理。保存geo_point类型,可以进行空间数据查询配置文件如下:es.confinput {    kafka {    type => "test"    auto_offset_reset => "smallest"    group_id => "mon9"   

#elasticsearch
    共 12 条
  • 1
  • 2
  • 请选择