logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

纵然前路坎坷,也要毅然前行!2020年终总结!

纵然前路坎坷,也要毅然前行前言2020年,今年事件在工作中:在公司使用Kafka+ElasticSearch技术处理月活百亿级的数据,其中关于技术选型、集群规划到方案设计和开发基本是由个人独立负责,这个算人生中第一个月活百亿级的项目了,想想还有点小激动 .~_~在社区中:主要是在博客园、CSDN、掘金、黑客派、GitHub等技术社区这块:编写了SpringCloud系列的博客和几篇SpringBo

#程序人生
Grafana新手教程-实现仪表盘创建和告警推送

最近在使用Grafana的时候,发现Grafana功能比想象中要强大,除了配合Prometheus使用之外,他自身都可以做很多事情,可视化和监控平台,还可以直接根据用户自定义的告警规则完成告警和进行各种通知。于是在深入学习了一段时间之后,整理成此博文。温馨提示,本文约1.3w字,几十张示例图片并且含描述。Grafana是一个开源的数据可视化和监控平台,它可以帮助用户通过创建仪表盘和图表来实时监控和

文章图片
#grafana
ElasticSearch实战系列九: ELK日志系统介绍和安装

前言本文主要介绍的是ELK日志系统入门和使用教程。ELK介绍ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。Elasticsearch是个开源分布

#elasticsearch#elk
SpringBoot整合Jsp和Thymeleaf (附工程)

本篇文章主要讲述**SpringBoot**整合**Jsp**以及**SpringBoot**整合**Thymeleaf**,实现一个简单的用户增删改查示例工程。事先说明,有三个项目,两个是单独整合的,一个是将它们整合在一起的。如需其中一个,只需看相应部分的介绍即可。若需工程源代码,可以直接跳到底部,通过链接下载工程代码。

postman安装使用教程---图文讲解

后端开发神器postman。从未想过接口测试这么简单.简化Restful接口调用模式,支持10多种请求方式,如get、post、put、delete等等。并可以自动生成请求代码,包括主流的java,ajax等。

#postman
MyEclipse 新手使用教程---图文详解

引言某天在群里看到有小伙伴问MyEclipse/Eclipse的一些使用问题,虽然在我看来,问的问题很简单,但是如果对于刚刚学习的人来说,可能使用就不那么友好了。毕竟我在开始使用MyEclipse/Eclipse 的时候,也是有很多不懂,即使是现在也不敢说将MyEclipse/Eclipse 的功能全部摸透。 因此写下一篇博文,来将自己使用MyEclipse/Eclipse 的经验分享下。如果有的

文章图片
#经验分享
ElasticSearch实战系列三: ElasticSearch的JAVA API使用教程

前言在上一篇中介绍了ElasticSearch实战系列二: ElasticSearch的DSL语句使用教程—图文详解,本篇文章就来讲解下 ElasticSearch官方Java API的使用。ElasticSearch JAVA API目前市面上有几种常见的ElasticSearch Java API架包,JestClient、SpringBoot整合的SpringData、Spring整合...

Jenkins安装部署使用图文详解(非常详细)

前言最近公司需要弄一套自动化运维部署,于是抽空学习了一下,用了两天左右完成Jenkins的安装部署和各种项目的配置化,于是整理一下进行分享。介绍Jenkins是一个独立的开源软件项目,是基于Java开发的一种持续集成工具,用于监控持续重复的工作,旨在提供一个开放易用的软件平台,使软件的持续集成变成可能。前身是Hudson是一个可扩展的持续集成引擎。可用于自动化各种任务,如构建,测试和部署软件。Je

文章图片
#jenkins#java#运维
Kafka 使用Java实现数据的生产和消费demo

前言在上一篇中讲述如何搭建kafka集群,本篇则讲述如何简单的使用 kafka 。不过在使用kafka的时候,还是应该简单的了解下kafka。Kafka的介绍Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。Kafka 有如下特性:- 以时间复杂度为O(1)的方式提供消息持久化能力,即使对TB级以上数据也能保证常数时间复杂度的访问

#kafka#java
关于Kafka 的 consumer 消费者手动提交详解

前言在上一篇 Kafka使用Java实现数据的生产和消费demo 中介绍如何简单的使用kafka进行数据传输。本篇则重点介绍kafka中的 consumer 消费者的讲解。应用场景在上一篇kafka的consumer消费者,我们使用的是自动提交offset下标。但是offset下标自动提交其实在很多场景都不适用,因为自动提交是在kafka拉取到数据之后就直接提交,这样很容易丢失...

#java#kafka
暂无文章信息