简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Kafka是另一个有趣的流处理系统,它的流是无限制的、不断更新的数据集。Grafana是一个开源的、功能丰富的度量仪表板和图形编辑器,用于Graphite、ElasticSearch、OpenTSDB、Prometheus和流数据库。随着越来越多的开源监控工具被开发来用于更具体的工作,没有一款工具的地位是完全稳固的。每一款都有可能被其他更高效、更安全的工具所替代。将这些工具结合起来使用看起来就像是
简称Hudi,是一个流式数据湖平台,支持对海量数据快速更新,内置表格式,支持事务的存储层、 一系列表服务、数据服务(开箱即用的摄取工具)以及完善的运维监控工具,它可以以极低的延迟将数据快速存储到HDFS或云存储(S3)的工具,最主要的特点支持记录级别的插入更新(Upsert)和删除,同时还支持增量查询。Apache Hudl本身不存储数据,仅仅管理数据,借助外部存储引擎存储数据,比如HDFS;此外
背景业务场景定期执行任务:如每天0点做资源稽查;需求和痛点集群部署服务时,如何确保任务不被重复执行?---最急迫如何监控、告警等;高可用、无单点故障;优秀的并行处理能力、分片能力;自研 or 开源任何工具的使用都要结合自身的业务场景,脱落业务场景谈技术选型就是耍流氓。考虑私有云场景业务量一般,高并发场景很少遇到,同一时间也不会有超大量定时任务同时需要执行,所以考虑自研也未尝不可。目前自研最急需解决
可以从以下两个方面进行对比:配置中心eureka 不支持consul 支持 但用起来偏麻烦,不太符合springBoot框架的命名风格,支持动态刷新nacos 支持 用起来简单,符合springBoot的命名风格,支持动态刷新注册中心eureka应用内/外:直接集成到应用中,依赖于应用自身完成服务的注册与发现,ACP原则:遵循AP(可用性+分离容忍)原则,有较强的可用性,服务注册快,但牺牲了一定的
前言Map 这样的Key Value在软件开发中是非常经典的结构,常用于在内存中存放数据。本篇主要想讨论 ConcurrentHashMap 这样一个并发容器,在正式开始之前我觉得有必要谈谈 HashMap,没有它就不会有后面的 ConcurrentHashMap。HashMap众所周知 HashMap 底层是基于数组 + 链表组成的,不过在 jdk1.7 和 1.8 中具体实现稍有不同。Base
主题的分区数设置在server.properties配置文件中可以指定一个全局的分区数设置,这是对每个主题下的分区数的默认设置,默认是1。当然每个主题也可以自己设置分区数量,如果创建主题的时候没有指定分区数量,则会使用server.properties中的设置。bin/kafka-topics.sh--zookeeperlocalhost:2181--create--topicmy-topic--
1. Kafka全部数据清空kafka全部数据清空的步骤为:停止每台机器上的kafka;删除kafka存储目录(server.properties文件log.dirs配置,默认为“/tmp/kafka-logs”)全部topic的数据目录;删除zookeeper上与kafka相关的znode节点;重启kafka、如果删除topic还在则需要重启zookeeper;这里以192.168.187.20
开窗函数对一组值进行操作,它不像普通聚合函数那样需要使用GROUP BY子句对数据进行分组,能够在同一行中同时返回基础行的列和聚合列开窗函数的语法形式为:函数 + over(partition by <分组用列> order by <排序用列>),表示对数据集按照分组用列进行分区,并且并且对每个分区按照函数聚合计算,最终将计算结果按照排序用列排序后返回到该行。括号中的两个关键词partition
谈谈 Tomcat 请求处理流程转自:https://github.com/c-rainstorm/blog/blob/tomcat-request-process/reading-notes《谈谈 Tomcat 架构及启动过程[含部署]》已重新修订!(与本文在 GitHub 同一目录下)包括架构和 Tomcat Start 过程中的MapperListener相关描述。Connector启动相关
什么是ServletServlet的作用是为Java程序提供一个统一的web应用的规范,方便程序员统一的使用这种规范来编写程序,应用容器可以使用提供的规范来实现自己的特性。比如tomcat的代码和jetty的代码就不一样,但作为程序员你只需要了解servlet规范就可以从request中取值,你可以操作session等等。不用在意应用服务器底层的实现的差别而影响你的开发。HTTP 协议只是一个规范