简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
启动项目时:最后总是停留在Exception in thread "http-bio-8080-exec-3,不能进行下去。Java.lang.OutOfMemoryError: Java heap space: 从上边的异常信息可以看到,JVM 需要使用的内存已经超过了我们分配给虚拟机可以使用的最大内存。所以问题就转化为如何设置eclipse 中jvm 的最大内存。
Volatile可能是面试里面必问的一个话题吧,对他的认知很多朋友也仅限于会用阶段,今天我们换个角度去看看。先来跟着丙丙来看一段demo的代码:你会发现,永远都不会输出有点东西这一段代码,按道理线程改了flag变量,主线程也能访问到的呀?为会出现这个情况呢?那我们就需要聊一下另外一个东西了。JMM(JavaMemoryModel)JMM:Java内存模型,是java虚拟机规范中所定义的一种内存模型
业务场景在前后分离场景下,越来越多的项目使用token作为接口的安全机制,APP端或者WEB端(使用VUE、REACTJS等构建)使用token与后端接口交互,以达到安全的目的。本文结合stackover以及本身项目实践,试图总结出一个通用的,可落地的方案。基本思路单个tokentoken(A)过期设置为15分钟前端发起请求,后端验证token(A)是否过期;如果过期,前端发起刷新token请求,
在vue项目中引入饿了么elementUI组件的步骤之中,出现以下的错误:图片.png解决办法:尝试 删除项目中的 package-lock.json 文件 和 node_modules 文件夹,然后再尝试 npm install.图片
深入分区Topic至少有一个分区、可以有多个分区。通过创建时的参数--partitions来指定分区数。消息被添加到分区中时,会有一个偏移量offset来唯一标识一条消息。因此同一个分区内的消息是顺序的,不同分区中的消息顺序无法保证。下图中展示了该topic有3个分区,每条消息在被添加到分区中时都有唯一的offsettopic的分区topic分区中的消息存储在日志文件中,而且有过期时间,在serv
一. topic的from-beginning参数启动zookeeper和kafkabin/zkServer.sh start-foregroundbin/kafka-server-start.sh config/server.properties创建topicbin/kafka-topics.sh --create --zookeeper localhost:2181 --topic testt
消息队列是生产者向消息队列发送消息,消费者从消息队列拉取(pull)消息。生产者生产者是消息队列的数据源,可以向其发送消息,如字符串、二进制数据等。消费者消费者的数据源就是Kafka,于是通过Kafka实现了生产者和消费者两个系统的解耦。broker部署了Kafka的server称为broker。Kafka分布式部署就有多台broker。主题topictopic是字符串,它将消息进行分类、存储多个
Kafka重试机制实现2018-02-21这篇文章主要是记录一下,在做头条的红包支付系统的过程中,用kafka做消息队列时,如何设计一个可以重试的消费机制这个方式已经在线上运行了很长的时间,但是后续总觉得这种实现方式不算很好,所以就在网上找到了一篇文章,也是介绍如何构造一个重试队列,而且正好跟我的想法相同,所以就打算把我自己的想法写下来背景今年春节的时候,今日头条旗下的产品...
报错信息:[ERROR] Plugin com.crm:closure-maven-plugin:1.0.1 or one of its dependencies could not be resolved: Could not find artifact com.crm:closure-maven-plugin:jar:1.0.1 in central (https://repo.maven.a
大家在日常开发中,是否处理过大批量消息积压的问题呢?它一般由于代码bug(比如消费逻辑处理有误)、或者生产者的生产速度大于消费者的消费速度(如大促、抢购等活动期间导致消息数量激增,或者消费者处理速度极慢),就可能导致生产环境出现百万、甚至千万的消息积压。那么,假设发生kafka百万消息堆积,如何解决呢?先排查是不是bug,如果是,要快速修复优化消费者代码逻辑临时紧急扩容,新建临时topic对于线上