logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

docker机器资源达到上限导致docker启动不了

概述事情是下面这样的,我在树梅派上搭建docker swarm的集群,之后作死的去创建了100个nginx的容器,接着一方面是因为树梅派的io问题,另外一方面是因为树梅派的内存问题,之后导致创建nginx这个service的时候master节点卡死了,无奈只能强制断电重启树梅派,接着树梅派上的docker就不能启动了报错信息runtime/cgo: pthread_create failed: R

PowerShell远程连接到Windows

通过PowerShell远程连接到Windows1、目标Windows配置远程连接到目标Windows服务器,以管理员身份运行PowerShell,执行以下命令开启服务Enable-PSRemoting然后一路确定。开启服务后,设置谁可以通过PowerShell连接到本服务器,执行以下命令我有几张阿里云幸运券分享给你,用券购买或者升级阿里云相应产品会有

四种方法教你破解Linux(CentOS7.4)系统的root密码

一、前言作为站在系统顶端的那个人,偶尔也会发生忘记root密码这样的情况,对于老司机来说,这根本不用慌,有很多种办法搞定!当然,我在此所说的情况仅限于能看到启动界面能够编辑grub配置的情况或者能够挂载系统光盘进行修复的情况。其他场景并不是适用。想通过阅读本文,然后破解其他远程主机的小伙伴们在此可以绕道了,此文并不适用。二、操作思路或步骤(一)方案一思路(只介绍思路及重点命令,不详细截图演示操作步

浅谈前端测试

前端测试或许被好多人误解,也许大家更加倾向于编写面向后端的测试,逻辑性强,测试方便等聊到这导致了好多前端从来不写测试(测试全靠手点~~~)其实没必要达到测试驱动开发的程度,只要写完代码可以补测试,并且补出高效的测试,前端或许真的不需要手点大前端时代不谈环境不成方圆,本文从下面几个环境一一分析下如何敏捷测试node 环境vue 环境nuxt 服务端渲染环境react 环境next 服务端渲染环境an

阿里云上弹性伸缩kubernetes集群 - autoscaler

阿里云Kubernetes服务简化了K8S集群的创建、升级和手动扩缩容。然而使用Kubernetes集群经常问到的一个问题是,我应该保持多大的节点规模来满足应用需求呢? Autoscaler的出现解决了这个问题,它可以自动的根据部署的应用所请求的资源量来动态的伸缩集群。tips: 一个好的实践是显示的为你的每个应用指定资源请求的值request.前置条件为了

Kubernetes源码编译

目前有2种方向, 一种是直接使用golang来编译出二进制包, 另外一种是通过容器来编译.前提当然是本地需要下载k8s源码Golang编译直接编译也可以分成2种,一种是一次编译出来, 一种是每个模块单独编译全编译这种方法比较简单, 进入源码目录直接执行make命令即可, 不过对应的k8s版本, 对go语言版本有一些要求, 具体可看k8s网站或者直接编译会提示需要哪个版本go语言...

再次升级!阿里云Kubernetes日志解决方案

背景针对K8S日志采集存在的采集目标多、弹性伸缩难、运维成本大、侵入性高、采集性能低等问题,在18年2月份日志服务和容器服务团队一起发布了阿里云Kubernetes日志解决方案。1分钟内即可完成整个集群部署,实现该节点上宿主机日志、容器日志、容器stdout等所有数据源的一站式采集。并且后续集群动态伸缩无需对采集做任何二次部署。今天阿里云Kubernetes日志解决方案再次升级,为您带来以下改进:

容器服务K8S存储卷挂载常见问题

存储卷挂载不上请检查以下点:检查Flexvolume是否安装?在master节点上执行下面命令:# kubectl get pod -n kube-system | grep flexvolumeflexvolume-4wh8s1/1Running08dflexvolume-65z491/...

阿里云正式推出消息队列Kafka:全面融合开源生态

近日,阿里云宣布正式推出消息队列Kafka,全面融合开源生态。在全面兼容Apache Kafka生态的基础上,消息队列Kafka还具备了超易用,超高可用可靠性,扩缩容不操心,全方位安全诊断,数据安全有保障的特点。可用行达99.9%,数据可靠行99.999999%,彻底解决Apache Kafka稳定性不足的长期痛点,并且支持消息无缝迁移到云上。» 全面兼容Apache Kafka生态Apa...

解决kafka集群由于默认的__consumer_offsets这个topic的默认的副本数为1而存在的单点故障问题

解决kafka集群由于默认的__consumer_offsets这个topic的默认的副本数为1而存在的单点故障问题抛出问题:__consumer_offsets这个topic是由kafka自动创建的,默认50个,但是都存在一台kafka服务器上,这是不是就存在很明显的单点故障?经测试,如果将存储consumer_offsets的这台机器kill掉,所有的消费者都停止消费了。请问这个问题是怎么解.

    共 40 条
  • 1
  • 2
  • 3
  • 4
  • 请选择