logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

使用wget 工具下载网站所有目录文件

摘要在Windows下的用户都比较熟悉 Teleport,webzip等等网站下载工具,实际上linux中也完全可以做到这样的功能,那就是利用wget工具。wget是一个命令行工具,用来下载网络文件或者整个网站,它具有自动重试、断点续传、支持代理服务器等等强大的功能。它可以完全替代ftp客户端。wget是在Linux下开发的开放源代码的软件,作者是Hrvoje Niksic,后来被移植到包括Win

#linux
修改已创建的docker容器的--restart=always参数

创建容器时没有添加参数--restart=always ,导致的后果是:当 Docker 重启时,容器未能自动启动。现在要添加该参数怎么办呢,方法有二:1、Docker 命令修改docker container update --restart=always 容器名字实例操作如下:[root@rabbitmq ~]# docker container update --restar...

#docker
基于NFS 实现k8s动态分配存储【helm安装nfs-client】

前提条件在所有节点安装nfs-utils并启动相关服务。1.NFS服务端192.168.1.210新建一个挂载目录echo "/home/nfs *(rw,async,no_root_squash)" >> /etc/exportsexportfs -rshowmount -e localhost2.安装nfs-client2.1 helm安装nfs-clienthelm instal

#flink
Flink 1.11.2 在K8s里基于NFS搭建高可用集群

1.修改镜像1.1 从官网获取Dockerfile源码github 地址https://github.com/apache/flink-docker修改1.11/scala_2.11-java8-debian 目录下的docker-entrypoint.sh#!/bin/sh##############################################################

#flink
Kafka重复消费的原因及解决方案

问题分析导致kafka的重复消费问题原因在于,已经消费了数据,但是offset没来得及提交(比如Kafka没有或者不知道该数据已经被消费)。常见以下场景导致Kakfa重复消费:1:强行kill线程,导致消费后的数据,offset没有提交(消费系统宕机、重启等)。2:设置offset为自动提交,关闭kafka时,如果在close之前,调用 consumer.unsubscribe() 则有可能部分o

#kafka
到底了