简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
错误回顾网关的配置server:port: 80spring:application:name: api-gateway#springCloudgateway配置项对相应 GatewayPropwetiescloud:# 网关配置gateway:# 路由配置:对应RouteDefinition数组routes:- id: desk-route#路由的编号,保证是唯一的#
cp -r /srcmulu1/srcmulu2/*/targetmulu把/srcmulu1/srcmulu2文件夹下的内容复制到 /targetmulu文件夹下。cp -r /srcmulu1/srcmulu2/targetmulu困扰我良久,终于明白什么意思了。把/srcmulu1下的srcmulu2目录整个拷贝到/targetmulu目录下。Linux命令:cp -r 源目录目标目录意思是
最近,项目中使用过kafka但是不太理解,然后各种搜博客补习。然后对kafka如何保证数据的有序性很感兴趣,于是乎,又疯狂找博客学习,现在可以说是小有心得,在这里记录一下,怕忘记。也作为给大家的一个分享。本文内容为集多家之长,根据自己的理解就诞生了这篇内容,开始。自己在学习的过程中,看完博客结合自己理解的小结如下研究如何保障kafka消费的顺序性,宗旨就是通过将消息绑定到定向的分区或者队列来保证顺
先上dockerfiledockersfile乱写的,有那个个意思就行FROM java:8#基础镜像,基于这个镜像打镜像MAINTAINER tzy#dockerfile的作者RUN mkdir -p /aaa/bbb#创建目录,-p 需要时创建上层目录,如目录早已存在则不当作错误WORKDIR /aaa/bbb#定义默认的工作目录EXPOSE 8206#暴漏的端口ADD ./target/sp