logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

mysql8窗口函数

一、mysql窗口函数简介MySQL从8.0开始支持窗口函数,这个功能在大多商业数据库和部分开源数据库中早已支持,有的也叫分析函数。窗口函数:在满足某些条件的记录集合上执行的特殊函数,对于每条记录都要在此窗口内执行函数。有的函数随着记录的不同,窗口大小都是固定的,称为静态窗口;有的函数则相反,不同的记录对应着不同的窗口,称为滑动窗口。1.窗口函数和普通聚合函数的区别:①聚合函数是将多条记录聚合为一

#mysql#数据库
Kafka配置用户名密码访问

1 软件版本kafka_2.12-2.4.0.tgz(带zookeeper)2 kafka服务端部署2.1 将安装包上传到服务器,并解压tar zxvf kafka_2.12-2.4.0.tgz -C /datamv kafka_2.12-2.4.0 kafka2.2 修改kafka配置文件 server.propertiesvim /data/kafka/config/server.proper

#kafka
centos7中配置yum源

系统环境:Centos7(物理机上)配置步骤:1.解压CentOS-7-x86_64-DVD-1908.iso镜像文件:2.新建文件夹:/mnt/cdrommkdir /mnt/cdrom3.将第一步解压好的文件全部上传至 /mnt/cdrom4.备份原yum源配置文件mv /etc/yum.repos.d /etc/yum.repos.d.bakmkdir /etc/yum.repos.d5.创

#centos#linux#运维
centos7中创建用户

需求:在centos7系统中创建一个用户,并赋予sudo权限一、创建用户名为:test[root@localhost /]# adduser test为该用户创建密码:二、授权个人用户的权限只可以在本home下有完整权限,其他目录要看别人授权。而经常需要root用户的权限,这时候sudo可以化身为root来操作。新创建的用户并不能使用sudo命令,需要给他添加授权。sudo命令的...

#linux
python输出数据到kafka

一、python中安装python-kafka模块包系统环境:centos71. 在线安装pip install kafka-python2. 离线安装下载安装包 kafka-python-2.0.2.tar.gz (适合python2和python3)解压后执行:python setup.py install二、python向kafka中发送日志kafka服务器:192.168.149.153:

#kafka#python
centos7中crontab定时执行python脚本不生效

问题: 最近在项目中遇到crontab中定时执行python脚本不生效,但是手动直接运行python脚本能够正常执行。系统环境: centos7python安装路径:/root/anaconda3/bin/pythonpython脚本:/data/test/sftp.pycrontab中添加定时任务:0 * * * *python /data/test/sftp.py问题原因:主要是crontab

利用python实现自动下载sftp文件

实现功能:利用python自动连接sftp,并下载sftp中指定目录下的所有目录及文件系统环境:centos7python版本:python3使用模块包:paramiko ,若未安装,可使用 pip install paramiko 进行安装需求实例:sftp中的文件如下将sftp根目录中的所有文件下载到本地 /data/test 目录中实现代码:#!/usr/bin/python# coding

#python
mysql数据库备份和还原

mysql备份命令在控制台中执行以下命令:mysqldump -u 用户名 -p -d 数据库名 -t 表名 > 盘符:\路径\文件名.sql注意:这里的 -d 和 -t 能够省略。示例:备份数据库mydb_test,里面有很多数据库表,如下图:这里将 mydb_test 库备份到 /tmp/mydb.sql 中,在控制台执行以下命令:mysqldump -u root ...

Kafka配置用户名密码访问

1 软件版本kafka_2.12-2.4.0.tgz(带zookeeper)2 kafka服务端部署2.1 将安装包上传到服务器,并解压tar zxvf kafka_2.12-2.4.0.tgz -C /datamv kafka_2.12-2.4.0 kafka2.2 修改kafka配置文件 server.propertiesvim /data/kafka/config/server.proper

#kafka
mysql分组排序后,取前三

需求: 将数据按照用户进行分组,并根据城市和amount进行排序,取出每个城市排名前3的用户数据测试数据文件:test.sqlSET FOREIGN_KEY_CHECKS=0;-- ------------------------------ Table structure for test-- ----------------------------DROP TABLE IF EXISTS `t

#mysql
暂无文章信息