logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

python-MySQL数据库连接(增删改查)

目录一.下载PyMySQL1.pip安装二.数据库连接1.链接数据库2.创建表三.操作表1.增2.删3.改4.查一.下载PyMySQLPyMySQL 下址:https://github.com/PyMySQL/PyMySQL。1.pip安装pip3 install PyMySQL访问https://pypi.python.org/pypi/setuptools 找到各个系统的安装方法。二.数据库连

文章图片
#mysql#数据库#database +1
springboot+echarts +mysql制作数据可视化大屏(四图)

作者水平低,如有错误,恳请指正!谢谢!!!!!项目简单,适合大学生参考分类专栏还有其它的可视化博客哦!专栏地址:https://blog.csdn.net/qq_55906442/category_11906804.html?spm=1001.2014.3001.5482目录 一、数据源二、所需工具三、项目框架搭建四、代码编写4.1 区域销量统计条形图4.2订单金额折线图4.3平均支付时间统计4.

文章图片
#spring boot#echarts#mysql +2
springboot+mybatis+echarts +mysql制作数据可视化大屏

成果展示:1)可以使用自己的MySQL数据库;2)使用我提供的数据。(免费下载)gmall_report用于可视化的SQL文件-MySQL文档类资源-CSDN下载MySQLIDEAjdk1.8Maven创建springboot项目有二种方式:1)在IDEA中创建2)在官网上创建我喜欢在官网创建官网地址(记得收藏):https://start.spring.io/​ 注:1)注意红色框框的地方,选择

文章图片
#大数据#数据仓库#javascript
Fp-growth算法python实现(数据挖掘学习笔记)

# -*- coding: utf-8 -*-from tqdm import tqdmimport timeimport psutilimport osdef load_data():# 根据路径加载数据集ans = []# 将数据保存到该数组reader = [['M', 'O', 'N', 'K', 'E', 'Y'],['D', 'O', 'N', 'K', 'E', 'Y'],['M',

文章图片
#python#算法
spark学习笔记(十二)——sparkStreaming-RDD队列/自定义数据源/kafka数据源/DStream转换/DStream输出/优雅关闭

继承Receiver,实现onStart、onStop方法来自定义数据源采集。//TODO 创建配置环境//采集数据//开始}/*自定义数据采集器1.继承Receiver,定义泛型,传递参数2.重写方法*///最初启动,读数据val message = "采集的数据为:" + new Random().nextInt(10).toString}}}//停止}}}结果://初始化Spark配置信息/

#spark#学习#大数据 +1
sqoop的安装(sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz)

一.下载sqoop官网如下:http://archive.apache.org/dist/sqoop/可以选择想要的版本!但后面一定要是.tar.gz

文章图片
#hadoop#sqoop#hive
Kafka Eagle的安装(kafka-eagle-bin-1.3.7)

一、安装准备1.安装了kafka没有的可以参考:kafka单机和集群(全分布)的安装部署过程_一个人的牛牛的博客-CSDN博客_kafka集群部署2.下载安装包官网地址:EFAK二、安装配置三、验证输入密码 admin/123456 登录即可...

文章图片
#kafka#分布式#zookeeper +2
kafka笔记(二):生产者-同步发送/异步发送/生产者分区/数据可靠性/数据去重/消息发送流程

根据需求可以自己重新实现分区器(1)需求:实现一个分区器,发送的数据出现jeffry就发送到分区1,否则发送到分区2.(2)实现:1)代码/*** 1.实现接口partitioner* 2.实现三个方法:partition,close,configure* 3.编写partition方法,返回分区号*//**** @param topic 主题* @param key 消息的key* @param

#kafka#学习#java
flume+kafka+SparkStreaming实时日志分析+结果存储到MySQL

目录一.说明二.flume三.kafka四.MySQL五.IDEA写程序六.运行一.说明1.1使用工具:IDEA,spark-2.1.0-bin-hadoop2.7,kafka_2.11-2.3.1,zookeeper-3.4.5,apache-flume-1.9.0-bin,jdk1.8.0_171Scala版本:2.12.15相关工具的安装请关注我的博客!1.2日志可以到这里下载:testlo

文章图片
#mysql#flume#kafka +2
hbase的安装配置过程(CentOS7)

一.安装准备1.下载hbase安装包点击下面的网址选择想要的安装包下载。Index of /dist/hbase我安装的是:hbase-2.0.32.上传安装包到CentOS用MobaXterm_Protable上传,MobaXterm_Protable是Windows和Linux之间的连接工具。MobaXterm_Portable的简单使用_一个人的牛牛的博客-CSDN博客_mobaxterm

文章图片
#hbase#big data#大数据
暂无文章信息