logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【Python数据挖掘课程】三.Kmeans聚类代码实现、作业及优化

这篇文章直接给出上次关于Kmeans聚类的篮球远动员数据分析案例,同时介绍这次作业同学们完成的图例,最后介绍Matplotlib包绘图的优化知识。        前文推荐:       【Python数据挖掘课程】一.安装Python及爬虫入门介绍       【Python数据挖掘课程】二.Kmeans聚类数据分析及Anaconda介绍        希望这篇文章对你有所帮助,尤

【Python数据挖掘课程】四.决策树DTC数据分析及鸢尾数据集分析

今天主要讲述的内容是关于决策树的知识,主要包括以下内容:        1.分类及决策树算法介绍        2.鸢尾花卉数据集介绍        3.决策树实现鸢尾数据集分析        前文推荐:       【Python数据挖掘课程】一.安装Python及爬虫入门介绍       【Python数据挖掘课程】二.Kmeans聚类数据分析及Anaconda介绍

【Python数据挖掘课程】八.关联规则挖掘及Apriori实现购物推荐

这篇文章主要介绍三个知识点,也是我《数据挖掘与分析》课程讲课的内容。        1.关联规则挖掘概念及实现过程;        2.Apriori算法挖掘频繁项集;        3.Python实现关联规则挖掘及置信度、支持度计算。        前文推荐:       【Python数据挖掘课程】一.安装Python及爬虫入门介绍       【Pyth

【Python数据挖掘课程】五.线性回归知识及预测糖尿病实例

今天主要讲述的内容是关于一元线性回归的知识,Python实现,包括以下内容:        1.机器学习常用数据集介绍        2.什么是线性回顾        3.LinearRegression使用方法        4.线性回归判断糖尿病        前文推荐:       【Python数据挖掘课程】一.安装Python及爬虫入门介绍       【Py

【Python数据挖掘课程】二.Kmeans聚类数据分析及Anaconda介绍

这次课程主要讲述一个关于Kmeans聚类的数据分析案例,通过这个案例让同学们简单了解大数据分析的基本流程,以及使用Python实现相关的聚类分析。        主要内容包括:        1.Anaconda软件的安装过程及简单配置        2.聚类及Kmeans算法介绍        3.案例分析:Kmeans实现运动员位置聚集        前文推荐:【Pytho

循序渐进学习Tableau Desktop(一)

Tableau作为一款BI报表工具,他与传统的BI工具有什么不同呢。今天我们先来认识一下Tableau。 每一款软件,不管怎么样,先来用用看,至于Tableau有什么优缺点,他相关的产品介绍,在此暂且不说,以后有空再分享,今天就直奔主题,先学习学习desktop。和其他软件一样,需要下载安装,Tableau desktop安装很简单,不需要去配置什么,就直接点击下一步,直到完成为止。安装完成后

【python数据挖掘课程】十四.Scipy调用curve_fit实现曲线拟合

前文推荐:       【Python数据挖掘课程】一.安装Python及爬虫入门介绍       【Python数据挖掘课程】二.Kmeans聚类数据分析及Anaconda介绍       【Python数据挖掘课程】三.Kmeans聚类代码实现、作业及优化       【Python数据挖掘课程】四.决策树DTC数据分析及鸢尾数据集分析       【Python数据挖掘课

jstat命令查看jvm的GC情况 (以Linux为例)

jstat命令可以查看堆内存各部分的使用量,以及加载类的数量。命令的格式如下: jstat [-命令选项] [vmid] [间隔时间/毫秒] [查询次数] 注意!!!:使用的jdk版本是jdk8.   类加载统计: Loaded:加载class的数量Bytes:所占用空间大小Unloaded:未加载数量Bytes:未加载占用空间Time:时间

使用Flume+Kafka+SparkStreaming进行实时日志分析

每个公司想要进行数据分析或数据挖掘,收集日志、ETL都是第一步的,今天就讲一下如何实时地(准实时,每分钟分析一次)收集日志,处理日志,把处理后的记录存入Hive中,并附上完整实战代码1. 整体架构思考一下,正常情况下我们会如何收集并分析日志呢?首先,业务日志会通过Nginx(或者其他方式,我们是使用Nginx写入日志)每分钟写入到磁盘中,现在我们想要使用Spark分析日志,就需要先将磁盘中的文件上

Filebeat+Kafka+Logstash+ElasticSearch+Kibana搭建完整版

1. 了解各个组件的作用Filebeat是一个日志文件托运工具,在你的服务器上安装客户端后,filebeat会监控日志目录或者指定的日志文件,追踪读取这些文件(追踪文件的变化,不停的读)Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据Logstash是一根具备实时数据传输能力的管道,负责将数据信息从管道的输入端传输到管道的输出端;与此同时这根管...

    共 11 条
  • 1
  • 2
  • 请选择