logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

机器学习 - K-means聚类分析

一、K-means 聚类算法介绍1.K-means聚类算法原理(1)先抛出一个情景问题航空公司怎么样对客户分群,区分高价值客户、无价值客户等,对不同的客户群体实施个性化的营销策略,实现利润最大化?对于该类情景题,可使用聚类分析方法。(2)聚类分析相关概念在没有给定划分类别的情况下,根据数据的相似度进行分组的一种方法,分组的原则是组内距离最小化而组间距离最大化。K-means算法是典型的基于距离的非

#python#机器学习
python - pandas 之 dataframe - pandas options & input & output

目录1.Pandas Input/Output API目录2.read_csv读取csv/txt3.read_table读取csv/txt4.to_csv输入csv 或 txt5.read_sql读取数据库6.to_sql存入数据库7.read_excel读取excel1.Pandas Input/Output API目录pandas.read_picklepandas.read_tablepan

#pandas
python安装配置: python解释器 CPython IPython等

要运行以py文本文件中的代码,就需要Python解释器去执行,目前确实存在多种Python解释器。1.CPythonpython默认解释器,用C语言开发,所以叫CPython。2.IPythonIPython是基于CPython之上的一个交互式解释器,在交互方式上有所增强。3.PyPyPyPy是另一个Python解释器,显著提高Python代码的执行速度。4.JythonJython是运行在Jav

#python
python - pandas 之 dataframe - 数据清洗转换合集

1.dataframe查看属性DataFrame.index DataFrame的索引(行标签)。DataFrame.columns DataFrame的列标签。DataFrame.dtypes 返回DataFrame中各列的dtypes。DataFrame.ftypes 返回DataFrame中的ftypes(稀疏/密集和dtype的指示)。DataFrame.get_dtype_counts(

#python#pandas#数据分析
python - crawler 之 lxml parse & lxml解析html

目录1.lxml常用操作(1)常用的路径表达式(2)选取父子兄弟节点(3)功能函数进行模糊搜索(4)使用正则表达式定位节点(5)XPath表达式中的运算符2.lxml 3种常见解析案例(1)lxml解析本地文件(2)lxml与selenium结合案例(3)lxml与request结合案例(4)多属性匹配(5)列出html所有节点1.lxml常用操作紧记,lxml返回结果是一个列表。(1)常用的路径

#python
数据分析 - 基础原理 之 第三章:数据质量管理 - 第一节:数据质量评估

请参考原创:https://mp.weixin.qq.com/s/ovSa7Uhv5IyKzyb-l3PHaA前言数据资产的重要性数据资产是企业或组织拥有或控制,能带来未来经济利益的数据资源。越来越多的企业认识到自身的业务数据是一个有别于其他形式又很重要的企业资产。打理好企业数据资产,可以为企业带来准确及时的决策和有效的行动,为企业的业务分析预测和决策提供有力的支持,让企业在市场中用前瞻性的决策找

#数据分析
数据分析 - 数据项目 之 项目实践 - 数据清洗与ETL工具使用

目录1.Data Clearning Matter2.Null Value & Data Tool3.ETL Tool orders4.NULL在清洗过程的处理1.Data Clearning Matter(1)data file general clearning基本信息:行数、列数 、各列数值类型、sheet页数异常值:检查各列的值类型及范围,找出异常值,方法:按值排序、按值长度排序特

#数据分析#数据库
python - crawler 之 scrapy多线程爬虫

目录1.scrapy教程资料2scrapy安装配置3.介绍scrapy框架1.scrapy教程资料官方文档中文版:http://scrapy-chs.readthedocs.io/zh_CN/0.24/intro/tutorial.html英文版:https://doc.scrapy.org/en/latest/topics/request-response.html训练资料scrapy学习篇:h

#python#scrapy#爬虫
python - 文件目录操作 之 file文件读写 - openpyxl操作excel

1.简介Python官方库一般使用xlrd库来读取Excel文件,使用xlwt库来生成Excel文件,使用xlutils库复制和修改Excel文件,这三个库只支持到Excel2003。第三方库openpyxl(可读写excel表),专门处理Excel2007及以上版本产生的xlsx文件,xls和xlsx之间转换容易。注意:如果文字编码是“gb2312” 读取后就会显示乱码,请先转成Unicode官

#python
python - crawler 之 selenium usage & selenium options参数 & selenium配置参数

目录一、配置chrome选项参数1.chrome常用选项参数(1)配置chrome浏览器的选项(2)chrome options参数主要配置2.常用配置案例(1)配置下载目录下载路径(2)设置编码格式(3)模拟移动设备(手机)(4)禁止图片加载(5)Chrome 的限制图片、javascript和css(6)添加代理(7)模拟鼠标设置浏览器选项(8)添加浏览器扩展应用3.chrome其他参数(1)

#selenium
    共 42 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择