
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在承接APP推广项目中,手游价值变现最直接,核心是获取更多的充值,其中LTV(Lifetime-Value生命周期价值)是一个重要参考指标,可以理解为玩家在其生命周期内对游戏的平均贡献值,为什么要计算LTV呢?一、LTV 的用途在游戏进入市场推广阶段后,手游LTV可以有以下两点用途:计算投入产出ROI=LTV/CP*,LTV作代表收入,广告投入CP*(CPM、CPC、CPD、CPA...
这是简易数据分析系列的第 2 篇文章。上篇说了数据分析在生活中的重要性,从这篇开始,我们就要进入分析的实战内容了。数据分析数据分析,没有数据怎么分析?所以我们首先要学会采集数据。我调研了很多采集数据的软件,综合评定下来发现最好用的还是Web Scraper,这是一款Chrome 浏览器插件。
前天参加面试的时候被问了一个题:选择什么样的指标来代表总体情况?我回答的不是很好,具体怎么回答的记不太清了,感觉回答的不是很好。那这里就引申出一个问题,异常值的识别。异常值(outlier)是数据清洗的重要环节,异常值可能直接会导致后面的数据分析、建模工作出现偏差,因为像AdaBoost、GBDT等都对异常值很敏感。

#!/usr/bin/env python# _*_ coding:utf-8 _*_# create time: 07/01/2018 11:35__author__ = 'Devin -- http://zhangchuzhao.site'import reimport sysimport jsonimport timeimport loggingimport requestsimport u
选择数据区域,插入数据透视表。将“区域”与“组别”分别拖放至【行】,将“销售数量”分两次拖放至【值】字段,设置计算类型为“求和”。选择第二个“销售数量”,鼠标右键单击后,在弹出的快捷菜单中依次选择【值显示】→【按某一字段汇总】选项。在弹出的对话框中的【基本字段】对应的下拉列表中选择【组别】选项,最后单击【确定】按钮。修改透视表的字段名称与布局方式即可,如图所示。

这是简易数据分析系列的第 18 篇文章。利用 web scraper 抓取数据的时候,大家一定会遇到一个问题:数据是乱序的。在之前的教程里,我建议大家利用 Excel 等工具对数据二次加工排序,但还是存在部分数据无法排序的情况。其实解决数据乱序的方法也有,那就是换一个数据库。web scraper 作为一个浏览器插件,数据默认保存在浏览器的localStorage数据库里。其实 web scrap
这是简易数据分析系列的第 16 篇文章。这期课程我们讲一个用的较少的 Web Scraper 功能——抓取属性信息。网页在展示信息的时候,除了我们看到的内容,其实还有很多隐藏的信息。我们拿豆瓣电影250举个例子:电影图片正常显示的时候是这个样子:如果网络异常,图片加载失败,就会显示图片的默认文案,这个文案其实就是这个图片的属性信息:我们查看一下这个结构的 HTML(查看方法可见CSS 选择器的使用
这是简易数据分析系列的第 4 篇文章。今天我们开始数据抓取的第一课,完成我们的第一个爬虫。因为是刚刚开始,操作我会讲的非常详细,可能会有些啰嗦,希望各位不要嫌弃啊:)有人之前可能学过一些爬虫知识,总觉得这是个复杂的东西,什么 HTTP、HTML、IP 池,在这里我们都不考虑这些东西。一是小的数据量根本不需要考虑,二是这些乱七八糟的东西根本没有说到爬虫的本质。爬虫的本质是什么?其实就是找规律。而且爬







