logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

手游LTV(生命周期价值)计算公式

在承接APP推广项目中,手游价值变现最直接,核心是获取更多的充值,其中LTV(Lifetime-Value生命周期价值)是一个重要参考指标,可以理解为玩家在其生命周期内对游戏的平均贡献值,为什么要计算LTV呢?一、LTV 的用途在游戏进入市场推广阶段后,手游LTV可以有以下两点用途:计算投入产出ROI=LTV/CP*,LTV作代表收入,广告投入CP*(CPM、CPC、CPD、CPA...

Web Scraper 的下载与安装 | 简易数据分析 02

这是简易数据分析系列的第 2 篇文章。上篇说了数据分析在生活中的重要性,从这篇开始,我们就要进入分析的实战内容了。数据分析数据分析,没有数据怎么分析?所以我们首先要学会采集数据。我调研了很多采集数据的软件,综合评定下来发现最好用的还是Web Scraper,这是一款Chrome 浏览器插件。![](https://image-1255652541.cos.ap-shanghai.myqcloud.

内存稳定性测试软件(MemTest)

给大家介绍一款免安装的内存稳定性测试软件--MemTest,它不但可以彻底的检测出内存的稳定度,还可同时测试记忆的储存与检索资料的能力,memtest pro汉化版软件体积小巧,绿色免安装,使用简单,有兴趣的小伙伴们不妨下载体验一下。其实为什么要测试内存稳定性呢?假如您的电脑经常蓝屏却找不到原因,就1根内存的话,要不您就借内存,要不呢,就用这样的内存稳定性测试软件测试一下,如果是内存不稳定造成..

RFM模型指标构建——SQL

本篇文章主要是实现用SQL语句构建RFM模型指标,为文章‘基于RFM模型的用户价值分析——Python&Tableau’第六部分的SQL版本。将f1、消费金额字段类型修改为整型,将交易日期字段类型修改为日期型;...

文章图片
#数据挖掘#sql
数据清洗中异常值(离群值)的判别和处理方法

前天参加面试的时候被问了一个题:选择什么样的指标来代表总体情况?我回答的不是很好,具体怎么回答的记不太清了,感觉回答的不是很好。那这里就引申出一个问题,异常值的识别。异常值(outlier)是数据清洗的重要环节,异常值可能直接会导致后面的数据分析、建模工作出现偏差,因为像AdaBoost、GBDT等都对异常值很敏感。

文章图片
#python#数据分析
钉钉机器人各消息类型使用示例

#!/usr/bin/env python# _*_ coding:utf-8 _*_# create time: 07/01/2018 11:35__author__ = 'Devin -- http://zhangchuzhao.site'import reimport sysimport jsonimport timeimport loggingimport requestsimport u

Excel 数据透视表如何累积求和?

选择数据区域,插入数据透视表。将“区域”与“组别”分别拖放至【行】,将“销售数量”分两次拖放至【值】字段,设置计算类型为“求和”。选择第二个“销售数量”,鼠标右键单击后,在弹出的快捷菜单中依次选择【值显示】→【按某一字段汇总】选项。在弹出的对话框中的【基本字段】对应的下拉列表中选择【组别】选项,最后单击【确定】按钮。修改透视表的字段名称与布局方式即可,如图所示。

文章图片
#数据分析
Web Scraper 高级用法——使用 CouchDB 存储数据 | 简易数据分析 18

这是简易数据分析系列的第 18 篇文章。利用 web scraper 抓取数据的时候,大家一定会遇到一个问题:数据是乱序的。在之前的教程里,我建议大家利用 Excel 等工具对数据二次加工排序,但还是存在部分数据无法排序的情况。其实解决数据乱序的方法也有,那就是换一个数据库。web scraper 作为一个浏览器插件,数据默认保存在浏览器的localStorage数据库里。其实 web scrap

Web Scraper 高级用法——抓取属性信息 | 简易数据分析 16

这是简易数据分析系列的第 16 篇文章。这期课程我们讲一个用的较少的 Web Scraper 功能——抓取属性信息。网页在展示信息的时候,除了我们看到的内容,其实还有很多隐藏的信息。我们拿豆瓣电影250举个例子:电影图片正常显示的时候是这个样子:如果网络异常,图片加载失败,就会显示图片的默认文案,这个文案其实就是这个图片的属性信息:我们查看一下这个结构的 HTML(查看方法可见CSS 选择器的使用

Web Scraper 初级用法——Web Scraper 初尝--抓取豆瓣高分电影 | 简易数据分析 04

这是简易数据分析系列的第 4 篇文章。今天我们开始数据抓取的第一课,完成我们的第一个爬虫。因为是刚刚开始,操作我会讲的非常详细,可能会有些啰嗦,希望各位不要嫌弃啊:)有人之前可能学过一些爬虫知识,总觉得这是个复杂的东西,什么 HTTP、HTML、IP 池,在这里我们都不考虑这些东西。一是小的数据量根本不需要考虑,二是这些乱七八糟的东西根本没有说到爬虫的本质。爬虫的本质是什么?其实就是找规律。而且爬

    共 79 条
  • 1
  • 2
  • 3
  • 8
  • 请选择