你所在的位置:微信群>互联网推广>正文

「App营销」大数据,从数据中提炼营销价值

原创
发布时间: 2024-01-20 11:54:10 热度: 257 作者: 李斯特 来源: 微信加 本文共 12497 字 阅读需要 42 分钟
大数据,更多的是为App推广提供参考和决策依据,便于企业对用户进行精准分析、精准定位。因此,做好App营销离不开大数据分析,更需要从海量数据中选择、甄别和优化。

大数据,更多的是为 App 推广提供参考和决策依据,便于企业对用户进行精准分析、精准定位。因此,做好 App 营销离不开大数据分析,更需要从海量数据中选择、甄别和优化,最好能建立专门的数据库。

10.1 大数据对 App 营销的价值

信息时代数据为王,谁掌握了海量的数据,谁就拥有了竞争的主动权,谁就可以获得高额的收益。对于企业而言是同样的道理,身处信息时代,做 App 营销必须学会正确运用大数据。

大数据对 App 营销的价值体现在 3 个方面,具体如下。

(1)精准锁定目标用户

借助大数据,企业可对 App 的目标客户进行分析,并精准锁定。营销就像钓鱼,应该永远在鱼群最多的地方才能钓到大鱼。而如何找到鱼群最多的池塘?这就需要对整个水域有足够的调查和了解。

一款 App 谁是目标用户?如何锁定自己的目标用户,又如何针对目标用户进行更深入的推销呢?当然是利用大数据优势对用户资源、营销资源、市场需求等各方面的数据进行分析,专注盈利机会最大的群体,从而制订出各有差别的营销战略。

兰蔻通过整合微信用户的数据,锁定女性目标用户群,从而刷新了化妆界产品推广的新方式,具体如图 10-1 所示。

图 10-1 兰蔻微信朋友圈广告

(2)对用户群体进行细分

锁定用户群体后,还需要根据用户的个性化需求对其进行细分。随着移动互联网为人们提供的细致服务越来越广泛,移动 App 开发也加紧了开发的脚步,细分市场成为 App 开发的首要目标,人性化的功能成为 App 应用的必要需求。

用户细分是指根据用户的类型、行为、需求以及偏好等进行再分类,并有针对性地提供产品、服务的过程。用户细分一般有定性和定量两种。定性,是根据用户价值的侧重点不同进行分类。该方法没有严格的论证过程,主要依赖于决策者的判断,在分析过程中会出现偏差,容易造成决策失误。定量,是以具体的用户变量(用户特征、用户价值、消费行为特点等)为依据,运用定量分析技术较为可观、真实。

在 App 应用开发中,细分市场中的女性市场不断的扩大,人们也开始研究开发女性类 App,而女性类 App 又细分出了很多类型,自拍、购物、美容、母婴以及健康管理等。曾有一款女性经期管理 App「大姨吗」爆红网络,上线不足 1 年累计注册用户高达 680 万,一度被开发者效仿,如图 10-2 所示。

图 10-2 女性经期管理 App「大姨吗」

(3)及时反馈营销效果

大数据运用重在对结果的反馈,根据最终的结果来反映 App 存在的问题,从而根据问题制订出完善和改进的方案。

以 2014 年的滴滴打车 App 为例,如图 10-3 所示。

图 10-3 2014 年滴滴打车 App 情况分析

众所周知,App 应用其实是客户端和服务器端共同来完成的功能。那么对于客户端来说,可能就是一些界面进行优化,然后功能有些叠加。但是在服务器端,需要的不仅仅是技术,还有性能、架构上真正得到提升。

(4)为问题的解决提供指导性意见

App 在运营过程中会产生大量的数据,这些数据看似杂乱无章、繁多冗余,但却隐藏着很多的秘密。如果能有效地对这些数据进行组织管理,并且利用相关技术进行挖掘、分析,少则可以揭示决策实施后的效果,发现企业现有存在的重大问题,多则发现潜在的高价值业务或需求,这些业务或需求很有可能为企业的发展提供战略性指导意见。

下面以国内某著名手机客户端音乐企业的无线音乐 App 为例。

在智能手机时代,手机客户端音乐逐渐成为用户享受生活的主要方式。无线音乐 App 是一款利用手机等通信终端,以 Wap、Web、App 等接入方式获取以音乐为主题的相关业务总称。具体包括彩铃、无线音乐俱乐部及手机客户端软件等业务。

不过,随着用户需求的变化,手机客户端音乐也随之出现了一些问题,如歌曲覆盖率低,用户每天听歌的时间呈间断性分布等。该企业对这两个方面数据的监测示意图如图 10-4 和图 10-5 所示。

图 10-4 歌曲覆盖率累计分布示意图

说明:图中横坐标表示歌曲被听的人数(去重),纵坐标是用户听或下载歌曲所占比例。

图 10-5 用户活跃时间图

说明:图中横坐标表示时间段(共 8 个时间段,每个时间段为 3 个小时),纵坐标是该时间段内用户的活跃性比。

图 10-4 中的数据表明 App 中歌曲覆盖率只有 2.01%,绝大部分歌曲根本没有被用户听过或者下载过,这不仅造成系统资源的大量浪费,还造成企业资金的无故流失(因为每首歌曲都要付版权费,而系统中 98%。的歌曲处于浪费状态)。从图 10-5 的数据中可以发现,用户听歌行为并不是均匀分布,而是间断性分布的,即在不同的时间用户听歌集中度不同。

根据数据反映出来的问题,该企业进行了详尽的分析,并采取了积极的补救措施。

① 针对歌曲覆盖率低的问题,找出的原因主要有两种:一是音乐本身信息不充足;二是信息不对称,音乐有信息,但用户找不到。提出的解决方案是给音乐打标签,使用标签信息来表示歌曲的具体属性。此外,我们可以采用推荐技术对歌曲进行个性化推荐。

② 针对用户每天听歌时间呈间断性分布的问题,解决方案是,根据不同的听歌场景设置不同的主题歌曲,比如夜晚放舒缓、平滑的歌曲,上午放摇滚、重金属之类的歌曲。当然,更具体的场景还需要通过技术分析对数据进行进一步挖掘,本案例只是提出一种方法,对具体技术不做过多阐述。

10.2 如何挖掘 App 营销中的数据

从上节中可以看到大数据对 App 营销的重要性,但是这些数据包括哪些呢?是不是有什么规律可循?对此,这节将做重点阐述,通常来讲,企业运营者常需要对以下 5 组数据进行搜集和分析,具体如下。

(1)新增用户数量

如果一段时间内新增用户的数量持续上涨,说明这段时间的推广方式获得了用户支持,企业可以继续保持这种推广方式。

如果一段时间内新增用户的数量明显减少,则说明这段时间企业的推广出现了比较大的问题。这种情况下,运营者应该多关注推广中可能存在的问题,找出解决方法。推广过程中存在的问题包括以下 4 个方面。

增强 App 用户数量的办法

★App 定位问题

没有对 App 用户群进行明确的定位,就无法向目标用户进行有效推广。

★ 产品定位问题

如何避免在产品选择和定位上走弯路。

★ 推广渠道问题

所聘用的推广团队或使用的推广渠道并没有尽力对 App 进行推广,推广活动效果不佳。

★ 市场竞争问题

App 的推广活动与市场上其他大品牌的推广时间重叠,无法获得有效关注。

(2)活跃用户数量

活跃用户数量是判断一个 App 质量和运营水平的重要依据,也是 App 在吸引广告商和投资人时对方最看重的指标。

活跃用户是相对于「流失用户」「僵尸用户」而言的,是指除了这两类用户之外的,且会时不时地光顾,并为 App 带来价值的用户,如图 10-6 所示。

图 10-6 活跃用户概念图示

有些 App 用户总数很多,几千万甚至过亿,但活跃用户数量占的比例却很少,如果活跃用户不足,也很难获得广告商和投资人的青睐。一个 App 用户总数很多,只能说明 App 在推广方面并没有问题,决定用户对该 App 使用量,或者是否具有成长性的指标还是要看活跃用户的多少。

因此,对开发者、运营人员来说,增强 App 活跃用户量才是最关键的,可以从以下 5 个方面入手。

增强 App 活跃用户的办法

★ 提升 App 的品质

想办法优化 App 的功能,向用户提供更高的价值,吸引更多用户。

★ 提高用户黏性

通过账户积分、账号绑定等策略,提高用户对 App 使用的频率。

★ 提高推送的质量

恰当时机的精准推送对提升用户活跃度异常重要。

★ 了解用户刚需,帮助用户建立联系

可以帮助开发者在了解用户刚性需求的同时,帮助用户建立联系,满足用户不同层次的需求。

★ 善于创新,敢于创新

产品微创新,不断创新是用户活跃起来的根本原因。

(3)用户留存率

留存用户是指用户在某段时间内开始使用 App,经过一段时间后仍然在使用的用户。而用户留存率则是指活跃用户所占新增用户的比例,如图 10-7 所示,是衡量用户由新增用户向活跃用户转化效率的一个指标。分析这项数据可以获得不同时期内用户流失的情况,找到用户流失的具体原因。

图 10-7 用户留存比率概念图示

用户留存率是新增用户数据和活跃用户数据中间连接的重要指标,如果一个 App 的用户留存比率较高,那么随着新增用户数量的增加,活跃用户的数量也会不断提高。

留存率会按照次日、周、月等时间段来进行统计。由于是针对新用户而言,所以在分析这项数据的时候可结合产品新手引导设计和新用户转化路径进行。找出原因后再通过不断的修改、调整,降低用户流失,提升次日留存率,

对于运营者而言,在分析留存率时,需要掌握次日留存、7 日留存、30 日留存、周留存和月留存等概念。究竟要做到多少留存率,产品才算合格,一个经典的经验数据就是留存率的「40-20-10」规则,如图 10-8 所示。也就是说,新用户次日留存率应该大于 40%,这个数字达到 40%就表示产品非常优秀,7 日留存率和 30 日留存率分别大于 20%和 10%。

图 10-8 留存率的「40-20-10」规则

周留存:在这个时间段里,用户通常会经历一个完整的使用和体验周期,如果在这个阶段用户能够留下来,就有可能成为忠诚度较高的用户。

月留存:一个 App 的迭代周期大致为 2~4 周,所以月留存是最能够反映出一个版本的用户留存情况。一个版本的更新,总是会或多或少的影响用户的体验,所以,通过比较月留存率能够判断出每个版本更新是否对用户有影响。

另外,还应注意渠道留存,因为用户来源的渠道不一,用户质量也会有很大的差别,所以有必要针对渠道用户进行留存率分析。而且排除用户差别的因素以后,再去比较次日留存、周留存,可以更准确的判断产品上的问题。

(4)用户转化率

用户转化率,是指那些真正成为 App 的用户,或者已经转化为 App 实际利益的用户数量的比率。打个比方,你销售一个东西,100 个客户留了你的联系方式,其中有 20 个客户买了你的东西,那么这 20 个人是真正的用户,转化率即为 20%。

从这个角度来看,转化率又指付费用户比例,如图 10-9 所示,是指某时间段内,付费用户数占活跃用户数的比例;一般以周、月为单位进行统计。

图 10-9 用户转化率概念图示

绝大部分 App 都是盈利性的,因此,付费用户比例大小对 App 的生存至关重要。App 运营者应该从不同的维度,设置付费环节,并针对用户的购买需求、特性进行深入分析,有侧重、有针对性地进行设置。

例如,一款通关游戏 App,开发者在每一个关卡都设置了不同程度的费用,其中,在中间关卡和最后几关付费人数最多,而在开头或者前几关则比较少,这时开发者就可以对中间和最后关卡进行设置,加大付费的额度,以增加 App 的盈利性。

(5)其他数据

① 平均用户收入(Average Revenue Per User,简称 ARPU)是指平均每个用户的付费额度,常用的统计周期为每月。ARPU 是 App 运营收入最直接的一个指标,在用户数量相对固定的情况下,要想提高 App 收入,就需要想办法提高每个用户带来的收入。

计算公式如图 10-10 所示。

图 10-10 平均用户收入计算公式

②ARPPU,即平均每月付费用户收入,是与 ARPU 息息相关的一个指标,ARPU 与 ARPPU 之间的差距在于付费用户的比例,具体如图 10-11 所示。

图 10-11 ARPU 与 ARPPU 之间的关系

提高 ARPU 值需要平衡 ARPPU 与付费用户比例之间的关系,这是决定 App 定价策略的关键。ARPPU 与付费用户比例之间的关系如下。

App 定价提高,ARPPU 值会相应提高,付费用户比例会降低;反之,App 定价降低,那么 ARPPU 值会相应降低,付费用户比例会升高。

③LTV,衡量用户收入的一个重要指标,即生命周期价值,是指用户从第一次启动该 App 到最后一次启动这个周期内,平均创造的收入总值。

LTV 值是衡量一个 App 推广费用高低的重要指标,通常来讲,扣除推广费用部分就是每个用户为 App 创造的实际利润。按照目前行业内的惯例,每个 Android 用户获取成本为 4 元左右,iOS 用户为 8 元左右。你的 App 的 LTV 值如果低于这个数值,则说明用户利润为负值,该 App 是亏损的。

10.3 大数据的搜集渠道

欲利用好大数据,前提是拥有这些数据,也就是说,企业运营者必须掌握搜集大数据的渠道。搜集大数据的渠道如下。

(1)App 网站流量及竞争对手外部

App 网站流量数据及竞争对手方面的数据是在进行数据分析时最常用到的,也是最基本的数据类型之一。通过这些数据(一定时间的观察后可绘制成趋势图)可以比较清楚的了解自身,竞争对手网站优化情况以及在搜索引擎的权重表现。下面简单介绍一下这些数据的类型,以及如何去解读这些数据(这部分数据可以通过外部站长工具综合查询得出)。

响应时间

这反映出 App 的服务器性能的好坏,响应值越大,服务器性能越差,当然无论对于用户体验还是搜索引擎都是极为不利的影响。

同 IP App 的量

可以查看该 IP 下有多少 App,可以大致区分出 App 所有者是选择 App 托管还是购买独立 IP,如果是独立 IP,顺便可以看出该所有者还有哪些 App,顺藤摸瓜查看其他 App 情况,知己知彼。

PR 值

这是对 App 认可度和权重赋予的一种被外界了解的具体数值体现。虽然现在 PR 值越来越被淡化,但是作为可以衡量 App 优劣标准的一个体现仍具有参考价值。

反链数

通过站长工具查询的搜索引擎的反链数值很多时候都不是十分准确,例如,百度反链,查询命令得出的结果其实只是查询与域名相关域的搜索结果。因此,不能只搜集某一条或几条的连接数,综合性地搜集才对寻找了解竞争对手的外链具有参考意义。

收录量

各搜索引擎的总收录反映出 App 在各个搜索引擎的表现。如果了解 App 的总页面数,也可以更清楚地判断 App 被各个搜索引擎收录的情况,从而分析 App 是否存在问题以及存在哪些问题。也可以参考每日收录、24 小时收录量,来反映 App 被搜索的喜好程度和 App 的链接优化程度。

排名词量

通过查看自己和竞争对手 App 的排名词量,可以寻找 App 优化之间的差距,进而查看这些排名关键词相对应的页面优化情况。

(2)App 流量统计数据

精确的流量统计数据可以让企业对 App 了解更多,极大地方便了相关人员统计整理数据的工作,可以为网站以后运营提供很好的参考。

目前,大部分企业和站长的 App 流量均采用流量统计工具,目前比较专业的数据统计工具有 CNZZ、51la 和百度统计。论专业性来讲,CNZZ 比较不错,但从准确性和敏感度来看,百度统计表现很好。

流量数据主要包括:IP、PV、独立访客、人均浏览量、平均访问时长、跳出率、受访页面和域名、来源、搜索引擎比例、搜索关键词、访客详情、时段分析。

值得注意的是,流量的分析往往不是单一的,是需要综合多种数值进行的,因此,这块分析也是最复杂的。

IP

这种分析往往是通过日期对比来进行的,比如,本周三与上周三,本月上旬与上月上旬。通过对比分析流量的变化情况,可以看出 App 最近的变化。当然也有一些其他因素要考虑,比如天气、节假日、关键词排名、App 服务器有无宕机、新闻事件等。

PV

数值往往与跳出率和 IP 进行对比,从而判断 App 的用户体验和用户黏性。

UV

独立访客量,可以反映出有多少台电脑,也可能接近于多少真实人在访问 App。人均浏览量、平均访问时长、跳出率(IP 与 PV 的比值),则可以反映出 App 用户体验感觉的好坏。

域名

可以看出 App 哪些页面比较受欢迎以及在搜索引擎的权重表现。

来源

访客是通过何种渠道进入到 App 的,从而判断 App 的受众,再进一步分析受众的相关属性,可以更加清楚 App 的目标人群以及 App 运营策略的执行情况。

关键词

用户是搜索何种关键词来到 App,为 App 布置关键词以及寻找关键词优化是一个很好的途径。

访客

通过对访客的地域、教育程度、浏览器、网络接入商、操作系统、终端类型等属性的分析,可以更加详细的了解 App 用户的情况,为以后 App 的优化和运营提供参考。

热点图

这个热点图功能,可以让运营者看到页面内容被用户点击的情况,反映出 App 页面的用户体验度,以及为页面内容改进提供参考。

(3)关键词数据

相对来说,这块数据分析较为简单些,通过对关键词分类整理,然后查询在搜索引擎的排名情况,进而对比分析关键词带来的转化,可以看出优化情况。哪些还需要加强,哪些需要维护,哪些词高排名却没有带来实质的意义,进而调整网站优化策略。

主要包括但不限于:主关键词、长尾词、流量词、品牌词。

主关键词

又称主键、主码,代表某行为的唯一标识关键字。可由一个字段,也可以由多个字段组成,一个字段称单字段主键,多个字段称多字段主键。

长尾词

是指搜索量较少,但同时也可以带来流量的那些关键词。这类词语的特征是比较长,往往由 2~3 个词组成,甚至是短语。既可以出现在标题中,又可以出现在内容页面和内容正文中。

流量词

对流量词至今尚未有一个完整的、规范的定义,按照业内约定俗成的概念是指点击量较大的那些关键词。不过,为了与主关键词区别开来,一般取与平均点击率的比值,即超过某个词总点击比例的词。

品牌词

该词与品牌营销息息相关,众所周知,品牌具有唯一性,更能给用户以深刻的记忆,从而产生持续的群体效应,因此,品牌词已经成为网站营销中最主要的关键词,长期做网站营销的企业或商家都要做好品牌关键词。目前,对于 App 营销而言,虽然在这方面的搜索还不多,但必然是未来的发展方向。

对于上述三类数据,建议做成 excel 表格,以供定期查询,可按照实际需求增减相关数据的查询。查询周期可每日、每周亦或是每月等,按照实际需求和具体情况来定。

10.4 大数据的分析方法

很多事实证明,利用大数据可以获取 App 的巨大商业价值,正是有了这些大数据,企业运营者才能参考这些数据,并以之为起点,从大数据中挖掘出更多的「机会」。但要抓住大数据的机会并从中获取商业价值,需要建立在具有先进分析方法的基础上。

大数据分析方法,通常有以下几种。

(1)可视化分析

数据的可视化分析,是指将数据加以收集、筛选、分析、归纳、组合,通过不同的展现方式提供给用户,让其发现不同数据之间的关联信息。可视化分析最大的特点就是直观,这个特点更有利于用户接受,使复杂的数据如同看图说话一样简单明了。

大数据分析的特征:

① 实时性:数据可视化分析适应了大数据时代数据爆炸式增长的需求,更新速度快、周期短,紧随市场形势变化。

② 简单操作:数据可视化快速开发、易于操作,同时也便于用户的理解。

③ 展现方式多样化:数据可视化具有更丰富的展现方式,能充分满足数据展现的多维度要求。

④ 多种数据集成支持方式:数据的来源不仅仅局限于数据库,还可以依赖于数据可视化工具,互联网协作、数据仓库、文本等多种方式。

(2)数据挖掘算法

数据挖掘是大数据分析的理论核心,因此,进行数据分析离不开数据挖掘算法。所谓的数据挖掘算法,是指根据数据创建、数据挖掘模型进行计算的一组方法,算法有很多种,各种算法都是基于不同的数据类型和模式。

这种方法能更加科学地呈现出数据本身的特点,深入数据内部,挖掘出公认的价值。数据挖掘比较常用的有六大算法,分别如下。

①C4.5

这是一种决策树算法(由于这种决策分支画成图形很像一棵树的树干,故称决策树),这种方法是需要每次选择一个好的特征以及分裂点作为当前节点的分类条件。

这种方法是 ID3 的改进算法,ID3 选择属性用的是子树的信息增益,而 C4.5 用的是信息增益率,所以基本上了解了一半决策树构造方法就能构造决策树。

②CART

CART 也是一种决策树算法,相对于上面有条件实现一个节点下面有多个子树的多元分类,CART 只是分为两个子树,这样实现起来稍稍简便些。所以说 CART 算法生成的决策树是结构简洁的二叉树。

③K-Means

K-Means 是一种使用最广泛的聚类方法,算法很简单。

a.首先,从 n 个数据对象任意选择 k 个对象作为初始聚类中心。

b.对于所剩下的其他对象,则根据它们与这些聚类中心的相似度(距离),分别将它们分配给与其最相似的(聚类中心所代表的)聚类。

c.然后计算每个所获新聚类的聚类中心(该聚类中所有对象的均值)。

d.不断重复这一过程,直到标准测度函数开始收敛为止。

值得注意的是,这种方法一般采用均方差作为标准测度函数,k 个聚类具有以下特点:各聚类本身尽可能的紧凑,而各聚类之间尽可能的分开。

④Apriori

这种算法是一种挖掘关联规则的频繁项集算法,其核心思想是通过候选集生成和情节的向下封闭检测两个阶段来挖掘频繁项集,即是通过支持度和置信度两个量来工作。现已经被广泛应用于商业、网络安全等各个领域。

具体的算法如下。

a.第一步,首先找出所有的频繁项集,这些项集出现的频繁性至少和预定义的最小支持度一样。

b.第二步,然后由频集产生强关联规则(这些规则必须满足最小支持度和最小可信度)。

c.再使用第一步找到的频集产生期望的规则,产生只包含集合的项的所有规则,其中每一条规则的右部只有一项(一旦这些规则被生成,那么只有那些大于用户给定的最小可信度的规则才能被留下来)。

在这个过程中,可通过频繁项集的一些规律(频繁项集的子集必定是频繁项集)进行剪枝,过滤掉非频繁项集,来减少计算复杂度。

⑤GSP

全称为 Generalized Sequential Pattern(广义序贯模式),是一种序列挖掘算法。有点类似于 Apriori 算法,采用冗余候选模式的剪除策略和特殊的数据结构——哈希树来实现候选模式的快速访存。

具体的算法如下。

a.扫描序列数据库,得到长度为 1 的序列模式 L1,作为初始的种子集。

b.根据长度为 i 的种子集 Li,通过连接操作和修剪操作生成长度为 i+1 的候选序列模式 Ci+1。

c.然后扫描序列数据库,计算每个候选序列模式的支持度,产生长度为 i+1 的序列模式 Li+1,并将 Li+1 作为新的种子集。

d.重复第二步,直到没有新的序列模式或新的候选序列模式产生为止。

产生候选序列模式主要分两步:

a.连接阶段:如果去掉序列模式 s1 的第一个项目与去掉序列模式 s2 的最后一个项目所得到的序列相同,则可以将 s1 与 s2 进行连接,即将 s2 的最后一个项目添加到 s1 中。

b.修切阶段:若某候选序列模式的某个子序列不是序列模式,则此候选序列模式不可能是序列模式,将它从候选序列模式中删除。

⑥Adaboost

这个不能说是一种算法,应该是一种方法,因为它可以建立在任何一种分类算法上,包括决策树、NB、SVM 等。

Adaboost 是一种迭代算法,其核心思想是针对同一个训练集的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。

其算法通过改变数据分布来实现,根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。使用 Adaboost 分类器可以排除一些不必要的训练数据,并将重点放在关键的训练数据上面。

(3)预测性分析

大数据预测分析(Big Data Predictive Analytics)是大数据分析中主要的一环。同时,这也是大数据分析中一个极端困难的任务,实施成功的预测分析非常困难,并非普通的分析人士所能完成的。

做好大数据的预测性分析,需要具备以下四个条件。

以上四种方法是大数据分析最基本的方法,运营者可根据数据类型、数据特点以及实际需求进行有针对性的选择,从而对大数据进行更加深入的、更加专业的分析。

10.5 大数据分析常见的 3 个问题

(1)数据的使用无法融会贯通

当我们单独地分析某一个 App 的数据时,这些数据往往都是孤立的,如果分析的量较少则可,一旦同时拥有十几个、几十个 App 时就变得异常困难,最常见的问题就是各个数据无法打通,分析结果很可能是片面的、不科学的。

如果能将各 App 的数据打通,那获得的利益才是无穷无尽的,可是如何来打通各 App 的数据则要视情况而定,不能一概而论。

如在 PC 端,浏览器可以通过 cookie、flash 等方式记录用户的 ID,而在手机端这种方法却欠妥,因为手机端的用户使用 App 的频率远高于浏览器的频率。但是仔细发现,每个用户所使用的手机 MAC 号一般情况下是唯一的(在极少情况下不唯一),所以,我们可以通过 MAC 号来将用户进行打通。

(2)信息不对称

在前一章节无线音乐应用中,我们遇到一个棘手的问题是,用户信息不完整,无法有效地给用户推荐信息。用户信息不完整的主要原因是用户在该 App 中留下的信息量少,如果能利用用户在其他 App 的信息来补全,则可以大大提高用户在该 App 中的体验。

当信息不对称时,肯定有一些信息是正确的,有一些信息是错误的。很多时候,错误的信息不是指本身就是错误的,而是与现有的判断不吻合。

比如,我们把一批资料定义为 0 和 1,这些资料在 A 方案获得了成功,在 B 方案却失败了,这不能说这些资料就是错误的,而是在 B 评估的过程中,信息的运用不对,如不是单纯的 0 或 1,而是用 0~1 的范围来度量的。

说到这个,就要提到数据分析师了。一般而言,数据分析师对于信息是很有洁癖的,也就是在对于经验的累积上他们对质量把控得十分严格,如对于数据信息的排序、分析可靠的信息源进行多次使用、了解信息的出处和知道信息的提供者等。根据这些,数据分析师在它们的辅助下做出了决定。这意味着你所有的信息来源都需要有正确的途径和渠道,不然这个决策也会出现偏差。

(3)忽略了趋势

忽略了趋势的数据价值一文不值,大多数人认为,经验越多越好。因为积累使然,一个有经验的人总是认为更能够在很多事情上做出正确的判断,但事实上有时候经验越多,似乎越容易让人犯一些低级错误。

这就好像,你会发觉往往天天研究彩票和股票的人总是发不了大财,而往往一个菜鸟却莫名其妙地就中了大奖和买了一只牛股。为什么经验有时会使人犯低级错误呢?这其实是一种逻辑错误。

逻辑错误就是在分析时忽略了趋势,这个道理可以用赛马的故事来举证。

在香港,每次赛马大赛开始前,总有些赌马的人抱着一大堆材料分析某匹马的数据。比如,马会会给每一位赌马者提供前三场赛马的数据,大家只会关注这个结果,一匹马跑完 1 公里的时间,通过计算的数据来预测跑完全程所需要的时间。

不过,结果往往会令人失望,最终还是有很多人因算错赌马失败。这是因为历史数据和今天面对的情况中出现了一些假象。香港大多数赌马的人,他们最终收集到的数据都是以往的数据,以往的数据对于未来的趋势总有些差距,当然是不准确的。

赌马人查看过去的数据没错,但除了看数据,还应该观察有关赛马的趋势问题。因为每匹幼年马和成年马的状态是完全不同的,因此,它的数据评估价值也是不一样的,或者每一场赛马里都有可能出现很多意外,比如,这匹马本来想发力,但前面有马匹挡住了它,它才被延误了两秒钟;或者骑师扬鞭,鞭子掉了,扣除 5 秒钟;再或者有些马发脾气偏离跑道,也要扣除秒数等。

这就是硬趋势。即便有很多过往经验的数据都不能很好地匹配今天你要做的事情时,意味着经验需要将数据进行清洗——把当天的影响因素都找出来并还原,这时候得到的数据才是正确的经验。

10.6 三类数据最容易成为「摆设」

在这个人人都高喊「大数据时代」的今天,数据似乎被提到一个前所未有的高度。无论是个人站长还是大中型企业,亦或是大型跨国集团,无论是网络营销还是线下的市场营销都在意识到数据的重要性,凡事都以数据来说话。但是,事实是很多中、小型企业中的人员对待大数据的态度是——重视有余,利用不足。

出现这种问题的根源在于对大数据认识的片面性,比如,有的人不清楚到底要搜集什么样的数据,有的不清楚通过什么渠道来搜集数据,还有的不清楚如何去分析数据。如此多的前提工作做不好,就更无法清楚怎么去利用这些数据了。

所以,就造成了现在的局面,很多数据仅仅停留在只是数字的浅层次上,成为一个华丽丽的摆设,无法转化为企业利益,为企业服务。

通过总结,我们对 3 大类「摆设」性的数据做了分析,用来给运营者提醒,以免在实际工作中犯更多的错误。

(1)假数据

什么是假数据,即来源渠道不正确的数据。这类数据主要针对那些重视数据但不清楚如何去搜集的人而言。生活在这个信息爆炸化时代,耳濡目染各种宣讲数据的重要性,很多人自然也就重视起数据来,知道企业做事和计划要靠数据来支撑,但对数据的理解始终处于模糊的状态,具体需要什么样的数据,通过什么渠道来搜集整理并不清楚,也没有专业的数据人员来运作。

最后,绝大部分是通过头脑风暴、网上所谓的教程来依葫芦画瓢,再加上咨询同行,东拼西凑而成的数据,这样的数据自然就真的只是摆设了。

(2)误数据

误数据,即错误的数据,是来源渠道不规范的数据。有些运营者非常了解所需要的数据,但获取渠道不足,或者对于数据的来源和制作并不规范,数据采集也可能存在误差。这些数据就可能失真,利用价值自然会大打折扣。其实,这类数据比第一类更加可怕,不但起不到应有的作用,而且极有可能适得其反,产生副作用。

(3)贱数据

是针对数据本身没有错,但在分析和解读数据时产生了错误或歧义,对数据没有清楚了解,但有准确的数据来源和较明确的数据需求,只源于主观原因导致数据无法发生作用。这乃真正的坐拥金矿却不会利用,岂不是把这些可以带来真金白银的数据给轻贱了?只是简单的搜集整理,把数据形成可视化的报表,但是只有这些数据并不能说明实质性的问题。

数据背后的意义是什么?怎样去解读数据以为企业和个人创造价值?怎样去利用数据来规避可能存在的风险?怎样去利用数据分析出现的问题?这些才是数据的真正价值。

版权保护: 本文由 李斯特 原创,转载请保留链接: https://www.wechatadd.com/artdet/10388