<ruby id="h1f55"><i id="h1f55"><mark id="h1f55"></mark></i></ruby>
<rp id="h1f55"><big id="h1f55"><th id="h1f55"></th></big></rp>
<track id="h1f55"></track>
    <font id="h1f55"></font>
    <rp id="h1f55"></rp>

    <track id="h1f55"><big id="h1f55"><nobr id="h1f55"></nobr></big></track>

      <th id="h1f55"><meter id="h1f55"></meter></th>
        <th id="h1f55"></th>

              SEO顾问_SEM顾问_新媒体顾问服务【四川羽翼互动】加入收藏
              全国服务热线:4000-921-622 E-mail:[email protected]
              您当前位置:首页 > 资讯中心 > 行业资讯 > 网络营销 >

              今日头条增长秘密,你知道吗?

                2018 年,中国移动互联网用户增长放缓,上半年仅增长 2 千万。
                
                但是有一匹黑马,硬是在这种恶劣的情况下,逆流而上。
                
                今日头条系独立 App 用户使用时长占比,从 3.9% 猛增到 10.1%,增长了1 .6 倍,超过百度系、阿里系稳居总使用时长第 2 名。
                
                更牛逼的是,头条系产品这种突飞猛进的增长速度还在?#20013;?#21333;今日头条资讯 App 每天还在保持100 万+ 的新增。
                
                在头条系如何做到这般“丧心病狂”的用户增长的背后,其实有一些不为认知的小秘密。
                
                头条内部会创新(或者抄袭)孵化产品,并且为每款产品设置留存生死线(RIO),超过生死线的产品就可以头条系站内流量扶持,快速让它达到千万级日活。
                
                今日头条涉足近 60 个产品
                
                头条内部有非常强大的数据监控系统(花大价钱买数据),任何产品的日活和增长数据都在它们的监控之下。
                
                另外,为了帮助提升创新产品的成功率,头条内部甚至研发出了一套增长引擎,在咱们还在纠结功能按钮排序时,他们就在同时进行几十组甚至上百组的 A/B 测试, 帮助产品经理和运营们找到最优的方案。
                
                头条强大的生死线和数据监控系统我们模仿不来,他们的增长引擎我们也暂时研发不出来。但是帮助筛选最优方案的 A/B 测试,我们还是可以进行借鉴学习的。
                
                虽然 A/B 测试过去更多的是在产品领域,通过它来判断功能的价值。其实到现在 A/B 测试已经渗入到运营, 哪天公众号能推出小流量打开率测试功能,我想你会开心坏了!
                
                什么是 A/B 测试
                
                A/B 测试,也叫对照实验和随机实验。简单说,就是为同一个目标设计 A 方案和 B 方案,让一部分用户使用 A 方案,一部分用户使用 B 方案。记录用户的使用情况,根据用户反馈,比?#31995;?#20986;哪个方案更?#36873;?/span>
                
                千万不要以为这里的“A/B测试”真的只会有 A 方案和 B 方案,“A/B 测试”只是习惯性叫法,你还可以有 C、D、E 多种供测试的方案。
                
                看完定义,你可能会觉得“A/B 测试”这个概念已经烂大街了,不就是提出多种方案供选择,?#32531;?#36873;择效果最好的哪一种吗?
                
                其?#36947;?#35770;讲起来很简单,实?#39318;?#36215;来还是需要很多?#35760;?#30340;。我们先来看一看,今日头条是如何开展 A/B 测试的?
                
                今日头条的头条号具有“双标题”功能,这其实就是 A/B 测试的一种实践。
                
                也许你会说,这难道不是为了让用户有更广阔的起标题?#21344;?#21527;?一篇内容可以起两个标题,那么一个标题废了,还有另一个标题撑腰。 不像微信公众?#29275;?#21482;有一个标题,一旦标题废了,阅读量基本上就完蛋了。
                
                事实上,今日头条设置“双标题”功能是为了更精准地了解用户对于标题的反馈, 从而掌握用户的行为数据。
                
                ?#27604;唬?#20170;日头条在 A/B 测试上最牛逼的玩法不是“双标题”功能,因为只测试标题,?#31361;?#36896;成“标题党”泛滥横行。基于此,今日头条 A/B 有一套“动态”的内容推荐机制,这里的”动态“指的是根据反馈结果,实时更新调整。
                
                这套“动态”内容推荐机制是如何运转的呢?
                
                同样的方案,今日头条会先推荐给小范围的人群:
                
                比如 100 人,如果这 100 人对标题、内容的反馈均不错,那就把方案推荐给更大范围的人群,比如 500 人,如果这 500 人对标题、内容的反馈效果很好,再推荐给更大范围的人群,比如 2000 人,以?#27515;?#25512;。
                
                用户的行为动作会被搜集,据《今日头条推荐系统原理?#26041;?#32461;,基本上每小时都可以看到用户对内容的反馈。但因为每小时都有数据上的波动,今日头条通常以天为时间节点,来查看用户的行为数据。
                
                将用户的行为动作进行搜集后,今日头条会有日志处理、分布式统计,写入数据库。
                
                今日头条系统就可以自动生成:实验数据对比、实验数据置信度、实验结论总结以及实验优化建议。
                
                这样看来,是不是觉得 A/B 测试的威力真的很强大,不仅完成了方案调研,还能通过测试掌握用户口味,实现精细化内容推荐,从而更好地留住用户。
                
                A/B 测试的应用
                
                可能你会觉得 A/B 测试只有大公司才玩得起,和我们并没有什么关系。可能你?#19981;?#35273;得这只是产品的事,和我们运营没什么关系。
                
                那你误解可就大了。不仅小玩家也能玩,而且和我们运营大大的相关。如果你是一个会做增长的运营,那你很可能?#31361;?#25104;为你们公司的扛把子。
                
                举个例子:
                
                我们之前邀请了「深夜发媸」的主编阿芙,来给我们做微课分享。?#28909;?#35848;到微课,?#24378;?#23450;是要打磨微课海报,提升宣传效果的。
                
                于是我们请我司首席设计师做了一版,结果一出来,编辑部的小姐姐们意见?#32531;?#21557;了起来。
                
                一个人认为“如何写出用户?#19981;?#30340;营销文案”,这个主题没有吸引力,应该改成“10 ?#34892;?#20986;让用户?#19981;?#30340;营销文案”。
                
                还有一个人表示赞同,但是应?#23186;?#19968;步优化,改为“10 ?#34892;?#20986;让用户疯传的转化文案”。
                
                这个时候,贤哥很机智的说了一句,你们就不能做 3 版海报嘛?每版海报只让一个宝宝?#29275;?#22312;同一个时间转发(所有宝宝号均拥有 5000 人好友),这样不就测出来哪版效果好了嘛?
                
                当时我们没有想到,其实这就是 A/B 测试的思维。
                
                后来我们实施了贤哥的想法,测试出了 3 个海报的转发率(转发海报用户/新增用户),分别为:30%,35%,44%, 效果最好的一张是:10 ?#34892;?#20986;用户疯传的转化文案。
                
                接下来,?#22836;?#21160;所有宝宝?#29275;?#20844;司的全体员工分享海报,最终吸引了 3000 ?#27515;?#21548;课,这也是我们目前效果最好的一次微课分享。
                
                除了微课的应用,还有很多地方?#37096;?#20197;用到 A/B 测试。
                
                比如 App 的 push 可以做 A/B 测试。 饿了么想要测试,不同的促销活动,对用户的留存有多大作用,所以?#22836;?#29983;了以下场景。
                
                昨天,小松果兴冲冲和我说,饿了么给她发了一条推送:“你有一张 15 元大额券待领取”,结果点进去发现是“满 40 减 15 ”。尽管这样,她还是凑单点了很多东西。
                
                根据以往经验来看,饿了么?#19981;?#22312;我们吃饭前推送。所以我看了看自己的饿了么推送:“订单满 45 ?#19978;?#19971;五折优惠”。一看我就没有兴趣,起点那么高。
                
                其实这就是饿了么运营给我们做的 A/B 测试。
                
                通过这次测试,他们可以通过订单率发现,同样都是优惠 15 元(都花 40 块的前提下),直接突出数字 “优惠 15 元”,就比“满 40 减 15”效果好。
                
                总之,通过 A/B 测试,确确实?#30340;?#22815;试出最佳增长方法。除了 App 的推送,微课主题,还有很多场景可以用 A/B 测试,比如付费广告,应用商店,着陆页,新用户引导流程等?#21462;?/span>
                
                A/B 测试容易踩的坑
                
                A/B 测试看似简单,实则隐藏?#21028;?#22810;沟沟?#37096;玻?#31245;不注意?#31361;?#23548;?#29575;?#39564;结果偏离科学轨道。
                
                1)忽略测试环境差异
                
                如果真的有一天公众号开发的标题 A/B 测试的功能,你会用下?#24515;?#20010;方案去测试的你的标题?
                
                a. 将上海地区用户分成 3 个组,并在同一时间 分别推送 3 个不同的标题。
                
                b. 将上海地区用户分成 3 个组,并在不同时间点 分别推送 3 个不同的标题。
                
                如果你的是选择 b 方案的话,恭喜你翻车了!
                
                举个不太恰当的例子,b 方案的测试方法就好比在电视上投放广告,分别选取了工作日的下午 3 点钟和晚间黄金时段进行测试?#21344;?/span>
                
                由于轮流展示时的测试环境不尽相同,所面向的受众群体更是千差万别,因此最终试验结束后的数据结果必然会存在一定偏差 ,也就更不具有说服性了。
                
                2)容?#20303;?#20197;全?#29260;?/span>
                
                在测试结果没有表现出理想状态下的数据提升时,如果你直接放弃的话,有可能你又踩坑了。
                
                国际?#22871;?#24179;台,搜索是 Airbnb 生态系统中很基础的一个组成部分。Airbnb 曾经做过一个关于搜索页优化的 A/B 测试,新的版本更加强调了列出的?#35745;?#20197;及?#35838;?#25152;在位置(如下图所示)。
                
                在等待了足够长的时间之后,试验结果显示新?#20064;?#26412;的整体数据相差无几,似乎这次优化没有很好的效果。
                
                如果此时,Airbnb 直接根据整体的数据表现放弃了这次优化,那么这个花费了很多精力设计的项目?#31361;?#21069;功尽弃。
                
                相反,经过仔细研究,他们发现除了 IE 浏览器之外,新版在其他不同浏览器中的表现都很不错。当意识到新的设计制约了使用?#20064;?#26412; IE 的操作点击 后(而这个明显为全局的结果造成了很消极的影响),Airbnb 当即对其进行了修补。
                
                至此以后,IE?#25351;?#20102;和其他浏览器一样的展示结果,试验的整体数据增长了 2% 以上。
                
                通过 Airbnb 的例子,我们能学到正确的做法是:在整体效果不太好的时候,不要一竿子打死,而需要从多个维度细分观察个体的情况,以避免区?#22909;?#35823;带来的决策偏差。
                
                3)只做到了局部最优
                
                避开了上面的 2 个坑之后,你可能得到一个相对不错的测试结果,在你欣喜若狂时,正准备对外宣布战果时,可能已经踩入了另外一个坑——“局部最优”
                
                以某金融平台提升新用户的注册率的 A/B 测试为例,运营通过不断进行注册按钮的文案优化,发现相比于“立即注册”、“免费注册”?#20219;?#26696;而言,“领取 100 元新人红包”的注册率是最高的。
                
                但是,如果只是沉迷在文案上做测试,其实他可能就错过了提升用户注册率的其他更效假设。
                
                正确的做法是可以进行用户调研,了解用户不注册的原因在?#27169;?通常情况下金融平台让用户放弃注册的原因还在于,注册流程繁杂、信任问题、无匹配的理财产品等,所以在完成了注册按钮的文案测试时,我们还需要在这些方面也进行想要的实验。
                
                总结
                
                今天的文章,我们通过分析今日头条,向大家展示了 A/B 测试的强大功效,采用 A/B 测试不仅能够在众多方案中选择出最佳方案,其实更能对产?#26041;?#34892;不断的迭代优化,实现用户留存。
                
                如今,A/B 测试已经渗透到运营工作中,运营社也在实?#20351;?#20316;中感觉到这个理论真的很好用。
                
                1)当有多种方案供选择,但又产生意见分歧时,可以通过 A/B 测试?#39029;穌页?#26368;优解。比如文章起标题、裂变海报文案、以及 App 的 Push ?#21462;?/span>
                
                2)看似简单的 A/B 测试,其实有很多坑:
                
                ① 忽略测试环境差异, 没有进行变量控制(只能有一个变量),造成数据偏差;
                
                ② 以偏概全, 在测试结果没有实现理想状态下的数据提升时,?#22836;牌?#23545;产品优化,会导致项目前功尽弃;
                
                ③ 只进行局部优化就忽略对其他部分的调整更新, 无法查?#39029;?#20854;他方面的漏?#30784;?/span>