零粉丝,运用错位竞争,运营「好物推荐」 – 个人收集信息分享
最新消息显示在全站导航条下方,非常给力的推广位置

零粉丝,运用错位竞争,运营「好物推荐」

网赚教程 ad_oureasy 116℃

知乎新用户在零基础的状态下运营”好物推荐”,短期很难产生效益!

优质问题下往往已经有了优质的推荐,新答案很难出头!

目标问题其实很多,但不知优先回答哪些!

自写文章又不知如何选题!

在零基础(账号数据几乎为零)、零经验的状态下,面对官方一再力挺的”变现项目”却无从下手是大部分人惆怅的地方。

而正如标题所言,今天这篇文章,我们来尝试使用”错位竞争”的方式,解决以上的问题。


“好物推荐”,是我个人十分认可的一种变现方式,它给用户需要的内容的同时帮助内容贡献者带来相应收益,而且目前官方也一直在大力宣传,趋势很好。

但是用自己”零数据基础”的新账号跟各种大V直接在知乎里比拼显然是不理智的,因此我把眼光放到了站外。

因为我本身是SEO(搜索引擎优化)出身,对百度等搜索引擎的”调性”比较熟悉,所以在19年知乎宣布F轮融资、百度领投之后:

很快了解到了知乎的百度搜索流量翻了好几倍,来源于百度搜索的流量在知乎整体流量来源的比重中又上升了很多。

我们在做SEO的时候,经常要跟踪自己站点的排名变化,以便做相应的站内优化,因此我想到了把两者的思路结合一下,形成一个”利用知乎在百度的搜索结果排名来指导我们运营「好物推荐」”的思路。

即:优先选择拥有巨大百度流量却还没有优质回答的问题,形成错位竞争!

大致步骤是:

挖掘目标类目的关键词,批量到百度里搜索,统计这些关键词的搜索结果中,属于知乎的链接里相关问题的具体排名。

然后利用搜索引擎的”点击率分布数据”,结合问题的排名来赋予每个问题相应的流量占比。

最终形成一份报表,根据每个问题的流量占比和覆盖词数来筛选优质问题。

如果不明白没有关系,跟着过一遍就懂了,以下开始演示实操步骤!


步骤1:挖词

本文选择”厨具”类目作为本次的演示数据,即假设我们是一个准备推荐”厨具”相关品类的作者,我们对如何选购”冰箱”、”电饭煲”、”电磁炉”、”油烟机”、”榨汁机”等有相关经验。

那么我们需要围绕这些产品名称来挖词。

挖词渠道推荐:百度关键词规划师、艾奇关键词助手、5118、爱站

挖词工具具体使用可以看我第1篇文章。

本次方式不需要海量关键词,因此只演示一种渠道,本文以艾奇关键词助手为例。

我们希望通过挖词搜索来统计出流量大的知乎问题,但是并非什么问题都是我们想要的,对于做”好物推荐”,我们需要的显然是这样的问题:

而非这样的问题:

因此,在挖词时,应该人为的添加相应的后缀,来控制挖掘出来的长尾词。

分两方面:通用后缀和行业相关后缀

通用后缀:

与好物推荐相关的问题总是围绕着:推荐、哪个好、怎么选等等。

包括但不限于:

推荐、排行、品牌、质量、靠谱、哪个好、怎么选、哪里买

行业相关后缀:

与厨具电器相关的一般会涉及:参数、性能、功率、噪音等等。

两者可以结合个人经验和想象力拓展出更多后缀,然后在Excel里把每一种产品轮番对应一遍:

复制到挖词渠道上拓展,我们这里使用艾奇关键词助手,它的数据是来源于百度的:

上方是我们复制进去的关键词,一行算一个,下方是每行拓展出来的关键词。

其他产品一样使用同样的方式,再把它们挨个导出来汇合到一起,拓词就算完成了。

我们本次的统计方式是计算各自的流量占比,不需要太多词,有个1万以上都是足够体现的。

我们可以把厨具类的产品都收集一遍,也可以只收集我们只想推荐的,比如:冰箱,然后尽可能丰富一下后缀。

如果是收集多种产品一起统计,注意产品之间的关键词数不能相差太多!

简单清洗:

一般挖词后都需要清洗关键词,可以根据我之前第1篇文章的步骤简单清洗即可:

我们本次涉及的关键词数并不多,因此直接合并几份数据,在Excel里清洗即可(Excel如果不会可以看我第3篇文章)。

需要特别说明的是:

在这里,”去长去短”这一步:主要去掉太短的,6个字及以下的去除掉,长的放着。

“去非目标词”:着重思考下目标类目经常会产生哪些我们不需要的后缀,批量去除掉,比如:维修。


步骤2:收集及统计数据

我们现在挖掘出了一批词,大约17000个,搜索量为0不是指没有人搜索,而是阶段性搜索量低而没有显示,我们现在要用这些词批量收集排名数据。

在收集及统计前我们先了解搜索引擎”点击率分布数据”的概念:

搜索引擎第一页的每一个排名(1-10)都是有对应的较为明确的点击率数据的。

各大搜索引擎已经好几年没有更新发布新的点击率数据了,目前比较主流的数据仍然是早年公布的:

按照这份数据红框部分,当用户搜索一个关键词的时候,排名在第一位的搜索结果被点击的概率是42.28%,下面的排名依次类推(排名第一的流量就是这么强悍)。

进而得知,如果一个关键词一天的搜索次数是100次,那么理论上排名第一的这个页面会被点击42.28次,也就是获得了42.28个流量值。

我们的统计逻辑是(重点):

收集一批与”好物推荐”相关的长尾词,假设每一个长尾词一天的搜索量都是1(因为长尾词的特点是往往有海量的变种词汇但单个词汇搜索量极低),把它们批量拿到百度里搜索,记录每个知乎链接的排名位置,结合上面的点击率分布数据来预估该链接获得了多少流量。

比如搜索:”家用抽油烟机哪个牌子好”,在搜索结果里,有一条知乎的问题链接:

它排在了第二位,按照上面的点击率分布数据,它应该获得11.92%的流量,因为我们假设这个长尾词的搜索量是1,因此它实际获得了0.1192的流量。

按照这个逻辑,我们批量搜索,批量统计,最终就可以计算出每一个遇到的知乎链接,它在被各种关键词搜索时总共可以获得多少流量(预估)。

这个思路是我们之前在SEO行业群里讨论,一个朋友分享的,是一个很好的统计思路,我们之前把它运用到我们自己站点来跟踪排名变化,现在则结合到这里来预估知乎某些链接的流量。

当然我们会发现,这个流量值根本只能是相对的,因为它跟我们究竟批量搜索了多少个关键词有关,跟每个关键词的具体搜索量有关,跟实际的点击情况有关。

但是没有关系:

长尾词的搜索量几乎可以约等于1

搜索引擎的点击率分布这么多年其实不会改变多少,因为搜索场景一直没有变更

关键是,每一个问题被统计时,它们面临的影响因素都是一样的,但是实际统计出来却仍然会有不一样的流量占比,这完全是因为它们自身的排名差距所导致的,而我们就是要统计出这种差距。

至于用了多少个关键词,也没有关系,我们要的只是相对占比,不需要具体的绝对值,我们当然不能拿三五个关键词说事,但是上万个的关键词综合统计出来的数据是具备参考性的。

因此,使用这种方式,我们可以统计出用户在百度搜索目标类目关键词时,哪些问题总是比较能获得更多的流量。

逻辑清楚后,就要考虑如何实现,在这里我依然是推荐使用Python,如果不会技术,这个程序想要学会自己写,也是相对简单的,比之前的”词文本向量分类”简单多了,按照我之前第3篇文章里介绍的学习路线即可,同样都是思维重要,技术本身却很简单。

接下来简单介绍一下程序步骤(不会编程可以跳过本段):

准备3个变量,用于分别存储问题、文章(稍后解释)、关键词的累积数据。

问题及文章变量的存储结构为:链接、ID(问题或文章)、预估流量值、覆盖词数

关键词的存储结构为:关键词、涉及问题数、涉及文章数

1:循环提取关键词到百度里获得搜索结果

2:在每次返回的结果中做如下操作:

a:非知乎问题和文章的链接一律跳过

b:碰到知乎问题(文章)链接时,根据它的排名(按接收到的顺序算排名)计算对应的预估流量值

c:该链接覆盖的词数自动+1

d:当前关键词涉及问题(文章)数自动+1

3:将所有数据存储,并分别打印到Excel里

下面是一段伪代码:

# 点击率分布数据
clickrate = {
	1:0.42134,
	2:0.11897,
	3:0.08498,
	4:0.0606,
	5:0.04916,
	6:0.0405,
	7:0.03412,
	8:0.03014,
	9:0.02849,
	10:0.02995
}

question = {'url':{'id':'','score':'','id':'key_num',}} # 问题表
article = {'url':{'id':'','score':'','id':'key_num',}} # 文章表
keyword = {'key':{'q':0,'a':0}} # 关键词表

# 抓取搜索结果
def GetJson(key):
	rel_json = requests.get(link)
	return rel_json
# 统计数据
def CountScore(rel_json,key,question,article,keyword):
	# 循环读取每一条数据
	for data in rel_json:
		# 得到链接、排名、ID
		url,pn,ids = data
		# 计算预估流量值
		score = 1 * clickrate[pn]
		# 填充数据
		question[url] = {'id':ids,'score':score,'key_num':1}
		# 关键词加1
		keyword[key]['q'] += 1
	return question,article,keyword

伪代码仅仅写了核心的部分,侧重说明一些核心步骤,有些代码是错误的,一些不重要但必要的步骤也是缺失的,仅作参考使用。

采集过程控制下速度,利用公开数据做分析,尽量尊重下平台规则。

另外,我们刚才介绍思路时谈的对象一直是问题,实际统计中,其实也同时统计了文章,因为它也有其他的指导意义。


步骤4:分析挑选(重点)

在我们自动统计完所有数据后,我们会得到一份Excel,它有三张表,分别是:问题、文章、关键词。

“问题表”的数据如下:

问题链接:它是我们在收集的过程中遇到的每一条独立的链接,在表里是唯一的

问题ID:从链接中提取,每个独立的问题都有各种不同的链接被百度收录,在表里是会重复的

预估流量值:每一条独立的链接在收集中综合统计出来的预估流量

覆盖词数:在搜索所有词时,该链接出现了多少次,说明覆盖了多少个词

至于为什么一个问题会有多个链接被百度收录,是因为在知乎一个问题有多种版本的链接。

一条标准的问题链接:

https://www.zhihu.com/question/30688154

一个问题其中一个答案的链接:

https://www.zhihu.com/question/30688154/answer/49036927

一个问题带各种参数的链接:

https://www.zhihu.com/question/30688154?sort=created

这些参数代表各种意义,比如按各种维度排序等等

对于搜索引擎来说,一个链接就是一个页面,虽然是同一个问题下的,但是被搜索引擎抓取时都是看待为不同页面,都会收录。

根据上诉的数据关系,我们可以使用Excel的”数据透视表”来统计出单个问题获得的总流量值(也就是把所有属于这个问题的链接对应的流量值都加起来),选择所有数据,然后”插入”-“数据透视表”:

会得到这样一份表:

勾选”问题ID”、”预估流量值”、”覆盖词数”,按照如下放置:

左边的数据就是我们需要的,它以单独的问题ID为标识,对应着每一个问题获得的所有”预估流量值”和”覆盖词数”,复制过来放到一份新表:

“文章表”的数据也是一样的:

它的情况和”问题表”一样,同时也一样统计出一份新的汇总表。

“关键词表”的数据:

关键词:我们拿去搜索的词,搜索多少个,这份表就有多少条记录

涉及问题数:该关键词搜索之后,遇到了几个不同的问题

涉及文章数:该关键词搜索之后,遇到了几个不同的文章

数据表的意义我们理解了,也汇合成新的数据表了,那么有什么指导意义呢?

1:对于”问题汇总表”,提取出预估流量高并且覆盖词数多的问题ID。

这些问题都是在百度拥有相对高的流量来源的,优先在这些问题底下推荐才有机会获得更高的曝光量。

2:对于”文章汇总表”,提取出预估流量高并且覆盖词数多的文章ID。

虽然文章是别人发表的,我们也没办法回答,但是可以研究对方的标题和内容,知乎在百度的权重已经足够高了,不用担心我们发布的文章不被收录或者排名不好,剩下的就是在比拼标题和内容,研究对方的标题和内容是如何布局关键词的,这是文章在百度排名优异的一部分关键。

3:对于”关键词表”,提取出涉及问题数多和涉及文章数少的关键词。

涉及问题数较多说明该词在目标类目里具有相对代表性,才能在搜索时出现相对多的各种同类问题,同时,如果该词涉及的文章数较少,或者几乎为0,说明用户目前在百度搜索该词时,还没有能排得上来的好文章,那么显然我们应该:

以该关键词为标题,围绕该关键词撰写一篇优质的推荐文章,用这种方式布局用户可能会搜索到的各种需求。

当然:

“家用抽油烟机哪个牌子好” 和 “家用抽油烟机哪个品牌好”

这显然是可以被一致看待的两个长尾词,那么就不要为此重复的撰写两篇文章,这是在制造信息垃圾,无论站在用户体验、平台规则、自身形象的角度,都是有害的。

如果我们针对该长尾词撰写了一篇文章,按照知乎在百度的权重,很快就会被收录,如果我们发现新发布的文章链接迟迟在百度没有收录,我们可以主动去提交。

先判断是否收录:

把目标链接放到百度里搜索,能找到就代表有收录了,如果没有收录:

点击红框里的”提交网址”:

点击提交后,搜索引擎就会知道这条链接,只要我们文章不是三两个字的,一般都会被收录。

4:提取”问题表”里,带”updated”字符串的链接,比如:

https://www.zhihu.com/question/30518410/answers/updated

这是一条我们收集到的被百度收录的知乎链接,它其实是一个问题的答案按照”时间排序”后形成的链接:

我们之前说过,对于搜索引擎,一个链接就是一个页面,尽管其实是同一个问题的不同排序结果而已,但对于搜索引擎,也是单独看待的页面。

那么当这样的链接被百度收录了,用户通过百度进来之后,他看到的这个问题的页面是按照”时间排序”的,所以用户先看到的第一个答案是最新回答的。

因此,我们肯定也要优先回答这样的问题,当然了,我们这样想,别人也这样想,但是总比用户进来之后,回答里没有我们的相对好,至少在短期内,该问题下的最新回答,我们可以排在第一或前几。

刚才1、2、3里都提到了”提取相对较高”这个思路,那么在Excel里具体怎么做呢?

我们可能会收集到几万个问题,这么多问题里,挑选出多少个合适,怎么才算是相对较高?

这里我们按百分比即可,分两种方式:

假如我们收集到的问题只有小几千个或者千把来个,那可以直接用Excel的四分位公式。

比如下面一张表:

假设这是我们收集回来的数据,所有的预估流量值如上,我们需要提取出预估流量值最大的top25%,也就是提取出这10个数当中数值能大于其他7.5个以上的那些值。

这数据太简单,眼睛观察就知道目标数值得是大概大于7.5以上的。

而Excel的四分位公式可以帮我们得到:

公式:=QUARTILE($A$2:$A$11,1)

第一个参数”$A$2:$A$11″就是我们的目标数据列的表格范围,实际看具体数据有多少。

第二个参数填入多少,对应取的值如上图所示,我们填入3,就能得到大于75%个数的数值是多少:

其他分位是一样的方式:

也就是说,某个数值大于等于7.75,就能超过75%的其他数值,所以我们通过筛选:

就可以得到我们需要的预估流量值top25%:

在10个数值中,8、9、10超过了其他75%的数值。

因此:提取”问题汇总表”里的预估流量值和覆盖词数较高的前25%就可以使用这种方式,因为数据量本身不大:

如上图所示:第三分位已经被我们都计算出来,只要针对预估流量值和覆盖词数两列同时做筛选,就可以提取到我们要优先处理的top25%的问题了,1000个里提取出来,大概也就250个左右。

但是我们面对的可能不是千把个问题,往往是上万个,如果提取top25%,那就是2500个,那这个”优先级”的范围也太大了,因此我们需要另一种方式:

公式:=PERCENTILE.EXC($A$2:$A$101,99%)

在这里,我们可以把这个公式当成上面四分位的灵活版本,不过这个公式需要对面100个以上的数据才可以。

第一个参数依然还是目标数据的表格范围标识。

第二个参数,当我们填入99%,相当于100%-99%=1%,也就是我们会得到top1%的数值。

然后再用上面同样的方法,用这个得出来的top1%的数值做筛选,就可以提取相对较高的前1%的目标问题了。

换成90%,就相当于提取前10%的数值了。

我们本次收集的问题大概是8000+,使用这种方式提取前1%:

从图中可以看到,预估流量值的数值只有大约1%是超过13的,覆盖词数同理。

这是计算出来的top值,利用它们同时筛选,得到优先数据:

能满足条件的只有74个,这就是我们首先要回答的问题了,当然我们优先回答完一批,把它们清理后,继续使用同样的方式再提取top的数据即可。

“文章汇总表”和”关键词表”的数据同理处理。

我们在筛选出来的这些top1%的数据里随机挑选一批检查,发现它们主要会包含这两种类型的问题:

问题ID:19731617

预估流量值:93.99683

覆盖词数:1099

这种类型的问题,它的答案数量不少,但相对大热门的问题,却也不多,中规中矩,现有答案的质量参差不齐,一般有个正儿八经的长文推荐,都能排在前头,整个问题的浏览量很高,甚至高到与其他数据不成比例。

几十个回答,几百个关注的问题,却有百万级的浏览量。

对于搜索引擎来说,这样的问题肯定算是优质内容了,它在百度里的排名高是正常现象,恰恰验证了这种统计方式的逻辑没问题。

这些在搜索引擎排名比较好,流量比较高的问题,它们的浏览量数据和其他数据不太成比例,考虑到可能是来源百度的用户多,但是这些人只是看,有需要可能会点击链接直接买,但不会对问题关注或点赞,搜索的目的性总是很强。

像这样的问题,流量大,但回答数却还不是很多,现有回答的质量也没有非常突出,就是一种潜在的机会。

问题ID:287723879

预估流量值:134.89637

覆盖词数:423

只有三个回答,而且内容的质量并不高,不是专门的推荐:

我们都知道零星一两个答案的问题,在知乎基本上不会有什么推荐,再加上没什么人点赞,就更不可能扩散,所以这类问题的浏览量应该大部分是来源于搜索引擎。

我们搜索一下百度:

除了广告,这个问题已经是第一名了,排名确实很好,而且”凹面电磁炉推荐”算不上很长的长尾词。

我们来看看”凹面电磁炉”的搜索量:

由它延伸出来的长尾词会有千千万万个,这些搜索量加起来是很可观的。

那么我们可能会疑问,排名这么好,搜索量也不低,怎么这个问题浏览量也才不到1万?

我们都知道关键词有长尾性质,一个”电磁炉”,加上属性、品牌、需求,可以演变出各种各样的词,它们的特点是单个搜索量很小,但是胜在词量大,每天都有各种人去搜索各种词,多得是我们想象不到的。

而对应的,问题肯定也有这种长尾性质,从百度搜索之后,用户不一定都进入到这个问题,也就是流量会被各种同类问题分散掉,比如下面这个:

问题ID:294901665

预估流量值:26.53348

覆盖词数:434

这个问题跟上面的属于同一类,它有一万多浏览量,但是只有两个答案,还都不是在做推荐的。

也就是说,这两个问题,它们都是在知乎里基本不会被推荐的问题,但是它们会靠着百度的来源流量,日积月累的提升浏览量。

我们主要要做的就是这类问题,在某个大类里,它们可能成百上千甚至成千上万,它们都不会被推荐,不会有其他人来竞争,几乎没有现有的答案,但是它们都有稳定的流量,这些问题合起来的总流量不低于大热门的流量。

假设一个类目里有100个这样的问题,这些问题在百度的排名都很好,每天被各种搜索类目长尾词的人访问,这些问题里大部分都是我们的答案,甚至只有我们的答案,那能带来的长尾流量即可观且稳定。

特别是稳定,这么多无人竞争的问题都被我们覆盖了,短期内不会有太大的变化,如果我们运气好在某个大热门的问题下写了个优质答案,但是这种答案注定不多,很有可能某天就被人压下去了,流量会瞬间失去。

有需求、有流量、有排名,却没有好的内容来解决用户需求,这正是需要我们去完善的。

我们跟各种大V去竞争各种热门问题,还不如来解决这些有流量却还没有人搭理的需求。

综上:

回答不多但流量很大、回答很少但综合流量大,这两类问题就是我们找出来的”错位”。


写在最后:

1:几个提升点

在百度搜索时加入”site:目标站点域名”,可以使得搜索结果皆为目标站点的内容。

比如:

像这样搜索:”油烟机推荐 site:zhihu.com”,那么我们能看到的结果都是来源于知乎的。(除了广告)

我们在抓取搜索的过程中可以选择要不要在关键词后面加入site指令,加入之后因为返回的都是知乎链接,方便收集和统计,同时也不用担心这种方式会影响排名的客观性,即使是站内之间,每个页面的权重也是不一样的,我们要的就是统计出这种相对的差距。

在计算预估流量时,我们上面是把长尾词统一当成搜索量为1,如果我们希望提升统计的准确率,可以在抓取时给关键词带上对应的搜索量(尽量在百度官方渠道获取),在统计过程中,乘以对应的搜索量,计算出来的预估流量值将更趋近于真实。

我们上面只计算了排名前10位,也就是第一页,其实第二页的排名也是有对应的点击率分布数据的,也可以抓取更多页面一起计算,毕竟一条问题被排在了第二页,也是有可能被点击的。

对于技术人员来说,抓取过程中加入rn和tn字段,肯定是更方便抓取,至于什么是rn和tn,技术人员百度一下肯定明白。

2:技术建议

对于技术人员,没有什么好建议的,毕竟自己有能力写出对应的程序来。

对于非技术人员,首先可以参考我写的第3篇文章,按照上面的方式来学习,自己也可以写出需要的程序,这套程序本身并不难,不过是一些循环和判断而已。

其次如果个人实在没有精力学习编程,而又确实很想用这种方式尝试”好物推荐”,那么我个人也建议可以在市面上找第三方代做,专业的事情交给专业的人做,自己把精力放在思路上,这套程序并不难,300左右最多,超过就不要接受了。

如果找第三方代做,程序拿到手后可以使用少量的关键词测试,然后对得到的结果做验证,记得让他的代码开源。

由于我个人不是从事编程职业,所以自己写的程序只是适用于自己,真正把一个程序打包成软件出售的话要考虑太多技术之外的事情,所以个人没有帮忙代做。

3:一点想法

目前自己有其他的项目在做,对于自媒体变现暂时没有什么想法,我在写自媒体的时候也在考虑是否有合适的变现方式,对于知乎,我所了解的主要是”付费咨询”和”好物推荐”,两者我都挺看好,一个是知识付费,一个是带货,大势所趋。

如果是”付费咨询”,那可能我还能给一些行业的新人提供一些建议,可是我是一个理工直男,对于买东西我向来是只买需要的,不需要时不逛不看。

平时生活中其实也没有什么很了解的商品,让我给别人推荐商品,说实话我也不太会推荐,关键是我压根都没买过、没用过的东西,我也不知道怎么推荐。

所以其实本文的这个思路仅仅只是我过往经验得出来的,但是并没有真正的实践,具体实操后会是什么样的效果,我也不好说。

可以确定的是,利用”点击率分布数据”来统计排名的预估流量,这个方式绝对是科学的,这是我们做SEO时经常要做的事情,它确实能指导我们优化。

并且,我们在知乎大多时候是乱逛,没有太多目的性,而在百度搜索一个关键词,目的性是很强的,有需求,他一定是要找一个解决他需求的页面,所以围绕百度流量来开展「好物推荐」我挺看好。

如果你能认真的去推荐你擅长的领域,我相信效果并不会差,本身我们依然是在做「好物推荐」,只是我们在基础数据比较差的时候,用另一种方式避开竞争,同时挖掘还没有被满足的需求而已,这个技巧也不单单可以在初期数据基础差的时候用,在以后慢慢起量了,它依然是锦上添花的行为。

转载请注明:个人收集信息分享 » 零粉丝,运用错位竞争,运营「好物推荐」

喜欢 (14)