2021.07.06_生财工具v2_0使用说明-生财有术
生财有术 ·
副本⽣财⼯具V2.0使⽤说明-⽣财有术
从去年国庆第⼀次看到⽣财的那篇⽂章:如何在百万级的数据⾥找到别⼈正在赚钱的项⽬(参考资料1),认识到了君⾔,再顺藤摸⽠看完君⾔在知乎的⼏篇⽂章,对于⼀直在摸索尝试⽤技术从事⾃媒体写作的⼀个技术⼈,终于感觉找到了⽤技术做点东⻄的思路。今年4⽉18号加⼊了⽣财有术后,花了2个多⽉的碎⽚时间刷完⽣财28篇SEO的精华,外加⼏篇关键词引流与知乎好物的精华,再回头来重新把君⾔的所有⽂章读了⼏遍,断断续续把这些⽂章涉及的功能做成了⼀个⼩⼯具集合:⽣财⼯具,⽣财⼯具的脑图介绍如下:
⼀、关键词⼯具
1.关键词内容挖掘⼯具
项⽬的必备技能。
关键词内容挖掘⼯具的相关截图:
关键词内容⼯具的使⽤很简单:输⼊你想挖掘的词根,⽐如:抖⾳,选择包含词根的⻓尾词⽂件,关键词内容挖掘⼯具会⾃动使⽤⻓尾词带⼊百度搜索挖掘出排名在⾸⻚的⽂章链接。关键词挖掘⼯具爬取⼀段时间后我们得到如下的⽂件:
课程资料⻓尾词对应的百度搜索结果收录链接
包括域名、域名描述、链接标题、链接地址以及在百度的排名权重,如下所示:
域名统计⽂件
2.关键词内容下载
通过上⾯的关键词内容挖掘⼯具,我们已经找到⼀批搜索引擎收录的排名靠前的链接,为了更好的研究这些内容,我们通常希望将这些内容直接下载到本地电脑保存起来,这样⼀是为了⽅便查看,另外也可以快速的进⾏模仿再创作,所以还是需要⼀个⼯具批量下载这些链接的内容⼯具,关键词内容下载⼯具就是⽤来⾃动下载这些链接内容,并⽀持多种格式,如html,纯⽂本与word格式等。
关键词内容下载⼯具截图如下:
⽹⻚地址⽂件
⽹⻚地址列位置
下载配置
mathfrakC
mathfrake
mathfrakC
mathfrakCmathfrakC
mathfrakC
mathfrakC
mathfrakC
mathfrake
mathfrakC
mathfrakC
mathfrake
mathfrakCmathfrakC
mathfrakemathfrakC
mathfrakC
mathfrake
mathfrakC
mathfrakC
mathfrake
mathfrakC
mathfrakC
mathfrakC
mathfrakC
mathfrakC
两百份课程免费送加
3.关键词基于海量内容挖词
关键词。这个⼯具的思路也是来⾃君⾔的⽂章(⽂末的参考资料:6),这⾥我们利⽤⼀批新闻语料库和⽬标⾏业⽂章来保证收集的关键词的⾏业准确性,新闻语料库可以直接从⼀些⾃然语⾔处理⽹站下载现成的,另外就是需要收集你需要提取的关键词⽬标⾏业的⽂章,这些⽂章从哪⾥下载?很简单,上⾯的关键词内容下载⼯具就可以⽤来下载这些⾏业⽂章,另外也可以直接通过知乎来收集。
关键词基于海量内容挖词⼯具的的使⽤截图:
⽬标内容⽂件夹
格式。
提取词百分⽐
的关键词,具体可以根据提取的效果调整这个⽐值。
语料库⽂件夹
语料库加载百分⽐
的准确度调整这个⽐值。
关键词,保证提取的准确度。
这⾥我以⼩曾的⼀些⽂章作为⽬标内容,挖掘君⾔部分⽂章得到的关键词如下:
两百份课程免费送加
4.关键词相关搜索
取出来,⽆论⽤户是怎么表达的?君⾔的⼀篇付费⽂章(参考资料:5)给出了⼀种⾮常巧妙可操作性强的⽅法:搜索引擎的相关词搜索。
挖掘百度搜索引擎的相关词有⼀个难点:如何保证相关词的相关性?如果不做相关性校验,直接爬取的关键词会很快偏离我们的要求,⽐如:引流,这个词根很容易爬取到很多医学类关键词,所以必须控制关键词的相关性。
君⾔在付费⽂章提出了⼀种⽅法解决了这个问题:使⽤相关词搜索结果的链接域名判断,具体细节这⾥不作展开,感兴趣的可以直接看那篇付费⽂章,⾮常值得⼀看,如果你是⽣财有术星球的会员可以直接在星球找到这篇⽂章免费查看。
使⽤这个⼯具还有⼀个⼩困难点:怎么收集⼀个领域的⾏业域名库?很简单,上⾯的关键词内容挖掘⼯具就可以解决这个问题,⼯具在收集内容的同时⾃动提取链接的域名并按照搜索引擎的排名对域名进⾏排序,我们就得到了⼀份⾏业域名库了。
关键词相关词搜索的⼯具的使⽤截屏如下:
词根
域名相关性校验
词根相关。
⾏业域名库⽂件
排除域名库⽂件
示:
相关词⽂件
两百份课程免费送加
异常词⽂件
有些异常词是我们判断错误的⽂件,主要是域名库整理的不够准确完整,可以根据爬取结果调整:
两百份课程免费送加
异常词域名统计
我们在判断词词不是相关词的同时,记录下这些我们判断为⾮相关词的链接的域名与域名的描述,从这份域名⽂件我们可以判断出哪些域名是我们收集⾏业域名库漏掉的,我们可以加进去提⾼判断关键词是否相关的准确性,不断丰富关键词⾏业域名库,如下:
相关词含空格
为什么要将这部分关键词单独提取出来⼀个⽂件?因为这些包含空格的关键词都包含⽤户强烈的搜索需求,想⼀想⾃⼰的搜索习惯,当搜不到⾃⼰需要的结果时,是不是下意识的加些空格希望搜索引擎更准确的给出搜索结果,⼀些示例关键词如下:
以直接分析上次的爬取结果,不⽤在重新爬取了,如下:
5.关键词分词
⼀个简单的分词举例如下:
怎么下载抖⾳的视频
,基本就能收集到有代表性的词库。
关键词分词⼯具的相关截图:
词根
词根⽐如:抖⾳,这个词根就是准备分词的⻓尾词⽂件的词根。
词库语⾔
⽬前⽀持中⽂与英⽂,英⽂的分词效果不太好,后⾯会专⻔抽出时间来优化这个英⽂分词功能。
关键词⽂件
这次准备分词的⻓尾词⽂件,不限于⻓尾词也可以是⼀批短⽂本,⽐如链接标题、⽂章标题等短⽂本都可以。
关键词排除⽂件
把你不想要的关键词词根,⽐如⼀些⿊词的词根,还有我们明确知道不想要的词根,⽐如我们从5118上导出了⼀批“引流“⻓尾词,想对这些⻓尾词进⾏分析,我们已经知道⽐如⼀些医学词根
⽐如:导管、试管、⼿术这些明显是不相关的词根,我们可以⽤⼀个⽂件把这些不相关的词放在
⼀起排除掉,这样分类结果就不会有这些词了。
⾃定义不可分割词⽂件
不可分割词是为了保证⼀些词不要被拆开,因为分词⼯具也不是万能的,⽐如:今⽇头条、视频
词频
⽐如,第4⾏:视频,就是“视频”这个词根在这份“抖⾳”⻓尾词中出现的次数。
词频覆盖率
⽐如,第4⾏:视频,该词根的词频占“抖⾳”⻓尾词数量的⽐例。有了词频覆盖率的参考,便能
⼀眼看出该词根的⽐重,快速了解该词根的重要程度。
词频累计覆盖率
有了词频覆盖率,为什么还要⼀个词频累计覆盖率指标了?因为关键词往往符合2/8定律,为了⽅便的统计⼀份⻓尾词库中覆盖了80%⻓尾词的词根,我们在⽣成这个⽂件的同时从上到下累计每个词根的覆盖率就得到了词频累计覆盖率,然后直接观察“词频统计覆盖率”这⼀列,从上到下拖到80%这个值就表示之前的所有⾏就是代表整个⻓尾词库80%的词根了。
我们还可以⽤词根:把能覆盖80%词量的|20%词根都去拓展与⼀些描述词进⾏重新组合继续拓展更多的⻓尾词词,这样基本就能收集到有代表性的词库了。
6.关键词分类
在搜索引擎上,找到50万个属于某个⾏业⻓尾词词库绝对是⼀种很强的能⼒,现在我们已经可以通过⼀些第三词库⽹站拿到50万甚⾄更多的词库,但是如果对50万乃⾄百万级⻓尾词进⾏⾃
课程资料动化分类,这是有点技术难度的,通过excel基本⽆法做到,我们其实通过机器学习的⽂本分类技术是能够在⼏⼗分钟内完成百万级⻓尾词的分类。
其实通过上⾯的⼀系列⼯具,我们已经准备了⼀批⻓尾词,下⾯将使⽤关键词分类⼯具对关键词进⾏分类,在分类的过程中会对关键词去重、去短、去⻓,还可以⾃定义排除词⽂件将⾮⽬标词移除等处理:
关键词分类⼯具的相关截屏如下:
从上⾯的excel⽂件我们可以很⽅便的将⼀份⼏⼗万⻓尾词按照分类数量整理到⼀份excel中,每⼀列就是分成⼀类的⻓尾词,列的标题是这⼀列⻓尾词除了词根(抖⾳)之外出现最频繁的2个
这样⼀份Excel,已经⾃动帮我们归类好相似的关键词,不同类的词会间隔开,好处在于:1:某些词可能只是⼩部分字眼不同,但实际表述的都是⼀件事,程序能帮你归类出来2:聚集在⼀起的⼀批词,我们⼀眼就可以看出这是⼀个什么样的需求,越多越清晰3:相关的已经归类在⼀起了,后⾯不会再出现类似需求,不会反复⼲扰
在⽣财有术的精华⽂章⾥,也有⼀篇关于“⼝⽔”⼩病种的淘宝蓝海选品的⽂章值得⼀读(参考资料9的第4个链接)。
另外,经过归类的⻓尾词库也是⼀份⾮常好的⾃媒体写作思路来源,特别是那些带有疑问词的⻓尾词,⽐如:抖⾳怎么类的⻓尾词,这对于从事抖⾳相关⾃媒体培训创作的作者来说,在你没有写作思路的时候不妨从这些⻓尾词中找些灵感,毕竟这些⻓尾词都是⽤户真实的搜索需求。
7.关键词思维导图⽣成
通过关键词归类⼯具归类后的⻓尾词是没有结构的,⼀份词库⽣成之后,你只能从上往下看,看到什么是什么。
其实我们可以使⽤我们⽇常⼯作经常⽤的脑图⼯具来可视化呈现关键词的分类效果,关键字分类⼯具就是采⽤君⾔介绍的关键词根提取法“的⽅式来归类,使归类好的关键词⾃动按照思维导图资料最新最全关注公众号:偏门圈
关键词思维导图⼯具的相关截图:
⼆、问答挖掘⼯具
1.知乎优质问答挖掘
⾃从2020年知乎推出知乎好物带货功能后,迅速成为互联⽹最⽕热的赚钱项⽬,只要在知乎回答问题、写⽂章、上传视频都可以带货,但是粉丝很少的知乎⼩⽩新⽤户如果想运营"好物推荐",短期很难产⽣效益,因为知乎的海量问题不知道优先回答哪些,所以君⾔提供了⼀种基于百度搜索流量运营知乎好物⽅法(参考资料:4),这篇⽂章君⾔本来发在知乎上的,但是由于⽂章内容太爆料,⽂章⼤部分内容已经在知乎裁剪了,强烈建议⼤家移步到君⾔公众号:君⾔戏语,详细阅读这篇⽂章,这个⼯具就是根据君⾔的这篇⽂章开发,⼯具⼤概思路如下:
搜集⼀批⽬标类⽬⻓尾词
⽐如冰箱,可以使⽤艾奇关键词助⼿批量导出⻓尾词。
将准备的⻓尾词逐个到百度搜索,检查搜索结果中有指向知乎问题或⽂章的链接
根据搜索结果中的指向知乎问题或⽂章的链接,统计问题或⽂章覆盖的⻓尾词数量,根据统计结果优先回答那些覆盖⻓尾词数量多,回答⼈数少的问题,并研究相关的⽂章进⾏学习再
知乎问答挖掘⼯具爬取⼀段时间后,会得到下⾯⼏组统计⽂件:
从上⾯的汇总统计⽂件,我们可以统计相关关键词覆盖的问题数量和⽂章数量。
1.1问题统计⽂件
对于问题统计表,,这些问题都是在百度拥有相对⾼截屏:
我们收集了每个关键词在百度搜索结果中知乎问题的相关指标:覆盖词数量、回答数、浏览量、关注⼈数已经这个问题是否已经有知乎好物的回答,另外由于关键词的问题太多,根据80/20原则,⼯具还统计了相关指标TOP20的问题,可以优先选择这些问题进⾏回答,如下:
研究对⽅的标题和内容是如
的,这是⽂章在百度排名优异的⼀部分关键,如下:
和问题统计⼀样,依然根据80/20原则,⼯具还统计了相关指标TOP20的⽂章,可以优先选择这些问题进⾏回答,如下:
https://mp.weixin.qq.com/s/tGJaXgdPBmDwc2A2YYBzyQ
https://zhuanlan.zhihu.com/p/157846204
https://zhuanlan.zhihu.com/p/159151941
https://zhuanlan.zhihu.com/p/179046666
https://mp.weixin.qq.com/s/z0DM5iaWjQ5aax10mNe7FA
https://mp.weixin.qq.com/s/H9AlHdLFTxqezMEjVKSIhQ
https://mp.weixin.qq.com/s/zbGZEXb69M0mJxo3MxmHw
https://mp.weixin.qq.com/s/7C8spfWXLdkrfxSgEfEeg
海量⻓尾词蓝海选品
80%的
另外,给出⼀点⼩福利,我挑选出⼀些词库:
链接:https://pan.baidu.com/s/1Bzg2SpxV73EZAAtViPZj7w 提取码:6666