搜索引擎优化算法SEO的个人认识
2014-07-03 22:34:46
大家好, 我是 ,呵呵,第一次在在这里来写东西,感觉不太好意思啊,我是SEO初学者,在网上看过几篇文章,也看过两本书,对SEO来说,没有什么很深的体会,只是单纯就我所知道的某一点来写写,大虾们别笑啊!
我现在要讲的是:网页查重算法,也就是搜索引擎是怎么检查两个网页的相似性的?这应该是大家应该比较关心的问题吧,因为这有助于让你的伪原创更像一个原创
首先我跟大家讲有名的IMATCH算法。
我们在比较两件事物的相似性时,往往都会拿能均衡的反应这事物本质的东西来比较,就像比赛时,要去除一个最高分和最低分,然后再变算总分一样~~
IMATCH算法基于的依据是,在文挡中,特别高频的词和特别低频的词无法反应这一个文挡的真实内容,所以在比较之前,先将文挡中高频词和低频词去掉
我们来看一个例子:
这里有两段网页文字:
1.中国足球队在米卢的率领下首次获得世界杯决赛阶段的比赛资格,新浪体育播报 。
2.米卢率领中国足球队员首次杀入世界杯决赛阶段,搜狐体育播报。
文档中去掉高频:中国,在,的,获得,比赛,资格,新浪,体育,播报去掉低频:米卢则剩下中频词有:足球队,率领,首次,世界杯,决赛,阶段文档中去掉高频:中国,搜狐,体育,播报去掉低频:米卢,杀入则剩下中频词有:率领,足球队,首次,世界杯,决赛 ,阶段看到了吧?剩下的,两者是一模一样 这就是相似性的存在呵呵,其实这个例子很早就有过的。。
综上所述:搜索引擎要检测相似性,主要就是要分词和词频的比较!!不知道大家是否都清楚了?呵呵,下次再讲一个经典算法:Shingle算法。
就到这里吧。祝大家的伪原创越来越好! SEO学习还任重道远啊!一起努力