百度与google收录网站的方式解读

重庆空降SEO2020-06-13781

百度与google收录网站的方式解读

11.jpg

 我的网站放上去也好长时间了,谷歌、360、搜狗上面也有我的网站,可百度不知道为什么就是没有一个页面收录。很长时间都不知道是什么原因。难道是我的SEO过度了吗?不会吧!我在这方面可是小心又小心了呀!经过了好长时间终于弄明白了,下面就把新的给大家一起分享吧!
   Baidu和Google收录网站页面的标准是不同的,这是因为不同的公司有自己不同的算法。Google更倾向于收录大型网站的页面,百度则乐于收录新站的页面,因为百度更爱更新频率快的站点。 
  为了证明我的想法正确,我在一个新的域名上面放一个网站,然后不在其他任何网站做链接,而直接往百度和Google搜索引擎的提交页面进行提交。一个月过去了,百度收录了网页,Google收录的网页是0, 这就证实了Baidu和Google收录页面的标准是完全不同的。
 
   Google是按照网页级别(PageRank)来收录的,只要网站有一定的网页级别,Google会快速收录的,而没有网页级别的网站,Google 则坚决不去收录。Baidu则很夸张,采用的是来者不拒,多多益善的原则,无休止的进行收录。Baidu的这种不按网页级别的收录方式其实有很大的弊端, 最主要的缺点是造成大量的垃圾网站流行,因为只要做一个垃圾站,Baidu就会立刻收录(25000页以内),这等于变相的鼓励大家去做垃圾站,去盲目采 集。当垃圾站横行的时候,Baidu再通过人工的方式封站,甚至一些百度业务员对于大流量的网站还会要求其站长办理百度竞价排名。 
 
  因为互联网上的页面是个天文数字,收录应该是有选择的收录,好的网站则多收 录,新站则应该少收录,等其慢慢知名了以后再多收录,这样也提高了效率,让用户搜索到更好的页面而不是更多的页面。如果对于新站不做分析就快速收录,那么 会使得从技术上对抗恶意网站作弊(SEO)变得非常困难,Google通过给予新站给出一定的“考察期”来分析这个新站是否是作弊的垃圾站,而百度就只能 依靠人工方式手动地删除垃圾站。对于收录网站的具体操作上,Google的爬虫显得较为“体贴”站长-Google爬虫占用服务器的资源非常少,通常是先 用head来查看网页是否更新,如果更新了再抓取整个页面,这种方法耗费流量较少。而百度则不管三七二十一上来就抓整个站,有时甚至不遵守robots规 则,而且其爬虫数量非常庞大,对于页面较多的网站通常会耗费惊人的流量,并且常常造成恶劣的后果。
 
  当然,百度这种“贪婪”爬虫 抓取方 法,虽然会让用户能够在百度搜索出一些Google里搜索不到的页面,但这实在是损人利己。其带给网站站长不少负面效果:服务器和带宽资源过度消耗,垃圾 站被变相鼓励了,原创的有特色的网站则被边缘化,MP3音乐网站则更苦不堪言-自己的MP3被百度盗链后带来大量文件下载却没有带来页面访问。
 
   因此,中国的网民也出现了很奇怪的现象:大量的新网民和菜鸟新手喜欢用百度搜索,因为百度往往搜索到很多别处搜索不到的页面,但内容的匹配度则令人质 疑,而专业人士和网络老鸟则更喜欢用Google,个人站长则普遍和百度有“个人恩怨”。因此百度在业界的Blog以及社区中口碑都不太好,但在普通的低层次 的网民心中却不错,这些大量的普通网民给百度带来了大量流量. 但是,作为中国人,出于爱国的角度,我还是很愿意顶百度的!

网友评论