最近有件事情一直困擾著筆者小丹,其根源就是新上線的網站中至今沒有一個被收錄。即便筆者記得抓耳撓腮,搜索引擎依然固我的按照本身的規則來運行。
對於新站的優化至今尚未正式開始,這是筆者的痛啊!這種情況不知道是否有朋友與我相似,因找不緣由而將問題的根本歸咎於搜索引擎本身,真的是如此嗎?倘若有與筆者小丹有一樣難題的朋友,那麼我們今天來一起分析一下吧!
搜索引擎的收錄工作一般就是發現網站—抓取—過濾信息—收錄—輸出索引內容,而若你的網站沒有被收錄,那麼就意味著你的網站沒有被搜索引擎發現,或者是因為某些原因致使即便網站明明被爬行卻依然沒有被收錄。這個時候我們多會采用兩種方式來推出我們的網站:第一,主動出擊,提交網站和 sitemap到站長平台;第二,被動抓取,就是通過制作外鏈來吸引蜘蛛爬行。如果要問這兩種形式的高低之效,那筆者可以告訴你兩種方式各有側重,評分秋色,而兩種方法一起使用則效果更佳。
明白了如何來加速新站被收錄的方式,那麼就要重點來剖析一下為何網站不能被收錄的原因了?
網絡世界數以千萬,在數億個網站中找到你確實不易,但是我們都直達,強大的搜索引擎就是有如此能力,一般會在上線後的4—6周將其收錄,如果沒有收錄,那就證明我們的網站存在著問題。
第一,域名問題。一般來說,若你的網站域名在之前被處罰過,那麼相對於全新域名來說去收錄就會比較困難。這類域名需要一定的考核期,這有在確定該域名下的網站不存在違規現象時,才能將網站重新劃為信任網站,將其收錄。
第二,預收而不能。很多SEOer可能發現網站明明有蜘蛛爬行過的痕跡,為何依然不能被收錄。這個就涉及到了蜘蛛的真假問題,今天筆者暫不詳談。我們主要來看看那些為什麼蜘蛛不能爬行網站,首先要了解一下蜘蛛爬行過程,要域名轉為IP,轉化成相應的服務器,DNS解析,域名轉為IP,找到 IP所在服務器進行訪問,若DNS出現問題或則是空間服務商出現了差錯就會導致蜘蛛無法抓取。遇到這樣的情況,那麼你只需更改空間商,收錄問題就迎刃而解了。
第三,robot效應。如果是因為網站設置了robot文件而造成的網站不能被收錄現象,我們就只能為自己的粗心大意默哀了。在網站上線之初,因為網站尚未完善,很多SEOer會先在網站根目錄中放入robot文件禁止搜搜引擎抓取,來避免因為網站不完整而造成的延長考核期現象。所以當你網站要正式上線的時候,希望站長先檢查一下是否去除了robot文件。
(轉載請注明轉自:http://www.banbaowang.com/heibanbao/,謝謝!珍惜別人的勞動成果,就是在尊重自己!)