一般來說,盡量讓搜索引擎抓取和索引更多內容是SEO們經常頭疼的一個問題,沒有收錄、索引就無從談排名。尤其對達到一定規模的網站來說,使網站充分收錄是個頗令人費神的SEO技術,當頁面達到比如說幾十萬,無論網站架構怎麼設計、多麼優化,100%收錄都是不可能的,只能盡量提高收錄率。
但有時候怎麼阻止搜索引擎收錄也可能成為一個問題,最近越來越成為問題。需要阻止收錄的情況如保密信息、復制內容、廣告鏈接等。過去常用的阻止收錄方法包括密碼保護、把內容放在表格後面、使用JS/Ajax、使用Flash等。
使用Flash
Google幾年前就開始嘗試抓取Flash內容了,簡單文字性內容已經能抓取。Flash裡面的鏈接也能被跟蹤。
表格
Google蜘蛛也能填表,也能抓取POST請求頁面。這個早就能從日志中看到。
JS/Ajax
使用JS鏈接一直以來被當作不搜索引擎友好的方法,因此可以阻止蜘蛛爬行,但兩三年前我就看到JS鏈接不能阻止Google蜘蛛抓取,不僅JS中出現的URL會被爬,簡單的JS還能被執行找到更多URL。
前幾天有人發現很多網站使用的Facebook評論插件裡的評論被爬、被收錄,插件本身是個AJAX。這是個好消息。我的一個實驗電子商務網站產品評論功能就因為這個費了不少心思,用Facebook comments插件好處大大的,具體什麼好處以後有時間再說,唯一的問題就是評論是AJAX實現的,不能被抓取,而產品評論被收錄是目的之一(產生原創內容)。我當時想了半天也沒有解決方法,只好先傻傻地既放上Facebook comments插件又打開購物車本身的評論功能。現在好了,Facebook comments裡的評論能被收錄,就不用兩套評論功能了。
Robots文件
目前唯一確保內容不被收錄的方法是robots文件禁止。但也有個壞處,會流失權重,雖然內容是不能收錄了,但頁面成了只接受鏈接權重、不流出權重的無底洞。
Nofollow
Nofollow並不能保證不被收錄。就算自己網站所有指向頁面的鏈接都加了NF,也不能保證別人網站不給這個頁面弄個鏈接,搜索引擎還是能發現這個頁面。
Meta Noindex + Follow
(11月3日補充)讀者no1se提醒,為防止收錄又能傳遞權重,可以在頁面上使用meta noindex和 meta follow,這樣頁面不收錄,但能流出權重。確實如此,也是個比較好的方法。也有一個問題,還是會浪費蜘蛛爬行時間。哪位讀者有能防止收錄、又沒有權重流失、又不浪費爬行時間的方法,請留言,對SEO界功德無量。
怎樣使頁面不被收錄是個值得思考的問題,沒意識到嚴重性的童鞋可以想想自己網站上有多少復制內容、低質量內容、各種無搜索價值(但用戶覺得方便、有用所以又不能拿掉)的分類、過濾URL。
版權所有。轉載時必須以鏈接形式注明作者和原始出處及本聲明。