今天遇到一個自稱做了3年seo的人來公司面試,態度十分傲慢。在和他的交談當中,提到了一個話題:robots.txt到底該不該做。在他看來 robots.txt用處不大,他以前優化的電商網站都沒寫,而我想說的是:robots.txt文件是必須的。我不知道為什麼做了3年seo的人會說robots.txt沒什麼大用處,還說沒有其他外部鏈接蜘蛛就不會抓取到這些頁面,沒必要用robots.txt屏蔽。要是真的這樣,為什麼蜘蛛到了一個網站會首先看這個網站的robots.txt文件?robots.txt文件沒有任何外部鏈接,仍能被蜘蛛爬取到?並且網站的源代碼裡面肯定會有 css、js、網站後台、圖片等鏈接那麼這些文件都不用屏蔽?
OK,如果不寫robots.txt也能做好seo,我承認,的確是,但是robots.txt做為seo入門的基礎知識,是我們每個seoer應該注重的。seo做的就是細節,如果這個細節你不注意、那個細節也不注意,不注意的細節多了,你怎麼能做好seo?
無論是百度也好、谷歌也好,他們的seo手冊裡都寫到:
搜索引擎使用spider程序自動訪問互聯網上的網頁並獲取網頁信息。spider在訪問一個網站時,會首先會 檢查該網站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用於指定spider在您網站上的抓取范圍。您可以在您的網站中創建一個robots.txt,在文件中聲明 該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。
robots.txt的使用其實是seo的高級運用,在一些行業網站上尤為明顯,行業網站頁面過多,無用的頁面也有很多,所以必須使用robots.txt屏蔽無用頁面,提升蜘蛛的爬取效率,這是seo的高級策略。
所以,robots.txt文件確實是有用的,並不像有些人說的那麼不重要,有些人雖然做了幾年的seo,但是現在還想用以前的思路來做優化,顯然 是不可取的,搜索引擎的技術在飛速提升,zac說過,谷歌在幾年前就能抓取js裡面的鏈接了,並且能傳遞權重,你還認為js不能被搜索引擎識別嗎?
搜索引擎的技術正在一步一步的完善,如果我們seo技術不能與時俱進,那就只能被淘汰!
來自:鄭州朝陽頂尖seo培訓學校:http://www.zhaoyangedu.cn/wlyx/News_Show.asp?ID=203
感謝 鄭州seo楊超 的投稿