在我們日常運營網站的時候,相信各位站長都會碰到這種狀況,那就是經常因為改動欄目或者文件名稱,導致站內出現大量的無效鏈接,而這種鏈接又是存在但是卻打不開的,因此這對搜索引擎的蜘蛛爬行以及收錄來說是非常不利的,因為搜索引擎蜘蛛會將這些錯誤頁面信息返回到數據庫中,當你的網站出現過多的這種死鏈接頁面的時候則會對網站的“健康度”有很大的影響,同時也很容易被各大搜索引擎所不喜,所以這個時候站長就需要做個404錯誤頁面了,不過在制作404錯誤頁面過程中,站長還是需要注意以下幾點事項才行。
1)不要在404頁面放置跳轉代碼,以免影響搜索引擎對網站整體觀感!
本人曾經做過一個試驗,那就是用兩個網站來檢測,在404錯誤頁面放置跳轉代碼是否對搜索引擎有什麼影響,得到的結果卻是一個沒有在404錯誤頁面放置跳轉代碼的網站,各大搜索引擎依舊是正常更新,正常收錄,沒有因為多了404錯誤頁面有了什麼;可是相反的,那個在404錯誤碼率頁面放置了跳代碼的網站卻是很不正常,先是網站被百度降權,導致百度收錄更新網站十分的緩慢,後來則是直接不更新不收錄了,從得到的這兩個結果來看,在404錯誤頁面放置跳轉代碼對網站來說則是一大災害,因此要是站長不想網站被各大搜索引擎懲罰的話。那麼在制作404錯誤頁面的時候最好是不要放置跳轉代碼比較好!
2)在制作完404頁面之後最好是禁止搜索引擎蜘蛛爬行收錄!
當站長做好404錯誤面之後,為了避免日後影響網站,站長最好是禁止各大搜索引擎蜘蛛爬行或是收錄404這個錯誤面,為什麼要這樣做呢?其實原因說白了也是非常的簡單,因為此舉是為了防止各大搜索引擎收錄太多的重復頁面,導致被各大搜索引擎厭惡,從而導致各大搜索引擎降低了網站的權重及好感度,畢竟對於一直都在宣傳原創內容的各大搜索引擎來說,重復性過高的網站只會很被各大搜索引擎懲罰,嚴重點還有可能導致網站被K,我想各大站長也不想因此這個原因導致網站被懲罰吧!
所以,站長在制作完404錯誤面之後,最好是禁止各大搜索引擎蜘蛛爬行收錄404這個頁面,要是站長不知道如何禁止各大搜索引擎蜘蛛爬行或是收錄404這個頁面的話,本人在這倒可以簡你,只要進入robots.txt這個文件,然後在其加入一段“Disallow: /你的404錯誤頁面路徑”這個代碼就行了!
3)站長在制作完404頁面之後應仔細檢查一下,而不是就此完事!
站長在設置完404頁面後最好是應該去檢查一下,返回的狀態碼是否為404,如果是的話就是正確的,要是返回的狀態碼是200的話,那就說明有問題了,可能會有站長問,200返回狀態碼為什麼是不正確的呢?原因則是,我們在浏覽器輸入一個錯誤的鏈接,沒有設置個性化404頁面的時候,返回的狀態碼肯定是404的,這就是告訴搜索引擎該鏈接是錯誤的,放棄對該鏈接的索引,
在設置個性化404頁面之後,雖然顯示出來的是個性404頁面,但是浏覽器上面的地址欄仍然是那個錯誤的鏈接,而不是跳到“www.xxxx.com/404.htm”,因此鏈接仍然是無效的,所以返回的狀態碼還是應該是404,而不是200,如果返回的是200的話,那麼搜索引擎就會為該鏈接建立索引,這就會導致大量不同的無效鏈接指向了相同的網頁內容,結果是搜索引擎對該網站的信任度大幅降低。http://www.0722f.com