作為一名SEOer大家肯定是知道搜索蜘蛛的,但是關於robots.txt這個搜索蜘蛛遵循協議,卻鮮少有人談起,其實用好robots是很容易為你網站提權的,這裡我不廢話了,直接說。
第一,用robots屏蔽網站重復頁
很多網站一個內容提供多種浏覽版本,雖然很方便用戶卻對蜘蛛造成了困難,因為它分不清那個是主,那個是次,一旦讓它認為你在惡意重復,兄弟你就慘了
User-agent: *
Disallow: /sitemap/ 《禁止蜘蛛抓取 文本網頁》
第二,用robots保護網站安全
很多人納悶了,robots怎麼還和網站安全有關系了?其實關系還很大,不少低級黑客就是通過搜索默認後台登陸,以達到入侵網站的目標
User-agent: *
Disallow: /admin/ 《禁止蜘蛛抓取admin目錄下所有文件》
第三,防止盜鏈
一般盜鏈也就幾個人,可是一旦被搜索引擎“盜鏈”那家伙你100M寬帶也吃不消,如果你做的不是圖片網站,又不想被搜索引擎“盜鏈”你的網站圖片
User-agent: *
Disallow: .jpg$
第四,提交網站地圖
現在做優化的都知道做網站地圖了,可是卻沒幾個會提交的,絕大多數人是干脆在網頁上加個鏈接,其實robots是支持這個功能的
Sitemap: http://www.010wangzhanyouhua.com/sitemaps/sitemaps_1.xml
第五,禁止某二級域名的抓取
一些網站會對VIP會員提供一些特殊服務,卻又不想這個服務被搜索引擎檢索到
User-agent: *
Disallow: /
以上五招robots足以讓你對搜索引擎蜘蛛掌控能力提升不少,就像百度說的:我們和搜索引擎應該是朋友,增加一些溝通,才能消除一些隔膜。
感謝 北京網站優化 的投稿