我前面的文章,都是從技術角度出發來做SEO的。這篇文章就再舉幾個例子,來說明一下做SEO為什麼要依賴技術分析的。另外寫這篇文章還出於我一直以來的一個想法,就是我一直都很想贊揚一下07年之前阿裡巴巴某些做SEO的同事,他們很早就在SEO領域做出了非常多好的實踐,也給網站做出了很大的貢獻。
07年以前的阿裡巴巴,經過幾年的努力,已經把SEO做到了一個很高的境界。大家那時可能還只關注國內中文版的阿裡巴巴,稱“google是阿裡巴巴的站內搜索引擎”。其實阿裡巴巴國際站在國外同行當中的表現要更加優秀。當時很多產品類詞語,排在首頁的10個結果當中就可能會有6個是阿裡巴巴國際站的。
當時領導SEO團隊的人員是做技術出生,所以大家大量借助技術手段來分析和解決SEO當中出現的很多問題,取得了很好的效果。
因為涉及到現有的業務,只能說幾個不那麼敏感的例子。
Google 網站管理員工具剛出來的時候,我們網站有很多頻道都驗證不了那個google需要你上傳的文件。工程師那邊幫助查了很多問題,以為是什麼跳轉之類的沒有做好。查了很多資料,也沒有找到特征吻合的相關解決辦法。而meta驗證的方法因為技術上有一點問題做不了。
所以我們SEO團隊就幫工程師去找問題。我同事瞿波不一會就找出問題出在什麼地方了,原來問題出在泛解析上。
具體的過程是這樣的:
用了泛解析的url,無論你把url組合成一個什麼樣子,都會有一個正常的頁面給你的。比如:如果你網站的根目錄下用了泛解析,http://www.xxxxxx.com/a.html 這個url是你網站本來正常的url。那麼你隨意的輸入一個本來不存在的url 如 http://www.xxxxxx.com/adasdsadw.html 甚至 http://www.xxxxxx.com/@####¥¥.html ,網站CMS返回的都是一個正常的頁面。
這在一個大型網站中,很多地方出於業務需要,都是這麼處理的。但是這樣做,在“網站管理員工具”的驗證方面就一定不能通過。為什麼呢?
因為這樣誰都可以把這個網站加到自己的網站管理員工具中。比如:www.made-in-china.com 根目錄如果用了泛域名解析,我把這個網站添加到我的“網站管理員工具”裡,系統要我驗證一下 http://www.made-in-china.com/google15c03c9b508311f6.html 這個文件是不是存在的時候,因為有泛解析,這個文件是一定存在的,那麼我就成功把這個本不屬於我的網站加到我的“網站管理員工具”裡了。我可以隨意更改裡面的很多設置。
而實際上這樣的情況是不會發生的,因為google不光會驗證你上傳的文件存不存在,還會驗證一個不應該存在的文件是不是不存在。google驗證完你上傳的文件後,接著會模擬一個叫做 google404errorpage.html 的頁面是不是不存在。google覺得你網站根目錄下恰好存在一個名叫google404errorpage.html的幾率是零,所以如果檢測下來發現你這個頁面也存在的話,那就不能驗證通過。google這個時候已經知道你這是因為泛解析導致的緣故。出於保護你的網站,google不會讓這個驗證通過。
上面的這個分析過程,在公開的渠道裡是找不到的。現在在《google網站質量指南》裡也只是讓你給不存在的頁面返回 4xx 狀態碼而已。
http://www.google.com/support/webmasters/bin/answer.py?hl=cn&answer=35638
而且這個規則也是最近加進去的。以前,根本找不到相關的資料來參考。
那我的同事為什麼一下子就找到問題在哪裡了呢?那是因為服務器的log日志裡一定會記錄google驗證的這個過程的,把相關目錄下、某個時間段的log日志調出來查看就可以看到了。
如果沒有LOG日志分析,誰能想得到還有這麼一個過程在裡面呢? 至今,還有很多網站驗證不了這個文件的,現在就可以看看有沒有這個泛解析的問題,或者去分析log日志看看。
還有一次,網站改版後,網站流量驟然下降了。我們知道影響SEO流量的因素有很多,那到底是什麼原因導致流量下降呢。我以前的主管BEN通過自己的分析,覺得是url出了問題。
當時的url是這樣的: http://www.alibaba.com/bin/buyoffer/mp3.html
我想很多人都不會覺得這個url有什麼異常。但是在當時,這個url有一個致命問題的。
在02年google的爬蟲還不是很成熟的時候,為了避免陷入死循環,爬蟲不光會對那些有多余參數的url抓取量減少,還會對某些特定的目錄不抓取的。這樣的目錄中,就有 /cgi-bin/ 以及類似的 /bin/ 這樣的目錄。學過CGI語言的人都知道,/cgi-bin/這個目錄下是放置cgi程序的地方,這種目錄下進行抓取是沒什麼意義的。/bin/這個目錄也是其他很多系統或者語言默認的文件夾名稱,這些目錄下都不存在google應該抓取的頁面,所以搜索引擎就屏蔽了這樣的目錄抓取。而偏偏我們定義的文件夾名稱就是/bin/,google是不會抓取這個目錄的。
之後,把這個目錄名稱改為/trade/,流量馬上就恢復了。如今,百度也在robots文件的用法中,就拿/cgi-bin/這個目錄做了例舉。 http://www.baidu.com/search/robots.html
我相信這樣的問題即使放到現在,也沒有人敢懷疑是google本身出了問題。有些人還會從上百個因素裡找一個看似很合理的原因,導致真正的原因被掩蓋了。但是ben通過技術分析並實踐,卻得出了讓人信服的結論。類似的事情,我後來也碰到過好幾回,因為有他們的經驗在鼓舞我,使我也做了一些讓別人不能理解,但是卻給網站帶來很大流量的事情。
技術分析在和競爭對手搶流量的時候,也是競爭力之一。舉一個不那麼恰當的例子:
sitemap.xml剛出來的時候。我們自己制作好了sitemap.xml文件,但是畢竟這麼大型的sitemap文件誰也沒有做過,特別是裡面權重的設置在一個大型網站來說是很有講究的。所以我們就想參考一個國外主要競爭對手的文件。一開始通過一個方法拿到了他們的文件地址,但是怎麼也打不開那個鏈接,老是返回404錯誤。通過國外的代理服務器去訪問也是這樣。最後,通過模擬google爬蟲才能正常的訪問這個文件。 原來同樣非常重視SEO的這個對手,為了讓自己的sitemap.xml文件不被其他人看到,只有對那種user-agent是google爬蟲的訪問才顯示這個文件,由於浏覽器的user-agent是很