SEO與技術是密切相關的,許多人都認為做SEO是不需要技術的,其實這是一個誤區,如果你不懂技術,就不可能把SEO做得很成功,出了問題也不能做出科學的決策,在許多人的眼裡,SEO無非是每天發一些文章、發一些外鏈這樣,如果你也這樣理解SEO,那說明你的水平還處於一個非常初級的階段,即使搜索引擎是一個技術很強的東西,那麼,我們要想在它上邊獲取相應的流量,我們必需具備一定的技術,至少應該理解它的原理,那麼在網站的頁面是否符合 SEO的技術要求上,我們應該注意哪些問題呢?
1、使用文本浏覽器來檢查你的網頁,看網頁中重要的URL鏈接是否能夠被文本浏覽器抓取得到
常用的文本浏覽器是lynx,大家可以在linux環境下安裝它,它在浏覽器你的網頁時,幾乎與搜索引擎蜘蛛看到的內容一致,所以大家常常使用它來測試網頁的可抓取性,如果你的頁面中重要的鏈接使用了JS、AJAX等技術,lynx浏覽器是看不到這些鏈接的,同樣的搜索引擎也抓取不到這些鏈接。因此在網站上線前,可以先用文本浏覽器檢查一下主要的網頁,看是否用了對搜索引擎不友好的技術
2、允許搜索引擎蜘蛛在不使用可跟蹤其網站訪問路徑的會話ID或參數的情況下抓取您的網站
一些sessionid對於跟蹤用戶的訪問行為來說是很有效的,但是對於搜索引擎來說,就不是好的作法了,如果使用了這些技術,你的網頁可能被索引得不完整,因為搜索引擎程序還不能排除那一些從URL上看上來不同,但是網頁內容卻完全相同的網頁。對於收錄是不友好的。
3、確保您的網絡服務器支持If-Modified-SinceHTTP標頭
如果你的服務器支持if-modified-since-HTTP標頭的話,當搜索引擎蜘蛛程序抓取到你的網頁的時候,會首先檢查這個If- Modified-SinceHTTP標頭值,通過這個值,搜索引擎爬蟲程序可以判斷出來你的網頁自從它上次抓取後,是否有所變化,如果沒有變化,它便可以不用下載相同的頁面內容,節約蜘蛛資源,也節約你的服務器帶寬,這樣蜘蛛就可以抓取更多其他的頁面。
4、設置合理的robots文件
每個網站最好都設置一個robots文件,如果你的網站沒有任何內容不想被搜索引擎索引,那麼可以建立一個空的以robots為命名的文件,上傳到你網站的根目錄下,通過robots文件,我們可以讓搜索引擎抓取某些目錄,而不抓取某些目錄,例如一些模板文件,可以禁止搜索引擎抓取,一些後台登錄文件,也可以利用robots文件加以禁止收錄,在設置robots文件時,一定要小心,以避免把一些重要的文件給禁止了,我們可以使用谷歌網站管理員工具進行測試。
5、對網站進行兼容性測試,以確保在每個浏覽器中都可以正確顯示
我們在網站上線前,最好先做大量的浏覽試驗,確保網頁內容可以正確的顯示在所有的浏覽器上邊,例如IE的有一個IE工具測試,可以測試各個IE 版本的顯示效果,谷歌浏覽器也有類似的插件,可以對浏覽器的兼容性進行測試,等檢測完都能正常顯示時,再上線,在平時的維護中,也可以經常去測試頁面顯示的兼容性
6、經常使用一些前端測試工具來測試網頁的性能
例如我們可以使用谷歌的pagespeed工具以及yahoo的yslow對網頁進行性能的測試,這兩個工具還可以指出你的網站中頁面需要改進的地方,我們可以按照裡邊描述的步驟進行前端頁面優化,例如啟用GZIP、啟用keep-alive、使用csssprites技術、合並JS與CSS 等。
文章