對於我們的站點來說,我們需要面對一個現實的問題,那就是假如搜索引擎蜘蛛不中意於你的站點,我們投入再多的精力與時間都是竹籃打水。對此我們在開始進行一系列優化之前就需要對我們站點的整體結構有一個針對性的規劃。
首先我們需要知道搜索引擎的運轉模式。搜索引擎借助我們常說的搜索引擎蜘蛛在互聯網中的鏈接中爬行抓取我們的站點,然後根據一定的算法與規則對我們的站點進行排名。當然不否認搜索引擎也會有人工干預的情況,尤其是國內的搜索引擎,我們對這一部分暫且不討論。對於我們的站點來說讓搜索引擎蜘蛛最大限度的造訪我們的站點是我們優化排名的關鍵。我們可以看到現今很多站點因為結構模式與布局的混亂導致經常與蜘蛛失之交臂,失去大量的機遇。下面筆者就列舉五個在網站構建中經常遇到的問題及解決建議,希望能夠幫助大家避免一些與搜索引擎蜘蛛失之交臂的遺憾。
問題一:過分的在圖片或腳本上顯示內容
搜索引擎並不是我們千裡眼,順風耳能夠很好的識別到所有的內容,在一些信息上,它還是很瞎的。比如一些站點上優秀的圖片或者FLSH,蜘蛛並不能很少的識別。而作為很多站長為了讓站點看起來更加的美觀,就絞盡腦汁的做出大量的高質量圖片、動畫,而且將很多重要的內容都置於這些圖片、Flsh或者腳本上。結果到頭來竹籃打水,百忙一場。
對此筆者認為最簡單的方式就是在保留美觀的前提下,將站點的重要內容轉換為蜘蛛能夠識別的內容,同時我們可以借助一些站長工具模擬蜘蛛的爬行情況,觀察有什麼信息會被遺漏的。然後將這些信息引導給搜索引擎蜘蛛。
問題二:復雜的導航
數多站長在設計站點的時候因為沒有構架好,很容易出現導航負責化的問題,導航一層嵌套著一層,搜索引擎蜘蛛需要翻越這一層又一層的導航來找到目標的內容頁面。說句現實的話,這就是在考驗搜索引擎蜘蛛的忍耐力,跟訪客較勁,這種做法是以卵擊石,後果將不是不言而喻的。
筆者認為我們的導航設計應遵循簡潔易用的原則,確保我們的訪客可以在三次點擊之內進入想要的內容頁面。
問題三: 不連貫的連接操作
我們知道搜索引擎爬行是借助鏈接的,對此我們在建立連接的同時,我們也需要小心的考慮如何命名他們,搜索引擎蜘蛛是不可能像人類那樣有判斷的標准,其主要是以url地址為評判標准,假如站點出現2個不一樣的連接代碼但是指向同一個內容,這時候蜘蛛可能開始迷糊了,雖然我們明白其中的含義。但考慮到我們的站點“寄人籬下”的緣故,我們還必須讓搜索引擎蜘蛛也清楚其中的含義。
對此我們必須有連貫的連接。如果你的站點有出現類似的狀況,筆者建議你使用301跳轉重新定義新的內容,讓蜘蛛明白你的連接代碼。
問題四:錯誤的站內地圖
總所周知站點地圖可以讓搜索引擎蜘蛛可以更加有效能的爬行我們的站點,這個功能會讓爬蟲更有傾向性的浏覽你的網站網頁,而我們在制作地圖文件的時候也需要更加的謹慎,給搜索引擎一個明確的指示,才能發揮其真正的效能。
假如你的站點使用的是一些常規的建站系統組件的話,你可以直接使用插件進行站點地圖的生產,一般的建站系統都有相關的插件。如果不行,就建立一個HTML代碼連接到其他的網頁,然後通過站長工具提交給搜索引擎考察。本文由代做畢業設計http://www.bycxlw.com/站長原創,轉載請帶上我們的地址。