老一代革命家張國平老師一直都很重視網站的數據分析,他也曾經說過不看網站數據,而直接進行seo的人絕對是世外高人。筆者也在之前的文章中反復強調過新人站長應該每天做好網站數據的備份,包括排名,外鏈數量,蜘蛛爬行,收錄頁面等各個方面,它的作用十分重要。當你的網站排名下降或者被搜索引擎懲罰時,排除掉算法的修改可能,在這裡可以找到被降權的原因。很多站長一出現問題就到處問“我的網站被降權了,怎麼回事?”你想幫他,說我看看你的網站數據,結果他告訴你沒有。這種情況下,就算再牛的seo也幫不到你。沒有數據,誰知道你的問題在哪,只有你自己知道。
之前一直沒有注意到收錄的問題,每天整理數據都是site和domain,記錄一個總的數量。其實這還不夠,你需要知道你網站還有那些頁面沒有 被收錄,那些頁面的內鏈多,必須要各個方面都兼顧到,網站優化起來才會更加得心應手,你的seo技術也會更加成熟。一般來說,收錄不完全由下面4個因素造成:
1,域名權重偏低
域名這個因素一時半會也改不過來,而且也不是以你的意願改變的。域名權重是每次搜索引擎算法更新後,重新給你的網站分配的權重,一般情況下,沒有被 懲罰過的網站,堅持做個半年到一年就能獲得不錯的權重。如果你的是新站,出現了收錄不充分的情況,沒必要擔心,繼續做好網站更新,說明引擎對你的網站不是很信任。等時間夠了,引擎開始信任你,權重也上升了,收錄自然會跟著上來。老站的域名是很占優勢的,收錄問題就要參考別的因素。
還有一個方面也需要注意,如果你的域名是每年續費的話,按照計劃和資金實力,一次續5年或者10年,老域名和一次續10年的域名比一般的能獲得更高的信任,在分配權重時比較占優勢。
2,網站的設計不利於蜘蛛爬行
目前大部分網站都是開源程序建站,博客站點有WP,z-blog,商業站點有dede,shopex,論壇有discuz,php,在蜘蛛爬行方面 已經有很大進步,利於seo優化和蜘蛛爬行。但是很多站長在建站之初並沒有做好欄目和版面的規劃,路徑太長太深,如***.com/a/b/c /……,首頁的具體不止三次點擊,爬蟲不會爬那麼深。不斷的增加刪除頁面,造成網站大量的404,降低蜘蛛的爬行興趣,同樣會影響網站的權重。
加上後期的修改代碼,調整插件,插件調整會好點,就算出錯也可以及時回復,只要不是刪除。但是代碼不一樣,如果你修改header部分的次數過多, 幅度過大,都會被搜索引擎認為是一個新站,會造成之前已經收錄頁面遭到刪除,爬蟲的數量和次數也會大大降低。更換主題模板也是一樣,盡量一次敲定,後期的 每一次修改都會造成不必要的權重損失。
也有部分網站是設計師設計的,這類網站一般都會經過多次調試無誤,才會發布上線,這並不意味著沒有問題。外觀上漂亮的flash,iframe頁面,卻沒有任何實用價值,蜘蛛幾乎從不爬行,所以收錄只能是0。上次聽國平老師講課,印度一個排名前三的購物網站,就是因為網站的代碼問題,導致30000人注冊,只有不到1%的成功率,而他們在沒招聘seo之前,根本不知道這個事情。這就需要設計師在網站上線之後,還要協同seo做好追蹤調試, 鏈接問題,死循環,蜘蛛陷阱等問題的及時改進。
3,內鏈分布不均勻
內鏈就是網站不同頁面的互相鏈接,方便用戶閱讀,增強頁面的交互性。通常每篇文章有3個左右的內部鏈接,算是比較合適的。一定要記住,不能為了內鏈 而在頁面強加內鏈,越來越聰明的搜索引擎會發現自然創作和強加內鏈的區別,如果被引擎懷疑,將會適得其反,不會帶來一點點收錄的增長。
互聯網是一張漫無邊際的蜘蛛網,每個網站卻不是那一個點,同樣也是一張網,互聯網是把很多小網都編織到一起的一張大網,只有你的網站到了舉足輕重的時候,你才能成為那些點之一。
4,文章原創性不夠
原創性應該是所有因素裡面最重要的一個,也是收錄不充分常見的原因。互聯網發展到現在,已經是粘貼復制,抄襲山寨橫行。搜索引擎為了提供良好的用戶 體驗,對於復制抄襲的內容,堅持不收錄的原則。同時最為站長的我們,也要提高自身的修養,減少抄襲,尊重原創。沒有抄襲,就沒有懲罰。