如果看著眼熟,那你就和我遇到了類似的情形。
怎麼處理呢?
1.修改Robots封禁為允許,然後到百度站長後台檢測並更新Robots。
2.在百度站長後台抓取檢測,此時顯示抓取失敗,沒關系,多點擊抓取幾次,觸發蜘蛛抓取站點。
3.在百度站長後台抓取頻次,申請抓取頻次上調。
4.百度反饋中心,反饋是因為誤操作導致了這種情況的發生。
5.百度站長後台鏈接提交處,設置數據主動推送(實時)。
6.更新sitemap網站地圖,重新提交百度,每天手工提交一次。
以上處理完,接下來就是等待了,萬幸,2天的時間數據開始慢慢回升,到第3天基本回升到正常狀態!
經驗總結:
本次事故絕對是優化生涯的一次敗筆,總結反思一下,希望大家避免類似問題。
1.產品開發一定要避免在線開發,不能為了省事不搭建開發環境。
2.產品迭代要有流程記錄,開發時做了那些設置處理,那些是不需要放出來的,那些是必須放出來的,要非常清楚。
3.要經常關注百度站長後台,關注相關數據變化,從數據變化中及時發現問題