HTTPS站點如何做才能讓百度蜘蛛抓取
我們可以根據user-agent來判斷spider。然後做301/302定向,百度spider引擎定向到HTTP
非百度SPIDER 定向到HTTPS
目前百度的度各個產品使用的user-agent:
目前有兩種方法
第一種方法:可以采用.htaccess 301重定向
RewriteEngine On
# BEGIN Force SSL
RewriteCond %{HTTPS} !on [NC]
RewriteCond %{HTTP_USER_AGENT} !( Baiduspider| Baiduspider-image | Baiduspider-video | Baiduspider-news | Baiduspider-favo | Baiduspider-cpro | Baiduspider-ads | Baiduspider) [NC]
RewriteRule (.*) https://%{SERVER_NAME}%{REQUEST_URI} [R=301,NC,L]
# END Force SSL
第二種方法:php的 $_SERVER['HTTP_USER_AGENT']來進行判斷
<?php $tmp = $_SERVER['HTTP_USER_AGENT'];
if (strpos($useragent, 'baiduspider') !== false){ return 'baiduspider'; }
if (preg_match(“#(baiduspider)#si”, $_SERVER['HTTP_USER_AGENT'])) { header(“HTTPS/1.1 301 Moved Permanently”); header(“Location: http://www.XXXXX.com/”); exit; }}
采用HTTPS的站點都是要求安全性能的站點,所以站長還是采用形式,需要安全的站點采用二級域名,其余用目錄形式表現。