一般來說,盡量讓搜索引擎抓取和索引更多內容是SEO們比較頭疼的問題,沒有收錄、索引就無從談排名。尤其對達到一定規模的網站來說,使網站充分收錄是個頗令人費神的SEO技術,當頁面達到比如說幾十萬,無論網站架構怎么設計、多么優化,100%收錄都是不可能的,只能盡量提高收錄率。
但有時候怎么阻止搜索引擎收錄也可能成為一個問題,最近越來越成為問題。需要阻止收錄的情況如保密信息、復制內容、廣告鏈接等。過去常用的阻止收錄方法包括密碼保護、把內容放在表格后面、使用JS/Ajax、使用Flash等。今天看到Google網管博客一篇文章,這些方法都不保險。
使用Flash
Google幾年前就開始嘗試抓取Flash內容了,簡單文字性內容已經能抓取。Flash里面的鏈接也能被跟蹤。
表格
Google蜘蛛也能填表,也能抓取POST請求頁面。這個早就能從日志中看到。
JS/Ajax
使用JS鏈接一直以來被當作不搜索引擎友好的方法,因此可以阻止蜘蛛爬行,但兩三年前我就看到JS鏈接不能阻止Google蜘蛛抓取,不僅JS中出現的URL會被爬,簡單的JS還能被執行找到更多URL。
前幾天有人發現很多網站使用的Facebook評論插件里的評論被爬、被收錄,插件本身是個AJAX。這是個好消息。我的一個實驗電子商務網站產品評論功能就因為這個費了不少心思,用Facebook comments插件好處大大的,具體什么好處以后有時間再說,唯一的問題就是評論是AJAX實現的,不能被抓取,而產品評論被收錄是目的之一(產生原創內容)。我當時想了半天也沒有解決方法,只好先傻傻地既放上Facebook comments插件又打開購物車本身的評論功能。現在好了,Facebook comments里的評論能被收錄,就不用兩套評論功能了。
Robots文件
目前唯一確保內容不被收錄的方法是robots文件禁止。但也有個壞處,會流失權重,雖然內容是不能收錄了,但頁面成了只接受鏈接權重、不流出權重的無底洞。
Nofollow
Nofollow并不能保證不被收錄。就算自己網站所有指向頁面的鏈接都加了NF,也不能保證別人網站不給這個頁面弄個鏈接,搜索引擎還是能發現這個頁面。
8年專業網站建設經驗
1000家客戶見證
最專業網站建設精英隊伍
營銷型網站建設領先者
集團公司網站建設服務商