亚洲综合社区欧美综合色-欧美逼逼一区二区三区-国产老熟女高潮精品网站-国产日韩最新视频在线看

始創(chuàng)于2000年 股票代碼:831685
咨詢熱線:0371-60135900 注冊有禮 登錄
  • 掛牌上市企業(yè)
  • 60秒人工響應
  • 99.99%連通率
  • 7*24h人工
  • 故障100倍補償
全部產品
您的位置: 網站首頁 > 幫助中心>文章內容

百度是否支持“Crawl-delay”

發(fā)布時間:  2012/9/15 14:58:09
  Crawl-delay 可能很多做小站的朋友不了解, 如果擁有大站的朋友可能用到過、但是超級牛站、比如新浪、我想就不會去考慮這個問題了。Crawl-delay 是Robots.txt中一個設置“蜘蛛”降低抓取頻度的參數,而很多大站可能由于被搜索引擎抓取頻繁加上用戶訪問流量過大,導致頁面加載慢(就是我們說的有點卡)。
 
  而目前對于也只有YAHOO公開代表支持這個參數,具體可以參考:如何控制Yahoo! Slurp蜘蛛的抓取頻度
 
  具體設置:
 
  ---------------------------
 
  User-agent: *
 
  Crawl-delay: 10
 
        案例:http://www.blogbus.com/robots.txt  (博客大巴)
 
  而其它搜索引擎、目前還沒對這個參數進行表明,不過通過各種數據來解釋、百度及谷歌應該不會對這種參考過于說明! 因為他們很早就已經考慮到這個問題。其中"百度站長俱樂部" 就LEE就說明:
 
  問:蜘蛛大量抓取頁面導致服務器出現(xiàn)負載問題
 
  答:會延遲百度對新網頁的收錄速度。
 
  正常情況下,Baiduspider的抓取頻率大致上和網站新資源產生的速度相符,并不會給網站帶來很大的壓力。但現(xiàn)在網站結構通常都比較復雜,多種url形式指向的可能是相同的內容,或者會自動產生大量無檢索價值的網頁。
 
  我們目前發(fā)現(xiàn)的問題,主要來源于此,建議先分析一下spider的抓取日志,看看是否抓取了你不希望搜索引擎收錄的形式,如果有,robots掉它們可以節(jié)省大量的資源。
 
  具體參考:http://tieba.baidu.com/club/9374916/p/7587693
 
  其實LEE這里說明一個問題用robots可以禁止垃圾頁面/無效頁面(也就是說、我們可以通過IIS日志去分析、網站中抓取頻率最高、而又無用的頁面,并進行屏蔽)但是這樣做只是為了增大收錄想被收錄頁面的機遇、同樣沒有解決抓取頻率過高問題。 可能我沒有這種大站,但是DJ小向知道有效的控制蜘蛛抓取、可以使用網站增大收錄量、同樣有效的控制蜘蛛返回碼、同樣可以使網站被K。
 
    ------------------------------------
 
  10月10號補充:
 
  問:百度是否支持User-agent: Slurp
 
回:可以在robots中的crawl-delay中設置,這個參數是baidu spider對網站訪問頻率的重要參考信息之一,但spider系統(tǒng)會根據網站規(guī)模、質量、更新頻度等多方面信息綜合計算得出最終的執(zhí)行壓力,因此并不保證嚴格遵守crawl-delay中的設置值。   
本文出自:億恩科技【1tcdy.com】

服務器租用/服務器托管中國五強!虛擬主機域名注冊頂級提供商!15年品質保障!--億恩科技[ENKJ.COM]

  • 您可能在找
  • 億恩北京公司:
  • 經營性ICP/ISP證:京B2-20150015
  • 億恩鄭州公司:
  • 經營性ICP/ISP/IDC證:豫B1.B2-20060070
  • 億恩南昌公司:
  • 經營性ICP/ISP證:贛B2-20080012
  • 服務器/云主機 24小時售后服務電話:0371-60135900
  • 虛擬主機/智能建站 24小時售后服務電話:0371-60135900
  • 專注服務器托管17年
    掃掃關注-微信公眾號
    0371-60135900
    Copyright© 1999-2019 ENKJ All Rights Reserved 億恩科技 版權所有  地址:鄭州市高新區(qū)翠竹街1號總部企業(yè)基地億恩大廈  法律顧問:河南亞太人律師事務所郝建鋒、杜慧月律師   京公網安備41019702002023號
      1
     
     
     
     

    0371-60135900
    7*24小時客服服務熱線