
Robots協(xié)議(又稱robots.txt)是網(wǎng)站所有者與搜索引擎爬蟲(Spider)之間建立溝通的關鍵技術橋梁,其核心功能在于通過標準化的文本指令,明確聲明網(wǎng)站中不希望被搜索引擎收錄的目錄或頁面,或指定爬蟲僅抓取特定范圍內(nèi)的內(nèi)容。在搜索引擎生態(tài)中,爬蟲程序需自動遍歷互聯(lián)網(wǎng)網(wǎng)頁以獲取信息,而robots文件則作為“訪問規(guī)則清單”,在爬蟲初次訪問網(wǎng)站根域時被優(yōu)先讀取,從而決定其抓取權限與范圍。值得注意的是,robots協(xié)議并非必需配置——僅當網(wǎng)站包含私密、測試或非公開內(nèi)容時,才需通過該文件進行限制;若希望搜索引擎收錄全部內(nèi)容,則無需創(chuàng)建robots.txt文件。
robots文件需嚴格放置于網(wǎng)站根目錄下,以確保爬蟲能夠準確識別。以網(wǎng)站http://www.abc.com為例,爬蟲將自動訪問http://www.abc.com/robots.txt讀取指令;若文件位置錯誤(如置于子目錄),則協(xié)議將無法生效。不同URL格式下的robots.txt路徑示例如下:
- 標準域名:http://www.w3.org/ → robots.txt路徑:http://www.w3.org/robots.txt
- 帶端口號域名:http://www.w3.org:1234/ → robots.txt路徑:http://www.w3.org:1234/robots.txt
- 簡化域名:http://w3.org/ → robots.txt路徑:http://w3.org/robots.txt
由此可見,根目錄部署是robots協(xié)議生效的前提,其路徑規(guī)范性直接影響搜索引擎的抓取效率。
robots文件采用純文本格式,由多條記錄組成,記錄間以空行分隔,每條記錄遵循“字段: 值”的語法規(guī)范,支持使用“#”添加注釋(注釋規(guī)則同UNIX慣例)。核心指令包括:
1. User-agent:用于指定受協(xié)議約束的爬蟲名稱。若值為“”,則對所有爬蟲生效(文件中僅允許出現(xiàn)一條“User-agent:”記錄);若為具體爬蟲名稱(如“Baiduspider”),則僅對該爬蟲生效。
2. Disallow:聲明禁止爬蟲訪問的URL路徑,支持路徑前綴匹配。例如,“Disallow:/help”將禁止訪問/help.html、/help/index.html等所有以“/help”開頭的路徑;“Disallow:”(空值)則允許訪問所有URL,若文件中無Disallow記錄,默認全站開放。
3. Allow:聲明允許爬蟲訪問的URL路徑,常與Disallow配合使用以實現(xiàn)精細控制。例如,“Disallow:/admin”與“Allow:/admin/public”組合,可禁止訪問admin目錄下的所有頁面,但允許admin/public子目錄被收錄。
百度爬蟲支持通配符“”(匹配0個或多個任意字符)和“$”(匹配行結束符),例如“Disallow:/.jpg”可禁止所有jpg圖片被抓取。需特別注意的是,百度對robots指令的大小寫敏感,目錄路徑必須與實際文件名精確匹配,否則協(xié)議將失效。
robots文件的誤操作可能導致網(wǎng)站流量驟降、收錄歸零等嚴重后果。某網(wǎng)站在開發(fā)2.0版本時,為避免搜索引擎抓取開發(fā)環(huán)境,誤將robots.txt設置為全站封禁;版本迭代后,該文件直接覆蓋生產(chǎn)環(huán)境配置,導致兩天內(nèi)收錄量從800萬降至0,關鍵詞排名大面積消失。處理流程如下:
1. 修正robots配置:將Disallow指令修改為允許訪問,并更新至百度搜索資源平臺后臺;
2. 觸發(fā)爬蟲抓取:在平臺“抓取診斷”工具中多次提交檢測,激活爬蟲重新抓取站點;
3. 提升抓取頻次:通過“抓取頻次”功能申請上調(diào),加速頁面恢復收錄;
4. 反饋誤操作:在“反饋中心”提交說明,協(xié)助百度快速處理異常;
5. 主動推送內(nèi)容:開啟“數(shù)據(jù)API推送”功能,實時提交新頁面URL;
6. 提交sitemap:更新網(wǎng)站地圖并每日手動提交,引導爬蟲全面收錄。
該案例警示:開發(fā)環(huán)境需獨立部署,避免與生產(chǎn)環(huán)境混淆;產(chǎn)品迭代應記錄robots配置變更,定期檢查搜索資源平臺數(shù)據(jù)波動,及時發(fā)現(xiàn)問題。
2023年9月11日,百度搜索robots協(xié)議完成全新升級,重點優(yōu)化視頻URL的收錄與抓取機制。升級后,若網(wǎng)站未設置robots協(xié)議,百度搜索將默認收錄視頻播放頁URL、視頻文件及頁面周邊文本信息,短視頻資源會以“視頻極速體驗頁”形式呈現(xiàn);而對于綜藝影視類長視頻,搜索引擎僅收錄頁面URL。若需限制視頻內(nèi)容被收錄,需在robots.txt中明確聲明“Disallow: /video/”等路徑。此次升級通過細化視頻資源抓取規(guī)則,既保護了內(nèi)容所有者的版權,又提升了用戶搜索體驗,推動視頻生態(tài)與搜索引擎的高效協(xié)同。