robot.txt的文件格式
“robots.txt”文件包含一條或多條記錄,這些記錄通過空行分開(以CR、CR/NL、or NL作為結束符),每一條記錄的格式如下所示:
“<field>:<optionalspace><value><optionalspace>”
在該文件中可以使用#進行注釋,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行Ur-agent開始,后面加上若干Disallow行,詳細情況如下:
Ur-agent:
該項的值用于描述搜索引擎機器人robot的名字。在“robots.txt”文件中,如果有多條 Ur-agent記錄,說明有多個robot會受到該協議的約束。所以,“robots.txt”文件中至少要有一條Ur- agent記錄。如果該項的值設為*(通配符),則該協議對任何搜索引擎機器人均有效。在“robots.txt”文件 中,“Ur-agent:*”這樣的記錄只能有一條。
Disallow:
該項的值用于描述不希望被訪問到的一個URL,這個URL可以是一條完整的路徑,也可以 是部分的,任何以Disallow開頭的URL均不會被robot訪問到。例如:
“Disallow: /help”對/help.html 和/help/index.html都不允許搜索引擎訪問, 而“Disallow: /help/”則允許robot訪問/help.html,而不能訪問/help/index.html。
任何一條Disallow記錄為空,說明該網站的所有部分都允許被訪問,在 “/robots.txt”文件中,至少要有一條Disallow記錄。如果“/robots.txt”是一個空文 件,則對于所有的搜索引擎robot,該網站都是開放的。
robot.txt的使用技巧
每當用戶試圖訪問某個不存在的URL時,服務器都會在日志中記錄404錯誤(無法找到文件)。每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器也將在日志中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt。
網站管理員必須使搜索引擎機器人程序遠離服務器上的某些目錄,以保證服務器性能。比如:大多數網站服務器都有程序儲存在“cgi-bin”目錄下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是個好主意,這樣能夠避免所有程序文件都被蜘蛛索引,以達到節省服務器資源的效果。
一般網站中不需要蜘蛛抓取的文件有:后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。
下面是VeryCMS里的robots.txt文件:
Ur-agent: *
Disallow: /admin/ 后臺管理文件
Disallow: /require/程序文件
Disallow: /attachment/ 附件
Disallow: /images/ 圖片
Disallow: /data/數據庫文件
Disallow: /template/ 模板文件
Disallow: /css/ 樣式表文件
Disallow: /lang/ 編碼文件
Disallow: /script/腳本文件
Disallow: /js/js文件
如果你的網站是動態網頁,并且你為這些動態網頁創建了靜態副本,以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件里設置避免動態網頁被蜘蛛索引,以保證這些網頁不會被視為是網站重復的內容。
robots.txt文件里還可以直接包括在sitemap文件的鏈接。就像這樣:
Sitemap: http://www.***.com/sitemap.xml
目 前對此表示支持的搜索引擎公司有Google, Yahoo, Ask and MSN。而中文搜索引擎公司,顯然不在這個圈子內。這樣做的好處就是,站長不用到每個搜索引擎的站長工具或者相似的站長部分,去提交自己的sitemap文件,搜索引擎的蜘蛛自己就會抓取robots.txt文件,讀取其中的sitemap路徑,接著抓取其中相鏈接的網頁。
合理使用robots.txt文件還能避免訪問時出錯。比如,不能讓搜索者直接進入購物車頁面。因為沒有理由使購物車被收錄,所以你可以在robots.txt文件里設置來阻止搜索者直接進入購物車頁面。
robot.txt作用是什么?
robot.txt的主要作用
有些人會問,既然robots文件沒弄好,或出錯了,會影響整個網站的收錄,那為什么還要這個文件呢?
其實robots是為有特別情況的站長準備的,因為有些網站,有一些頁面是站長不想被任何搜索引擎收錄的,所以才有了這個robots文件。
robots.txt文件用法舉例:
例1、禁止所有搜索引擎訪問網站的任何部分
Ur-agent: *
Disallow: /
例2、允許所有的robot訪問
Ur-agent: *
Disallow:
(或者也可以建一個空文件 /robots.txt file)
例3、禁止某個搜索引擎的訪問
Ur-agent: BadBot
Disallow: /
例4、允許某個搜索引擎的訪問
Ur-agent: Baiduspider
Disallow:
Ur-agent: *
Disallow: /
例5、假設某個網站有三個目錄對搜索引擎的訪問做了限制,可以這么寫:
Ur-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /joe/
需要注意的是,對每一個目錄必須分開聲明,而不要寫成:“Disallow: /cgi-bin/ /tmp/”。
Ur-agent:后的*(通配符) 具有特殊的含義,代表“any robot”,所以在該文件中不能有 “Disallow: /tmp/*” or “Disallow: *.gif ”這樣的記錄出現。
另外,robots.txt主要作用是保障網絡安全與網站隱私,百度蜘蛛遵循robots.txt協議。通過根目錄中創建的純文本文件robots.txt,網站就可以聲明哪些頁面不想被百度蜘蛛爬行并收錄,每個網站都可以自主控制網站是否愿意被百度蜘蛛收錄,或者指定百度蜘蛛只收錄指定的內容。當百度蜘蛛訪問某個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果該文件不存在,那么爬蟲就沿著鏈接抓取,如果存在,爬蟲就會按照該文件中的內容來確定訪問的范圍。
為什么電腦登錄學習通的網站缺少robot.txt文件?
新網站上線如何有效的設置robot.txt文件,robot.txt文件怎樣寫更好。
本文發布于:2023-02-28 19:52:00,感謝您對本站的認可!
本文鏈接:http://m.newhan.cn/zhishi/a/167763941270426.html
版權聲明:本站內容均來自互聯網,僅供演示用,請勿用于商業和其他非法用途。如果侵犯了您的權益請與我們聯系,我們將在24小時內刪除。
本文word下載地址:robot.txt.doc
本文 PDF 下載地址:robot.txt.pdf
| 留言與評論(共有 0 條評論) |