• <em id="6vhwh"><rt id="6vhwh"></rt></em>

    <style id="6vhwh"></style>

    <style id="6vhwh"></style>
    1. <style id="6vhwh"></style>
        <sub id="6vhwh"><p id="6vhwh"></p></sub>
        <p id="6vhwh"></p>
          1. 国产亚洲欧洲av综合一区二区三区 ,色爱综合另类图片av,亚洲av免费成人在线,久久热在线视频精品视频,成在人线av无码免费,国产精品一区二区久久毛片,亚洲精品成人片在线观看精品字幕 ,久久亚洲精品成人av秋霞

            robot.txt

            更新時間:2023-03-01 10:56:53 閱讀: 評論:0

            robot.txt的文件格式

            “robots.txt”文件包含一條或多條記錄,這些記錄通過空行分開(以CR、CR/NL、or NL作為結束符),每一條記錄的格式如下所示:
            “<field>:<optionalspace><value><optionalspace>”
            在該文件中可以使用#進行注釋,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行Ur-agent開始,后面加上若干Disallow行,詳細情況如下:
            Ur-agent:
            該項的值用于描述搜索引擎機器人robot的名字。在“robots.txt”文件中,如果有多條 Ur-agent記錄,說明有多個robot會受到該協議的約束。所以,“robots.txt”文件中至少要有一條Ur- agent記錄。如果該項的值設為*(通配符),則該協議對任何搜索引擎機器人均有效。在“robots.txt”文件 中,“Ur-agent:*”這樣的記錄只能有一條。
            Disallow:
            該項的值用于描述不希望被訪問到的一個URL,這個URL可以是一條完整的路徑,也可以 是部分的,任何以Disallow開頭的URL均不會被robot訪問到。例如:
            “Disallow: /help”對/help.html 和/help/index.html都不允許搜索引擎訪問, 而“Disallow: /help/”則允許robot訪問/help.html,而不能訪問/help/index.html。
            任何一條Disallow記錄為空,說明該網站的所有部分都允許被訪問,在 “/robots.txt”文件中,至少要有一條Disallow記錄。如果“/robots.txt”是一個空文 件,則對于所有的搜索引擎robot,該網站都是開放的。


            robot.txt的使用技巧

            每當用戶試圖訪問某個不存在的URL時,服務器都會在日志中記錄404錯誤(無法找到文件)。每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器也將在日志中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt。
            網站管理員必須使搜索引擎機器人程序遠離服務器上的某些目錄,以保證服務器性能。比如:大多數網站服務器都有程序儲存在“cgi-bin”目錄下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是個好主意,這樣能夠避免所有程序文件都被蜘蛛索引,以達到節省服務器資源的效果。
            一般網站中不需要蜘蛛抓取的文件有:后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。
            下面是VeryCMS里的robots.txt文件:
            Ur-agent: *
            Disallow: /admin/ 后臺管理文件
            Disallow: /require/程序文件
            Disallow: /attachment/ 附件
            Disallow: /images/ 圖片
            Disallow: /data/數據庫文件
            Disallow: /template/ 模板文件
            Disallow: /css/ 樣式表文件
            Disallow: /lang/ 編碼文件
            Disallow: /script/腳本文件
            Disallow: /js/js文件
            如果你的網站是動態網頁,并且你為這些動態網頁創建了靜態副本,以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件里設置避免動態網頁被蜘蛛索引,以保證這些網頁不會被視為是網站重復的內容。
            robots.txt文件里還可以直接包括在sitemap文件的鏈接。就像這樣:
            Sitemap: http://www.***.com/sitemap.xml
            目 前對此表示支持的搜索引擎公司有Google, Yahoo, Ask and MSN。而中文搜索引擎公司,顯然不在這個圈子內。這樣做的好處就是,站長不用到每個搜索引擎的站長工具或者相似的站長部分,去提交自己的sitemap文件,搜索引擎的蜘蛛自己就會抓取robots.txt文件,讀取其中的sitemap路徑,接著抓取其中相鏈接的網頁。
            合理使用robots.txt文件還能避免訪問時出錯。比如,不能讓搜索者直接進入購物車頁面。因為沒有理由使購物車被收錄,所以你可以在robots.txt文件里設置來阻止搜索者直接進入購物車頁面。


            robot.txt作用是什么?

            搜索引擎通過一種程序robot(又稱spider),自動訪問互聯網上的網頁并獲取網頁信 息。您可以在您的網站中創建一個純文本文件robots.txt,在這個文件中聲明該網站中不想被robot 訪問的部分,這樣,該網站的部分或全部內容就可以不被搜索引擎收錄了,或者指定搜 索引擎只收錄指定的內容。

            robot.txt的主要作用

            有些人會問,既然robots文件沒弄好,或出錯了,會影響整個網站的收錄,那為什么還要這個文件呢?
            其實robots是為有特別情況的站長準備的,因為有些網站,有一些頁面是站長不想被任何搜索引擎收錄的,所以才有了這個robots文件。
            robots.txt文件用法舉例:
            例1、禁止所有搜索引擎訪問網站的任何部分
            Ur-agent: *
            Disallow: /
            例2、允許所有的robot訪問
            Ur-agent: *
            Disallow:
            (或者也可以建一個空文件 /robots.txt file)
            例3、禁止某個搜索引擎的訪問
            Ur-agent: BadBot
            Disallow: /
            例4、允許某個搜索引擎的訪問
            Ur-agent: Baiduspider
            Disallow:
            Ur-agent: *
            Disallow: /
            例5、假設某個網站有三個目錄對搜索引擎的訪問做了限制,可以這么寫:
            Ur-agent: *
            Disallow: /cgi-bin/
            Disallow: /tmp/
            Disallow: /joe/
            需要注意的是,對每一個目錄必須分開聲明,而不要寫成:“Disallow: /cgi-bin/ /tmp/”。
            Ur-agent:后的*(通配符) 具有特殊的含義,代表“any robot”,所以在該文件中不能有 “Disallow: /tmp/*” or “Disallow: *.gif ”這樣的記錄出現。
            另外,robots.txt主要作用是保障網絡安全與網站隱私,百度蜘蛛遵循robots.txt協議。通過根目錄中創建的純文本文件robots.txt,網站就可以聲明哪些頁面不想被百度蜘蛛爬行并收錄,每個網站都可以自主控制網站是否愿意被百度蜘蛛收錄,或者指定百度蜘蛛只收錄指定的內容。當百度蜘蛛訪問某個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果該文件不存在,那么爬蟲就沿著鏈接抓取,如果存在,爬蟲就會按照該文件中的內容來確定訪問的范圍。


            為什么電腦登錄學習通的網站缺少robot.txt文件?

            方法/步驟
            首先我們需要了解下robot.txt文件的用途。說到robot.txt不得不提到robot(又稱spider),robot就是搜索機器人,它能夠自動訪問互聯網上的網頁并獲取網頁信息。它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。
            robot.txt文件的詳細使用教程
            了解了它的用途之后,我們就可以深入的研究下這個文件了。一般建站的CMS下面都會自帶有這個文件,而且里面書寫了一些規則,當然這些規則都是根據CMS本身制定的。如果你用的不是現成的建站CMS,而是自己開發的,只需要在網站下面新建一個名為robot.txt文件即可。
            robot.txt文件的詳細使用教程
            一般情況下robot.txt文件會以Ur-agent:開頭,該項的值用于描述搜索引擎機器人robot的名字。例如Ur-agent:Baiduspider,就是針對百度蜘蛛進行的協議約束,robots.txt文件中至少要有一條Ur-agent記錄。如果該項的值設為*(通配符),則該協議對任何搜索引擎機器人均有效。如果使用通配符,這樣的記錄只能有一條。
            robot.txt文件的詳細使用教程
            第二個我們要熟悉的就是Disallow,這項值是用來描述不希望被搜索機器人訪問到網址。這個網址可以是完整的路徑,也就是域名加上目錄名或者文件名的格式,也可以是相對,也就是除去了域名,只有文件名或者目錄名。
            robot.txt文件的詳細使用教程
            很多時候我們需要Disallow的文件或者目錄并不止一個,有些人可能會圖省事,直接把所有的文件或者目錄都寫在了一個Disallow中,其實這是一種錯誤的做法,正確的做法是一個Disallow的對應一個文件或者目錄,有多少個目錄或者文件需要設置就寫幾個Disallow的。
            robot.txt文件的詳細使用教程
            robot.txt文件中也只有這兩個屬性了,只要掌握了這兩個屬性的用法,我們就可以根據自己網站的情況自定義robot.txt文件了,如果你的robot.txt文件沒弄好,或出錯了,會影響整個網站的收錄,所以自定義robot文件的時候還需要格外注意。
            robot.txt文件的詳細使用教程
            7
            雖然我們有些目錄不想被搜索機器人抓取,但是也不能寫到robot.txt文件中,例如后臺管理地址。相信這個目錄大家都不想被蜘蛛攀爬,但是千萬不要寫入robot文件中,因為它可以被任何人訪問,這樣無形中讓別人通過這個文件知道了你的后臺地址,最后的結果只會事與愿違。

            新網站上線如何有效的設置robot.txt文件,robot.txt文件怎樣寫更好。

            robots.txt寫作語法首先,我們來看一個robots.txt范例:
            #robots.txtfilestart#Robots.txtfilefrom
            http://www.361ku.com#AllrobotswillspiderthedomainUr
            -agent:*Disallow:/curity/Disallow:/admin/Disallow:/admin.htm#Endrobots.txtfile
            有#號的都是注釋,方便閱讀。Ur-agent就是搜索引擎的蜘蛛,后面用了*號,表示對所有的蜘蛛有效。Disallow就是表示不允許抓取,后面的目錄或者文件,表示禁止抓取的范圍。
            下面,我將列舉一些robots.txt的具體用法:允許所有的robot訪問Ur-agent:*Disallow:或者也可以建一個空文件"/robots.txt"
            禁止所有搜索引擎訪問網站的任何部分Ur-agent:*Disallow:/
            禁止所有搜索引擎訪問網站的幾個部分(下例中的01、02、03目錄)Ur-agent:*Disallow:/01/Disallow:/02/Disallow:/03/
            禁止某個搜索引擎的訪問(下例中的BadBot)Ur-agent:BadBotDisallow:/
            只允許某個搜索引擎的訪問(下例中的Crawler)Ur-agent:CrawlerDisallow:

            本文發布于:2023-02-28 19:52:00,感謝您對本站的認可!

            本文鏈接:http://m.newhan.cn/zhishi/a/167763941270426.html

            版權聲明:本站內容均來自互聯網,僅供演示用,請勿用于商業和其他非法用途。如果侵犯了您的權益請與我們聯系,我們將在24小時內刪除。

            本文word下載地址:robot.txt.doc

            本文 PDF 下載地址:robot.txt.pdf

            上一篇:強制刪除文件
            下一篇:返回列表
            標簽:robot   txt
            相關文章
            留言與評論(共有 0 條評論)
               
            驗證碼:
            Copyright ?2019-2022 Comsenz Inc.Powered by ? 實用文體寫作網旗下知識大全大全欄目是一個全百科類寶庫! 優秀范文|法律文書|專利查詢|
            主站蜘蛛池模板: 真实国产熟睡乱子伦视频| 亚洲中文字幕精品第一页| 国产一区二区三区四区激情| 久久香蕉国产线看观看怡红院妓院| 欧美人与禽2o2o性论交| 无码国内精品久久人妻蜜桃| 国产成人av三级在线观看| 成人网站免费观看永久视频下载| 丝袜高潮流白浆潮喷在线播放| 在线天堂资源www中文| 在线观看潮喷失禁大喷水无码| 国产精品黄色片在线观看| 性奴sm虐辱暴力视频网站| 日韩在线成年视频人网站观看| 亚洲国产欧美在线看片一国产| 草草网站影院白丝内射| 精品国产一区二区三区av色诱| 国产午夜精品在人线播放| 日本高清中文字幕免费一区二区| 青青草原国产精品啪啪视频| 国产性色播播毛片| 成人免费视频一区二区| 国产av区男人的天堂| 麻豆a级片| 男女猛烈激情xx00免费视频 | 精品福利视频导航| 国产精品亚洲玖玖玖在线观看| 国产久爱免费精品视频| 69天堂人成无码免费视频| 中文字幕久久国产精品| 毛片免费观看视频| 无码AV无码免费一区二区| 亚洲AV无码一区二区二三区软件 | 国产精品18久久久久久| 一区二区三区放荡人妻| 亚洲日本欧美日韩中文字幕| 久久婷婷五月综合色国产免费观看| 亚洲影院丰满少妇中文字幕无码 | 少妇厨房愉情理伦片BD在线观看| 伊人亚洲综合网色| 夜夜躁日日躁狠狠久久av|