中文字幕第五页-中文字幕第页-中文字幕韩国-中文字幕最新-国产尤物二区三区在线观看-国产尤物福利视频一区二区

詳談robots.txt的語法格式!

2023-05-20    分類: 網站建設

每當用戶試圖訪問某個不存在的 URL 時,服務器都會在日志中記錄 404 錯誤(無法 找到文件)。每當搜索蜘蛛來尋找并不存在的 robots.txt 文件時,服務器也將在日志中記錄一 條 404 錯誤,所以你應該在網站中添加一個 robots.txt。 那今天成都網絡公司小李,就帶大家一起學習一下有關robots.txt 的語法格式 的知識!

“robots.txt”文件包含一條或更多的記錄,這些記錄通過空行分開(以 CR,CR/NL, or NL 作為結束符),每一條記錄的格式如下所示: “:”。 在該文件中可以使用#進行注解,具體使用方法和 UNIX 中的慣例一樣。該文件中的記 錄通常以一行或多行 User-agent 開始,后面加上若干 Disallow 行,詳細情況如下:

User-agent:
在"robots.txt"文件中,如果有多條 User-agent 記錄說明有多個 robot 會受到"robots.txt"的 限制,對該文件來說,至少要有一條 User-agent 記錄。如果該項的值設為*,則對任何 robot 均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。 如果在"robots.txt"文件中,加入"User-agent:SomeBot"和若干 Disallow、Allow 行,那么 名為"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow 和 Allow 行的限制。

Disallow:
這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以 Disallow 項的值開頭的 URL 不會被 robot 訪問。例如"Disallow:/help"禁止 robot 訪問/help.html、/helpabc.html、 /help/index.html,而"Disallow:/help/"則允許 robot 訪問/help.html、/helpabc.html,不能訪問/help /index.html。 "Disallow:"說明允許 robot 訪問該網站的所有 url,在"/robots.txt"文件中,至少要有一條 Disallow 記錄。如果"/robots.txt"不存在或者為空文件,則對于所有的搜索引擎 robot,該網 站都是開放的。 . 要攔截整個網站,請使用正斜扛。 Disallow:/ . 要攔截目錄及其中的所有內容,請在目錄名后添加正斜扛.Disallow:/private_directory/ . 要攔截網頁,請列出該網頁。 Disallow:/private_file.html

Allow:
與 Disallow 項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以 Allow 項的值開頭的 URL 是允許 robot 訪問的。例如"Allow:/hibaidu"允許 robot 訪問/hibaidu.htm、/hibaiducom.html、/hibaidu /com.html。一個網站的所有 URL 默認是 Allow 的,所以 Allow 通常與 Disallow 搭配使用,實現允許訪問一部分網頁同時禁止訪問其它所有 URL 的功能。 注意:Disallow 與 Allow 行的順序是有意義的,robot 會根據先進個匹配成功的 Allow 或 Disallow 行確定是否訪問某個 URL.

使用 * 匹配字符序列
您可使用星號 (*) 來匹配字符序列。例如,要攔截對所有以"專用"開頭的子目錄的訪問, 可使用下列條目:
User-Agent:Googlebot  Disallow:/專用*/ 要攔截對所有包含問號 (?) 的網址的訪問,可使用下列條目: User-agent:*  Disallow:/*? 使用 $ 匹配網址的結束字符
您可使用 $ 字符指定與網址的結束字符進行匹配。例如,要攔截以 .asp 結尾的網址, 可使用下列條目: User-Agent:Googlebot Disallow:/*.asp$ 您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 表示一個會話 ID,您可排 除所有包含該 ID 的網址,確保搜索引擎蜘蛛不會抓取重復的網頁。但是,以 ? 結尾的網
址可能是您要包含的網頁版本。在此情況下,可對 robots.txt 文件進行如下設置: User-agent:*  Allow:/*?$  Disallow:/*?
Disallow:/ *? 一行將攔截包含 ? 的網址(具體而言,它將攔截所有以您的域名開頭、 后接任意字符串,然后是問號 (?),而后又是任意字符串的網址)。
Allow: /*?$ 一行將允許包含任何以 ? 結尾的網址(具體而言,它將允許包含所有以您 的域名開頭、后接任意字符串,然后是問號 (?),問號之后沒有任何字符的網址)。

當前名稱:詳談robots.txt的語法格式!
瀏覽路徑:http://www.2m8n56k.cn/news0/260200.html

成都網站建設公司_創新互聯,為您提供網頁設計公司靜態網站App開發面包屑導航定制開發ChatGPT

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:[email protected]。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

外貿網站制作
主站蜘蛛池模板: 中文字幕在线永久 | 久草首页在线观看 | 成人国产精品一区二区网站 | 国产午夜免费不卡精品理论片 | 夜夜操影院 | 极品美女写真菠萝蜜视频 | 日韩99在线 | 国产中文字幕视频在线观看 | 中文字幕在线乱码不卡区区 | 91久久亚洲最新一本 | 免费一级a毛片在线 | 欧美色视频日本片免费高清 | 久久精品国产这里是免费 | 日韩a级| 绝对真实偷拍盗摄高清在线视频 | 国产综合亚洲专区在线 | 久久精品国产精品亚洲综合 | 久久精品视频99精品视频150 | 国产一级黄色网 | 久久久久久一级毛片免费野外 | 亚洲成人中文字幕 | 国产成人精品亚洲一区 | 久久99精品久久久久久秒播放器 | 日本人成免费大片 | 亚洲精品亚洲人成在线麻豆 | 久久国产毛片 | 国产91精品一区二区 | 一级做a爰片久久毛片唾 | 可以免费观看欧美一级毛片 | 亚洲天堂久久精品 | 尤物蜜芽福利国产污在线观看 | 性色午夜视频免费男人的天堂 | 国内一级特黄女人精品片 | 国产一级做a爰片在线 | 99久久国产综合精品五月天 | 亚洲国产精品久久久久久网站 | 欧美亚洲国产成人精品 | 91精品久久久久久久久网影视 | 亚洲成a人片在线看 | 在线播放 亚洲 | 国产美女午夜精品福利视频 |