中文字幕第五页-中文字幕第页-中文字幕韩国-中文字幕最新-国产尤物二区三区在线观看-国产尤物福利视频一区二区

看完秒懂robots.txt寫法和注意事項

2020-09-14    分類: 網站建設

robots.txt直接放在網站根目錄下,是蜘蛛訪問網站時,第一個抓取的文件。robots.txt是告訴蜘蛛網站的哪些文件允許抓取,哪些文件不允許抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。沒有抓取就沒有收錄,沒有收錄就沒有排名。所以作為第一蜘蛛訪問的文件,寫好robots.txt是很重要的,寫好robots.txt后,一定要再檢查一兩遍,以防出錯。這里總結下robots.txt寫法,讓你看完秒懂robots.txt寫法和注意事項

一.robots.txt具體作用

1.對搜索引擎做出規定,抓取或者不抓取。

2.由于有些信息規定了不讓抓取,所以可以保護到一些必要的信息,比如:網站后臺,用戶信息。

3.節省搜索引擎抓取資源。

二.robots.txt規則

1.User-agent,用于告訴識別蜘蛛類型。比如,User-agent: Baiduspider 就是指百度蜘蛛。

各類蜘蛛列舉如下:

百度蜘蛛:Baiduspider

谷歌機器人:GoogleBot

360蜘蛛:360Spider

搜狗蜘蛛:Sogou News Spider

雅虎蜘蛛:“Yahoo! Slurp China” 或者 Yahoo!

有道蜘蛛:Youdaobot 或者 Yodaobot

Soso蜘蛛:Sosospider

2.Allow,允許蜘蛛抓取指定目錄或文件,默認是允許抓取所有。

3.Disallow,不允許蜘蛛抓取指定目錄或文件。

4.通配符,“*”,匹配0或多個任意字符。

5.終止符,“$”,可以匹配以指定字符結尾的字符。

舉個例子:下面是一個wordpress程序的robots.txt

User-agent: *

Disallow: /wp-admin/

Disallow: /wp-includes/

Disallow: /wp-content/plugins

Disallow: /wp-content/themes

Disallow: /feed

Disallow: /*/feed

Disallow: /comments/feed

Disallow: /*.js$

Disallow: /*?*

Sitemap: http://www.cdhuace.com/sitemap.xml

解釋:

User-agent: *:對所有搜索引擎都使用下面的規則。

Disallow: /wp-admin/:不讓蜘蛛抓取根目錄下的wp-admin文件夾。

Disallow: /*.js$:不讓蜘蛛抓取根目錄下所有的js文件。

Disallow: /*?*:不抓取所有的動態鏈接。

Sitemap: http://www.cdhuace.com/sitemap.xml:給蜘蛛提供網站地圖,方便蜘蛛抓取網站內容。

三.robots.txt注意事項

1.如果你希望搜索引擎收錄網站上所有的內容,那么就不要建立robots.txt文件。

2.如果同時存在動態和靜態鏈接,那么建議屏蔽動態鏈接。

3.robots.txt只能是屏蔽站內文件的,對站外文件沒有屏蔽功能。

4.User-agent,Allow,Disallow,Sitemap的首字母都是大寫的。

5.User-agent,Allow,Disallow,Sitemap的冒號后面都是有空格的,沒有寫空格直接寫接下來的內容會出錯。

6.網站通常會屏蔽搜索結果頁面。因為搜索結果頁和正常展示的內容頁相比,標題和內容上相同的,而這兩個頁面鏈接是不同的。那搜索引擎該將這篇文章歸屬于哪個內鏈呢?這樣就會造成內鏈之間相互競爭,造成內部資源損耗。

比如上面舉的例子,那個wordpress程序,在沒有設置偽靜態,還是動態鏈接的時候,搜索結果頁面鏈接都包含有/?s=,而 標題和內容 與 正常展示的動態鏈接內容頁重復,可以通過Disallow: /?=*來屏蔽搜索結果頁面。

而現在那個wordpress程序已經設置了偽靜態,也設置了Disallow: /*?*,Disallow: /*?*本身就包含了Disallow: /?=*,所以Disallow: /?=*這句寫不寫都沒有關系

7.建議屏蔽js文件。Disallow: /*.js$,以 .js 結尾的路徑統統被屏蔽,這樣就屏蔽了js文件。

8.路徑是區分大小寫的。Disallow: /ab/ 和 Disallow: /Ab/ 是不一樣的。

9.robots.txt會暴露網站相關目錄,寫robots.txt時要考慮到這一點。

10.有些seo會將文件直接備份在服務器中,文件是 .zip 格式,然后在robots.txt中屏蔽。個人不建議這樣,這就是明顯告訴人家你的備份文件位置。建議文件和數據都備份到本地。

11.一些特殊規則對比:

①Disallow: /和Disallow: / ab (/后面有個空格,再有ab)是一樣的,/后面多了個空格,蜘蛛之認空格前面那一段,就是Disallow: /,所以兩個都是屏蔽整站的。

②Disallow: /ab和Disallow: /ab*是一樣的。比如兩個都能屏蔽http://域名/ab,http://域名/abc,http://域名/abcd。

③Disallow: /ab/和Disallow: /ab是不一樣的。很明顯,Disallow: /ab范圍更廣,包含了Disallow: /ab/。因為Disallow: /ab/只能屏蔽http://域名/ab/,http://域名/ab/....這樣的路徑,也就是只能屏蔽ab目錄和ab目錄下的文件不被蜘蛛抓取。

四.驗證robots.txt文件的正確性和是否生效

當我們寫好了robots.txt文件后,怎么確定文件的正確性呢?上傳到服務器根目錄后,怎么判斷robots.txt文件是否生效了呢?這時我們可以借助百度資源平臺Robots。比如輸入樂呵SEO測試服網址,得到如下結果。

驗證robots.txt文件是否生效

檢測到robots.txt文件的內容

驗證robots.txt文件的正確性

結果證明,http://wordpress.cdhuace.com/robots.txt這個文件沒有語法錯誤,并且已經生效了。

若是想測試某一個目錄或者文件是否被屏蔽了,百度也是提供了工具的。如下圖,由于 http://wordpress.cdhuace.com 是測試服,我屏蔽了所有文件。所以無論我輸入根目錄下的任何目錄或者任何文件,都是檢測不到的,也就是說蜘蛛是抓取不到的。

輸入了后臺目錄wp-admin:

后臺目錄檢測結果:

經過測試,其他文件和目錄頁也檢測不到,所以這個功能還是很好用的。

更多robots.txt內容,可以參考百度提供的文檔哦。https://ziyuan.baidu.com/college/courseinfo?id=267&page=12

robots.txt寫法和注意事項就總結到這里了,內容相對細致,結合了例子講解會很容易看懂,希望對您有所幫助咯。

本文標題:看完秒懂robots.txt寫法和注意事項
URL網址:http://www.2m8n56k.cn/news33/86283.html

成都網站建設公司_創新互聯,為您提供網站設計公司品牌網站制作軟件開發面包屑導航網頁設計公司手機網站建設

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:[email protected]。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

手機網站建設
主站蜘蛛池模板: 美女被强行扒开双腿激情视频 | 久久久久国产成人精品 | 欧美专区在线视频 | 日韩欧美一区二区三区在线观看 | 亚洲综合伊人色一区 | 欧美成人午夜 | 欧美性巨大欧美 | 成年午夜| 欧美激情精品久久久久久久九九九 | 99精品久久99久久久久久 | 欧美成a人片在线观看久 | 国产午夜精品一区二区 | 国产美女操| 亚洲欧美久久精品一区 | 黄色作爱视频 | 麻豆19禁国产青草精品 | 深夜做爰性大片中文 | 毛片手机在线观看 | 欧美一级片在线 | 国产精品三级国语在线看 | 三级免费毛片 | 99re最新这里只有精品 | 日韩精品视频一区二区三区 | 韩国毛片一级 | 久久香蕉国产线看观看亚洲片 | 国产欧美日韩在线视频 | 亚洲精品久久久久午夜三 | 亚洲视频在线观看一区 | 国产va免费精品高清在线观看 | 成人免费一级毛片在线播放视频 | 免费人成网站免费看视频 | 欧美高清一级片 | 国产欧美日韩图片一区二区 | 香港三级日本三级三级人妇 | 女人被男人躁得好爽免费视频免费 | 怡红院成人永久免费看 | 免费永久在线观看黄网 | 亚洲黄色第一页 | 午夜毛片视频高清不卡免费 | 夜色福利久久久久久777777 | 中国国产一级毛片 |