精品人伦一区二区三区蜜桃视频_日韩精品视频在线_www.色综合_久久久久久一区_aaaaaa黄色片_亚洲精品久久

如何使用robots禁止各大搜索引擎爬蟲爬取網站

1、搜索引擎在爬取網站前會做什么?

一般來說搜索引擎爬取網站時都會,先讀取下robots.txt文件,并依照里面所設定的規則去爬取網站(當然是指沒用登錄限制的頁面)

2、robots.txt文件的內容和結構是怎樣的?

1).robots.txt文件必須是放在文件根目錄上:
例如:

├─admin

│ └─templates

│ header.tpl.php

│ task_add.tpl.php

│ └─robots.txt

2 ) .首先常用的命令為

User-agent : 可以具體制定User-agent適用,即搜索引擎的名字,如果為 * 的話則為通配

Disallow : 可以設定檔案或文件夾,不允許被爬蟲爬取,且為 / 時禁止爬取整站 ,也可以指定文件路徑,不可爬取

Crawl-delay: 延時爬取,防止爬蟲短時間內爬取網站過快導致網站崩潰,則可以設置該延時

Allow : 允許爬取指定頁面, 為 / 時爬取整站

3) 搜索引擎別稱

Googlebot 谷歌

Baiduspider 百度

等等

3、搜索引擎的好處和壞處是什么?

不好的地方會增加網站的訪問負荷;有時,還會涉及到用戶的隱私;

好的地方也是增加了訪問流量;

4、一般徹底防止爬蟲用什么方法?

如果需要防止的話,就需要監測網站,把一些不良網絡爬蟲的給堵止掉,一般是封IP。

robots.txt只能防止有品的爬蟲來爬

5、如何使用robots禁止各大搜索引擎爬蟲爬取網站

1.原來一般來說搜索引擎爬取網站時都會,先讀取下robots.txt文件,并依照里面所設定的規則去爬取網站(當然是指沒用登錄限制的頁面)

2.下面我們就來說一說如何設置robots.txt文件

1).robots.txt文件必須是放在文件根目錄上:
例如:

├─admin

│ └─templates

│ header.tpl.php

│ task_add.tpl.php

│ └─robots.txt

2 ) .首先常用的命令為

User-agent : 可以具體制定User-agent適用,即搜索引擎的名字,如果為 * 的話則為通配

Disallow : 可以設定檔案或文件夾,不允許被爬蟲爬取,且為 / 時禁止爬取整站 ,也可以指定文件路徑,不可爬取

Crawl-delay: 延時爬取,防止爬蟲短時間內爬取網站過快導致網站崩潰,則可以設置該延時

Allow : 允許爬取指定頁面, 為 / 時爬取整站

3) 搜索引擎別稱

Googlebot 谷歌

Baiduspider 百度

等等

類似我們測試環境就設置了

User-agent : / 所有搜索引擎

Disallow : / 禁止整站

總結

User-agent: *
Disallow: /

就可以了..

THE END
主站蜘蛛池模板: 欧美激情久久久 | 久久久久国产一区二区三区不卡 | 日韩精品1区2区3区 国产精品国产成人国产三级 | 欧美精品91 | 亚洲成人av| 久久一及片 | 777毛片| 国产美女视频黄a视频免费 国产精品福利视频 | 黄网站涩免费蜜桃网站 | 亚洲一区二区在线视频 | 在线观看亚 | 91性高湖久久久久久久久_久久99 | 色婷婷久久久亚洲一区二区三区 | 福利片在线看 | 免费艹逼视频 | 免费成人毛片 | 亚洲一区二区三区视频免费观看 | jav成人av免费播放 | 国产欧美精品 | 国产区视频在线观看 | 91在线一区二区三区 | 欧美 日韩 国产 在线 | 97伦理| 中文字幕一区二区三区四区 | 亚洲成人av一区二区 | 荷兰欧美一级毛片 | 日韩精品一区二区三区中文在线 | 国产综合一区二区 | 日韩在线免费视频 | 国产精品久久久久久久久久 | 国产一区二区在线视频 | 亚洲精品第一页 | 麻豆视频国产在线观看 | 一级毛片视频 | 国产日产欧产精品精品推荐蛮挑 | а_天堂中文最新版地址 | 日韩欧美视频在线 | 国产精品成人在线播放 | 午夜视频免费网站 | 玖玖玖av| 日韩视频在线播放 |