亚洲免费在线观看_av网站免费观看_亚洲视频中文字幕_日本视频在线_香蕉一区二区_国产精品中文_这里只有精品久久_欧美一区二区三区不卡_日本高清在线观看_国产精品免费一区二区三区都可以_欧美黄色大片视频_自拍偷拍第1页_亚洲啪av永久无码精品放毛片_三级免费观看_日日狠狠_波多野结衣绝顶大高潮_国语一级片_亚洲丁香婷婷

027-81331413

robots.txt文件的作用和寫法

發(fā)布時(shí)間:2020-11-24 瀏覽:2549

  robots.txt協(xié)議是網(wǎng)站和搜索引擎的協(xié)議。

  作為網(wǎng)站優(yōu)化人員,一定要會(huì)看robots文件,也要會(huì)寫robots文件,那么,robots.txt文件有什么作用?

  robots.txt文件的作用有:

  (1)引導(dǎo)搜索引擎蜘蛛抓取指定內(nèi)容或欄目。比如,有的網(wǎng)站部分內(nèi)容,只有注冊(cè)會(huì)員后,登陸會(huì)員功能才能看到更多內(nèi)容。

  (2)網(wǎng)站改版或者URL需要重寫優(yōu)化的時(shí)候屏蔽對(duì)搜索引擎不友好的鏈接。

  (3)屏蔽死鏈接、404頁(yè)面;

  (4)屏蔽無(wú)內(nèi)容頁(yè)面、無(wú)價(jià)值頁(yè)面;

  (5)屏蔽重復(fù)頁(yè)面,如搜索結(jié)果頁(yè)、評(píng)論頁(yè)面等;

  (6)屏蔽任何不想收錄頁(yè)面;

  (7)引導(dǎo)蜘蛛抓取網(wǎng)站地圖。

  網(wǎng)站設(shè)置robots.txt可以集權(quán)到網(wǎng)站重要頁(yè)面,保護(hù)網(wǎng)站安全。

  知道了robots.txt的作用和設(shè)置robots.txt的必要性后,我就要知道robots.txt怎么寫?

  User-agent:Baiduspider

  Disallow:/

  禁止百度抓取

  User-agent:*

  Disallow:/

  不允許所以蜘蛛抓取

  User-agent:Baiduspider

  Disallow:/baidu/

  禁止訪問(wèn)/baidu/里面的所有文件夾

  User-agent:*

  Disallow:/baidu/huaxia.js

  緊張蜘蛛抓取某個(gè)文件夾下面的某個(gè)內(nèi)容

  知道了這些,我們就根據(jù)robots.txt文件的寫法和實(shí)際需要。把寫好的robots.txt文件,通過(guò)FTP網(wǎng)站后臺(tái)打開(kāi)上傳網(wǎng)站跟目錄就可以了。

  為了方便各位朋友學(xué)習(xí),robots.txt文件我們舉例寫一下,供需要學(xué)習(xí)的朋友參考:

  User-agent: *

  Disallow: /baidu/huaxia.js

  指定所有搜索引擎蜘蛛抓取站點(diǎn)根目錄下/baidu/文件夾下的huaxia.js文件

  User-agent: *

  Allow: /baidu/ccc

  Disallow: /baidu/

  禁止所有搜索引擎抓取baidu文件夾

  但可以抓取百度文件夾下含有ccc的文件及文件夾

  User-agent: *

  Disallow: /*.js$

  禁止抓取站點(diǎn)根目錄所有js文件

  User-agent: *

  Disallow: /*.css$

  禁止抓取站點(diǎn)根目錄下所有css文件

  User-agent: *

  Disallow: /*?*

  禁止蜘蛛抓取所有動(dòng)態(tài)路徑