文書更新:2018年05月30日(水) 午後8時49分52秒

Home > 備忘録 > Apache に関すること > ロボットの巡回拒否( 85 )

robots.txtの書き方

  • User-agent:
  • 巡回を拒否したい検索エンジンの「User-Agent」名を記述する
  • Disallow:
  • 巡回を拒否したいディレクトリやファイル名を記述する
  • Allow:
  • 巡回を受け入れしたいディレクトリやファイル名を記述する

    robots.txtの具体例

    1. すべてのロボットの巡回拒否
    2. [root@server]# vi /htmlのディレクトリ/robots.txt
      User-agent: *	←すべてのロボット対象に
      Disallow: /	←/を巡回拒否
    3. 一部のディレクトリのみ巡回拒否
    4. [root@server]# vi /***/***/html/robots.txt
      User-agent: *	←すべてのロボット対象に
      Disallow: /css	←/cssを巡回拒否
    5. あるファイルのみ巡回拒否
    6. [root@server]# vi /htmlのディレクトリ/robots.txt
      User-agent: *			←すべてのロボット対象に
      Disallow: /kyoto/hasisita.html	←/kyoto/hasisita.htmlを巡回拒否
    7. 検索エンジン毎に巡回拒否
    8. [root@server]# vi /htmlのディレクトリ/robots.txt
      User-agent: Googlebot	←Googleロボットを対象に
      Disallow: /		←/を巡回拒否

      [root@server]# vi /htmlのディレクトリ/robots.txt
      User-agent: Slurp	←Yahoo!検索エンジンのクローラーを対象に
      Disallow: /		←/を巡回拒否
    9. 複雑な巡回拒否
    10. [root@server]# vi /htmlのディレクトリ/robots.txt
      User-agent: Slurp	←Yahoo!検索エンジンのクローラーを対象に
      Disallow: /tokyo	←/tokyoを巡回拒否
      Disallow: /osaka	←/osakaを巡回拒否
      
      User-agent: *		←すべてのロボット対象に
      Disallow: /kyoto	←/kyotoを巡回拒否