Home > 備忘録 > Apache に関すること > ロボットの巡回拒否( 85 )
| 巡回を拒否したい検索エンジンの「User-Agent」名を記述する | |
| 巡回を拒否したいディレクトリやファイル名を記述する | |
| 巡回を受け入れしたいディレクトリやファイル名を記述する |
[root@server]# vi /htmlのディレクトリ/robots.txt
User-agent: * ←すべてのロボット対象に
Disallow: / ←/を巡回拒否[root@server]# vi /***/***/html/robots.txt
User-agent: * ←すべてのロボット対象に
Disallow: /css ←/cssを巡回拒否[root@server]# vi /htmlのディレクトリ/robots.txt
User-agent: * ←すべてのロボット対象に
Disallow: /kyoto/hasisita.html ←/kyoto/hasisita.htmlを巡回拒否[root@server]# vi /htmlのディレクトリ/robots.txt
User-agent: Googlebot ←Googleロボットを対象に
Disallow: / ←/を巡回拒否[root@server]# vi /htmlのディレクトリ/robots.txt
User-agent: Slurp ←Yahoo!検索エンジンのクローラーを対象に
Disallow: / ←/を巡回拒否[root@server]# vi /htmlのディレクトリ/robots.txt
User-agent: Slurp ←Yahoo!検索エンジンのクローラーを対象に
Disallow: /tokyo ←/tokyoを巡回拒否
Disallow: /osaka ←/osakaを巡回拒否
User-agent: * ←すべてのロボット対象に
Disallow: /kyoto ←/kyotoを巡回拒否