Простой пример использования файла robots.txt:
User-agent: *
Disallow: /secret/
В этом примере все поисковые роботы будут блокированы от индексации любых страниц, содержащих /secret/ в URL.
Пример настройки:
User-agent: Googlebot
Disallow: /private/
Allow: /private/important-page.html
Вот пример того, как можно запретить индексацию тестовых страниц, но оставить открытыми страницы с важным контентом:
User-agent: *
Disallow: /test/