подскажите как оптимизировать файл robots.txt
вот что мне написали с поддержки хостинга
Нагрузка могла быть вызвана при индексации сайта поисковыми работами, которые слишком часто открывали страницы сайта.
Рекомендуем в файле robots.txt задать правила для поисковых роботов, которые ограничивают периоды индексации страниц сайта.
Вы можете это сделать при помощи директив crawl-delay и crawl-rate (для Гугл).