[identity profile] sfrolov.livejournal.com posting in [community profile] useful_faq
Мой провайдер часто роняет базу данных. Из-за этого сайт становится практически непригодным для просмотра.
Если нет коннекта к базе данных, я пишу, что дескать сайт закрыт на профилактику, заходите, когда там все починят и т. д.

Но если во время такого простоя на сайт придет поисковый робот, то он может эту надпись проиндексировать и все будут ко мне приходить по словам "сайт не работает".
Есть ли какой-нибудь стандарт, чтобы сказать роботу, что в этот раз сайт не работает и его не надо индексировать? Знаю, что есть специальные команды, но боюсь, они отвадят таких роботов насовсем.

Date: 2009-01-20 10:19 am (UTC)
(deleted comment)
(deleted comment)
(deleted comment)

Date: 2009-01-20 12:32 pm (UTC)
From: [identity profile] haviras.livejournal.com
robots.txt или .htaaccess

Date: 2009-01-20 12:33 pm (UTC)
From: [identity profile] haviras.livejournal.com
Но последнее - вообще опасно применять по вышеописанной причине

Date: 2009-01-20 02:31 pm (UTC)
From: [identity profile] haviras.livejournal.com
А там запрет индексации ботами
А в хтаацесс вообще доступ блокировать