Без шума и пыли: удаляем страницу из выдачи поисковых систем
- 18.05.2018
- Продвижение сайтов, Разработка сайтов
В жизни случается всякое. Бывают случаи, когда нужно проделать действие с точностью до наоборот: не проиндексировать, а убрать страничку из выдачи поисковых систем. На это могут быть веские причины. Наиболее популярная из них — необходимость убрать старый страницы после создания нового сайта, демонстрирующийся в поисковой выдаче в то время, как у вас все силы брошены на индексацию нового. Бывает, когда появляющиеся в поисковой выдаче странички не особенно положительно влияют на ваш имидж. В таком случае нужно предпринимать конкретные действия, а именно — удалить неугодную страничку из поисковой выдачи Яндекса и Гугла.
Перечисляем наиболее простые способы.
1. Инструменты Вебмастеров
Удаление происходит через привычные для многих SEO-специалистов Яндекс. Вебмастер и Гугл Вебмастер Тулс.
Так, если мы говорим о Гугл, здесь всё просто:
- Заходим в индекс Гугла.
- Удаляем URL адрес.
В специальной строке прописываем конкретный адрес с намерением его удалить. После того, как всё сделано, отправляем запрос на удаление. Страница вносится в список ожидания, а нам остаётся считать минуты. Как правило, ждать нужно недолго. Это касается в том числе и достаточно объёмных сайтов.
2. robots.txt
Файл robots.txt незаменим. Примечательно, что с помощью файла можно закрывать от индексации разделы сайта и отдельные странички. Причём проделывать это можно как в Гугле, так и в Яндексе.
3. 404 ошибка
Для этих целей необходимо создать специальную страничку 404 ошибки. В таком случае, когда сайт будет индексироваться, поисковые боты по причине 404 ошибки выбросят его из строки поиска, чего вы в общем-то и добивались. Данный способ не подходит тем, кто спешит. Данное удаление занимает время, когда нужно дождаться отклика поисковых ботов.
4. Мета-тег
У мета-тега имеется длинная конструкция, состоящая из: meta name = «robots» content = «noindex,nofollow». Некоторые её параметры говорят о том, что страницу не нужно индексировать и не стоит переходить на неё по текущей ссылке.
5. X-Robots-Tag
Данный вариант применим только для Гугл, когда запись о запрете сосредоточена в http-заголовках.
Удобнее использовать все варианты в совокупности, чтобы эффективнее и быстрее удалить страничку из поисковика.