X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

Открыть тему
Тема закрыта
> Как найти и удалить ссылки из доп.индекса Google (сопли)
dzinovjev
dzinovjev
Topic Starter сообщение 24.2.2017, 17:23; Ответить: dzinovjev
Сообщение #1


Поисковая система Google имеет два индекса – основной и дополнительный. Дополнительный часто называют, как «сопли». Данное название получилось от английского Supplemental Index. Звучит, как сопли :)

Как известно, чем больше страниц в дополнительном индексе, тем меньшую ценность представляет сайта для поисковой системы в целом. Если Вы хотите, чтобы Ваш сайт в глазах Google был чище и правильнее, необходимо выявлять причины попадания страниц в дополнительный индекс и устранять их.

Стоит понять, что в этот индекс, как правило, попадают различного рода автоматически сгенерированные страницы Вашего сайта. В зависимости от движка сайта, они могут быть самыми разными.

Например, для Wordpress, это могут быть:

- страницы вложений для картинок (attachment)
- страницы группировки записей или товаров (?product_count=24)
- страницы самого движка или админки (wp-admin)
- страницы rss (feed)
- страницы аккаунтов (my-account)

И так далее. Их может быть довольно много. Надеюсь, понятно, что такого рода страницы не должны находиться ни основном, ни в дополнительном индексе.

Как правило, вебмастера, учитывая особенности своего движка, закрывают подобные страницы в файле robots.txt с твердой уверенностью, что так они не попадут ни в основной индекс, ни в «сопли».
Но как показывает практика, не смотря на ограничения в robots.txt, Google помещает часть таких страниц в свой дополнительный индекс.

Что же делать?

1. Правильный robots.txt

Первое, что нужно сделать, это все-таки прописать в robots.txt эти директивы. Например, так:

User-agent: *
Disallow: /wp-
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /feed/
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /category/*/*
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /cart
Disallow: /checkout
Disallow: /my-account
Disallow: /registraciya
Disallow: /rezultaty-poiska
Disallow: /compare

2. Выборка всех страниц, закрытых от индексации

Как мы понимаем, Google индексирует часть закрытых страниц. Давайте сначала соберем все закрытые страницы и после этого уже удалим непосредственно те, которые в индексе. Для того, чтобы собрать все закрытые страницы, нужно воспользоваться сканером сайтов. На мой взгляд, лучше всего с этим справляется программа Screaming Frog. Только не говорите мне ничего, что она платная :)

Открываем программу, вводим домен анализируемого сайта и жмем Start

Прикрепленное изображение


После окончания сканирования, не особо рассматривая результаты, экспортируем их в excel – мы проанализируем результаты именно там.

Прикрепленное изображение


Открываем большую таблицу с полученными данными и ставим фильтр. В данном конкретном случае нас интересует столбец Status.

Прикрепленное изображение


Как Вы, наверняка, догадались, нам нужно отфильтровать те страницы, которые закрыты в robots.txt.

Прикрепленное изображение


Копируем полученный список url адресов и пока бережно сохраняем.
Этот этап прошли. Поздравляю, теперь Вы знаете все свои страницы, которые закрыты через robots.txt. Пришло время узнать какие же из них в «соплях».

3. Поиск «соплей»

Я встречал людей, которые проверяют каждую из таких ссылок непосредственным вводом в поиск Google. И если там такая страница обнаружена, удаляют ее из индекса.

Прикрепленное изображение


Данный путь довольно долгий. Если у Вас тысячи страниц закрыты (то, что мы получили на предыдущем шаге), то стоит подумать об автоматизации.
Для меня самым удобным инструментом оказался сервис seolib – инструмент Анализ качества ссылок.

Прикрепленное изображение


Как Вы, надеюсь, поняли, нужно перейти туда и вставить все ранее найденные ссылки. Как видите, в примере на проверку отправлены 1456 ссылок и это стоило 36,45 рублей.
Прикрепленное изображение


Нажимаем «Проанализировать ссылки», ждем какое-то время и получаем результаты. Только учтите, что придется вставлять список ссылок из нескольких частей. Вроде бы там не более 1000 за проверку. Я показал скриншот, чтобы было видно итоговую стоимость.

Прикрепленное изображение


Как видите, в индексе Google присутствуют страницы, несмотря на то, что мы их закрыли в robots.txt.

4. Удаление страниц из индекса

Самый простой пункт в данной статье. Наверняка, Вы это знаете. Но все-таки покажу.

Идем в Search Consol в раздел Индекс Google – Удалить URL-адреса и жмем кнопку «Временно скрыть». В открывшееся поле необходимо вставить все те ссылки, напротив которых стоит «Да» из предыдущего шага.
К сожалению, массового удаления нет – придется каждую ссылку вставлять и подтверждать удаление.

Прикрепленное изображение


Надеюсь, данная инструкция Вам пригодится. Удачи. И всем ТОПа!

Спонсор конкурса SEO PowerSuite - Программы для раскрутки и продвижения сайта.
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
airman
airman
сообщение 26.2.2017, 13:43; Ответить: airman
Сообщение #2


d.zinovjev, хорошая статья, а вот такой вопрос, а как найти страницы "в соплях", которые не закрыты в роботсе?


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
dzinovjev
dzinovjev
Topic Starter сообщение 1.3.2017, 16:19; Ответить: dzinovjev
Сообщение #3


Остальные страницы я тоже ищу из файла, полученного скриминг фрогом. Просматриваю глазами подозрительные ссылки и по ним проверяю сопли. Например, как на скришоте
Прикрепленное изображение
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Ametist_rs
Ametist_rs
сообщение 3.3.2017, 15:22; Ответить: Ametist_rs
Сообщение #4


У меня такой вопрос. Экспортировала в Эксель, но там все сплошным текстом с кавычками. Как привести в нормальный вид быстрее, чтобы не руками все разбирать по столбцам?
Просмотрела в самой Лягушке.
Закрытых в robots.txt страниц нет, но есть открытые с статусом ОК, например:
/wp-includes/js/wp-embed.min.js?ver=4.5.6
/wp-content/plugins/LayerSlider/static/js/layerslider.kreaturamedia.jquery.js?ver=5.6.6
/wp-content/uploads/avada-styles/avada-165.css?timestamp=1487961435&ver=4.5.6

Как такие закрываете в роботсе?
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
dzinovjev
dzinovjev
Topic Starter сообщение 9.7.2018, 18:39; Ответить: dzinovjev
Сообщение #5


(Ametist_rs)
У меня такой вопрос. Экспортировала в Эксель, но там все сплошным текстом с кавычками. Как привести в нормальный вид быстрее, чтобы не руками все разбирать по столбцам?
Просмотрела в самой Лягушке.
Закрытых в robots.txt страниц нет, но есть открытые с статусом ОК, например:
/wp-includes/js/wp-embed.min.js?ver=4.5.6
/wp-content/plugins/LayerSlider/static/js/layerslider.kreaturamedia.jquery.js?ver=5.6.6
/wp-content/uploads/avada-styles/avada-165.css?timestamp=1487961435&ver=4.5.6

Как такие закрываете в роботсе?


В Лягушке при сохранении ставьте не csv, а xls. Если нет, то Данные - Текст по столбцам - с разделителями - запятая. Получите разнесение по столбцам.

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Как в пушсетках покупают по 100-200 тысяч кликов за день?
2 Boymaster 703 Вчера, 17:52
автор: Boymaster
Открытая тема (нет новых ответов) Если статья не в индексе Google - она уникальна или нет?
6 uahomka 1594 Вчера, 15:37
автор: Arsenwenger
Открытая тема (нет новых ответов) Жирные бурж ссылки под крипту
Размещаем статьи на популярных международных сайтах
0 umexa 353 23.4.2024, 23:23
автор: umexa
Открытая тема (нет новых ответов) SEO Линк Билдинг под Бурж | Вечные ссылки США, Европа и Мир с Гарантией
21 Needmylink1 7189 23.4.2024, 21:16
автор: Needmylink1
Горячая тема (нет новых ответов) Как вы отдыхаете от работы за компом
151 adw-kupon.ru 19883 23.4.2024, 13:52
автор: Vmir


 



RSS Текстовая версия Сейчас: 25.4.2024, 19:26
Дизайн