Помощник
|
Что считается дублем контента? |
med--brat
|
Сообщение
#1
|
||
|
|
||
|
|||
Brainer |
2.2.2011, 20:47;
Ответить: Brainer
Сообщение
#2
|
|
med--brat, вот дубли, считая по гуглу:
дубли Целых 10 результатов - это очень много. Смотрите на ссылки из серпа, и закрывайте ненужные страницы через robots.txt |
|
|
airman |
2.2.2011, 23:10;
Ответить: airman
Сообщение
#3
|
|
10 это конечно очень много, убирайте их или могут возникнуть проблемы с индексацией сайта
-------------------- |
|
|
med--brat
|
Сообщение
#4
|
|
Ого, спасибо большое, за то, что ткнули носом...будем исправлять
|
|
|
med--brat
|
Сообщение
#5
|
|
Еще несколько вопросов по поводу дублей строк.
1) Искать дубли можно только вбив уникальную строку из сайта в поисковую строку гугла или же есть инструмент для автоматизации? 2) Я могу понять, что надо закрыть теги от поисковиков, а вот как быть с главной страницей, на которую выводятся краткие анонсы? Ведь ее же нельзя так просто убрать от поисковиков. 3) То же касается выводов разнообразных списков анонсов: данная поисковая строка будет встречаться как в самом списке анонсов (кстати, анонсы ведь тоже можно выводить по разнообразным критериям: может один анонс быть по дате материала, второй - записи вида "А еще можно почитать" так далее), так и в полном изложении материала. Получается, необходимо закрыть от поисковика все списки анонсов, все блоки вида "Еще может быть интересно" и прочие страницы, где будет встречаться данный поисковый запрос? |
|
|
Brainer |
3.2.2011, 13:47;
Ответить: Brainer
Сообщение
#6
|
|
1) Ручной способ - самый эффективный, хоть и самый трудозатратный. Как вариант - http://www.copyscape.com или Адвего Плагиатус
2) Вывод аннонсов статей на главной - не критичный фактор, если в остальном с сайтом всё нормально (т.е. нет дополнительных дублей). 3) Закройте ненужные по вашему мнению аннонсы от индекса. Ведь пользователи будут их видеть всё равно, только ПС будут знать, что соваться сюда не нужно. |
|
|
Paladin_rs |
6.5.2011, 17:36;
Ответить: Paladin_rs
Сообщение
#7
|
|
А, всеже, ничего не известно по поводу инструмента автоматческой проверки дублей на сайте?
|
|
|
Knazar |
28.5.2011, 0:51;
Ответить: Knazar
Сообщение
#8
|
|
Не понимаю как мне закрыть дубли на сайте?
Что нужно прописать в robots.txt? Сайт: app4android.ru |
|
|
airman |
28.5.2011, 13:20;
Ответить: airman
Сообщение
#9
|
|
|
почитайте тут http://seob.info/robots-txt.html
-------------------- |
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Во что сегодня инвестировать? Делимся своими приносящими прибыль вариантами |
75 | traveliver | 4965 | Вчера, 16:32 автор: Boymaster |
|
A-Parser 1.1 - продвинутый парсер ПС, кейвордов, контента, показателей, 70+ парсеров. | 353 | Forbidden | 279287 | 11.4.2024, 17:07 автор: AParser_Support |
|
Во что Вы играете? | 399 | Vmir | 67852 | 23.3.2024, 12:51 автор: Alexand3r |
|
"Извините, что ожидание затянулось, но не думайте, пожалуйста, что мы про вас забыли. Мы заводим задачи по всем обращениям и контролируем работу над ними самым тщательным образом." Вопрос |
0 | kuz999 | 1243 | 5.2.2024, 14:06 автор: kuz999 |
|
Что приведет к краху всего рынка криптовалют стейблкоины, прогноз |
43 | GlazAlmaz | 5922 | 13.1.2024, 17:30 автор: Antarez |
Текстовая версия | Сейчас: 20.4.2024, 10:07 |