Перейти к содержанию
  • 0
jazzero

Что делать с дублями страниц

Вопросы

Всем привет! Поделитесь пожалуйста информацией о существующих способах закрытия дублей страниц и в каких случаях каждый из них наиболее оптимален?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

13 ответов на этот вопрос

Рекомендуемые сообщения

  • 0

Файл robots.txt - запрещает сканирование страницы. По ссылкам с этой страницы роботы переходить не смогут. Поэтому для страниц пагинаций не годится.

<meta name="robots" content="noindex"/> — не индексировать текст страницы. По ссылкам на этой странице роботы переходят. Более жесткая директива, чем каноникл.

<link rel="canonical" href="http://site.com/"/> - указывает на каноническую страницы, подсказывая поисковику, что нужно индексировать именно ее. Это больше похоже на просьбу поисковику.

Вы лучше опишите свой случай. Так проще будет посоветовать.

 

  • Повысить репутацию 2

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0

Если кратко то на дубли можно или забить, или исключать из индекса - больше с ними нечего делать:)

Но тут еще важно определить, что является дублем а что нет. Если на 2 страницах с разным URL доступны одинаковый полностью контент и метатеги, то это точно дубли. Их плодят особенно старые версии CMS типа Джумлы и Вордпресса. А если дубли например только H1 то это уже частичные дубли, и признать их такой же ошибкой как полные неправильно.

Кто то относит к дублям пагинацию, то есть страницы 2,3, 4 на листингах и закрывает их от индексации. Кто то это делает в robots.txt что неправильно, тут я с Владимиром соглашусь.

Или вот например есть на разных страницах сайта один сквозной блок текста. Являются ли разные страницы при этом дублями друг друга? Я считаю нет, а кто то может посчитать, что да (начинающий SEO специалист например).

К способам, перечисленным @vold57 добавлю еще физическое удаление страниц дублей с сайта (жесткий метод, который не всегда возможно использовать). Но бывает, такая возможность есть - например в случае неправильной реализации фильтра на интернет-магазинах получаются дубли одних и тех же страниц на разных урлах

 

  • Повысить репутацию 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0

Всем спасибо за пояснения:).

vold57, в моём случае пока и описывать нечего. Недавно начал изучать основы сайтостроения и СЕО. В качестве «подопытного» создал сайт на локальном сервере. Дошёл до дублей и возник ряд вопросов, с которыми и решил обратиться к участникам форума.

Ещё пара вопросов если можно. Читал про случаи в оптимизации, когда каноникл не передавал вес с дублей на основную страницу, хотя должен. Бывает ли такое и с чем это может быть связано?

Также если не затруднит, поделитесь подробной информацией о расшифровке всех параметров robots.txt, или киньте ссылочку на такой материал. В сети находил описание только основных опций данного файла.

  • Повысить репутацию 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0
34 минуты назад, jazzero сказал:

Ещё пара вопросов если можно. Читал про случаи в оптимизации, когда каноникл не передавал вес с дублей на основную страницу, хотя должен. Бывает ли такое и с чем это может быть связано?

Можно конкретнее, как замерялась передача веса с дублей, какого формата они были, были ли ссылки на них? Речь про ссылочный вес или что то еще?

38 минут назад, jazzero сказал:

Также если не затруднит, поделитесь подробной информацией о расшифровке всех параметров robots.txt, или киньте ссылочку на такой материал. В сети находил описание только основных опций данного файла.

https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html

https://support.google.com/webmasters/answer/6062608?hl=ru&ref_topic=6061961

Кратко, самые основные параметры это Allow: (разрешить) и Disallow: (запретить)

 

 

  • Повысить репутацию 2

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0

Я нигде не встречал информацию, что каноникл передает вес. Если бы это было так, то был бы смысл плодить дубли и при этом использовать каноникл.))

Яндекс Помощь. Использование файла robots.txt

  • Повысить репутацию 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0

Про каноникал и ссылочный вес обсуждали здесь. Вопрос для меня пока остается открытым, пока не могу сказать с уверенностью на практике, что вес передается, только читал мнения, поэтому интересно посмотреть примеры

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0

Петр, я понял твою мысль. Ты имеешь ввиду не свой вес, а вес, который проходит сквозняком через неканоническую страницу по типу 301 редиректа. Я не в курсе.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0
10 часов назад, vold57 сказал:

Ты имеешь ввиду не свой вес, а вес, который проходит сквозняком через неканоническую страницу по типу 301 редиректа.

да, думаю про это. Насчет личного веса тоже сомневаюсь, что он имеется при отсутствии страницы в индексе

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0

из того, что я понял про каноникл, помимо указания на каноническую страницу, он также передаёт на неё ссылочный вес с дублей. Что касается проблем с ним, то где-то читал обсуждение, что несмотря на проставления данного атрибута, поисковик выбирал дубль страницы, а не основную. Я эту информацию для себя отметил на будущее и решил спросить о данной ситуации у людей, имеющих опыт работы в данном направлении.  Как-то так.

...за ссылочки спасибо!

Изменено пользователем jazzero
  • Повысить репутацию 2

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0

@jazzero это автор эксперимента делает такой вывод. Для меня не очевидно, что, если страница нашлась по анкору, то по этому анкору был передан вес. А может и передан, но с каким-то сильно снижающим коэффициентом. В, общем, для меня вопрос остается открытым.

Поисковик, как правило выбирает для индексации каноническую страницу. Другой выбор делает редко. 

Возможно, на неканоническую страницу ведет больше ссылок или еще по каким-то причинам.

  • Повысить репутацию 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0

Бакалов и сам писал, что нельзя назвать чистым экспериментом то, что именно по тексту анкора ищется. Я встречал ситуации, когда с указанным каноникалом в индексе был дубль. Сами поисковики насколько помню не гарантируют 100% работы этого атрибута. Там надо смотреть конкретную ситуацию ,что могло повлиять

  • Повысить репутацию 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
  • 0

Вот за то, что Бакалов не стал пудрить мозги, ему респект. Алаев потом в своей статье сослался на эксперимент Бакалока, но уже без осторожных оговорок.

 

  • Повысить репутацию 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти


О проекте

Web@district это проект, который объединил специалистов из разных областей сайтостроения и интернет-маркетинга для того, чтобы пользователи этого ресурса могли удовлетворять свои потребности в знаниях, находить исполнителей, заказчиков или просто приятно пообщаться.

info@webdistrict.pro

Тут может оказаться каждый из вас.:)

логотип в футрере

Copyright © Web@District 2018      При копировании материалов с сайта активная гиперссылка ссылка на источник обязательна
×