дублями называют страницы доступные по разным адресам. на примере opencart это страницы
http://ocstore.orcart.ru/
http://ocstore.orcart.ru/index.php?route=common/home
миф заключается в том, что поисковые системы выкидывают из индекса не только все дубли, но и сами страницы, либо же страницы, имеющие дубли, заметно проседают в поисковой выдаче
на скрине мой демо сайт.
видно, что из 153 найденных страниц в индексе только 12. в исключенных страницах 12(robots.txt). где-же ещё 129? об этом я спросил поддержку яндекса и получил ответ
очень размытый ответ. всё дело в алгоритме, который работает неизвестно как. яндекс даёт только рекомендации, но никаких конкретных шагов, способствующих попаданию страниц в результат поиска не предлагает
тогда я задаю конкретный вопрос на счет дублей
(пролистав мануалы яндекса http://help.yandex.ru/webmaster/for-webmasters/contents.xml
так не нашел ни одного упоминания об этом)
недавно получил ответ
понятно, что чем меньше поисковик проиндексирует лишних, дублирующих страниц, тем больше у него будет времени на нужные и полезные, но может не стоит такое внимание уделять дублям?