Парни помогите!Как удалить дубли ссылок с индекса?
Давно нужно было это сделать уже.Не хватка опыта останавливала этот процесс что вообще всё не испортить.
Теперь к сути вопроса! Начнём с Google.
Я сделал запрос в site:ooo-arle.ru и там оказалось в индексе "Результатов: примерно 673"..И это очень много потому что страниц всего где то 70 шт.
Есть страницы такого содержания:
Категория Блузки.
правильная ссылка:
Блузки женские собственного производства.
ooo-arle.ru/60-bluzki/
Стильные блузки.Широкий выбор стильных женских рубашек, блузок и туник собственного производства в нашем интернет магазине.Из натуральных ...
Но есть и такие:
ooo-arle.ru/60-bluzki/?limit=50
Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее...
ooo-arle.ru/60-bluzki/?sort=rating&order=DESC
Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее...
И такая ситуация на всех категориях.Как мне запереть в robots.txt. и удалить с индекса.
Дело в том что в robots.txt. уже прописано так:Disallow: /*?limit= и так:Disallow: /*&limit=
Почему же они всё равно в индексе и такого странного вида.
Помогите!