Перейти к публикации
Поиск в
  • Дополнительно...
Искать результаты, содержащие...
Искать результаты в...

Дубли страниц?


SurfRider
 Поделиться

Рекомендованные сообщения

Здравствуйте! На форуме чуть ли не каждая вторая тема про дубли страниц. Прошу прояснить, как вычислить дубли страниц? Адекватного ответа пока не получил, поэтому прошу по-доступнее. Спасибо.

Ссылка на комментарий
Поделиться на других сайтах


Сайту 2 месяца, 800 товаров.

Яндекс проиндексировал около 10000 страниц.

Откуда столько много?????

Это и есть дубли?

Ссылка на комментарий
Поделиться на других сайтах


Трындец, уже в нескольких темах задавал вопрос о вычислении дублей страниц: никто не может ответить, хотя все борются с этой проблемой :ph34r:

Ссылка на комментарий
Поделиться на других сайтах


может проще ссылку дать на свой сайт и вам сразу дадут пример на вашем сайте если есть дубли

Ссылка на комментарий
Поделиться на других сайтах

Объясни толком откуда у тебя беруться дубли? Про какие ты страницы-дубли ведешь речь? Дубли у тебя - это страницы с одинаковым урл или страницы у которых урл разный, но содержание одинаковое?

Ссылка на комментарий
Поделиться на других сайтах


Может они и есть, просто не знаю как искать.

Откуда при 1000 товаров 10000 страний проиндексировано яндексом.

Ссылка на комментарий
Поделиться на других сайтах


Может они и есть, просто не знаю как искать.

Откуда при 1000 товаров 10000 страний проиндексировано яндексом.

Смешной человек, ты же уже сам и нашел их, 10000 страниц, посмотри что это за страницы, которые не нужны закрой в роботе, чтобы не идексировались поисковиками, если тебя это волнует. Если же у тебя дубли url, то меняй структуру урлов, дописывай к ним id например, чтобы были уникальны.

А так у тебя вопрос из разряда, найду то не знаю что, сделаю так не знаю как. Формулируйте свои мысли точнее.

Ссылка на комментарий
Поделиться на других сайтах


В индексе 237, но в панели вебмастера общее число загруженных роботом страниц 9893. Откуда такое количество?

Ссылка на комментарий
Поделиться на других сайтах


ну из того что я увидел роботс правильный да и сео_про стоит и работает и контролирует ссылки

так что должно быть все впорядке а то что в вебмастере пишет что оно нашло 10000 страниц это нормально оно их действительно нашло но там же есть пояснения что страницы в индекс не попали потому что запрещены в роботс

Ссылка на комментарий
Поделиться на других сайтах

Сео_про стоит, хороший модуль.

По опыту знаю, что все лишнее яндекс выкинет сам.

Просто с этим движком столкнулся впервые, было интересно откуда такое количество страниц загружено.

Ссылка на комментарий
Поделиться на других сайтах


посмотри просто повнимательней в админпанели, что это за страницы, пооткрывай их. и увидишь

Спасибо...посмотрю

Ссылка на комментарий
Поделиться на других сайтах


  • 1 месяц спустя...

Ну навскидку сайт у Вас 7snoff.ru нажимая на Логотип получается http://7snoff.ru/index.php?route=common/home дублей куча походу...

Ссылка на комментарий
Поделиться на других сайтах


Дубли страниц идут от фильтра товаров. Как от этого избавиться не знаю. Сейчас яндекс нашел около 20000 страниц, проиндексировано около 900. Учитывая что в магазине около 1000 товаров это хорошая цифра. Самое интересное, что трафик с яндекса растет, сайту 2 месяца а трафик доходит до 50 человек в день только с яндекса. С гугла заходов нет вообще. Написал им письмо, жду ответ. Может гуглу не понравились дубли страниц.

Ссылка на комментарий
Поделиться на других сайтах


У меня стандартный Robots.txt

User-agent: *
Disallow: /*route=account/
Disallow: /*route=affiliate/
Disallow: /*route=checkout/
Disallow: /*route=product/search
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Disallow: /*?tracking=
Disallow: /*&tracking=
User-agent: Yandex
Disallow: /*route=account/
Disallow: /*route=affiliate/
Disallow: /*route=checkout/
Disallow: /*route=product/search
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Clean-param: tracking

А вот в htaccess гугл упоменается:

RewriteBase /
RewriteRule ^sitemap.xml$ index.php?route=feed/google_sitemap [L]
RewriteRule ^googlebase.xml$ index.php?route=feed/google_base [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteCond %{REQUEST_URI} !.*\.(ico|gif|jpg|jpeg|png|js|css)
RewriteRule ^([^?]*) index.php?_route_=$1 [L,QSA]

Ссылка на комментарий
Поделиться на других сайтах


Это я торможу. Вроде не закомментирован. К тому же яндексу все нравится. Трафик с нег орастет только.

Ссылка на комментарий
Поделиться на других сайтах


  • 2 недели спустя...

К тому же яндексу все нравится. Трафик с нег орастет только.

Это не трафик это не о чём, а настоящий трафик можете и не получить такими темпами. 3000шт. одной и той же статьи на сайте это .....

В Вашем случае вроде так должно быть

Disallow: /*?filter=

как только сделаете, дубли должны уйти из индекса.

Ссылка на комментарий
Поделиться на других сайтах


Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите здесь.

Войти сейчас
 Поделиться

  • Сейчас на странице   0 пользователей

    • Нет пользователей, просматривающих эту страницу.
×
×
  • Создать...

Важная информация

На нашем сайте используются файлы cookie и происходит обработка некоторых персональных данных пользователей, чтобы улучшить пользовательский интерфейс. Чтобы узнать для чего и какие персональные данные мы обрабатываем перейдите по ссылке. Если Вы нажмете «Я даю согласие», это означает, что Вы понимаете и принимаете все условия, указанные в этом Уведомлении о Конфиденциальности.