Перейти до вмісту
Пошук в
  • Детальніше...
Шукати результати, які ...
Шукати результати в ...

[Поддержка] SEOFIX Mета-тег NOINDEX


Recommended Posts

Все так да не так :-)

1. если дубль страницы попал в индекс и после этого был закрыт в robots.txt в индексе он и останется.

2. если к примеру пагинацию закрыть в роботсе изначально то в индексе дубли не появятся но и ПС не увидит ссылки на товары со второй и дальше страницы... перелинковка знаетели....

3. если говорить про яндекс то всем известно что он тормоз и sitemap обновляет не каждый день и вновь добавленный товар попавший на вторую и далее страницу увидит не сразу.

 

но если не обращать внимание на это и делать все с самого начала правильно не допускать попадания дублей в индекс то можно обойтись и robots.txt единственное что мы потеряем это передачу веса со страниц пагинации в товар а из товара на первую страницу категории ну и главную естественно.

 

Все верно, но покупать через этот форум желения нет! Так как не вижу смысла в оставлении персональной информации вплоть до места жительства неизвестно кому

 

Если бы я решал эту задачу (а я ее решал ;) ), то я бы добавил уникальные шаблоны метаданных для страниц пагинации по шаблону, убрал бы описание категорий на 2-й и далее страницах и разрешил бы поисковику индексировать их. Так как я замечаю переходы из поиска на 2-ю и далее страницы. Так как мераописания уникальны, то и дублей нет.

 

 

Если в категории 20 страниц, то запрет их индексации - это минус 19 страниц в потенциальной поисковой выдаче

 

Бред! 19 из 20 100% попадут в сопли! Единственно что со временем может произойти коррекция выдачи конкурентной страницы (зависит от массы параметров к примеру количество изначальных переходов извне/ наличие беков на страницу из пагинации а не категорию)

На прошлой недели полностью удалил все эти дубли, через 3 дня зашел в инструменты вебмастера и увидел, что увеличилась релевантность и больше страниц стали участвовать в выдаче, а процент показа возрос на 1005%, а кликов на 468% Чувствуешь разницу? Это проста математика, когда вес и весь траффик идет на одну но качественную страницу, а не делит все ее параметры на 20.

 

В роботе запрет стоял на индексацию этих страниц с самого запуска, но гугл все-равно их хавает зараза, потом в инструментах вебмастера создал параметры из исключением всех страниц из этими параметрами из выдачи, удалил все дубли вручную из гугла, а он все-равно по пару ссылок раз в день добавляет, так что это единственный выход!

Надіслати
Поділитися на інших сайтах


Chenom0r сказал(а) 30 Янв 2014 - 8:19 PM:snapback.png

Если бы я решал эту задачу (а я ее решал  ;) ), то я бы добавил уникальные шаблоны метаданных для страниц пагинации по шаблону, убрал бы описание категорий на 2-й и далее страницах и разрешил бы поисковику индексировать их. Так как я замечаю переходы из поиска на 2-ю и далее страницы. Так как мераописания уникальны, то и дублей нет.

 

 

Если в категории 20 страниц, то запрет их индексации - это минус 19 страниц в потенциальной поисковой выдаче

Столкнулся с проблемой деления веса из-за соц кнопок от uptolike  там в конце каждого шейра параметр дописывается, мол для отслеживания траффа по сетям, но это вряд ли... Вообщим из-за этого дебильного параметра в конце возникают еще дубли, а соответственно потеря веса и как следствие понижение релевантности, далее фигня, с социалок трафф идет по видоизмененным ссылка, а из поиска по нормальным, и все параметры соответственно делятся на двоих, то есть 10 пришедших идут на две страницы по 5, следовательно показатели ПФ делятся на 2, следовательно мы продвигаем 2 страницы с дублированным контентом вместо одной и идем назад в очереди выдачи гугла ;)) вот такие реалии. В аптулайк написал уже исправили, но опыт остался. Сеошник который считает, что с 10 статей на сайте и кучи дублей у него в выдаче гугла 150 это хорошо — либо дурак либо вовсе не сеошник. Помните диалектику с ее законами качества-количества ;))

Надіслати
Поділитися на інших сайтах


  • 4 weeks later...

там они дублируются и присутствуют в User-agent: * и User-agent: Yandex

в обоих местах удалять?

 

и ещё такой вопрос, есть строчки 

Disallow: /*&sort=
Disallow: /*&limit=

их не надо трогать ?

Надіслати
Поділитися на інших сайтах


  • 4 weeks later...

Если бы я решал эту задачу (а я ее решал ;) ), то я бы добавил уникальные шаблоны метаданных для страниц пагинации по шаблону, убрал бы описание категорий на 2-й и далее страницах и разрешил бы поисковику индексировать их. Так как я замечаю переходы из поиска на 2-ю и далее страницы. Так как мераописания уникальны, то и дублей нет.

 

Если в категории 20 страниц, то запрет их индексации - это минус 19 страниц в потенциальной поисковой выдаче

Приветствую. Вы можете поделиться кодом выполняющим вышеописанные действия? Можно в л\с.

Надіслати
Поділитися на інших сайтах


  • 1 month later...
  • 1 month later...

Достаточно  что в категории в последующих страниц настроено <meta name="robots" content="noindex"/> и <link href="главная категория" rel="canonical" /> ?

А мне такое надо? сайт http://millypolly.ru/

я честно -уже запуталась и не знаю,не помню,как проверить на дубли. Знающие люди,подскажите,есть ли быстрый способ сразу весь сайт проверить на дубли или их по одной странице искать надо???

и если без VQMod, то поставить помогаете? нужна ли под мой сайт (в случае необходимости установки такого модуля, конечно же) платная доработка и какова ее примерная стоимость?

Надіслати
Поділитися на інших сайтах


Чем всех так vqmod пугает, уже прошло давно то время, когда он был страшен. Ставиться за 2 минуты, проблем в использовании не вызывает, дополнительное нагрузку на скрипты не создает. Непонимаю.

 

Дубли страницы вы можете увидеть пользуясь сервисом типа cy-pr.com.

Если количество страниц  в индексе у вас превышает общее количество товаров и категорий при правильно настроеном seo, то однозначно надо с этим что-то делать.

Надіслати
Поділитися на інших сайтах

Чем всех так vqmod пугает, уже прошло давно то время, когда он был страшен. Ставиться за 2 минуты, проблем в использовании не вызывает, дополнительное нагрузку на скрипты не создает. Непонимаю.

 

Дубли страницы вы можете увидеть пользуясь сервисом типа cy-pr.com.

Если количество страниц  в индексе у вас превышает общее количество товаров и категорий при правильно настроеном seo, то однозначно надо с этим что-то делать.

да просто обхожусь без него, я даже не знаю, как его ставить, не заморачивалась :-D за советы спасибо.посмотрю,шо там у меня)))

Надіслати
Поділитися на інших сайтах


да просто обхожусь без него, я даже не знаю, как его ставить, не заморачивалась :-D за советы спасибо.посмотрю,шо там у меня)))

Его ставить около 30 секунд.

Надіслати
Поділитися на інших сайтах

  • 2 weeks later...

В обоих.

Сорт лимит не трогайте.

Форумчане, а по поводу robots.txt у этого пациента не подскажете? 

 

Не дочитал ветку :oops:  - сразу удалил: Disallow: /*?sort, Disallow: /*?limit и Disallow: /*?page,

А также  все строки содержащие sort,limit и page :| 

Надіслати
Поділитися на інших сайтах


Disallow: /*?sort

Disallow: /*?limit

Disallow: /*?page

Это ко всем относится? т.е. после установки модуля нужно эти строки удалить?

Еще хотела спросить, онлайн сервисы новый результат покажут только после переиндексации? и нужно ли какие то меры предпринимать для удаления дублей из индекса яндекса, например, или они сами уйдут?

Надіслати
Поділитися на інших сайтах


1. да это всех касается

    - зачем это нужно:

Вы поисковик заходите на сайт смотрите куда вам можно куда вам нельзя и видите что на эти страницы вам нельзя соответственно вы туда не идете там висит замок и не видите что на той странице добавился тег ноиндекс, но при этом вы злопамятный :-) и помните что вам раньше туда было можно поэтому страницы которые вы уже скушали вы держите в памяти :-)

2. когда выпадут дубли

дубли выпадут тогда когда вы пустите поисковик на эти страницы и он когда с первого раза когда с десятого поймет что их нужно выкинуть из индекса, даже больше это связано не с тем что поисковик долго думает а с тем что он не сразу зайдет на эти страницы потому как он считает их не качественными и посещает редко.

По своему опыту скажу что вычищал один из своих сайтов около полугода теперь страниц по сайтмапу = страниц проиндексированных

Надіслати
Поділитися на інших сайтах

  • 1 month later...

Подскажите нужно ли закрывать в robots ссылки на производителей? там тоже пагинация, и если у меня сейчас закрыты от индексации целые каталоги, то гугл обнаружив ссылки на товары у производителей все равно может поставить их в дополнительный индекс?

Надіслати
Поділитися на інших сайтах


Подскажите хочу приобрести данный модуль, для такой цели, хочу закрыть временно страницы на которых пока нет уникального контента и со временем их открывать(по мере написания), насколько реально это сделать, товара в магазине >2000 позиций.

Надіслати
Поділитися на інших сайтах


  • 3 weeks later...
  • 1 month later...

Значится так. Требуется доработка данного модуля. Нужно чтобы в админке в каждой карточке товара была кнопка - ставишь галочку - прописывается <meta name="robots" content="noindex,follow" />. Такая-же кнопка нужна в категориях (подкатегориях) - для запрета индексации всех товаров, принадлежащих данной категории (подкатегории).
Готов проспонсировать, предложения в личку  :-)
 
ocStore 1.5.5.1.1

Например как тут: screen3.jpg

Надіслати
Поділитися на інших сайтах


  • 4 weeks later...

Ну не знаю, на счет дублей при пагинации так они убираются все в параметрах урл в вебмастере гугла. Вот если бы в ваш модуль добавлял кнопку смотреть все в рядом с пагинацией то это был бы сооовсем другой расклад, а так как то кажется что потрачу денежку в пустую, однако стоит заметить некоторые ваши модули я купил и они классные но этот вызывает сомнения.

Надіслати
Поділитися на інших сайтах


Ну не знаю, на счет дублей при пагинации так они убираются все в параметрах урл в вебмастере гугла. Вот если бы в ваш модуль добавлял кнопку смотреть все в рядом с пагинацией то это был бы сооовсем другой расклад, а так как то кажется что потрачу денежку в пустую, однако стоит заметить некоторые ваши модули я купил и они классные но этот вызывает сомнения.

Гугл убирать то убирает, но при этом все равно индексирует.

А яша и того делать не умеет. Модуль спас не один десяток чужих сайтов, и штук 20 моих. Так что как в том фильме. Trust me!

Надіслати
Поділитися на інших сайтах

  • 3 weeks later...

Добрый день! Купил ваш модуль,разархивировал закачал файлы на сервер в корневую папку( robots.txt отредактировал.)и т.к я не очень профессиональный человек прошу помощи у вас как проверить модуль заработает после этого или нет.Спасибо.

Надіслати
Поділитися на інших сайтах


Створіть аккаунт або увійдіть для коментування

Ви повинні бути користувачем, щоб залишити коментар

Створити обліковий запис

Зареєструйтеся для отримання облікового запису. Це просто!

Зареєструвати аккаунт

Вхід

Уже зареєстровані? Увійдіть тут.

Вхід зараз
×
×
  • Створити...

Important Information

На нашому сайті використовуються файли cookie і відбувається обробка деяких персональних даних користувачів, щоб поліпшити користувальницький інтерфейс. Щоб дізнатися для чого і які персональні дані ми обробляємо перейдіть за посиланням . Якщо Ви натиснете «Я даю згоду», це означає, що Ви розумієте і приймаєте всі умови, зазначені в цьому Повідомленні про конфіденційність.