Перейти к публикации
Поиск в
  • Дополнительно...
Искать результаты, содержащие...
Искать результаты в...

Фильтр товаров для OcStore 3.0 без индексации страниц


kairos
 Поделиться

Рекомендованные сообщения

В общем появилась необходимость поставить на сайт такой фильтр товаров, страницы которого точно не попадут в индекс поисковых систем. То есть нужно чтобы хвостовая часть url которая отвечает за выбранные в фильтре опции либо подставлялась через знак # либо же чтобы страницы фильтра можно было промаркировать в url некоторым словом например: /filter/option1/option2/ и так далее. Чтобы в последствии такие ссылки можно было закрыть от индексации в robots.txt при помощи этого признака. Товаров в магазине на данный момент больше 2-х тысяч поэтому нужно чтобы фильтр нормально "тянул" такое количество и не приводил к тормозам магазина. Сейчас смотрю на форуме различные варианты но возможно знающие пользователи сходу смогут подсказать готовое решение.

Ссылка на комментарий
Поделиться на других сайтах


1 час назад, kairos сказал:

В общем появилась необходимость поставить на сайт такой фильтр товаров, страницы которого точно не попадут в индекс поисковых систем. То есть нужно чтобы хвостовая часть url которая отвечает за выбранные в фильтре опции либо подставлялась через знак # либо же чтобы страницы фильтра можно было промаркировать в url некоторым словом например: /filter/option1/option2/ и так далее. Чтобы в последствии такие ссылки можно было закрыть от индексации в robots.txt при помощи этого признака. Товаров в магазине на данный момент больше 2-х тысяч поэтому нужно чтобы фильтр нормально "тянул" такое количество и не приводил к тормозам магазина. Сейчас смотрю на форуме различные варианты но возможно знающие пользователи сходу смогут подсказать готовое решение.

однозначно ocfilter

остальные свои задачи решать можно с помощью robots
 

 

 

Изменено пользователем Soong
Ссылка на комментарий
Поделиться на других сайтах


Надо запомнить раз и навсегда!
Роботс не запрещает индексирование страницы он запрещает обход этих страниц,.

Запретит обход страниц ето зло.

Так появляются страници в серч конзоль - Страница была проиндексирована, несмотря на блокировку файлом robots.txt 

Гугл хочет гулят по все страници, чтоби узнат структура сайта.
Чтобы запретить индексирование нужно добавить тег ноиндекс на самой странице,

ето делают и ocfilter и filter Vier(там есть настройка с какого уровня добавлят ноиндекс), наверное и другие фильтри тоже.

  • +1 4
Ссылка на комментарий
Поделиться на других сайтах

3 hours ago, Soong said:

однозначно ocfilter

остальные свои задачи решать можно с помощью robots
 

 

 

Забавно изначально стоит OCFilter но он как раз эту задачу и не решает, ну тесть не дает никакого признака по которому можно было бы закрыть страницу от индексации. или возможно я не нашел в настройках, но смотрел внимательно. Пока остановил свой выбор на: 

 Там прямо в демке видно что есть признак в url для всех страниц фильтра.

Ссылка на комментарий
Поделиться на других сайтах


2 hours ago, Agatha65 said:

Надо запомнить раз и навсегда!
Роботс не запрещает индексирование страницы он запрещает обход этих страниц,.

Запретит обход страниц ето зло.

Так появляются страници в серч конзоль - Страница была проиндексирована, несмотря на блокировку файлом robots.txt 

Гугл хочет гулят по все страници, чтоби узнат структура сайта.
Чтобы запретить индексирование нужно добавить тег ноиндекс на самой странице,

ето делают и ocfilter и filter Vier(там есть настройка с какого уровня добавлят ноиндекс), наверное и другие фильтри тоже.

Возможно вы правы, однако задача не состоит в том чтобы запретить поисковику обход страниц, а именно в том чтобы дублирующие страницы не появились в поиске, чтобы они не мешали продвижению основных страниц. Ноуиндекс здесь не совсем подходит так как на сколько я знаю работает он только лишь для Яндекса. Ну и кроме того решение о том каким именно образом закрывать страницы не всегда принимает разработчик, как правило есть заказчик, которому задачи могут ставить seo-шники.

Ссылка на комментарий
Поделиться на других сайтах


34 минуты назад, kairos сказал:

Возможно вы правы, однако задача не состоит в том чтобы запретить поисковику обход страниц, а именно в том чтобы дублирующие страницы не появились в поиске, чтобы они не мешали продвижению основных страниц. Ноуиндекс здесь не совсем подходит так как на сколько я знаю работает он только лишь для Яндекса. Ну и кроме того решение о том каким именно образом закрывать страницы не всегда принимает разработчик, как правило есть заказчик, которому задачи могут ставить seo-шники.

noindex работает как для гугла так и для яндекса - и отлично работает!

Запрет в robots в целом также работает.
Просто все это имеет определенный лаг во времени.

 

Идеальная ситуация когда можно сделать disalow: *mfp в мега филтре от ведьмы

Или убрать все ссылки ocfiler - если отключить сео в ocfilter - но это недокументированные функции!
 

  • +1 1
Ссылка на комментарий
Поделиться на других сайтах


36 минут назад, kairos сказал:

Ноуиндекс здесь не совсем подходит

есть супет мета тег meta name="ROBOTS" rel="noindex"

Есть http заголовок noindex

Ссылка на комментарий
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите здесь.

Войти сейчас
 Поделиться

  • Сейчас на странице   0 пользователей

    • Нет пользователей, просматривающих эту страницу.
×
×
  • Создать...

Важная информация

На нашем сайте используются файлы cookie и происходит обработка некоторых персональных данных пользователей, чтобы улучшить пользовательский интерфейс. Чтобы узнать для чего и какие персональные данные мы обрабатываем перейдите по ссылке. Если Вы нажмете «Я даю согласие», это означает, что Вы понимаете и принимаете все условия, указанные в этом Уведомлении о Конфиденциальности.