Перейти до вмісту
Пошук в
  • Детальніше...
Шукати результати, які ...
Шукати результати в ...

Фильтр товаров для OcStore 3.0 без индексации страниц


kairos

Recommended Posts

В общем появилась необходимость поставить на сайт такой фильтр товаров, страницы которого точно не попадут в индекс поисковых систем. То есть нужно чтобы хвостовая часть url которая отвечает за выбранные в фильтре опции либо подставлялась через знак # либо же чтобы страницы фильтра можно было промаркировать в url некоторым словом например: /filter/option1/option2/ и так далее. Чтобы в последствии такие ссылки можно было закрыть от индексации в robots.txt при помощи этого признака. Товаров в магазине на данный момент больше 2-х тысяч поэтому нужно чтобы фильтр нормально "тянул" такое количество и не приводил к тормозам магазина. Сейчас смотрю на форуме различные варианты но возможно знающие пользователи сходу смогут подсказать готовое решение.

Надіслати
Поділитися на інших сайтах


1 час назад, kairos сказал:

В общем появилась необходимость поставить на сайт такой фильтр товаров, страницы которого точно не попадут в индекс поисковых систем. То есть нужно чтобы хвостовая часть url которая отвечает за выбранные в фильтре опции либо подставлялась через знак # либо же чтобы страницы фильтра можно было промаркировать в url некоторым словом например: /filter/option1/option2/ и так далее. Чтобы в последствии такие ссылки можно было закрыть от индексации в robots.txt при помощи этого признака. Товаров в магазине на данный момент больше 2-х тысяч поэтому нужно чтобы фильтр нормально "тянул" такое количество и не приводил к тормозам магазина. Сейчас смотрю на форуме различные варианты но возможно знающие пользователи сходу смогут подсказать готовое решение.

однозначно ocfilter

остальные свои задачи решать можно с помощью robots
 

 

 

Змінено користувачем Soong
Надіслати
Поділитися на інших сайтах


Надо запомнить раз и навсегда!
Роботс не запрещает индексирование страницы он запрещает обход этих страниц,.

Запретит обход страниц ето зло.

Так появляются страници в серч конзоль - Страница была проиндексирована, несмотря на блокировку файлом robots.txt 

Гугл хочет гулят по все страници, чтоби узнат структура сайта.
Чтобы запретить индексирование нужно добавить тег ноиндекс на самой странице,

ето делают и ocfilter и filter Vier(там есть настройка с какого уровня добавлят ноиндекс), наверное и другие фильтри тоже.

  • +1 4
Надіслати
Поділитися на інших сайтах

3 hours ago, Soong said:

однозначно ocfilter

остальные свои задачи решать можно с помощью robots
 

 

 

Забавно изначально стоит OCFilter но он как раз эту задачу и не решает, ну тесть не дает никакого признака по которому можно было бы закрыть страницу от индексации. или возможно я не нашел в настройках, но смотрел внимательно. Пока остановил свой выбор на: 

 Там прямо в демке видно что есть признак в url для всех страниц фильтра.

Надіслати
Поділитися на інших сайтах


2 hours ago, Agatha65 said:

Надо запомнить раз и навсегда!
Роботс не запрещает индексирование страницы он запрещает обход этих страниц,.

Запретит обход страниц ето зло.

Так появляются страници в серч конзоль - Страница была проиндексирована, несмотря на блокировку файлом robots.txt 

Гугл хочет гулят по все страници, чтоби узнат структура сайта.
Чтобы запретить индексирование нужно добавить тег ноиндекс на самой странице,

ето делают и ocfilter и filter Vier(там есть настройка с какого уровня добавлят ноиндекс), наверное и другие фильтри тоже.

Возможно вы правы, однако задача не состоит в том чтобы запретить поисковику обход страниц, а именно в том чтобы дублирующие страницы не появились в поиске, чтобы они не мешали продвижению основных страниц. Ноуиндекс здесь не совсем подходит так как на сколько я знаю работает он только лишь для Яндекса. Ну и кроме того решение о том каким именно образом закрывать страницы не всегда принимает разработчик, как правило есть заказчик, которому задачи могут ставить seo-шники.

Надіслати
Поділитися на інших сайтах


34 минуты назад, kairos сказал:

Возможно вы правы, однако задача не состоит в том чтобы запретить поисковику обход страниц, а именно в том чтобы дублирующие страницы не появились в поиске, чтобы они не мешали продвижению основных страниц. Ноуиндекс здесь не совсем подходит так как на сколько я знаю работает он только лишь для Яндекса. Ну и кроме того решение о том каким именно образом закрывать страницы не всегда принимает разработчик, как правило есть заказчик, которому задачи могут ставить seo-шники.

noindex работает как для гугла так и для яндекса - и отлично работает!

Запрет в robots в целом также работает.
Просто все это имеет определенный лаг во времени.

 

Идеальная ситуация когда можно сделать disalow: *mfp в мега филтре от ведьмы

Или убрать все ссылки ocfiler - если отключить сео в ocfilter - но это недокументированные функции!
 

  • +1 1
Надіслати
Поділитися на інших сайтах


36 минут назад, kairos сказал:

Ноуиндекс здесь не совсем подходит

есть супет мета тег meta name="ROBOTS" rel="noindex"

Есть http заголовок noindex

Надіслати
Поділитися на інших сайтах

Створіть аккаунт або увійдіть для коментування

Ви повинні бути користувачем, щоб залишити коментар

Створити обліковий запис

Зареєструйтеся для отримання облікового запису. Це просто!

Зареєструвати аккаунт

Вхід

Уже зареєстровані? Увійдіть тут.

Вхід зараз
  • Зараз на сторінці   0 користувачів

    • Ні користувачів, які переглядиють цю сторінку
×
×
  • Створити...

Important Information

На нашому сайті використовуються файли cookie і відбувається обробка деяких персональних даних користувачів, щоб поліпшити користувальницький інтерфейс. Щоб дізнатися для чого і які персональні дані ми обробляємо перейдіть за посиланням . Якщо Ви натиснете «Я даю згоду», це означає, що Ви розумієте і приймаєте всі умови, зазначені в цьому Повідомленні про конфіденційність.