Когда-то очень давно, когда большая часть из вас, не слышали такого слова интернет. На одном из своих первых магазинов мы провели эксперимент.
Сделали уникальный тайтлы/h1 и небольшой автоматический скрипт, генерирующий описания и скормили гуглу 400 000 страниц. Получили дикую пессимизацию позиций и практически бан в выдаче Гугла, на проекте, в продвижение которого было вложено денег, как за хороший Мерседес из салона.
Поэтому, я наверное, как никто другой из вас в курсе, что такое сео фильтр).
Идеальная реализация такого механизма есть например здесь:
https://www.vseinstrumenti.ru/instrument/perforatory/
Если внимательно присмотреться, то здесь нет погони за попыткой сделать атвоматическую генерацию посадочных под все возможные комбинации значений фильтра.
А есть грамотно продуманные посадочные под наиболее популярные СЧ-НЧ запросы из СЯ. При этом все остальные мусорные параметры, иногда просто прячутся в куку, даже без get-параметров.
Найдите 100 000 отличий, между решением на всех инструментах и тем что предлагают, здешние разработчик СЕОШМЕОфильтров. А некоторые еще в блогах пишут сказки про серого бычка, почитав которые и послушав, можно просто завтра закрывать магазин и идти за станок на завод.
Также я регулярно сталкиваюсь с проблемами, когда люди ставят типа-сео фильтры. И получают дикую нагрузку на своих проектах, либо понижение в поисковой выдаче. Мы уже много раз поднимали эту тему и объясняли, какой угрозой являются все эти автоматические генераторы мусорного контента. Ну давайте попробуем еще раз.
Если внимательно почитать руководство для вебмастеров, там черным по белым написано. Делайте сайты для людей. А что человеческого в том, что вы берете и пытаетесь посадить в индекс тысячи и тысячи одинаковых мусорных страниц, которые отличаются одним словом, мониторы самсунг и мониторы сони. Все...
У большинства нет ресурсов ручками метатеги написать на 1000 товаров 50 категорий. А вы хотите чтобы вас поисковики полюбили за вот такие вот никому не нужные страницы?
Тоесть вы пытаетесь обмануть поисковик, подсунув ему тонну автоматического сгенерированного контента, который по сути абсолютно бесполезен как с точки зрения пользователя так и с точки зрения оценки алгоритма ранжирования поисковика. Вы правда думаете это сработает?
Все эти фильтроделатели, так рьяно пиарят свои разработки. Но никто не приводит в описании успешные кейсы внедрения их наработок.
Почему? Потому что их не может быть.
Потому что мало того что поисковик никогда в жизни не будет индексировать нормально тупую пустую страницу в которой просто отличаются тайтлы (красные пуговицы, зеленые пуговицы), так еще и отдав все вариации возможных комбинаций фильтра как отдельные страницы, вы так грузите робот делами, что на нужные страницы он никогда к вам не придет.
Поэтому, про все фильтры, где нет возможности принудительно заблокировать в robots get-параметр можно забыть. Про все фильтры, авторы которых говорят, я же добавил мета тег noindex, ачетакого можно забыть, потому что боты все равно должны зайти на эти 200 тысяч милионов вариантов, прежде чем увидеть ноиндекс, и пока они туда ходят, они не ходят на нужный качественный контент, так как ресурс бота все-таки ограничен.
Также необходимо забыть про фильтры, авторы которых спрятали ссылки на фильтр в JS. Ваши браузеры давно стучат и сливают историю переходов по страницам, и бот ходит туда, куда ходите вы сами.
Единственный нормальный вариант сео-механизма есть в МegaFilterPro. И то при определенных условиях настройки. Т.е. когда вы делаете нужные вам посадочные, пишите на них контент и они в рамках вашего магазина светятся с нормальным ЧПУ, а все остальные ссылки, для которых вы не создали нормальный контент, светятся как ?mfp=blalba, и этот mfp у нас принудительно закрыт в роботсе.
И в таком случае, если вы потрудились, собрали СЯ, по нему сделали под 10-20-30 популярных запросов ручками посадочные, сделали в них нормальный контент, качественные статьи с описанием. Вот тогда вы можете просто захватить вселенную.
А покупая сео-шмео-все приблуды, вы только кормите авторов и ставите свой бизнес на край пропасти, рискуя залететь под фильтр ПС и ограничиваете скорость индексации всего магазина.