Перейти к содержанию

[SEO] Full IndeX : Улучшение индексации 3.9.9 stable + 4.1 beta

320.00 руб (399.00 РУБ) · Срок продления: 100.00 руб за 12 месяцев

   (51 отзыв)

4 изображения

  • +1 6

Информация о файле

xFX-banner2.png.26485b218714d7b52c7e6ff3

Основа:

Спойлер

Как поисковые системы определяют ценность страницы: Страница тем ценнее, чем больше на нее ссылаются других страниц и чем ценнее ссылающиеся страницы (в данном случае внутренние)

Соответственно если на страницу нет ссылок с других ценных (полноценных) страниц, определить ее ценность не представляется возможным. Такая же ситуация если ссылки со страниц запрещенных к индексации, эти ссылки так же не имеют никакого эффекта. Страница не может считаться ценной, если путь к ней лежит через страницы не представляющие ценности (запрещенные, не канонические, идентифицированные как дубликаты, ...)

Как поисковые системы определяют релевантность (о чем страница): Само собой на первом месте это контент и мета-данные (как страница называет себя), но так же крайне важен анкор-лист (как страницу называют другие страницы), данный термин означает собрание фраз из гиперссылок на страницу, проще говоря названий ссылок.

Анкоры со страниц которые запрещены не учитываются, так же как с запрещенных участков страницы(но это уже другая история). И что же в итоге? Поисковая система видит что никаких "внешних" факторов релевантности у страницы нет, значит она опять же, вероятнее всего, хуже отвечает на вопрос нежели похожая страница на другом сайте у которой есть эти самые "внешние" ключевые фразы (слова по которым ищут).

Что же делать, как же быть: Дать поисковым системам полноценно индексировать сайт и не перекрывать сосуды, питающие страницы которым чуть чуть не повезло оказаться в начале списка (это пагинация и/или различные иные методы ветвления/дробления типа посадочных фильтров). Но, к сожалению, не всё так просто: для этого необходимо исключить возможное дублирование страниц, ведь не повторяются только лишь товары а описания, заголовки, мета-данные, блоки и т.д. повторяются. К чему это я... а да! собственно вот оно решение перед вами....

Что то новое? Кто так делает?

Не особо новое. Но всё больше используется данная тактика. Например с запуском новых сайтов таких гигантов как Ситилинк, Эльдорадо, Медиамаркт, Связной, Мегафон, Техносила, и так далее... Ни о чем не говорит? Возможно вам знакома Розетка...

И чем больше новых современных сайтов становится, тем больше список...

Это всё касалось фундамента на котором построен модуль, но со временем в нем появилось еще много всего уникального и полезного, чего нигде больше нет (как минимум соглассно исследованиям OTVET Consulting Group)

 

Не забудьте указать домен при покупке!

Что такое продление и для чего: Читаем

 

 

 

Модуль помогает улучшить индексацию, более продуктивно "прокачать"1 товары и решить проблему дублирования2 страниц постраничной навигации, что позволяет поднять в выдаче НЧ-запросы страниц товаров расположенных на удаленных страницах. Управлять множеством факторов и решает ряд недочетов в Opencart.

 

 

Цитата

Доступна версия Full IndeX 4.1.0 "Total Control" с поддержкой в т.ч.Opencart 3.0 (по запросу)

Демо админки http://full-index.ru/demo/#

 

Что нового в версии  →  

 

Получить можно по ссылке http://full-index.ru/#update

 

 

Что делает модуль:

  • позволяет устранить большой ряд дублей
  • способствует распределению веса и более полной перелинковке
  • позволяет гибко управлять выводом атрибутов prev | next и правильно объединять страницы в одну цепочку  по рекомендации google
  • уникализирует страницы (они перестают быть дублями), в том числе: шаблоны мета-данных, шаблон заголовков, скрытие/закрытие сквозных блоков
  • валидация и исправление значений стандартных параметров
  • позволяет гибко управлять выводом canonical, с учетом таких факторов как тип url и путь в url, когда нужно и где нужно
  • способствует полноценной индексации товаров при отсутствии sitemap (либо когда не принимается яндексом из-за размера)
  • управление get-параметрами (редиректы, canonical, seo_pro)
  • позволяет полноценно использовать seo-фильтры
  • позволяет убирать "хвосты" в индексе
  • позволяет блокировать индексации отзывов как отдельного документа и сделать в то же время более полную индексацию отзывов
  • способствует заполнению анкор листа товаров на страницах 2 и далее
  • посадочные страницы категория/бренд, для исключения дублей и использования в продвижении
  • исправление ссылок и багов пагинаций
  • фикс кучи мелких проблем и недоработок в опенкарт
  • и многое другое

 

ЕЩЕ больше функционала:

Цитата

[!] Пакет дополнений к модулю

FX AddOn Pack #1

 

 

Для более продуктивной борьбы с дублями так же крайне желательно наличие SEO_Pro и правильного robots.txt

 

[bonus] Sitemap Lite (OCMOD для opencart 2.x):

заменяет оригинальный catalog/controller/feed/google_sitemap.php

  • ускоренная генерация благодаря собственной функции выборки товаров (~ в 10 раз)
  • добавление lastmod (значительно ускоряет индексацию)
  • устранение дублей товаров
  • валидация яндексом
  • фикс &amp при использовании seo_pro
  • т.к. бонус, не подпадает под стандартную поддержку

 

Для автоматического заполнения SEO URL (ЧПУ) можно установить это дополнение: https://opencartforum.com/files/file/2833-автоматическое-заполнение-чпу-ocmod/ и/или https://opencartforum.com/files/file/5570-fx-url-generator-free/

 

Преимущества перед закрытием страниц в robots.txt

 

При закрытии страниц в robots.txt, поисковые системы не индексируют товары дальше первой страницы без использования sitemap. Как результат страницы товаров не получают внутренний вес, имеют пустой анкор-лист и ценность для поисковых систем падает.

А при отсутствии sitemap могут вовсе не попасть в поисковую выдачу.

Преимущества перед директивой noindex (no)follow

 

При закрытии страниц атрибутом noindex, поисковые системы, зайдя однократно, покидают запрещенную к индексации страницу на очень долгий период и повторяется история с закрытием в robots.txt

кроме того noindex тратит ресурсы робота, т.к. директива отдается по факту посещения страницы, соответственно замедляется индексация

Преимущества перед простым открытием страниц для индексации

 

Поисковые системы расценивают страницы как "близнецы", из за чего дубли начинают выпадать из основного индекса и повторяется история с закрытием в robots + дополнительные негативные факторы

Преимущества перед директивой canonical

 

Поисковые системы при индексации страницы получают информацию что эта страница является копией первой, из за чего поисковые системы не вносят их в основной индекс, и не посещают подобные страницы очень долгий период , в итоге повторяется история с закрытием в robots.txt

Для проверки работы после установки напишите адрес сайта в ЛС автору

"Цитаты великих" или "А нужен ли модуль?"

 

Уменьшите количество похожего контента. Если на вашем сайте много похожих страниц, добавьте на каждую из них уникальный контент или объедините их в одну
 

https://support.google.com/webmasters/answer/66359?hl=ru


HTML-атрибуты rel="next" и rel="prev", чтобы указать связь между отдельными URL. Благодаря этой разметке Google может определить, что содержание данных страниц связано в логической последовательности.
 

https://support.google.com/webmasters/answer/66359?hl=ru


Дублирование страниц — это наличие на сайте страниц с одинаковым содержанием, но доступных по разным адресам.Если обе страницы были проиндексированы роботом Яндекса, система индексации объединит их в группу дублей. В поисковую выдачу войдет только одна из этих страниц.
 

https://yandex.ru/support/webmaster/robot-workings/robot-workings-faq.xml#dubl


Яндекс не комментирует исключение веб-сайтов из базы Сервиса и/или изменение их позиции, не уведомляет о таких действиях, и не дает никаких гарантий и сроков на повторное их включение в базу Сервиса/изменение их позиции.
 

https://legal.yandex.ru/termsofuse/


Никто не может гарантировать первое место в результатах поиска Google
 

https://support.google.com/webmasters/answer/35291?hl=ru

 

 

Официальные рекомендации гугл:

Спойлер
В 16.08.2017 в 18:05, Otvet сказал:

16 минута

 

#1 в топ 5 заблуждений

https://webmasters.googleblog.com/2013/04/5-common-mistakes-with-relcanonical.html

официально от гугл

 

 

 

Для более продуктивной борьбы с дублями так же крайне желательно наличие SEO_Pro и правильного robots.txt

 

 

- Обособленные страницы (доступные только через sitemap) не получают статический вес [PR] и имеют пустой анкор-лист.

Чем плохи дубли:

  • ухудшают и замедляют индексацию
  • потеря веса (pagerank) "основной" страницей категории/производителя
  • часть товаров не могут получить внутренний вес

______________________________________________________




  • Последние посетители   0 пользователей онлайн

    Ни одного зарегистрированного пользователя не просматривает данную страницу

×

Важная информация

На нашем сайте используются файлы cookie и происходит обработка некоторых персональных данных пользователей, чтобы улучшить пользовательский интерфейс. Чтобы узнать для чего и какие персональные данные мы обрабатываем перейдите по ссылке. Если Вы нажмете «Я даю согласие», это означает, что Вы понимаете и принимаете все условия, указанные в этом Уведомлении о Конфиденциальности.