Перейти к содержанию

Рекомендуемые сообщения

Здравствуйте форумчане. Толковые ребята помогите разобраться правильно ли мне сделали robots http://king-sites.com/robots.txt

 

 

У тебя работает ЧПУ в твоем случаи так будет проще.

 

Host: главное зеркало 

Если есть

Sitemap: главное зеркало/google_sitemap

 

User-agent: Googlebot

Disallow: /admin

Disallow: /catalog

Disallow: /download

Disallow: /system

Disallow: /*sort

Disallow: /*order

Disallow: /*page

Disallow: /*limit

Disallow: /*filter

Disallow: /*search

Disallow: /*index.php

 

User-agent: Yandex

Disallow: /admin

Disallow: /catalog

Disallow: /download

Disallow: /system

Disallow: /*sort

Disallow: /*order

Disallow: /*page

Disallow: /*limit

Disallow: /*filter

Disallow: /*search

Disallow: /*index.php

 

User-agent: *

Disallow: /admin

Disallow: /catalog

Disallow: /download

Disallow: /system

Disallow: /*sort

Disallow: /*order

Disallow: /*page

Disallow: /*limit

Disallow: /*filter

Disallow: /*search

Disallow: /*index.php

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Прошу помощи. OC 1.5.5.1

Seo_Pro не использую, конфликтует с темой Shoppica2.

Включен Seo_URL.

 

Основной путь к товару такой :

site.ru/category1/category2/tovar-00001 (и т.д. -00002,-00003, ....)

 

Дубли:

site.ru/category1/tovar-00001

site.ru/category2/tovar-00001

site.ru/tovar-00001

 

Как правильно прописать Disallow: для Гугла и Яндекса, чтобы не индексировались дубли, а основной полный путь индексировался для всего товара?

 

Также интересует устранение дубля категории- site.ru/category2/

 

 

Мой роботс:

 

User-agent: *
# account*
Disallow: /*route=account/
Disallow: /wishlist
Disallow: /my-account
Disallow: /login
Disallow: /logout
Disallow: /order-history
Disallow: /newsletter
Disallow: /request-return
Disallow: /forgot-password
Disallow: /downloads
Disallow: /returns
Disallow: /transactions
Disallow: /create-account
Disallow: /edit-account
Disallow: /change-password
Disallow: /address-book
Disallow: /reward-points
# affiliate*
Disallow: /*route=affiliate/
Disallow: /affiliates
Disallow: /edit-affiliate-account
Disallow: /change-affiliate-password
Disallow: /affiliate-payment-options
Disallow: /affiliate-tracking-code
Disallow: /affiliate-transactions
Disallow: /affiliate-logout
Disallow: /affiliate-forgot-password
Disallow: /create-affiliate-account
Disallow: /affiliate-login
# checkout*
Disallow: /*route=checkout/
Disallow: /shopping-cart
Disallow: /checkout
Disallow: /gift-vouchers
#
Disallow: /*route=product/search
Disallow: /search
#
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Disallow: /*?tracking=
Disallow: /*&tracking=
User-agent: Yandex
# account*
Disallow: /*route=account/
Disallow: /wishlist
Disallow: /my-account
Disallow: /login
Disallow: /logout
Disallow: /order-history
Disallow: /newsletter
Disallow: /request-return
Disallow: /forgot-password
Disallow: /downloads
Disallow: /returns
Disallow: /transactions
Disallow: /create-account
Disallow: /edit-account
Disallow: /change-password
Disallow: /address-book
Disallow: /reward-points
# affiliate*
Disallow: /*route=affiliate/
Disallow: /affiliates
Disallow: /edit-affiliate-account
Disallow: /change-affiliate-password
Disallow: /affiliate-payment-options
Disallow: /affiliate-tracking-code
Disallow: /affiliate-transactions
Disallow: /affiliate-logout
Disallow: /affiliate-forgot-password
Disallow: /create-affiliate-account
Disallow: /affiliate-login
# checkout*
Disallow: /*route=checkout/
Disallow: /shopping-cart
Disallow: /checkout
Disallow: /gift-vouchers
#
Disallow: /*route=product/search
Disallow: /search
#
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Clean-param: tracking
Host: site.ru

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

robots.txt почти ни на что сейчас не влияет, реально закрытые страницы почему то попадают в выдачу поэтому если не можете настроить для шопики выкиньте шопику потому что продвижение важнее на мой взгляд или обратитесь за помощью чтоб Вам настроили сео про для шопики

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Я уже писал выше рабочий robots к нему можно еще добавить 

 

Disallow: /*?       к каждому User-agent.

 

 

В вашем случае

 

Роботом это не устранить да и зачем, здесь совсем другое нужно, то что позволит из этого извлечь выгоду для вашего сайта.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Disallow: /*?       к каждому User-agent.

 

 

Лучше не включать!

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

robots.txt почти ни на что сейчас не влияет

 

Он по прежнему влияет на то, на что должен влиять.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

 

Прошу помощи. OC 1.5.5.1

Seo_Pro не использую, конфликтует с темой Shoppica2.

Включен Seo_URL.

 

Основной путь к товару такой :

site.ru/category1/category2/tovar-00001 (и т.д. -00002,-00003, ....)

 

Дубли:

site.ru/category1/tovar-00001

site.ru/category2/tovar-00001

site.ru/tovar-00001

 

Как правильно прописать Disallow: для Гугла и Яндекса, чтобы не индексировались дубли, а основной полный путь индексировался для всего товара?

 

Также интересует устранение дубля категории- site.ru/category2/

 

 

Мой роботс:

 

User-agent: *
# account*
Disallow: /*route=account/
Disallow: /wishlist
Disallow: /my-account
Disallow: /login
Disallow: /logout
Disallow: /order-history
Disallow: /newsletter
Disallow: /request-return
Disallow: /forgot-password
Disallow: /downloads
Disallow: /returns
Disallow: /transactions
Disallow: /create-account
Disallow: /edit-account
Disallow: /change-password
Disallow: /address-book
Disallow: /reward-points
# affiliate*
Disallow: /*route=affiliate/
Disallow: /affiliates
Disallow: /edit-affiliate-account
Disallow: /change-affiliate-password
Disallow: /affiliate-payment-options
Disallow: /affiliate-tracking-code
Disallow: /affiliate-transactions
Disallow: /affiliate-logout
Disallow: /affiliate-forgot-password
Disallow: /create-affiliate-account
Disallow: /affiliate-login
# checkout*
Disallow: /*route=checkout/
Disallow: /shopping-cart
Disallow: /checkout
Disallow: /gift-vouchers
#
Disallow: /*route=product/search
Disallow: /search
#
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Disallow: /*?tracking=
Disallow: /*&tracking=
User-agent: Yandex
# account*
Disallow: /*route=account/
Disallow: /wishlist
Disallow: /my-account
Disallow: /login
Disallow: /logout
Disallow: /order-history
Disallow: /newsletter
Disallow: /request-return
Disallow: /forgot-password
Disallow: /downloads
Disallow: /returns
Disallow: /transactions
Disallow: /create-account
Disallow: /edit-account
Disallow: /change-password
Disallow: /address-book
Disallow: /reward-points
# affiliate*
Disallow: /*route=affiliate/
Disallow: /affiliates
Disallow: /edit-affiliate-account
Disallow: /change-affiliate-password
Disallow: /affiliate-payment-options
Disallow: /affiliate-tracking-code
Disallow: /affiliate-transactions
Disallow: /affiliate-logout
Disallow: /affiliate-forgot-password
Disallow: /create-affiliate-account
Disallow: /affiliate-login
# checkout*
Disallow: /*route=checkout/
Disallow: /shopping-cart
Disallow: /checkout
Disallow: /gift-vouchers
#
Disallow: /*route=product/search
Disallow: /search
#
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Clean-param: tracking
Host: site.ru

 

1. С твоими дублями лучше разобраться с помощью вот этого модуля http://www.opencart.com/index.php?route=extension/extension/info&extension_id=4085

Не пожалей денюжку и купи. С его помощью ты избавишься от дублей типа site.ru/category1/tovar-00001, site.ru/category2/tovar-00001, site.ru/tovar-00001 а robots.txt пусть будет твоим страховочными вариантом в борьбе с дублями. Так поисковику намного легче будет индексировать то, что ты хочешь.

 

2. Слишком большой robots.txt не есть хорошо. Насколько я знаю, есть определенный лимит строк, который воспринимают поисковые роботы (уже не помню сколько). У меня, например, на сайте проще перечислить то, что нужно индексировать, чем запрещать, поэтому у меня такой небольшой роботс

 

User-agent: * - алгоритм касается всех роботов
 
Disallow: / - сначала запрещаю индексацию всего сайта
 
Allow: /$ - затем разрешаю индексацию главной страницы
 
Allow: /katalog-tovarov - далее разрешаю индексировать категорию katalog-tovarov и все, что в ней находится
 
Disallow: /katalog-tovarov/*?* - но при этом запрещаю индексировать динамические страницы
Disallow: /katalog-tovarov/*&*
Disallow: /katalog-tovarov/*php*
 
Disallow: /katalog-tovarov/novinki/* - и еще запрещаю индексировать товары, находящиеся в подкатегории novinki, так как там повторяются некоторые товары из категории katalog-tovarov, а это дубли
 
Allow: /kak-zakazat - разрешаю индексировать информационные страницы
Allow: /oplata-i-dostavka
Allow: /garantii
Allow: /otzyvy
Allow: /blog
Allow: /akcii
Allow: /kontakty
 
Allow: /sitemap.xml - разрешаю индексировать сайтмэп
 
Вот с этой связкой у меня нет проблем ни с гуглом ни с яндексом

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

 

1. С твоими дублями лучше разобраться с помощью вот этого модуля http://www.opencart.com/index.php?route=extension/extension/info&extension_id=4085

Не пожалей денюжку и купи. С его помощью ты избавишься от дублей типа site.ru/category1/tovar-00001, site.ru/category2/tovar-00001, site.ru/tovar-00001 а robots.txt пусть будет твоим страховочными вариантом в борьбе с дублями. Так поисковику намного легче будет индексировать то, что ты хочешь.

 

 

 

Хотелось бы задать вопрос чем поможет? Потратить деньги выпасть из выдачи?

Посмотрел Демо все на месте

site.ru/tovar-00001

http://siriusdev.no-ip.org/product-20-ipod-classic.html

site.ru/category1/tovar-00001

http://siriusdev.no-ip.org/desktops/product-20-ipod-classic.html

Если этот же товар добавить в другую категорию наверное будет так

site.ru/category2/tovar-00001

 

Плюс перепишется rel="canonical"

если он раньше был site.ru/tovar-00001 здесь  rel="canonical"

то теперь будет здесь site.ru/category1/tovar-00001 rel="canonical"

 

То есть, применив это ПРОЩАЙ Выдача и все что нажито непосильным трудом!

Теперь становится понятно многое когда читаешь рассказы о том как был в топе лег спать проснулся, а ты уже не в топе!

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Disallow: /*?       к каждому User-agent.

 

 

Лучше не включать!

Почему?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Подскажите по моему роботсу пожалуйста

сделал как написано выше. Нужно ли еще что добовлять или удалять? ps Я не очень разбираюсь во всем этом, поэтому если что не так , то опишите подробней. Спасибо. 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Если не ошибаюсь, то не всегда надо писать правила для каждого поисковика отдельно.

Например, Гугл прекрасно понимает правила под звёздочкой.

 

* - они же для ВСЕХ роботов.

 

Вот Яндекс да, иногда выделяют отдельно, но лично я так не делаю.

 

У меня просто стоит звезда и все правила. И пока что все поисковики всё понимают.

 

А у вас получается:

 - для гугла

 - для яндекса

 - для всех (включая гугл и яндекс)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Почему?

 

Вот пример с вашего сайта biserom-religiya?page=2  после biserom-religiya знак ? закрывает страницы от индекса этим правилом.

 

http://www.rukodelochka.com.ua/nabory-biserom/biserom-religiya?page=2

 

 

Совет избавьтесь от этого Powered By OpenCart.

 

 

 

Подскажите по моему роботсу

 

С ним все нормально!

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Если не ошибаюсь, то не всегда надо писать правила для каждого поисковика отдельно.

Например, Гугл прекрасно понимает правила под звёздочкой.

 

* - они же для ВСЕХ роботов.

 

Вот Яндекс да, иногда выделяют отдельно, но лично я так не делаю.

 

У меня просто стоит звезда и все правила. И пока что все поисковики всё понимают.

 

А у вас получается:

 - для гугла

 - для яндекса

 - для всех (включая гугл и яндекс)

 

 

 

Что пишет на эту тему Яндекс это как пример.

 

 

В самом robots.txt проверяется наличие записей, начинающихся с 'User-agent:', в них ищутся подстроки 'Yandex', либо '*' (регистр значения не имеет), причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не учитываются. Если записи 'User-agent: Yandex' и 'User-agent: *' отсутствуют, считается, что доступ роботу не ограничен.

 

 

По этому в моем случае robots написан для каждого робота в отдельности, объясню почему это позволяет управлять разными роботами по разному,  плюс яндекс и гугл по разному читают определенную информацию в robots поэтому что для одного хорошо для другого плохо, об остальных роботах я вообще не говорю. И этот список можно продолжать. 

 

 

Что касается Вашего варианта конечно можно и так один для всех! Это выбор каждого из нас.

 

Но нужно понимать что не просто так есть описания конкретно для User-agent: Yandex и Googlebot ......

и их роботы ищут именно эти названия!

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Спасибо!

 

Пожалуйста!

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Друзья дайте пожалуйста оценку для моего файла robots.txt.

 

http://www.cosmetic59.ru/robots.txt

 

Спасибо :)

 

Disallow: /*?  Надо убрать, об этом я писал выше, а в остальном стандартный рабочий.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Помогите настроить роботс, плиз.

Раньше была структура: /товар.html

Но, не смотря на rel=canonical в гуглвебмастере появились дубли:

/товар.html

/категория/товар.html

/категория/подкатегория/товар.html

 

Подключил сео_про.

Теперь строго:  /категория/подкатегория/товар

С других вариантов стоит редирект.

Теперь в гуглвебмастер полезли дубли старые страницы+новые страницы.

Удаление старых страниц в этом же гуглвеб мастере результатов не дает. Толи надо долго ждать, толи, как рекомендуют, надо одновременно с удалением запретить старые страницы в роботс.

 

Подскаже, как это прописать???? Или хотя бы " /товар.html" (этих страниц будет поболее)

 

Или со временем старые страницы сами выпадут из индекса??? Когда??

 

Спасибо. 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Теперь строго:  /категория/подкатегория/товар

С других вариантов стоит редирект.

 

 

К сожалению здесь РоботС вам не поможет, а наоборот навредит.

Если запретить индексировать старые страницы то и редирект с них работать не будет. 

 

Все следите за результатами если все правильно перенастроили. Архитектура должна перестроиться.  

 

Или со временем старые страницы сами выпадут из индекса???

Если все правильно сделано то да.

 

Когда??

Как только Googlebot проиндексирует, а фильтры классифицируют ну и счетчики посчитают.

  • +1 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Теперь строго:  /категория/подкатегория/товар

С других вариантов стоит редирект.

 

 

К сожалению здесь РоботС вам не поможет, а наоборот навредит.

Если запретить индексировать старые страницы то и редирект с них работать не будет. 

 

Все следите за результатами если все правильно перенастроили. Архитектура должна перестроиться.  

 

Или со временем старые страницы сами выпадут из индекса???

Если все правильно сделано то да.

 

Когда??

Как только Googlebot проиндексирует, а фильтры классифицируют ну и счетчики посчитают.

Спасибо! Будем ждать

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Подскажите, плиз!!

Мой роботс:

 

User-agent: *
Disallow: /admin
    Disallow: /cache
    Disallow: /niks
Disallow: /catalog
    Disallow: /download
    Disallow: /export
    Disallow: /system
    Disallow: /index.php?route=account
    Disallow: /index.php?route=account/account
    Disallow: /index.php?route=checkout/cart
    Disallow: /index.php?route=checkout/shipping
    Disallow: /index.php?route=common/home
    Disallow: /index.php?route=product/product/captcha
    Disallow: /index.php?route=product/product*&manufacturer_id=
    Disallow: /index.php?route=product/search
    Disallow: /index.php?route=information/contact/captcha
    Disallow: /index.php?route=information/information&information_id=
    Disallow: /index.php?route=account/login
    Disallow: /*route=account/
    Disallow: /*route=account/login
    Disallow: /*route=checkout/
    Disallow: /*route=checkout/cart
    Disallow: /*route=affiliate/
    Disallow: /*route=product/search
    Disallow: /*?sort=
    Disallow: /*?sort
    Disallow: /*&sort=
    Disallow: /*?order=
    Disallow: /*?order
    Disallow: /*&order=
    Disallow: /*?limit=
    Disallow: /*&limit=
    Disallow: /*?filter_name=
    Disallow: /*&filter_name=
    Disallow: /*?filter_sub_category=
    Disallow: /*&filter_sub_category=
    Disallow: /*?filter_description=
    Disallow: /*&filter_description=
    Disallow: /*?tracking=
    Disallow: /*&tracking=
    Disallow: /*?manufacturer
    Disallow: /*?keyword
Disallow: /index.php?route=product/manufacturer/

 

Если я правильно понимаю, в нем закрыто от индексации страницы пагинации page=2 и далее.

Хочу их открыть для индексации! Но не пойму в какой строчке они закрыты!!

+ хочу сделать, что бы в тайтлах и дискрипшинах дописывалсиь "Страница 2: тайтл" и для последующих страниц соответственно ( как у розетки).

Имеет ли это смысл в плане сео?

Спасибо.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Если я правильно понимаю, в нем закрыто от индексации страницы пагинации page=2 и далее.

Хочу их открыть для индексации! Но не пойму в какой строчке они закрыты!!

 

В нем нет закрытых страниц.

 

+ хочу сделать, что бы в тайтлах и дискрипшинах дописывалсиь "Страница 2: тайтл" и для последующих страниц соответственно ( как у розетки).

Имеет ли это смысл в плане сео?

 

К сожалению это вопрос не этой темы.

 

Но для общей информации агрегированные данные для поисковых систем не представляют ни какой ценности они попадают в дополнительный индекс.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Ребята, такая проблема. Моему магазину уже месяца 3 никак не удается выйти за пределы ~130 проиндексированных страниц в Яндексе, при том, что загружено роботом порядка 4к. Вот мой роботос.тхт

 

User-agent: *
Disallow: /index.php?route=account
Disallow: /index.php?route=checkout/cart
Disallow: /index.php?route=checkout/shipping
Disallow: /index.php?route=common/home
Disallow: /index.php?route=product/product/captcha
Disallow: /index.php?route=product/search
Disallow: /*route=account/login
Disallow: /*route=checkout/cart
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /export
Disallow: /system
 
User-agent: Yandex
 
Disallow: /index.php?route=account
Disallow: /index.php?route=checkout/cart
Disallow: /index.php?route=checkout/shipping
Disallow: /index.php?route=common/home
Disallow: /index.php?route=product/product/captcha
Disallow: /index.php?route=product/search
Disallow: /*route=account/login
Disallow: /*route=checkout/cart
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /export
Disallow: /system
 
Host: мой сайт
Sitemap: http:// мой сайт/sitemap.xml
 
 
В чем беда?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Здесь robots не причем

 

 

Ребята, такая проблема. Моему магазину уже месяца 3 никак не удается выйти за пределы ~130 проиндексированных страниц в Яндексе, при том, что загружено роботом порядка 4к. Вот мой роботос.тхт

 

User-agent: *
Disallow: /index.php?route=account
Disallow: /index.php?route=checkout/cart
Disallow: /index.php?route=checkout/shipping
Disallow: /index.php?route=common/home
Disallow: /index.php?route=product/product/captcha
Disallow: /index.php?route=product/search
Disallow: /*route=account/login
Disallow: /*route=checkout/cart
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /export
Disallow: /system
 
User-agent: Yandex
 
Disallow: /index.php?route=account
Disallow: /index.php?route=checkout/cart
Disallow: /index.php?route=checkout/shipping
Disallow: /index.php?route=common/home
Disallow: /index.php?route=product/product/captcha
Disallow: /index.php?route=product/search
Disallow: /*route=account/login
Disallow: /*route=checkout/cart
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /export
Disallow: /system
 
Host: мой сайт
Sitemap: http:// мой сайт/sitemap.xml
 
 
В чем беда?

 

 

Какое количество товаров в магазине?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти

  • Похожий контент

    • От travkovs
      Доброго всем!
      Есть проблема эта у многих, и в форумах разных пишут про одну и ту же задачу, но решения так и не увидел!
      Может кто знает, решал вопрос подобный подскажите. Может модуль какой дополнительный!
      В других движках с которыми работал не видел такой проблемы, а в ОпенКарте она есть.
      Просьба не предлагать других решений ввиде разнообразия урлов. Нужно именно так как описываю и ни как иначе.
      .
      Описываю суть!
      .
      Необходимо сделать так чтоб в разных категориях можно было делать продолжение одинаковыми урлами .... именно так надо! 
      Это не является ошибкой и не надо писать что SEOурл (его часть) не может повторяться.  Мне нужно часть урла а не весь урл. Повторюсь что впервые эту проблему увидел только в ОпенКарте
      .....
      В разных категориях не применить, например, название одного бренда:
      .../pogruzchiki / dizelnye /maximal/
      .../pogruzchiki / elektricheskie /maximal/
      ...
      УРЛ - это весь уникальный адрес а не его часть. Какие-то движки с которыми я работал, учитывают все части урла проверяя дублированность, а в ОпенКарте этот момент не продуман
      ...
      По правилам СЕО это не ошибка
      А по ОпенКарту скорее недоработка
      ..... 
      Например в одном магазине могут быть 
      - лыжи/ АРЗАМАС
      - перчатки/ АРЗАМАС
      в одном случае это может быть бренд, а в другом просто название не относящееся к бренду
      ... и ОпенКарт не даст это сделать
      ....
      ===========================
      в таком виде делать плагиатить ссылку это некрасиво (не вариант), не гигиенично совсем
      maximal-1
      maximal-2
      maximal-3
      maximal-4
      maximal-5
      .
      Просьба направить, помочь, понять и простить )
      .

    • От chukcha
      Скачать/Купить дополнение


      Robots noindex
      Это небольшое дополнение, которое добавляет тег
      <meta name="robots" content="noindex,follow"> на некоторые страницы.
      Это хорошо для SEO.
      Страницы, которые затрагивает расширение:
      Категория страницы: (sort, page, limit)
      Производитель: (sort, page, limit)
      Акции: (sort, page, limit)
      Сравнение: (вся страница)
      Поиск: ( вся страница)
      Регистрация и Логин: (вся страница)
      Оформление заказ: (вся страница)
      Корзина: (вся страница)
      Q.A:
      Зачем это делать?
      Из коробки OpenCart этого всего нет. Расширение позволяет корректно установить мета тег на конкретных страницах.
      Для SEO это важный тег, это позволит вам побороть дублирующий контент на страницах несущих технологическую нагрузку.
      Почему бы не использовать / запретить в файле robots.txt?
      Наличие запретов в robots.txt не помешает, но некоторые боты не хотят в него смотреть.
      И Google говорит, что этот тег ему нравится
      Требования:
      версия 2.x , отдельно для simple (demo: http://demo2.slasoft.kharkov.ua/index.php?route=product/category&path=20_27&limit=50)
      версия 1.5.x (demo: http://demo.slasoft.kharkov.ua/compare-products/)
      Добавил chukcha Добавлено 09.12.2015 Категория Прочее Системные требования Метод активации Ioncube Loader OpenCart ocStore OpenCart.Pro, ocShop  
    • От Exploits
      Скачать/Купить дополнение


      Удаление дублей страниц без сеопро
      Модуль в xml формате убирает дубли страниц товара.
      Дубли это одна страница, которая доступна с более чем одного адреса. В Opencart все модули вывода товара генерируют "прямые ссылки" вида сайт/товар, хотя этот же товар привязан к категории и его правильная ссылка такая сайт/категория/товар.
      Мой модуль генерирует правильные (с учетом категории и иерархии категорий) ссылки товара.
      Модуль исправляет ссылки в таких местах:
      Модуль рекомендуемые Модуль последние Модуль лидеры продаж Модуль акции Список товаров производителя Блок рекомендуемые на странице товара Список товаров на странице всех акций (product/special) Список товаров на странице поиска Товары в списке сравнения Модуль не заменяет ни одного файла. Для работы требуется vqmod
      Протестирован на Opencart и Ocstore
      Версии 1541 - 1564
      В следующих версиях планирую сделать модуль который полностью избавит Opencart от дублей!!!
      Те кто приобретет модуль - все последующие версии будут бесплатно.
      Добавил Exploits Добавлено 18.06.2014 Категория Прочее Системные требования Метод активации Без активации Ioncube Loader Нет OpenCart 1.5.6.3 ocStore 1.5.5.1.2 OpenCart.Pro, ocShop  
    • От snastik
      500.00 руб
      Скачать/Купить дополнение


      SEOFIX Mета-тег NOINDEX
      vQmod SEO Mета-тег Избавляет от дублей контента и ускоряет индексацию поисковыми системами.
      ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
      Работает на всей линейке 1.5.х opencart, ocstore, думаю и максисторе тоже если что подправлю под ваши файлы.
      На страницах Категории, Производителя, Акций для:
      1. Пагинации – (постраничный переход)
      2. Сортировки – (по цене, названию, рейтингу и тд)
      3. Лимита – (кол-во товара на странице)
      Добавляет Мета-тег: <meta name="robots" content="noindex,follow" />
      Новое в версии 1.2
      4. Ссылки вида /site/category/?page=1 перобразуются в /site/category
      временно приостановлено - требует багфикса.
      5. Описание категории выводиться только для первой страницы.
      6. Убирает дублированные ссылки с изображений во всех списках товаров (категории, производитель, поиск, акции и стандартные модули) заменяя href=" на onclick="location.href тем самым устраняя ссылочную переспамленность шабла
      Тем самым нет необходимости в robots.txt закрывать от индексации такие страницы как:
      Disallow: /*?sort
      Disallow: /*?limit
      Disallow: /*?page
      Что существенно ускоряет индексацию поисковыми системами, так как, тег noindex говорит поисковой системе что эту страницу индексировать ненужно, но в свою очередь тег follow говорит о том что необходимо переходить по ссылкам дальше. Подробнее в мануале Яндекса http://help.yandex.ru/webmaster/controlling-robot/html.xml#meta Google разумеется тоже понимает данные Мета-Теги.
      Единственное действующее решение, которое действительно выкидывает быстро дубли из ПС, если закрывать через robots.txt, этот процесс может затянуться более чем на полгода.
      Установка происходит по средствам vQmod в случае его отсутствия возможна ручная установка.
      После установки на страницах пагинации,сортировки, лимита в исходном коде Вы увидите что появился Мета-тег: <meta name="robots" content="noindex,follow" /> на «хороших» страницах он будет отсутствовать.
      Пункты 1-4 гарантированно работают на всех шаблонах и сборках. Пункты 4-6 гарантированно работают на дефолтном шаблоне.
      Для индивидуальных шаблоном могут потребоваться правки вкумода, если в шаблоне изменен код вывода изображений.
      F.A.Q. (будет дополняться)
      Приветствую! Заинтересовал ваш новый модуль "SEO Мета-тег".
      В описании модуля идет речь про постраничный переход в пагинации,
      Каким образом это реализовано? Решает ли это проблему дублей, когда идут вот такие урлы /?page=2 /?page=3 /?page=4
      Да решает, если в строке есть "page=", то на страницу добавляется метатег "noindex"
      А будет ли это работать на моем шаблоне?
      Я не знаю, так как я не телепат. Гарантировано работает на дефолтном шаблоне и шаблонах сделанных на его основе. Но при небольших доработках запускается на любом шаблоне.
      Адаптация к нестандартным шаблонам платная.
      Как проверить что модуль установлен и правильно работает ?
      Откройте любую страницу с сортировкой или пагинацией и посмотрите ее исходный код, если в разделе <head> появилось <meta name="robots" content="noindex,follow" /> значит ок.
      По аналогии смотрим ссылку в пагинации на первую страницу со второй и ссылки в списках на изображениях.
      В случае необходимости технической поддержки пишите в личку:
      Адрес сайта.
      Доступ в административную часть
      Доступ на ftp
      Техническая поддержка сайтам на локальном хостинге не оказывается.
      Техническая поддержка не связанная с работоспособностью модуля платная.
      Автор модуля не несет ответственности за работоспособность модуля и ошибки возникшие в его работе связанные с использованием неоригинального шаблона, сторонних или сильно модифицированных версий движка, использования дополнений от сторонних разработчиков, вызывающих конфликты с кодом данного дополнения.
      Автор гарантирует работу модуля на оригинальном движке OcStore 1.5.х B Opencart 1.5.х скачанных с официальных сайтов.
      Автор не гарантирует работоспособность модуля и не осуществляет консультации и поддержку дополнения, в случае использования покупателем (ворованных, купленных в складчину дополнений, для которых у покупателя отсутствует поддержка авторов дополнений).
      Дополнение распространяется для использования на одном магазине. Для использования на нескольких магазинах, пожалуйста приобретайте лицензию на каждый.
      Добавил snastik Добавлено 27.01.2014 Категория SEO, карта сайта, оптимизация  
    • От ArtemPitov
      300.00 руб
      Скачать/Купить дополнение


      {AP} Destroy IMG | Полное удаления изображения из сервера
      {AP} Destroy IMG
      Модуль позволяет удалять изображения с сервера.
      Удаляются связи в товарах, фото на сервере, кеш изображения
      Установка
      Простая установка через стандартный загрузчик Opencart. Не заменяет системные файлы.
      Если при установке появляется сообщение о настройке FTP поставке "фикс"
      http://www.opencart....ension_id=18892
      Версия
      Модуль писался под ocStore 2.1.0.2.1 и дефолтную тему оформления.
      Будет работать на дефолтной или близкой к ней теме. Адаптация под Вашу тему платная.
      Лицензия
      Одна лицензия (покупка) = 1 домен
      Добавил ArtemPitov Добавлено 26.08.2016 Категория Прочее Системные требования Метод активации Ioncube Loader OpenCart ocStore OpenCart.Pro, ocShop  
  • Последние посетители   0 пользователей онлайн

    Ни одного зарегистрированного пользователя не просматривает данную страницу

×

Важная информация

На нашем сайте используются файлы cookie и происходит обработка некоторых персональных данных пользователей, чтобы улучшить пользовательский интерфейс. Чтобы узнать для чего и какие персональные данные мы обрабатываем перейдите по ссылке. Если Вы нажмете «Я даю согласие», это означает, что Вы понимаете и принимаете все условия, указанные в этом Уведомлении о Конфиденциальности.