Перейти до вмісту
Пошук в
  • Детальніше...
Шукати результати, які ...
Шукати результати в ...

Внутренняя оптимизация сайта на opencart


Recommended Posts

Не вижу смысла закрывать облако тегов средствами движка (у каждого оптимизатора свое мнение на этот счет). Пропишите соответствующие директивы в robots.txt для закрытия от индексации тегов и будет Вам счастье :rolleyes:

Спасибо, но я не задавал вопроса. Дело в лени и в том, что уже давно веду внешнюю оптимизацию.
Надіслати
Поділитися на інших сайтах


На счет запрета в robots.txt - я считаю это немного некорректно делать. У себя лично на одном из проектов (не опенкарт) я всю сортировку/фильтрацию сделал через POST с дальнейшим занесением способа в $_SESSION.

Теперь поисковики даже не догадываются что на сайте есть страницы которые сортируются. А пользователям пофиг как именно происходит сортировка.

Надіслати
Поділитися на інших сайтах

  • 3 weeks later...

Уважаемый, Smallbear не сочтите за труд (или попытку шпионажа :) ) выложите пожалуйста ваш файл .htaccess на обозрение. Файл robots.txt то уже выложили.

Просто судя по нему у вас идет редирект с зеркала с www на зеркало без www, интересно как у вас это выглядит в файле .htaccess

Надіслати
Поділитися на інших сайтах


Уважаемый, Smallbear не сочтите за труд (или попытку шпионажа :) ) выложите пожалуйста ваш файл .htaccess на обозрение. Файл robots.txt то уже выложили.

Просто судя по нему у вас идет редирект с зеркала с www на зеркало без www, интересно как у вас это выглядит в файле .htaccess

Вот правила для редиректа с www на без-www:

RewriteCond %{HTTP_HOST} ^www\.(.+)$ [NC]

RewriteRule ^(.*) http://%1/$1 [L,R=301]

Вставлять после RewriteBase /

Надіслати
Поділитися на інших сайтах


ua13dark , спасибо по этому поводу мне уже был дан исчерпывающий ответ в другой ветке :)

"кто б еще подсказал как по модулю qiwi вопрос решить, но это уже другая история" :(

Надіслати
Поділитися на інших сайтах


Уважаемый, Smallbear не сочтите за труд (или попытку шпионажа :) ) выложите пожалуйста ваш файл .htaccess на обозрение. Файл robots.txt то уже выложили.

Просто судя по нему у вас идет редирект с зеркала с www на зеркало без www, интересно как у вас это выглядит в файле .htaccess

htaccess стандартный ,тот что был в сборке

Надіслати
Поділитися на інших сайтах


Т.е. вы не мучались с этим редиректом. Ясно.

ТОгда позвольте еще вопрос, у вас в файле robots.txt между директивами User-agent два пустых перевода строки, это нормально? Просто яндекс дает рекомендацию ставить 1 перевод строки. А так же убирать пустые переводы между Disallow' и 'Allow' что вроде как наблюдается у вас в конце.

И еще момент, не поясните зачем делать запрет на индексацию:

"Disallow: /*?keyword

#Запрещаем индексировать все страницы с метками"

Можете немного подробнее пояснить этот момент?

Заранее благодарен.

Змінено користувачем shpakov
Надіслати
Поділитися на інших сайтах


  • 4 months later...

К прочим относятся все страницы HTTPS, корзины, аккаунта, поиска и т.д. - все эти страницы запрещено индексировать.

запрет на индексацию вы прописываете в robots.txt?

а как воспользоваться тегами nofollow/noindex ? прочитал, осознал их необходимость (чтобы закрыть аналогичные "информационные страницы"), только конкретно куда эти теги вставлять - не понял))

Надіслати
Поділитися на інших сайтах


В robots.txt указываются предписания запрещающие включение в индекс страниц целиком. Но я предпочитаю использовать мета тег robots, но в OpenCart/ocStore такого функционала нет и я его добавляю самостоятельно.

nofollow/noindeх предназначены несколько для другого - позволяют закрыть часть контента или ссылок. В инете великое множество статей по этому поводу.

Рекомендую использовать эти теги очень осторожно... а если нет четкого понимания как и в каких случаях их использовать - лучше не использовать их вообще.

Надіслати
Поділитися на інших сайтах

вот нашел отличную статью:

http://robotstxt.org.ru/robotsexclusion/meta

единственное, на что хочу получить ответ: "какие страницы непосредственно нужно редактировать?"

которые в папке catalog -> view -> theme -> ..... -> .tpl и т.д. ?

Надіслати
Поділитися на інших сайтах


Я это делаю варварским способом :)

В class Document добавляю

свойство

private $robots;
и пару методов

public function setRobots($robots) {
    $this->robots = $robots;
}
	
public function getRobots() {
    return $this->robots;
}
а дальше работаю с ними в зависимости от того что надо сделать...

Например, если после формирования ЧПУ остались параметры в query string - выставляю noindex,follow...

Я считаю что поисковик ничего нового не найдёт на страницах отсортированных как то иначе чем дефолтная сортировка, и при изменении количества товаров на странице - ничего нового...

Страницы которые вообще ни при каких раскладах не нужны поисковикам, например, страницы личного кабинета - лучше закрывать в robots.txt

Всё расписывать смысла нет, потому что там очень много завязок на другие заморочки.

Меня вообще убивает желание многих вебмастеров интернет магазинов загнать в индекс побольше страниц любой ценой. Такое впечатление что магазин на Сапу собираются выставлять... Да и для Сапы - такое поведение в большинстве случаев нафиг не надо.

Надіслати
Поділитися на інших сайтах

И ещё... я не знаю быстрого алгоритма формирования вменяемого дескрипшена.

Реализовать формирование тайтлов по таким шаблонам - можно, но сейчас свободного времени совсем нет...

Легко. Берем phpMorphy прогоняем текст, получаем частотность словоформ и уже имея ее отбираем предложения которые имеют наибольшее вхождение ключевиков. Очень даже симпотично выходит.
Надіслати
Поділитися на інших сайтах

Легко. Берем phpMorphy прогоняем текст, получаем частотность словоформ и уже имея ее отбираем предложения которые имеют наибольшее вхождение ключевиков. Очень даже симпотично выходит.

интересно.. а есть примеры посмотреть? "было-прогнали-сделали такие то выводы"
Надіслати
Поділитися на інших сайтах


Пару лет назад я баловался с phpMorphy...

Для блога, там где текста дофига, это с горем попалам можно использовать, а для магазина - это не подходит.

Кстати для этой задачи гораздо проще использовать стемминг - результат практически такой-же.

Надіслати
Поділитися на інших сайтах

Стемминг хорошо, но он в большистве есть только для русского, а в морфи можно самому сгенерировать словарь под практически любой язык (украинский, белорусский и т.д.)

Надіслати
Поділитися на інших сайтах

Стемминг хорошо, но он в большистве есть только для русского

Не правда http://snowball.tartarus.org/

а в морфи можно самому сгенерировать словарь под практически любой язык (украинский, белорусский и т.д.)

Пробовал? Хотя бы вникал в тему? Правила стемминга проще сделать...
Надіслати
Поділитися на інших сайтах

Не правда http://snowball.tartarus.org/

Пробовал? Хотя бы вникал в тему? Правила стемминга проще сделать...

По ссылке нифига не понял

В теме давно. Сам конвертил из myspell словарей.

Надіслати
Поділитися на інших сайтах

  • 4 weeks later...

Мне кажется что не совсем корректно говорить о закрытии ссылок в отдельно взятом модуле.

Решение закрывать ссылку или нет должно зависеть не от того где ссылка отображается, а от самой ссылки...

Я условно разбиваю страницы на 4 типа:

  • Списки товаров

  • по категории
  • по производителю
  • по категории + производитель
  • Страницы товара
  • Информационные страницы
  • Прочие

    Перечисленные списки товаров не конечные и дополнительно могут уточняться с помощью фильтра по опциям и ценам.

    Ссылки на страницы списков товаров без учета опций и цен - формируются в виде ЧПУ

    /category

    /manufacturer

    /category/manufacturer

    у этих страниц meta robots - index,follow

    Если список фильтруется по опциям и/или ценам то параметры фильтрации передаются GET параметрами добавленными к ЧПУ, например

    /category?option=val&price=val

    /category/manufacturer?price=val

    Аналогично GET параметрами в URL включаются параметры сортировки списка, количество товаров на странице и номер страницы...

    Наличие GET параметров в URL я использую как признак по которому запрещается индексирование страницы (у этих страниц meta robots - noindex,follow)

    URL страниц товаров формируется в виде ЧПУ с учетом иерархии относительно основной категории. Индексация этих страниц - разрешена (meta robots - index,follow).

    Но если при просмотре списка товаров использовалась фильтрация по опциям, то в ссылках на страницы товаров присутствует GET параметр option=val (этот сделано специально, мне так надо) и для таких страниц указывается meta robots - noindex,follow

    Информационные страницы почти все закрыты для поисковиков, открыты только карта сайта, адреса магазинов, о доставе и оплате плюс ещё некоторые специфические страницы.

    К прочим относятся все страницы HTTPS, корзины, аккаунта, поиска и т.д. - все эти страницы запрещено индексировать.

    Тайтлы и дескрипшены комбинированных страниц со списками товаров (производитель + категория) формируются путём добавления наименования производителя в начало тайтла и дескрипшена

    Для того что-бы в ЧПУ страницы товара присутствовала информация о производителе - в начало псевдонима товара добавляю производителя.

    ЧПУ получается таким:

    /category/subcategory/manufacturer-product

    На странице товара, кроме описания товара, присутствует описание производителя

    Вроде ничего не забыл и описал основные моменты схемы построения магазина.

В своем магазине http://ehoreca.kz

Мы сделали следующее, что хорошо описано в других источниках:

1. Sitemap обязателен

2. красивые линки для продуктов, напримен (http://ehoreca.kz/SP-KokaKola-Almaty-Bottlers/u126)

3. Грамотное использование тегов h1, h2.

Для начала я думаю сойдет

Надіслати
Поділитися на інших сайтах


Створіть аккаунт або увійдіть для коментування

Ви повинні бути користувачем, щоб залишити коментар

Створити обліковий запис

Зареєструйтеся для отримання облікового запису. Це просто!

Зареєструвати аккаунт

Вхід

Уже зареєстровані? Увійдіть тут.

Вхід зараз
  • Зараз на сторінці   0 користувачів

    • Ні користувачів, які переглядиють цю сторінку
×
×
  • Створити...

Important Information

На нашому сайті використовуються файли cookie і відбувається обробка деяких персональних даних користувачів, щоб поліпшити користувальницький інтерфейс. Щоб дізнатися для чого і які персональні дані ми обробляємо перейдіть за посиланням . Якщо Ви натиснете «Я даю згоду», це означає, що Ви розумієте і приймаєте всі умови, зазначені в цьому Повідомленні про конфіденційність.