Перейти до вмісту
Пошук в
  • Детальніше...
Шукати результати, які ...
Шукати результати в ...

Пошук по сайту

Результати пошуку за тегами 'robots'.

  • Пошук за тегами

    Введіть теги через кому.
  • Пошук по автору

Тип публікацій


Категорії і розділи

  • Основний
    • Новини та оголошення
    • Пропозиції та побажання
    • Акції, подарунки, конкурси та винагороди
  • Opencart 4.x
    • Opencart 4.x: Загальні питання
    • Opencart 4.x: Встановлення та оновлення
    • Opencart 4.x: Локалізація
    • Opencart 4.x: Налаштування та оптимізація
    • Opencart 4.x: Пісочниця
    • Opencart 4.x: Пошук модулів
    • Opencart 4.x: Звіти про помилки
  • Opencart 3.x
    • Opencart 3.x: Загальні питання
    • Opencart 3.x: Встановлення та оновлення
    • Opencart 3.x: Локалізація
    • Opencart 3.x: Налаштування та оптимізація
    • Opencart 3.x: Пісочниця
    • Opencart 3.x: Пошук модулів
    • Opencart 3.x: Звіти про помилки
  • Opencart 2.x
    • Opencart 2.x: Загальні питання
    • Opencart 2.x: Встановлення та оновлення
    • Opencart 2.x: Локалізація
    • Opencart 2.x: Налаштування та оптимізація
    • Opencart 2.x: Пісочниця
    • Opencart 2.x: Пошук модулів
    • Opencart 2.x / ocStore 2.x: Звіти про помилки
  • Реклама і просування
    • SEO-питання (оптимізація та просування магазину)
    • Контекстна реклама
    • Торговые площадки
    • E-commerce tracking и бизнес аналитика
    • Разное
  • Підтримка та відповіді на запитання.
    • Загальні питання
    • Встановлення, оновлення, налаштування
    • Шаблони, дизайн та оформлення магазину
    • Модулі та розширення
    • Допомога програмістам та розробникам
    • Мобильная витрина
    • Питання безпеки
    • Переклад
    • Отчёты об ошибках
    • Интернет-магазины и электронная коммерция
    • Песочница
  • Послуги
    • Створення магазинів під ключ
    • Дизайн, верстка та шаблони
    • Програмування, створення модулів, зміна функціональності
    • Налаштування та дрібна робота по вже існуючому сайту
    • Оновлення версії двигуна магазина
    • Наповнення магазину
    • Системне адміністрування (налаштування хостингу, серверів, ПЗ)
    • Інші послуги
  • Разное
    • Пользовательские обзоры дополнений
    • Примеры сайтов на OpenCart (ocStore)
    • Курилка
    • Предложения по улучшению

Категорії

  • Шаблони
    • Безкоштовні шаблони
    • Платні шаблони
  • ФІльтри
  • Цены, скидки, акции, подарки
  • Реклама та просування
  • Бонуси, купони, програми лояльності
  • Блоги, новости, статьи
  • Відгуки
  • Покупки, оформление заказа, корзина
  • Опції
  • Атрибуты
  • Серии, Комплекты
  • Поиск
  • SEO, карта сайта, оптимизация
  • Кэширование, сжатие, ускорение
  • Платіжні системи
  • Доставки
  • Редакторы
  • Меню, дизайн, внешний вид
  • Слайдшоу, баннеры, галереи
  • Письма, почта, рассылки, sms
  • Обратная связь, звонки
  • Обмен данными
  • Учет в заказе
  • Сравнения, закладки
  • Социальные сети
  • Парсеры
  • Модули
  • Инструменты, утилиты
  • Лицензии
  • Локалізації
  • Інші розширення
  • Отчеты
  • Збірки
    • ocStore
  • Послуги
    • Графика и дизайн
    • Маркетинг

Категорії

  • Служебные документы
  • Оплата
  • Документація Opencart

Категорії

  • Загальні питання
  • Купівля доповнень
  • Для розробників
  • Акаунт
  • Технічна підтримка
  • Фінансовий відділ

Категорії

  • Інтерв'ю
  • Статті

Блоги

  • Konorws (Разработка и модификация Opencart)
  • Блог mr.Kent)
  • Прожектор Бритни Спирс
  • Layk
  • Продвижение интернет-магазина, seo оптимизация
  • Записная книжка
  • Блог RGB
  • Модули которые сделают сайт лучше
  • Блог веб-студии NeoSeo
  • Useful IT
  • Записи
  • Найденные решения проблем с Opencart
  • ocdroid blog
  • Заметки на полях...
  • Pimur
  • Серж Ткач
  • О жизни, смерти, о бизнесе и Опенкарте
  • Просто мысли от laim731
  • Маркетинг и продвижение интернет-магазина
  • Мой копирайтинг
  • SEO боксинг специального назначения
  • Get-Web Dev
  • Seok
  • Блоги sitecreator-а
  • Best practice
  • Vlad-Egorov-Blog
  • Блог spectre
  • commanddotcom
  • Внимание мошенники
  • Наблюдения обычного человека
  • Блог Rassol2
  • Блог Exploits
  • блог для натуралов
  • Настюша, тут есть темы
  • Пропитано рекламой
  • Tutorial
  • ОтВинта
  • Tg chnls
  • Блог
  • Блог sv2109
  • КАК ОРГАНИЗОВАТЬ НОВОСТНЫЕ ПОДПИСКИ НА БАЗЕ API OPENCART 3/0/2
  • VDS/VPS, серверы под Linux: установка, настройка, оптимизация
  • IT блог
  • Блог
  • Opencart SEO
  • Путёвые заметки о работе магазина NiceBike на платформе OpenCart
  • Blondi Blog
  • Полезные статьи, новости.
  • Блог владельца магазина
  • разное
  • ПРОДАЖА АКАУНТОВ-binance ВЕРИФИЦИРОВАННЫe ЧИСТЫЕ УСПЕВАЙТЕ КУПИТЬ ПО НИЗКОЙ ЦЕНЕ
  • Диспансеризация
  • wozobat
  • quasarbyte
  • Мой блог
  • Igorych
  • aaaaa
  • 👌🔊Bellsouth CUSTOMER support number 1+(8O8)678=9O64-☎phone number
  • Liudmila marketer
  • Заметки реалиста
  • ocstore на ноліках
  • Про Opencart
  • Блог про рутинні процеси в магазині на ocsote
  • Radaevich
  • Плагіни Opencart
  • Крафтовий OpenCart: Старт пригоди. Ціна створення сайту на Опенкарт
  • Щось про щось
  • Від власника до розробника

Шукати результати в ...

Шукати результати, які ...


Дата створення

  • Почати

    Кінець


Останнє оновлення

  • Почати

    Кінець


Фільтр за кількістю ...

З нами

  • Почати

    Кінець


Група


Сайт


Skype


Місто:


Інтереси

Знайдено 20 результатов

  1. Скачать / Купить дополнение Robots noindex Это небольшое дополнение, которое добавляет тег <meta name="robots" content="noindex,follow"> на некоторые страницы. Это хорошо для SEO. Страницы, которые затрагивает расширение: Категория страницы: (sort, page, limit) Производитель: (sort, page, limit) Акции: (sort, page, limit) Сравнение: (вся страница) Поиск: ( вся страница) Регистрация и Логин: (вся страница) Оформление заказ: (вся страница) Корзина: (вся страница) Q.A: Зачем это делать? Из коробки OpenCart этого всего нет. Расширение позволяет корректно установить мета тег на конкретных страницах. Для SEO это важный тег, это позволит вам побороть дублирующий контент на страницах несущих технологическую нагрузку. Почему бы не использовать / запретить в файле robots.txt? Наличие запретов в robots.txt не помешает, но некоторые боты не хотят в него смотреть. И Google говорит, что этот тег ему нравится Требования: версия 2.x , отдельно для simple (demo: http://demo2.slasoft.kharkov.ua/index.php?route=product/category&path=20_27&limit=50) версия 1.5.x (demo: http://demo.slasoft.kharkov.ua/compare-products/) Добавил chukcha Добавлено 09.12.2015 Категория Прочее Системные требования Метод активации Ioncube Loader ocStore OpenCart.Pro, ocShop Обращение к серверу разработчика  
  2. 4 289 завантажень

    Это небольшое дополнение, которое добавляет тег <meta name="robots" content="noindex,follow"> на некоторые страницы. Это хорошо для SEO. Страницы, которые затрагивает расширение: Категория страницы: (sort, page, limit) Производитель: (sort, page, limit) Акции: (sort, page, limit) Сравнение: (вся страница) Поиск: ( вся страница) Регистрация и Логин: (вся страница) Оформление заказ: (вся страница) Корзина: (вся страница) Q.A: Зачем это делать? Из коробки OpenCart этого всего нет. Расширение позволяет корректно установить мета тег на конкретных страницах. Для SEO это важный тег, это позволит вам побороть дублирующий контент на страницах несущих технологическую нагрузку. Почему бы не использовать / запретить в файле robots.txt? Наличие запретов в robots.txt не помешает, но некоторые боты не хотят в него смотреть. И Google говорит, что этот тег ему нравится Требования: версия 2.x , отдельно для simple (demo: http://demo2.slasoft.kharkov.ua/index.php?route=product/category&path=20_27&limit=50) версия 1.5.x (demo: http://demo.slasoft.kharkov.ua/compare-products/)
    Безкоштовне
  3. Добавление meta-тег robots на нужную страницу: Отрываем файл system/library/document.php и добавляем перед private $title; строку private $robots; После public function getOgImage() { return $this->og_image; } Добавляем public function setRobots($robots) { $this->robots = $robots; } public function getRobots() { return $this->robots; } Дальше открываем catalog/controller/common/header.php и после: $this->data['base'] = $server; Добавляем: $this->data['robots'] = $this->document->getRobots(); Открываем catalog/view/theme/ваша_тема/template/common/header.tpl После: <base href="<?php echo $base; ?>" /> Добавляем: <?php if ($robots) { ?> <meta name="robots" content="<?php echo $robots; ?>" /> <?php } ?> И дальше в каждом контроллере можно закрывать нужные страницы от индексации полностью или писать любые вариации мета тега robots для нужных страниц: Например полностью закрываем от индексации страницу входа: catalog/controller/account/login.php В начале добавляем строчку $this->document->setRobots('noindex, nofollow'); Почему надо так делать читаем рекомендацию гугла и не задаем вопросов. Кратко из материала:
  4. Здравствуйте! Подскажите пожалуйста, надо ли разрешать индексировать страницы ("Новинки", "Популярные", "Лидеры продаж", "Все товары")?
  5. 500 Скачать / Купить дополнение SEOFIX Mета-тег NOINDEX vQmod SEO Mета-тег Избавляет от дублей контента и ускоряет индексацию поисковыми системами. ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ Работает на всей линейке 1.5.х opencart, ocstore, думаю и максисторе тоже если что подправлю под ваши файлы. На страницах Категории, Производителя, Акций для: 1. Пагинации – (постраничный переход) 2. Сортировки – (по цене, названию, рейтингу и тд) 3. Лимита – (кол-во товара на странице) Добавляет Мета-тег: <meta name="robots" content="noindex,follow" /> Новое в версии 1.2 4. Ссылки вида /site/category/?page=1 перобразуются в /site/category временно приостановлено - требует багфикса. 5. Описание категории выводиться только для первой страницы. 6. Убирает дублированные ссылки с изображений во всех списках товаров (категории, производитель, поиск, акции и стандартные модули) заменяя href=" на onclick="location.href тем самым устраняя ссылочную переспамленность шабла Тем самым нет необходимости в robots.txt закрывать от индексации такие страницы как: Disallow: /*?sort Disallow: /*?limit Disallow: /*?page Что существенно ускоряет индексацию поисковыми системами, так как, тег noindex говорит поисковой системе что эту страницу индексировать ненужно, но в свою очередь тег follow говорит о том что необходимо переходить по ссылкам дальше. Подробнее в мануале Яндекса http://help.yandex.ru/webmaster/controlling-robot/html.xml#meta Google разумеется тоже понимает данные Мета-Теги. Единственное действующее решение, которое действительно выкидывает быстро дубли из ПС, если закрывать через robots.txt, этот процесс может затянуться более чем на полгода. Установка происходит по средствам vQmod в случае его отсутствия возможна ручная установка. После установки на страницах пагинации,сортировки, лимита в исходном коде Вы увидите что появился Мета-тег: <meta name="robots" content="noindex,follow" /> на «хороших» страницах он будет отсутствовать. Пункты 1-4 гарантированно работают на всех шаблонах и сборках. Пункты 4-6 гарантированно работают на дефолтном шаблоне. Для индивидуальных шаблоном могут потребоваться правки вкумода, если в шаблоне изменен код вывода изображений. F.A.Q. (будет дополняться) Приветствую! Заинтересовал ваш новый модуль "SEO Мета-тег". В описании модуля идет речь про постраничный переход в пагинации, Каким образом это реализовано? Решает ли это проблему дублей, когда идут вот такие урлы /?page=2 /?page=3 /?page=4 Да решает, если в строке есть "page=", то на страницу добавляется метатег "noindex" А будет ли это работать на моем шаблоне? Я не знаю, так как я не телепат. Гарантировано работает на дефолтном шаблоне и шаблонах сделанных на его основе. Но при небольших доработках запускается на любом шаблоне. Адаптация к нестандартным шаблонам платная. Как проверить что модуль установлен и правильно работает ? Откройте любую страницу с сортировкой или пагинацией и посмотрите ее исходный код, если в разделе <head> появилось <meta name="robots" content="noindex,follow" /> значит ок. По аналогии смотрим ссылку в пагинации на первую страницу со второй и ссылки в списках на изображениях. В случае необходимости технической поддержки пишите в личку: Адрес сайта. Доступ в административную часть Доступ на ftp Техническая поддержка сайтам на локальном хостинге не оказывается. Техническая поддержка не связанная с работоспособностью модуля платная. Автор модуля не несет ответственности за работоспособность модуля и ошибки возникшие в его работе связанные с использованием неоригинального шаблона, сторонних или сильно модифицированных версий движка, использования дополнений от сторонних разработчиков, вызывающих конфликты с кодом данного дополнения. Автор гарантирует работу модуля на оригинальном движке OcStore 1.5.х B Opencart 1.5.х скачанных с официальных сайтов. Автор не гарантирует работоспособность модуля и не осуществляет консультации и поддержку дополнения, в случае использования покупателем (ворованных, купленных в складчину дополнений, для которых у покупателя отсутствует поддержка авторов дополнений). Дополнение распространяется для использования на одном магазине. Для использования на нескольких магазинах, пожалуйста приобретайте лицензию на каждый. Добавил snastik Добавлено 27.01.2014 Категория SEO, карта сайта, оптимизация  
  6. Приветствую всех! С недавнего времени заметил , что в индекс в вебмастере стали попадать страницы вида /kresla-meshki-rogozhka-flok/?page=1///////////// /katalog/klassnye-podarki/valiki-obnimaliki/?limit=75/////////////////////////////////// /katalog/klassnye-podarki/valiki-obnimaliki/?limit=75//////////////////////////////// В robots.txt стоит запрет и в яндексе и в гугле вида Disallow: /?limit=* Disallow: /&limit=* и Disallow: /?page=* Но при проверке в Вебмастере "Результаты анализа robots.txt" и чеке любой такой мусорной ссылки, она стоит разрешенная , с зеленой галочкой Галочка seo pro в админке стоит , система os store 1.4.5.1 , robots файл лежит где нужно, вебмастер его видит , модулями за последними несколькими месяцами никакими не баловался, однако проблема обострилась именно в последнее время Братцы помогите советом , где копать, откуда идет такая генерация , правится ли это как то через системные файлы или на крайний случай, как закрыть на индексацию такие ссылки с задублир. слешами. Сайт постепенно стал понижаться из за этого в выдаче Мой файл robots.txt
  7. Здравствуйте Друзя! Нужна помощь в настройке robots и sitemap. Готов оплатить . В админке есть такое поле что это значит и нужно ли что то тут менять http://prntscr.com/gudouc файл robots в таком виде User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Clean-param: tracking
  8. Была создана тестовая версия сайта для проведения некоторых изменений в дизайне. Индексация закрыл удалив все с robots и вставил User-agent: * Disallow: / но встречал статьи где говорят что этого недостаточно и лучше на каждой странице прописывать <META NAME = "ROBOTS" CONTENT = "NOINDEX, NOFOLLOW"> - ваши за и против ...
  9. Подскажите как настроить правильно кириллический адрес в robots и .htaccess ? Пример: правильно или нет ? # SEO URL Settings RewriteEngine On RewriteCond %{HTTP_HOST} ^www.xn--70adpd.net.ua RewriteRule ^(.*)$ http://xn--70adpd.net.ua/$1 [R=301,L] И на robots ? Host: xn--70adpd.net.ua Sitemap: http://xn--70adpd.net.ua/index.php?route=record/google_sitemap_blog Уже третий месяц не индексируется сайт. Поисковики не могут понять ?
  10. Версія 1.2

    vQmod SEO Mета-тег Избавляет от дублей контента и ускоряет индексацию поисковыми системами. ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ Работает на всей линейке 1.5.х opencart, ocstore, думаю и максисторе тоже если что подправлю под ваши файлы. На страницах Категории, Производителя, Акций для: 1. Пагинации – (постраничный переход) 2. Сортировки – (по цене, названию, рейтингу и тд) 3. Лимита – (кол-во товара на странице) Добавляет Мета-тег: <meta name="robots" content="noindex,follow" /> Новое в версии 1.2 4. Ссылки вида /site/category/?page=1 перобразуются в /site/category временно приостановлено - требует багфикса. 5. Описание категории выводиться только для первой страницы. 6. Убирает дублированные ссылки с изображений во всех списках товаров (категории, производитель, поиск, акции и стандартные модули) заменяя href=" на onclick="location.href тем самым устраняя ссылочную переспамленность шабла Тем самым нет необходимости в robots.txt закрывать от индексации такие страницы как: Disallow: /*?sort Disallow: /*?limit Disallow: /*?page Что существенно ускоряет индексацию поисковыми системами, так как, тег noindex говорит поисковой системе что эту страницу индексировать ненужно, но в свою очередь тег follow говорит о том что необходимо переходить по ссылкам дальше. Подробнее в мануале Яндекса http://help.yandex.ru/webmaster/controlling-robot/html.xml#meta Google разумеется тоже понимает данные Мета-Теги. Единственное действующее решение, которое действительно выкидывает быстро дубли из ПС, если закрывать через robots.txt, этот процесс может затянуться более чем на полгода. Установка происходит по средствам vQmod в случае его отсутствия возможна ручная установка. После установки на страницах пагинации,сортировки, лимита в исходном коде Вы увидите что появился Мета-тег: <meta name="robots" content="noindex,follow" /> на «хороших» страницах он будет отсутствовать. Пункты 1-4 гарантированно работают на всех шаблонах и сборках. Пункты 4-6 гарантированно работают на дефолтном шаблоне. Для индивидуальных шаблоном могут потребоваться правки вкумода, если в шаблоне изменен код вывода изображений. F.A.Q. (будет дополняться) Приветствую! Заинтересовал ваш новый модуль "SEO Мета-тег". В описании модуля идет речь про постраничный переход в пагинации, Каким образом это реализовано? Решает ли это проблему дублей, когда идут вот такие урлы /?page=2 /?page=3 /?page=4 Да решает, если в строке есть "page=", то на страницу добавляется метатег "noindex" А будет ли это работать на моем шаблоне? Я не знаю, так как я не телепат. Гарантировано работает на дефолтном шаблоне и шаблонах сделанных на его основе. Но при небольших доработках запускается на любом шаблоне. Адаптация к нестандартным шаблонам платная. Как проверить что модуль установлен и правильно работает ? Откройте любую страницу с сортировкой или пагинацией и посмотрите ее исходный код, если в разделе <head> появилось <meta name="robots" content="noindex,follow" /> значит ок. По аналогии смотрим ссылку в пагинации на первую страницу со второй и ссылки в списках на изображениях. В случае необходимости технической поддержки пишите в личку: Адрес сайта. Доступ в административную часть Доступ на ftp Техническая поддержка сайтам на локальном хостинге не оказывается. Техническая поддержка не связанная с работоспособностью модуля платная. Автор модуля не несет ответственности за работоспособность модуля и ошибки возникшие в его работе связанные с использованием неоригинального шаблона, сторонних или сильно модифицированных версий движка, использования дополнений от сторонних разработчиков, вызывающих конфликты с кодом данного дополнения. Автор гарантирует работу модуля на оригинальном движке OcStore 1.5.х B Opencart 1.5.х скачанных с официальных сайтов. Автор не гарантирует работоспособность модуля и не осуществляет консультации и поддержку дополнения, в случае использования покупателем (ворованных, купленных в складчину дополнений, для которых у покупателя отсутствует поддержка авторов дополнений). Дополнение распространяется для использования на одном магазине. Для использования на нескольких магазинах, пожалуйста приобретайте лицензию на каждый.
    500.00 RUB
  11. Нужен ли в карточке товара: <meta name="robots" content="index, follow"> ? так как нигде не написано на сколько он нужен для ПС. расписано только что делает index, follow и noindex, nofollow по идеи данная строчка должна же быть? и должна же быть в head? речь о стандартном шаблоне и ocStore 2.1.0.2.1 P.S. Если нужен, то как правильно добавить?
  12. Как Вы настроили "Параметры URL-адресов" в Google Webmaster для вашего магазина?
  13. Добрый день! Случайно заметила, что у сайта много страниц такого типа в поисковой выдаче: http://site.ru/#!meats/cngb http://site.ru/#!product-page/cba4/ http://site.ru/index.php?route=product/product&product_id=1 что это за страницы? что означает /#!meats/cngb ?
  14. Рано или поздно эта тема всё равно появится. Итак, какой robots.txt следует ставить для Opencart 2?
  15. Здравствуйте форумчане. Толковые ребята помогите разобраться правильно ли мне сделали robots http://king-sites.com/robots.txt
  16. Запутался в зеркалах. В Яндекс-Вэбмастер у меня как главное зеркало выбран адрес сайта без префикса WWW, а в файле robots.txt Host: www.мой_сайт.ru . Не ошибся ли я, указав префикс в роботсе? Содержание файла я тупо скопировал из форума, только поставил внизу свой сайт.
  17. Допилил магазин... :-D Начал с редиректа 301 с www на сайт.ру вот тут то и начались простые вопросы которых просто один за одним последовали. Прописываю редирект в HTACCESS (для гугла) Правильно не правильно? (много там всего...). Искал использование кэш браузера для опенкарт прописать в HTACCESS, не нашел как это делать именно для опенкарт. Попробовал описать два способа в прикрепленных. Самое страшное - в поисках модуля для seo оптимизации как например Yoast WordPress SEO - не нашел. Если такое вообще в опенкарте? Понимаю что контент - но инструмента нет хорошего или плохо искал. Не ругайте строго новичка, если это было ткните. robots.txt HTACCESS.txt
  18. Как закрыть от индексации только гл.страницу Disallow: /*route=home или Disallow: /index.php или еще как?
  19. Здравствуйте. У меня есть категории. Нужно прописать <meta name=’robots’> в <head> как найти у каждой категории html страницу?
  20. Всем привет, возможно тема обсуждалась, я к сожалению не нашел ответ на вопрос: При использовании seo url например для account, достаточно ли запрета Disallow: /*route=account/ или необходимо прописывать все урл : Disallow: /account/ Disallow: /login/ Disallow: /create-account/ ........................................
×
×
  • Створити...

Important Information

На нашому сайті використовуються файли cookie і відбувається обробка деяких персональних даних користувачів, щоб поліпшити користувальницький інтерфейс. Щоб дізнатися для чого і які персональні дані ми обробляємо перейдіть за посиланням . Якщо Ви натиснете «Я даю згоду», це означає, що Ви розумієте і приймаєте всі умови, зазначені в цьому Повідомленні про конфіденційність.