Перейти к публикации
Поиск в
  • Дополнительно...
Искать результаты, содержащие...
Искать результаты в...

Поиск по сайту

Результаты поиска по тегам 'robots.txt'.

  • Поиск по тегам

    Введите теги через запятую.
  • Поиск по автору

Тип публикаций


Категории и разделы

  • Основной
    • Новости и анонсы
    • Предложения и пожелания
    • Акции, подарки, конкурсы и награды
  • Opencart 4.x
    • Opencart 4.x: Общие вопросы
    • Opencart 4.x: Установка и обновление
    • Opencart 4.x: Локализация
    • Opencart 4.x: Настройка и оптимизация
    • Opencart 4.x: Песочница
    • Opencart 4.x: Поиск модулей
    • Opencart 4.x: Отчёты об ошибках
  • Opencart 3.x
    • Opencart 3.x: Общие вопросы
    • Opencart 3.x: Установка и обновление
    • Opencart 3.x: Локализация
    • Opencart 3.x: Настройка и оптимизация
    • Opencart 3.x: Песочница
    • Opencart 3.x: Поиск модулей
    • Opencart 3.x: Отчёты об ошибках
  • Opencart 2.x
    • Opencart 2.x: Общие вопросы
    • Opencart 2.x: Установка и обновление
    • Opencart 2.x: Локализация
    • Opencart 2.x: Настройка и оптимизация
    • Opencart 2.x: Песочница
    • Opencart 2.x: Поиск модулей
    • Opencart 2.x / ocStore 2.x: Отчёты об ошибках
  • Реклама и продвижение
    • SEO-вопросы (оптимизация и продвижение магазина)
    • Контекстная реклама
    • Торговые площадки
    • E-commerce tracking и бизнес аналитика
    • Разное
  • Поддержка и ответы на вопросы
    • Общие вопросы
    • Установка, обновление, настройка
    • Шаблоны, дизайн и оформление магазина
    • Модули и дополнения
    • Помощь программистам и разработчикам
    • Мобильная витрина
    • Вопросы безопасности
    • Перевод
    • Отчёты об ошибках
    • Интернет-магазины и электронная коммерция
    • Песочница
  • Services
    • Создание магазинов под ключ
    • Design, layout and templates
    • Programming, creating modules, changing functionality
    • Setting up and minor work on an existing site
    • Обновление версии движка магазина
    • Наполнение магазина
    • Системное администрирование (настройка хостинга, серверов, ПО)
    • Другие услуги
  • Разное
    • Пользовательские обзоры дополнений
    • Примеры сайтов на OpenCart (ocStore)
    • Курилка
    • Предложения по улучшению

Категории

  • Шаблоны
    • Бесплатные шаблоны
    • Платные шаблоны
  • Фильтры
  • Цены, скидки, акции, подарки
  • Реклама и продвижение
  • Бонусы, купоны, программы лояльности
  • Блоги, новости, статьи
  • Покупки, оформление заказа, корзина
  • Опции
  • Атрибуты
  • Серии, Комплекты
  • Поиск
  • SEO, карта сайта, оптимизация
  • Кэширование, сжатие, ускорение
  • Платежные системы
  • Доставки
  • Редакторы
  • Меню, дизайн, внешний вид
  • Слайдшоу, баннеры, галереи
  • Письма, почта, рассылки, sms
  • Обратная связь, звонки
  • Обмен данными
  • Учет в заказе
  • Сравнения, закладки
  • Социальные сети
  • Парсеры
  • Модули
  • Инструменты, утилиты
  • Лицензии
  • Языковые пакеты
  • Прочее
  • Отчеты
  • Сборки
    • ocStore
  • Услуги
    • Графика и дизайн
    • Маркетинг

Категории

  • Служебные документы
  • Оплата
  • Документация Opencart

Категории

  • Общие вопросы
  • Покупка дополнений
  • Для разработчиков
  • Аккаунт
  • Техническая поддержка
  • Финансовый отдел

Категории

  • Интервью
  • Статьи

Product Groups

  • Услуги форума

Блоги

  • Konorws (Разработка и модификация Opencart)
  • Блог mr.Kent)
  • Прожектор Бритни Спирс
  • Layk
  • Продвижение интернет-магазина, seo оптимизация
  • Записная книжка
  • Блог RGB
  • Модули которые сделают сайт лучше
  • Блог веб-студии NeoSeo
  • Useful IT
  • Записи
  • Найденные решения проблем с Opencart
  • ocdroid blog
  • Заметки на полях...
  • Pimur
  • Серж Ткач
  • О жизни, смерти, о бизнесе и Опенкарте
  • Просто мысли от laim731
  • Маркетинг и продвижение интернет-магазина
  • Мой копирайтинг
  • SEO боксинг специального назначения
  • Get-Web Dev
  • Seok
  • Блоги sitecreator-а
  • Best practice
  • Vlad-Egorov-Blog
  • Блог spectre
  • commanddotcom
  • Внимание мошенники
  • Наблюдения обычного человека
  • Блог Rassol2
  • Блог Exploits
  • блог для натуралов
  • Настюша, тут есть темы
  • Пропитано рекламой
  • Tutorial
  • ОтВинта
  • Tg chnls
  • Блог
  • Блог sv2109
  • КАК ОРГАНИЗОВАТЬ НОВОСТНЫЕ ПОДПИСКИ НА БАЗЕ API OPENCART 3/0/2
  • VDS/VPS, серверы под Linux: установка, настройка, оптимизация
  • IT блог
  • Блог
  • Opencart SEO
  • Путёвые заметки о работе магазина NiceBike на платформе OpenCart
  • Blondi Blog
  • Полезные статьи, новости.
  • Блог владельца магазина
  • разное
  • ПРОДАЖА АКАУНТОВ-binance ВЕРИФИЦИРОВАННЫe ЧИСТЫЕ УСПЕВАЙТЕ КУПИТЬ ПО НИЗКОЙ ЦЕНЕ
  • Диспансеризация
  • wozobat
  • quasarbyte
  • Мой блог
  • Igorych
  • aaaaa
  • 👌🔊Bellsouth CUSTOMER support number 1+(8O8)678=9O64-☎phone number
  • Liudmila marketer
  • Заметки реалиста
  • ocstore на ноліках
  • Про Opencart
  • Блог про рутинні процеси в магазині на ocsote
  • Radaevich
  • Плагіни Opencart
  • Крафтовий OpenCart: Старт пригоди. Ціна створення сайту на Опенкарт

container

  • Support
  • Tutorials

Искать результаты в...

Искать результаты, содержащие...


Дата создания

  • Начать

    Конец


Последнее обновление

  • Начать

    Конец


Фильтр по количеству...

Зарегистрирован

  • Начать

    Конец


Группа


Сайт


Skype


Город:


Интересы

  1. Скачать / Купить дополнение Edit Robots.txt Редактор Robot.txt - модуль для редактирования robots.txt прямо из админки. Может кому понадобится) Если файла нет (как на оригинальном opencart'е к примеру), он его создаст. Устанавливается в модули, vQmod'а не требует, никакие файлы не перезаписывает. Распространяется — «как есть» (as is). Версия Opencart — 1.5, 2.1, 2.2, 2.3, 3.0. Установка — стандартная через Установку дополнений (через встроенный Ocmod). Для версии Opencart 1.5 — просто загрузите содержимое upload из архива 1.5.x.gixoc.editrobots.zip в корень сайта. Добавлена версия для OpenCart 3 (спасибо Nymphetamine за адаптацию) 01.02.2019 Теперь при нажатии на "Создать" ссылки генерируются с учетом ЧПУ Opencart, т.е. создаются действительные ссылки 28.09.2018 Добавил возможность создания не только самого файла robots.txt (если он не существует), но и его содержимое. Теперь при нажатии на "Создать" - поле заполняется данными из файла robots.txt сборки ocStore соответствующей версии. Добавил Gixoc Добавлено 21.01.2018 Категория SEO, карта сайта, оптимизация Системные требования Метод активации Без активации Ioncube Loader Нет ocStore 3.0 2.3 2.2 2.1 1.5.5.1.2 1.5.5.1.1 1.5.5.1 1.5.4.1.2 1.5.4.1.1 1.5.4.1 1.5.3.1 1.5.2.1 1.5.1.3 OpenCart.Pro, ocShop Opencart.pro 2.3 Opencart.pro 2.1 OcShop 1.5.6.4.х Обращение к серверу разработчика Нет  
  2. Здравствуйте. Недавно гугл бот просканировал сайт, но в индекс не "выложил". Я проверил через Search Console как отдельно страницы товаров так и категории, показывает в отчете что запрещены для добавление в индекс. Причина запрета пишет - файл роботс. Ниже мой файл. Что тут поменять?
  3. Здравствуйте. После установки Версия ocStore 2.1.0.1 стоит такой robots.txt: User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Clean-param: tracking Подскажите, нашел вот такой, стоит ли заменить?: User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*?page= Disallow: /*&page= Disallow: /wishlist Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*route=product/search Disallow: /*?page= Disallow: /*&page= Clean-param: tracking Clean-param: filter_name Clean-param: filter_sub_category Clean-param: filter_description Disallow: /wishlist Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category Host: Vash_domen Sitemap: http://Vash_domen/sitemap.xml
  4. Меня интересует правильная настройка sitemap. Сейчас динамическая карта находится https://gemelli.com.ua/index.php?route=extension/feed/google_sitemap, а для search console показывается карта с url sitemap.xml - статическая. Мне нужно что-бы динамическая карта попадала в статическую и для googl показывалась с правильным ЧПУ. Настроить приоритеты и время обновления, а также правильно настроить robots.txt.
  5. Предположим, есть у меня страница акриловых ванн. Ссылка на эту страницу: index.php?route=product/category&path=25_32 Чпу ссылка этой страницы: /vanny/akrilovye/ Вопрос: Если в robots.txt я напишу: Disallow: index.php?route=product/category&path=25_32 Таким образом я запрещу поисковику индексировать страницу акриловых ванн совсем? или только её не-чпу дубль? Мне просто не совсем понятно, как это дело работает. Запрет идет на индексацию содержимого страницы или ссылок на содержимое?
  6. Добрый день! Ребят, столкнулись с такой проблемой, что в сеч консоли не индексируются страницы товаров и еще часть страниц сайта, по подсказке в сеч консоли пишет, что индексация заблокирована в файле Robots.txt. 1.Не могу понять ,что закрыто или что не дописали, (есть подозрение , что его составляли от фонаря) файл выглядит так : User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Clean-param: tracking Host: https://bogema2002.com.ua/
  7. Кто как считает, какие страницы следует скрывать от ПС в robots.txt? На некоторых сайтах скрыто чуть ли не половина сайта (и корзина, и восстановление логина, и рега и т.д.).
  8. Уважаемые специалисты! Требуется доработать действующий магазин на Opencart 1.5.5: 1. Добавить Https протокол (SSL ключ получен) . Прописать редиректы на новую версию. 2. Добавить кроссбраузерную мобильную версию сайта, оптимизировать под стандарту. 3. Обновить установленные модули отзывов, новостей, оплаты, доставки (магазин давно не обновлялся). 4. Исправить внутренние ошибки сайта в css и javascript. Отредактировать robots.txt \ sitemap.xml 5. Настроить 301 редирект на неработающие страницы. Определить все битые бэклинки. 6. Оптимизация загрузки страниц сайта. 7. Дать рекомендации для дальнейшего развития магазина. Интересует долгосрочное сотрудничество. Ссылку на сайт предоставим в л.с. Успехов.
  9. Всем привет. Подскажите пожалуйста правильно ли настроен robots.txt движок сайта ocstore 1.5.5.1.2 ?? User-agent: Yandex User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?coolfilter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*compare-products Disallow: /*search Disallow: /*cart Disallow: /*checkout Disallow: /*login Disallow: /*logout Disallow: /*vouchers Disallow: /*wishlist Disallow: /*my-account Disallow: /*order-history Disallow: /*newsletter Disallow: /*return-add Disallow: /*forgot-password Disallow: /*downloads Disallow: /*returns Disallow: /*transactions Disallow: /*create-account Disallow: /*recurring Disallow: /*address-book Disallow: /*reward-points Disallow: /*affiliate-forgot-password Disallow: /*create-affiliate-account Disallow: /*affiliate-login Disallow: /*affiliates User-agent: Yandex Crawl-delay: 10 Host: https://**** Sitemap: https://****/sitemap.xml
  10. Приветствую всех. Еще раз всех поблагодарю, уже не раз меня выручали люди на форуме, на всей стадии моего проекта с 0,знаний было столько же - полный 0, не то что в програмировании в ворде не знал как работать, но с вашей помощью сделал более менее проект. Собственно к проблеме. 1)Сначала использовал гугловский сайтмап, но он выдавал 624 ошибки с тэгом img, как я понял криминала нету ,то что Яша не умеет читать тэги, но я решил доработать и поставил яндекс сайт мап. 2)И у меня не радуют теперь ошибки выдаваемые в роботс.тхт Вопрос как вылечить и робот.тхт от этих ошибок?Неужели просто удалить две строчки хмл?и как это скажется? Фото прилагаю ниже Сайт lockerstore.ru В .htacess RewriteEngine On RewriteCond %{HTTP_HOST} ^www.lockerstore.ru$ [NC] RewriteRule ^(.*)$ https://lockerstore.ru/$1 [R=301,L] RewriteBase / RewriteRule ^sitemap.xml$ index.php?route=extension/feed/google_sitemap [L] RewriteRule ^googlebase.xml$ index.php?route=extension/feed/google_base [L] RewriteRule ^yandex.xml$ index.php?route=feed/yandex_sitemap [L] RewriteRule ^system/download/(.*) index.php?route=error/not_found [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{REQUEST_URI} !.*\.(ico|gif|jpg|jpeg|png|js|css) RewriteRule ^([^?]*) index.php?_route_=$1 [L,QSA] RewriteEngine On RewriteCond %{HTTPS} off RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301] <IfModule mod_expires.c> Робот.тхт User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= host: https://lockerstore.ru Sitemap: https://lockerstore.ru/sitemap.xml Sitemap: https://lockerstore.ru/yandex.xml User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Спасибо за внимание.
  11. Извините за дикость! Только начинаю разбираться в данном вопросе. Но может подскажите, что делать с этой ошибкой? Гоша ругается на роботс а именно на строку Clean-param: tracking, Вопрос? как исправить или просто не обращать внимания, все таки директива для Яндекса.
  12. Подскажите пожалуйста.Начал долго грузиться сайт stroymarket-online.com.ua . Не могу понять в чем дело.В поддержке хоста сказали: - Ваш сайт очень интенсивно индексирует бот яндекса. Если это не прекратится в течении суток - ограничьте его работу через robots.txt. Что здесь исправить? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Clean-param: tracking
  13. Добрый день! Нужна помощь! Перелопапил весь инет, но результата не получил. Проблема в выдаче ошибки "HTTP ERROR 500" при загрузке sitemap по предоставленной модулем ссылке - /index.php?route=extension/feed/google_sitemap. Очень нужна помощь. Может я что-то неправильно указал в htaccess?. Спасибо!
  14. Здравствуйте. В индекс П С попали не нужные страницы которые без мета тегов и тд(Поиск товара, обратная связь , регистрация ) . Убирать через robots.txt не вижу смысла .. Вставил вручную данный тег " <meta name="robots" content="noindex,nofollow" />" , но он стал по верх всего , просто не корректно смотрится " см картинку"... Вопрос :Планирую вставить этот тег " <meta name="robots" content="noindex,nofollow" />" после тегов <meta property="og:title" content=" <meta property="og:type" content="website" /> <meta property="og:url" content=" <meta property="og:image" content=" Но какой скрипт вставляет их туда я хз Так как в программирование я полный профан подскажите кому не лень....
  15. Здравствуйте! Пожалуйста помогите подружиться с роботом Яндекс :-) при создании сайта, прописала в файле robots.txt такие строки Теперь, когда мне необходима индексация, внесла изменения в robots.txt Так же загрузила всё в вебмастер, в том числе и sitemap. Робот заходит, но не хочет индексировать ссылаясь на всё тот же файл robots.txt....Подскажите, что делать? Количество проиндексированных страниц - 0! Может кто уже сталкивался с такой же проблемой? Время очень дорого :(
  16. Интернет магазин ZUNDA.RU Добрый день. Прошу не бесплатной помощи. (яндекс кошелек, сбербанк для России) Второй раз приходит отказ от маркета, из-за такой проблемы: Маркет пишет ответ на запрос по обратной связи: Как решение проблемы, они предлагают убрать мне галочки с пунктов отмеченных на 3 скрине (и то не факт наверное что получится пройти). Но я считаю что статистика эта нужна и мне не хотелось бы этого делать. У кого есть какие-то варианты. Обратите внимание, что при отправке магазина на очередную проверку маркета, проходит 24-36 часов до ответа, поэтому нужны именно знающие люди, а не теоретики. Очень рассчитываю на Вашу помощь. Ну а по возможности, посмотрите robots.txt и sitemap.html
  17. Добрый день. Требуется настроить robots.txt, чтобы закрыть от индексации все служебные страницы и прочие папки, куда соваться яндексу и гуглу не стоит))), в общем, привести файл в человеческий вид. Сейчас есть только стандартный robots.txt. Понимаю, что там все несложно, но нет времени разбираться, поэтому хотелось бы получить помощь профессионала, кто в этом разбирается досконально. Предложения просьба писать в личку с указанием стоимости работы.
  18. Такое сообщение выдает в инструментах веб мастера. GOOGLE (Файл Sitemap содержит URL, доступ к которым заблокирован в файле robots.txt.) ИСПОЛЬЗУЮ СТАНДАРТНЫЙ Sitemap_Google в Каналах продвижения админки. Вот robots.txt., в чем может быть проблема, первый раз работаю с опенкартом. ПОМОГИТЕ РАЗОБРАТЬСЯ User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /wishlist Disallow: /user Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category Host: sunny888.ru Sitemap: http://sunny888.ru/index.php?route=feed/google_sitemap Sitemap: http://sunny888.ru/sitemap.xml
  19. - Ребята, стандартный Sitemap сам автоматический обновляется? - Именно такую ссылку надо указывать в Robots.txt? - Когда перехожу просто http://sunny888.ru/sitemap.xml - тоже самое открывает, хотя там нет в корне такого файла. пример: http://sunny888.ru/index.php?route=feed/google_sitemap
  20. Что сделать, чтобы поисковик не индексировал страницу панели управления хостингом? Поисковая система проиндексировала такой url адрес: http://my_domain.ru:2222/ Кто знает, как правильно закрыть от индексации данный url через robots.txt, что именно прописать нужно? Я бы сделал так: Disallow: /2222/, но, вначале стоит двоеточие, у меня возникают сомнения в правильности. Вот и не знаю, как правильно прописать: Disallow: /2222/ или Disallow: :2222/ или еще как-то.
  21. User-agent: * Disallow: /*route=checkout/ Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?order= Disallow: /*&order= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*?currency= Disallow: /*?route=product Disallow: /*?keyword Disallow: /*?product/product&product_id= Disallow: /*?product/category&path= Disallow: /*?route=common/home Disallow: /*?product_id Disallow: /&coolfilter* Disallow: /?coolfilter* User-agent: Yandex Disallow: /*route=checkout/ Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?order= Disallow: /*&order= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?currency= Disallow: /*?route=product Disallow: /*?keyword Disallow: /*?product/product&product_id= Disallow: /*?product/category&path= Disallow: /*?route=common/home Disallow: /*?product_id Disallow: /&coolfilter* Disallow: /?coolfilter* Host: www.micma.ru Sitemap: http://micma.ru/index.php?route=feed/google_sitemap
  22. Здравствуйте. Столкнулся с проблемой. Не индексируются статьи. Пробовал разные способы ускорения - через инструменты вебмастеров и пр. Подозреваю, что дело в robots.txt, но сам разобраться не могу. Прошу специалистов проверить и подсказать. Ссылки вида http://krovatki.biz/articles/chto-takoe-krovatka-transformer. Заранее спасибо.
  23. Всем добрый день, извиняюсь если что то написал неправильно или слишком слюнтяво, но сам только начинаю пытаться осваивать SEO. Помогите пожалуйста один вопрос решить. Нужно запрещать главную страницу к индексации или нет? Весь смысл в том что сайт является магазином. Товар и прочая информация обновляется с регулярностью 2 дня и все это отображается на главной. Если нужно запретить главную к индексации, то как написать директиву в robots.txt? Заранее Спасибо! Ссылка на главную магазина http://www.zolywka.ru/ не является рекламой.
  24. Друзья, есть такое указание: Необходимо, чтобы при запросе любых некорректных URLs вида http://site.ru/?N, где N любой численный или строковый параметр, сервер отдавал HTTP/1.1 404 Not Found, либо HTTP/1.1 301 Moved Permanently с переадресацией на главную... Каким образом составить код для .htaccess и robots.txt ?
  25. Много читали про robots txt в итоге у нас содержимое файла выглядит следующим образом ВОПРОС ВОТ В ЧЕМ: у нас интернет-магазин, нужно, чтобы индексировались страницы с товаром, производителями, в общем весь товар...правильный ли у нас для этого файл??????????????посмотрите пожалуйста....... User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*?page= Disallow: /*&page= Disallow: /wishlist Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*route=product/search Disallow: /*?page= Disallow: /*&page= Clean-param: tracking Clean-param: filter_name Clean-param: filter_sub_category Clean-param: filter_description Disallow: /wishlist Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category Host: www.chelovechek-baby.ru
×
×
  • Создать...

Важная информация

На нашем сайте используются файлы cookie и происходит обработка некоторых персональных данных пользователей, чтобы улучшить пользовательский интерфейс. Чтобы узнать для чего и какие персональные данные мы обрабатываем перейдите по ссылке. Если Вы нажмете «Я даю согласие», это означает, что Вы понимаете и принимаете все условия, указанные в этом Уведомлении о Конфиденциальности.