Jump to content

Search the Community

Showing results for tags 'robots.txt'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Основной
    • Новости и анонсы
    • Предложения и пожелания
    • Акции, подарки, конкурсы и награды
  • For developers
    • Общие вопросы
    • Нововведения на форуме
  • Opencart 3.x
    • Opencart 3.x: Общие вопросы
    • Opencart 3.x: Установка и обновление
    • Opencart 3.x: Локализация
    • Opencart 3.x: Настройка и оптимизация
    • Opencart 3.x: Песочница
    • Opencart 3.x: Поиск модулей
    • Opencart 3.x: Отчёты об ошибках
  • Opencart 2.x
    • Opencart 2.x: Общие вопросы
    • Opencart 2.x: Установка и обновление
    • Opencart 2.x: Локализация
    • Opencart 2.x: Настройка и оптимизация
    • Opencart 2.x: Песочница
    • Opencart 2.x: Поиск модулей
    • Opencart 2.x / ocStore 2.x: Отчёты об ошибках
  • Поддержка и ответы на вопросы
    • Общие вопросы
    • Установка, обновление, настройка
    • Шаблоны, дизайн и оформление магазина
    • Модули и дополнения
    • Помощь программистам и разработчикам
    • Мобильная витрина
    • Вопросы безопасности
    • SEO-вопросы (оптимизация и продвижение магазина)
    • Перевод
    • Отчёты об ошибках
    • Интернет-магазины и электронная коммерция
    • Песочница
  • Услуги
    • Создание магазинов под ключ
    • Дизайн, верстка и шаблоны
    • Программирование, создание модулей, изменение функциональности
    • Настройка и мелкая работа по уже существующему сайту
    • Обновление версии движка магазина
    • Наполнение магазина
    • Системное администрирование (настройка хостинга, серверов, ПО)
    • Другие услуги
    • Отзывы об исполнителях
    • Отзывы о заказчиках
  • Разное
    • Примеры сайтов на OpenCart (ocStore)
    • Курилка
    • Предложения по улучшению
    • Группы

Categories

  • Шаблоны
    • Бесплатные шаблоны
    • Платные шаблоны
  • Filters
  • Promotions & Pricing
  • Coupons & reward points, affiliate programs
  • Blogs, News & Articles
  • Shopping Cart & Order
  • Product Options
  • Product Attributes
  • Product Combinations
  • Search
  • SEO & Optimization
  • Caching & Server Performance
  • Платежные системы
  • Доставки
  • Editors
  • Design & Navigation
  • Banners, Slideshows & Galleries
  • Email Marketing & SMS Integration
  • Customer Support & Chat
  • Обмен данными
  • Учет в заказе
  • Compare & Wishlist
  • Социальные сети
  • Parsers
  • Модули
  • Tools & Developer Tools
  • Licenses
  • Языковые пакеты
  • Прочее
  • Отчеты
  • Сборки
  • Услуги

Categories

  • Настройка OpenCart
  • Служебные документы
  • Оплата

Blogs

  • Konorws (Разработка и модификация Opencart)
  • Блог mr.Kent)
  • AWS
  • Прожектор Бритни Спирс
  • Layk
  • Продвижение интернет-магазина, seo оптимизация
  • Записная книжка
  • Блог RGB
  • Записки от sitecreator
  • О программировании и другом
  • Модули которые сделают сайт лучше
  • Блог веб-студии NeoSeo
  • Useful IT
  • Задачи, идеи, решения.
  • Найденные решения проблем с Opencart
  • ocdroid blog
  • Заметки на полях...
  • Pimur
  • Серж Ткач
  • О жизни, смерти, о бизнесе и Опенкарте
  • Полезное с бесполезным
  • Просто мысли от laim731
  • Маркетинг и продвижение интернет-магазина
  • Магазин Tv-Project.com
  • Мой копирайтинг
  • Разработка под Opencart

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


MSN


Сайт


ICQ


Jabber


Skype


Город:


Интересы

Found 31 results

  1. Version 1.1.2

    485 downloads

    Редактор Robot.txt - модуль для редактирования robots.txt прямо из админки. Может кому понадобится) Если файла нет (как на оригинальном opencart'е к примеру), он его создаст. Устанавливается в модули, vQmod'а не требует, никакие файлы не перезаписывает. Распространяется — «как есть» (as is). Версия Opencart — 1.5, 2.1, 2.2, 2.3, 3.0. Установка — стандартная через Установку дополнений (через встроенный Ocmod). Для версии Opencart 1.5 — просто загрузите содержимое upload из архива 1.5.x.gixoc.editrobots.zip в корень сайта. Добавлена версия для OpenCart 3 (спасибо Nymphetamine за адаптацию) 01.02.2019 Теперь при нажатии на "Создать" ссылки генерируются с учетом ЧПУ Opencart, т.е. создаются действительные ссылки 28.09.2018 Добавил возможность создания не только самого файла robots.txt (если он не существует), но и его содержимое. Теперь при нажатии на "Создать" - поле заполняется данными из файла robots.txt сборки ocStore соответствующей версии.

    Free

  2. Здравствуйте. После установки Версия ocStore 2.1.0.1 стоит такой robots.txt: User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Clean-param: tracking Подскажите, нашел вот такой, стоит ли заменить?: User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*?page= Disallow: /*&page= Disallow: /wishlist Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*route=product/search Disallow: /*?page= Disallow: /*&page= Clean-param: tracking Clean-param: filter_name Clean-param: filter_sub_category Clean-param: filter_description Disallow: /wishlist Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category Host: Vash_domen Sitemap: http://Vash_domen/sitemap.xml
  3. Добрый день! Ребят, столкнулись с такой проблемой, что в сеч консоли не индексируются страницы товаров и еще часть страниц сайта, по подсказке в сеч консоли пишет, что индексация заблокирована в файле Robots.txt. 1.Не могу понять ,что закрыто или что не дописали, (есть подозрение , что его составляли от фонаря) файл выглядит так : User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Clean-param: tracking Host: https://bogema2002.com.ua/
  4. Приветствую всех. Еще раз всех поблагодарю, уже не раз меня выручали люди на форуме, на всей стадии моего проекта с 0,знаний было столько же - полный 0, не то что в програмировании в ворде не знал как работать, но с вашей помощью сделал более менее проект. Собственно к проблеме. 1)Сначала использовал гугловский сайтмап, но он выдавал 624 ошибки с тэгом img, как я понял криминала нету ,то что Яша не умеет читать тэги, но я решил доработать и поставил яндекс сайт мап. 2)И у меня не радуют теперь ошибки выдаваемые в роботс.тхт Вопрос как вылечить и робот.тхт от этих ошибок?Неужели просто удалить две строчки хмл?и как это скажется? Фото прилагаю ниже Сайт lockerstore.ru В .htacess RewriteEngine On RewriteCond %{HTTP_HOST} ^www.lockerstore.ru$ [NC] RewriteRule ^(.*)$ https://lockerstore.ru/$1 [R=301,L] RewriteBase / RewriteRule ^sitemap.xml$ index.php?route=extension/feed/google_sitemap [L] RewriteRule ^googlebase.xml$ index.php?route=extension/feed/google_base [L] RewriteRule ^yandex.xml$ index.php?route=feed/yandex_sitemap [L] RewriteRule ^system/download/(.*) index.php?route=error/not_found [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{REQUEST_URI} !.*\.(ico|gif|jpg|jpeg|png|js|css) RewriteRule ^([^?]*) index.php?_route_=$1 [L,QSA] RewriteEngine On RewriteCond %{HTTPS} off RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301] <IfModule mod_expires.c> Робот.тхт User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= host: https://lockerstore.ru Sitemap: https://lockerstore.ru/sitemap.xml Sitemap: https://lockerstore.ru/yandex.xml User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Спасибо за внимание.
  5. Извините за дикость! Только начинаю разбираться в данном вопросе. Но может подскажите, что делать с этой ошибкой? Гоша ругается на роботс а именно на строку Clean-param: tracking, Вопрос? как исправить или просто не обращать внимания, все таки директива для Яндекса.
  6. Добрый день, форумчане. Думаю над robots.txt. Выкурил уже весь форум, но решения как такового нет. Для того чтобы избавиться от дублей планирую закрыть категории товаров с надеждой на то, что будут индексироваться товары по прямым ссылкам. Посмотрите мой robots.txt, пожалуйста, всё ли так делаю. User-agent: * Disallow: /cache Disallow: /catalog Disallow: /download Disallow: /system Disallow: /index.php?route=account/* Disallow: /index.php?route=checkout/* Disallow: /index.php?route=common/home Disallow: /index.php?route=product/product/captcha Disallow: /index.php?route=information/contact/captcha Disallow: /index.php?route=information/information&information_id= Disallow: /index.php?route=account/login Disallow: /*route=account/* Disallow: /*route=checkout/* Disallow: /*route=affiliate/ Disallow: /*route=product/search Disallow: /*?* Disallow: /*&* Disallow: /matreshki Disallow: /matreshki/semenovskaya Disallow: /matreshki/tradicionnye Disallow: /matreshki/avtorskaya Disallow: /matreshki/neobychnye Disallow: /matreshki/futlyary-matreshki Disallow: /beresta Disallow: /beresta/posuda Disallow: /beresta/nabory-dlya-speciy Disallow: /beresta/salfetnicy Disallow: /hohloma Disallow: /hohloma/nabory-predmetov Disallow: /hohloma/doski Disallow: /shkatulki Disallow: /shkatulki/mstyora Disallow: /shkatulki/paleh User-agent: Yandex Disallow: /cache Disallow: /catalog Disallow: /download Disallow: /system Disallow: /index.php?route=account/* Disallow: /index.php?route=checkout/* Disallow: /index.php?route=common/home Disallow: /index.php?route=product/product/captcha Disallow: /index.php?route=information/contact/captcha Disallow: /index.php?route=information/information&information_id= Disallow: /index.php?route=account/login Disallow: /*route=account/* Disallow: /*route=checkout/* Disallow: /*route=affiliate/ Disallow: /*route=product/search Disallow: /*?* Disallow: /*&* Disallow: /matreshki Disallow: /matreshki/semenovskaya Disallow: /matreshki/tradicionnye Disallow: /matreshki/avtorskaya Disallow: /matreshki/neobychnye Disallow: /matreshki/futlyary-matreshki Disallow: /beresta Disallow: /beresta/posuda Disallow: /beresta/nabory-dlya-speciy Disallow: /beresta/salfetnicy Disallow: /hohloma Disallow: /hohloma/nabory-predmetov Disallow: /hohloma/doski Disallow: /shkatulki Disallow: /shkatulki/mstyora Disallow: /shkatulki/paleh Host: www.rusgifts.com
  7. Здравствуйте. В индекс П С попали не нужные страницы которые без мета тегов и тд(Поиск товара, обратная связь , регистрация ) . Убирать через robots.txt не вижу смысла .. Вставил вручную данный тег " <meta name="robots" content="noindex,nofollow" />" , но он стал по верх всего , просто не корректно смотрится " см картинку"... Вопрос :Планирую вставить этот тег " <meta name="robots" content="noindex,nofollow" />" после тегов <meta property="og:title" content=" <meta property="og:type" content="website" /> <meta property="og:url" content=" <meta property="og:image" content=" Но какой скрипт вставляет их туда я хз Так как в программирование я полный профан подскажите кому не лень....
  8. Здравствуйте! Пожалуйста помогите подружиться с роботом Яндекс :-) при создании сайта, прописала в файле robots.txt такие строки Теперь, когда мне необходима индексация, внесла изменения в robots.txt Так же загрузила всё в вебмастер, в том числе и sitemap. Робот заходит, но не хочет индексировать ссылаясь на всё тот же файл robots.txt....Подскажите, что делать? Количество проиндексированных страниц - 0! Может кто уже сталкивался с такой же проблемой? Время очень дорого :(
  9. Интернет магазин ZUNDA.RU Добрый день. Прошу не бесплатной помощи. (яндекс кошелек, сбербанк для России) Второй раз приходит отказ от маркета, из-за такой проблемы: Маркет пишет ответ на запрос по обратной связи: Как решение проблемы, они предлагают убрать мне галочки с пунктов отмеченных на 3 скрине (и то не факт наверное что получится пройти). Но я считаю что статистика эта нужна и мне не хотелось бы этого делать. У кого есть какие-то варианты. Обратите внимание, что при отправке магазина на очередную проверку маркета, проходит 24-36 часов до ответа, поэтому нужны именно знающие люди, а не теоретики. Очень рассчитываю на Вашу помощь. Ну а по возможности, посмотрите robots.txt и sitemap.html
  10. Добрый день. Требуется настроить robots.txt, чтобы закрыть от индексации все служебные страницы и прочие папки, куда соваться яндексу и гуглу не стоит))), в общем, привести файл в человеческий вид. Сейчас есть только стандартный robots.txt. Понимаю, что там все несложно, но нет времени разбираться, поэтому хотелось бы получить помощь профессионала, кто в этом разбирается досконально. Предложения просьба писать в личку с указанием стоимости работы.
  11. Такое сообщение выдает в инструментах веб мастера. GOOGLE (Файл Sitemap содержит URL, доступ к которым заблокирован в файле robots.txt.) ИСПОЛЬЗУЮ СТАНДАРТНЫЙ Sitemap_Google в Каналах продвижения админки. Вот robots.txt., в чем может быть проблема, первый раз работаю с опенкартом. ПОМОГИТЕ РАЗОБРАТЬСЯ User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /wishlist Disallow: /user Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category Host: sunny888.ru Sitemap: http://sunny888.ru/index.php?route=feed/google_sitemap Sitemap: http://sunny888.ru/sitemap.xml
  12. Предположим, есть у меня страница акриловых ванн. Ссылка на эту страницу: index.php?route=product/category&path=25_32 Чпу ссылка этой страницы: /vanny/akrilovye/ Вопрос: Если в robots.txt я напишу: Disallow: index.php?route=product/category&path=25_32 Таким образом я запрещу поисковику индексировать страницу акриловых ванн совсем? или только её не-чпу дубль? Мне просто не совсем понятно, как это дело работает. Запрет идет на индексацию содержимого страницы или ссылок на содержимое?
  13. Скачать/Купить дополнение Edit Robots.txt Редактор Robot.txt - модуль для редактирования robots.txt прямо из админки. Может кому понадобится) Если файла нет (как на оригинальном opencart'е к примеру), он его создаст. Устанавливается в модули, vQmod'а не требует, никакие файлы не перезаписывает. Распространяется — «как есть» (as is). Версия Opencart — 1.5, 2.1, 2.2, 2.3, 3.0. Установка — стандартная через Установку дополнений (через встроенный Ocmod). Для версии Opencart 1.5 — просто загрузите содержимое upload из архива 1.5.x.gixoc.editrobots.zip в корень сайта. Добавлена версия для OpenCart 3 (спасибо Nymphetamine за адаптацию) 01.02.2019 Теперь при нажатии на "Создать" ссылки генерируются с учетом ЧПУ Opencart, т.е. создаются действительные ссылки 28.09.2018 Добавил возможность создания не только самого файла robots.txt (если он не существует), но и его содержимое. Теперь при нажатии на "Создать" - поле заполняется данными из файла robots.txt сборки ocStore соответствующей версии. Добавил Gixoc Добавлено 21.01.2018 Категория SEO, карта сайта, оптимизация Системные требования Сайт разработчика https://gixoc.ru Старая цена Метод активации Без активации Ioncube Loader Нет OpenCart 3.0 2.3 2.2 2.1 2.0 1.5.6.4 1.5.6.3 1.5.6.2 1.5.6.1 1.5.6 1.5.5.1 1.5.5 1.5.4.1 1.5.3.1 ocStore 3.0 2.3 2.2 2.1 1.5.5.1.2 1.5.5.1.1 1.5.5.1 1.5.4.1.2 1.5.4.1.1 1.5.4.1 1.5.3.1 1.5.2.1 1.5.1.3 OpenCart.Pro, ocShop Opencart.pro 2.3 Opencart.pro 2.1 OcShop 1.5.6.4.х Обращение к серверу разработчика
  14. Всем доброго времени суток, уважаемые форумчане. Поставил свой сайт на индексацию. Гугл проверил и начал свое дело. Все вроде хорошо, каждый день по 100 - 150 ссылок индексируется, но меня смутила одна вещь, откуда у меня в магазине аж СТОЛЬКО ссылок - 2481. Товаров 522, + категории 200, + производители 190 ну и так, по мелочам. В лучшем случае - 1500. http://gyazo.com/887535548334a97cc3da2d5d23b7cec9 В robots.txt по скрывал все что не надо: User-agent: * Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /wishlist Disallow: /login Disallow: /checkout Disallow: /simpleregister Disallow: /simplecheckout Disallow: /vqmod Disallow: /account Host: alcosale.org Да и еще. Исправил ссылки типа /index.php?route=product/product&product_id=43 на нормальные: /product. Использовал для этого инструкцию [url=http://loco.ru/materials/204-opencart-custom-seo-urls]http://loco.ru/materials/204-opencart-custom-seo-urls Грешу на то, что данным способом просто скрыл их от глаз (я имею ввиду /index.php?route=product/product&product_id=43), но они все равно остались и уверенно себя чувствуют. А поисковики их успешно индексируют. Кто что думает по этому поводу?
  15. Подскажите пожалуйста. как мне в файле robots.txt закрыть от индексацию не все товары,а только несколько товаров в категории. пример вот категория /Ambient-Lounge/Acoustic_Sofa/ вот товар который хочу закрыть от идек-ции /Ambient-Lounge/Acoustic_Sofa/Acoustic_Sofa-Eco_Weave.html /Ambient-Lounge/Acoustic_Sofa/Acoustic_Sofa-Hot_Chocolate.html /Ambient-Lounge/Acoustic_Sofa/Acoustic_Sofa-Luscious_Grey.html /Ambient-Lounge/Acoustic_Sofa/Acoustic_Sofa-Sakura_Pink.html /Ambient-Lounge/Acoustic_Sofa/Acoustic_Sofa-Wildberry_Deluxe.html
  16. Здравствуйте. Столкнулся с проблемой. Не индексируются статьи. Пробовал разные способы ускорения - через инструменты вебмастеров и пр. Подозреваю, что дело в robots.txt, но сам разобраться не могу. Прошу специалистов проверить и подсказать. Ссылки вида http://krovatki.biz/articles/chto-takoe-krovatka-transformer. Заранее спасибо.
  17. - Ребята, стандартный Sitemap сам автоматический обновляется? - Именно такую ссылку надо указывать в Robots.txt? - Когда перехожу просто http://sunny888.ru/sitemap.xml - тоже самое открывает, хотя там нет в корне такого файла. пример: http://sunny888.ru/index.php?route=feed/google_sitemap
  18. Уважаемые специалисты! Требуется доработать действующий магазин на Opencart 1.5.5: 1. Добавить Https протокол (SSL ключ получен) . Прописать редиректы на новую версию. 2. Добавить кроссбраузерную мобильную версию сайта, оптимизировать под стандарту. 3. Обновить установленные модули отзывов, новостей, оплаты, доставки (магазин давно не обновлялся). 4. Исправить внутренние ошибки сайта в css и javascript. Отредактировать robots.txt \ sitemap.xml 5. Настроить 301 редирект на неработающие страницы. Определить все битые бэклинки. 6. Оптимизация загрузки страниц сайта. 7. Дать рекомендации для дальнейшего развития магазина. Интересует долгосрочное сотрудничество. Ссылку на сайт предоставим в л.с. Успехов.
  19. Подскажите пожалуйста.Начал долго грузиться сайт stroymarket-online.com.ua . Не могу понять в чем дело.В поддержке хоста сказали: - Ваш сайт очень интенсивно индексирует бот яндекса. Если это не прекратится в течении суток - ограничьте его работу через robots.txt. Что здесь исправить? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Clean-param: tracking
  20. Уважаемые спецы, что-то не хватает тямы разобраться в правилах запрета динамических ссылок: Есть динамическая ссылка типа: mysite/index.php?route=news/news&npath=2&news_id=1 и её дубли: mysite/index.php?route=news/news&npath=-1&news_id=1 mysite/index.php?route=news/news&news_id=1 Как правильно запретить динамические дубли в robots.txt??? (чтобы основная ссылка была открыта для индексации?) Вариант №1 Disallow: /index.php?route=news/news&npath=-1&news_id= Disallow: /index.php?route=news/news&news_id= Вариант №2 Disallow: /*-1&news_id=* Disallow: / (а второй, я даже не знаю как, чтобы основная ссылка индексировалась?) КАК ПРАВИЛЬНО???
  21. Кто как считает, какие страницы следует скрывать от ПС в robots.txt? На некоторых сайтах скрыто чуть ли не половина сайта (и корзина, и восстановление логина, и рега и т.д.).
  22. 1) В файле robots.txt по умолчанию уже что-то прописано а именно Я так понимаю, это защита от индексирования? 2) Существует ли возможность описание категории поместить под списком товаров, чтобы человек видел в первую очередь товар? Либо же через опцию "скрытый текст", но реализацию этого я нашёл только через javascript, что не видят поисковики( Спасибо за ответы!
  23. Друзья, есть такое указание: Необходимо, чтобы при запросе любых некорректных URLs вида http://site.ru/?N, где N любой численный или строковый параметр, сервер отдавал HTTP/1.1 404 Not Found, либо HTTP/1.1 301 Moved Permanently с переадресацией на главную... Каким образом составить код для .htaccess и robots.txt ?
  24. Доброго времени суток. Скажите пожалуйста , могу ли я составить robots.txt следующим образом Запретить изначально индексацию всего сайта диррективой Disallow а после разрешить индексацию только определенных страниц? Disallow: / Allow: /page1 Allow: /page2 Allow: /page3 Allow: /page4 Allow: /page5 Allow: /page6 Заранее спасибо за ответ
  25. Всем привет. Подскажите пожалуйста правильно ли настроен robots.txt движок сайта ocstore 1.5.5.1.2 ?? User-agent: Yandex User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?coolfilter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*compare-products Disallow: /*search Disallow: /*cart Disallow: /*checkout Disallow: /*login Disallow: /*logout Disallow: /*vouchers Disallow: /*wishlist Disallow: /*my-account Disallow: /*order-history Disallow: /*newsletter Disallow: /*return-add Disallow: /*forgot-password Disallow: /*downloads Disallow: /*returns Disallow: /*transactions Disallow: /*create-account Disallow: /*recurring Disallow: /*address-book Disallow: /*reward-points Disallow: /*affiliate-forgot-password Disallow: /*create-affiliate-account Disallow: /*affiliate-login Disallow: /*affiliates User-agent: Yandex Crawl-delay: 10 Host: https://**** Sitemap: https://****/sitemap.xml
×

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.