Jump to content
Sign in to follow this  
ihark

[Выполнено] Настройка robots.txt - платно

Recommended Posts

Добрый день. Требуется настроить robots.txt, чтобы закрыть от индексации все служебные страницы и прочие папки, куда соваться яндексу и гуглу не стоит))), в общем, привести файл в человеческий вид.

 

Сейчас есть только стандартный robots.txt.

 

Понимаю, что там все несложно, но нет времени разбираться, поэтому хотелось бы получить помощь профессионала, кто в этом разбирается досконально.

 

Предложения просьба писать в личку с указанием стоимости работы.

Share this post


Link to post
Share on other sites

Исполнитель найден, работа сделана.

Share this post


Link to post
Share on other sites
Guest
This topic is now closed to further replies.
Sign in to follow this  

  • Similar Content

    • By ipg2007
      Меня интересует правильная настройка sitemap. Сейчас динамическая карта находится https://gemelli.com.ua/index.php?route=extension/feed/google_sitemap, а для search console показывается карта с url sitemap.xml - статическая. Мне нужно что-бы динамическая карта попадала в статическую и для googl показывалась с правильным ЧПУ. Настроить приоритеты и время обновления, а также правильно настроить robots.txt.
    • By Vasyasever
      Добрый день! Ребят, столкнулись с такой проблемой, что в сеч консоли не индексируются страницы товаров и еще часть страниц сайта, по подсказке в сеч консоли пишет, что индексация заблокирована в файле Robots.txt.
      1.Не могу понять ,что закрыто или что не дописали, (есть подозрение , что его составляли от фонаря) 
      файл выглядит так : 
       
      User-agent: *
      Disallow: /*route=account/
      Disallow: /*route=affiliate/
      Disallow: /*route=checkout/
      Disallow: /*route=product/search
      Disallow: /index.php?route=product/product*&manufacturer_id=
      Disallow: /admin
      Disallow: /catalog
      Disallow: /system
      Disallow: /*?sort=
      Disallow: /*&sort=
      Disallow: /*?order=
      Disallow: /*&order=
      Disallow: /*?limit=
      Disallow: /*&limit=
      Disallow: /*?filter=
      Disallow: /*&filter=
      Disallow: /*?filter_name=
      Disallow: /*&filter_name=
      Disallow: /*?filter_sub_category=
      Disallow: /*&filter_sub_category=
      Disallow: /*?filter_description=
      Disallow: /*&filter_description=
      Disallow: /*?tracking=
      Disallow: /*&tracking=
      User-agent: Yandex
      Disallow: /*route=account/
      Disallow: /*route=affiliate/
      Disallow: /*route=checkout/
      Disallow: /*route=product/search
      Disallow: /index.php?route=product/product*&manufacturer_id=
      Disallow: /admin
      Disallow: /catalog
      Disallow: /system
      Disallow: /*?sort=
      Disallow: /*&sort=
      Disallow: /*?order=
      Disallow: /*&order=
      Disallow: /*?limit=
      Disallow: /*&limit=
      Disallow: /*?filter=
      Disallow: /*&filter=
      Disallow: /*?filter_name=
      Disallow: /*&filter_name=
      Disallow: /*?filter_sub_category=
      Disallow: /*&filter_sub_category=
      Disallow: /*?filter_description=
      Disallow: /*&filter_description=
      Clean-param: tracking
      Host: https://bogema2002.com.ua/ 
       
    • By kamaro1990
      Кто как считает, какие страницы следует скрывать от ПС в robots.txt? На некоторых сайтах скрыто чуть ли не половина сайта (и корзина, и восстановление логина, и рега и т.д.). 
    • By Gixoc
      Редактор Robot.txt - модуль для редактирования robots.txt прямо из админки. Может кому понадобится)
       
      Если файла нет (как на оригинальном opencart'е к примеру), он его создаст. Устанавливается в модули, vQmod'а не требует, никакие файлы не перезаписывает.
       
      Распространяется — «как есть» (as is).
      Версия Opencart — 1.5, 2.1, 2.2, 2.3, 3.0.
      Установка — стандартная через Установку дополнений (через встроенный Ocmod). Для версии Opencart 1.5 — просто загрузите содержимое upload из архива 1.5.x.gixoc.editrobots.zip в корень сайта.
       
      Добавлена версия для OpenCart 3 (спасибо Nymphetamine за адаптацию)
       
      01.02.2019
      Теперь при нажатии на "Создать" ссылки генерируются с учетом ЧПУ Opencart, т.е. создаются действительные ссылки
       
      28.09.2018
      Добавил возможность создания не только самого файла robots.txt (если он не существует), но и его содержимое. 
      Теперь при нажатии на "Создать" - поле заполняется данными из файла robots.txt сборки ocStore соответствующей версии.
  • Recently Browsing   0 members

    No registered users viewing this page.

×

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.