Jump to content

Recommended Posts

Приветствую всех.

Еще раз всех поблагодарю, уже не раз меня выручали люди на форуме, на всей стадии моего проекта с 0,знаний было столько же - полный 0, не то что в програмировании в ворде не знал как работать, но с вашей помощью сделал более менее проект.

Собственно к проблеме.

1)Сначала использовал гугловский сайтмап, но он выдавал 624 ошибки с тэгом img, как я понял криминала нету ,то что Яша не умеет читать тэги, но я решил доработать и поставил яндекс сайт мап.

2)И у меня не радуют теперь ошибки выдаваемые в роботс.тхт

Вопрос как вылечить и робот.тхт от этих ошибок?Неужели просто удалить две строчки хмл?и как это скажется?

Фото прилагаю ниже

 

 

Сайт lockerstore.ru

 

В .htacess 

RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.lockerstore.ru$ [NC]
RewriteRule ^(.*)$ https://lockerstore.ru/$1 [R=301,L]

RewriteBase /
RewriteRule ^sitemap.xml$ index.php?route=extension/feed/google_sitemap [L]
RewriteRule ^googlebase.xml$ index.php?route=extension/feed/google_base [L]
RewriteRule ^yandex.xml$ index.php?route=feed/yandex_sitemap [L]
RewriteRule ^system/download/(.*) index.php?route=error/not_found [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteCond %{REQUEST_URI} !.*\.(ico|gif|jpg|jpeg|png|js|css)
RewriteRule ^([^?]*) index.php?_route_=$1 [L,QSA]
RewriteEngine On
RewriteCond %{HTTPS} off
RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]
<IfModule mod_expires.c>

 

Робот.тхт

User-agent: *
Disallow: /*route=account/
Disallow: /*route=affiliate/
Disallow: /*route=checkout/
Disallow: /*route=product/search
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter=
Disallow: /*&filter=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Disallow: /*?tracking=
Disallow: /*&tracking=
host: https://lockerstore.ru
Sitemap: https://lockerstore.ru/sitemap.xml
Sitemap: https://lockerstore.ru/yandex.xml

User-agent: Yandex
Disallow: /*route=account/
Disallow: /*route=affiliate/
Disallow: /*route=checkout/
Disallow: /*route=product/search
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter=

Спасибо за внимание.

Веб2.jpg

Edited by spectr

Share this post


Link to post
Share on other sites

так вы яндекс сайтмеп включили? настроили? что он пишет когда по этой ссылке заходите?

  • +1 1

Share this post


Link to post
Share on other sites
3 часа назад, nikifalex сказал:

так вы яндекс сайтмеп включили? настроили? что он пишет когда по этой ссылке заходите?

 

  • https://lockerstore.ru/index.php?route=extension/feed/yandex_sitemap Да включил, по этой ссылке открывает карту сайта.
  •  
    https://lockerstore.ru/yandex.xml по этой которая находится в роботсе -страница не найдена.Делал все по инструкции, не понимаю как нужно было сделать.По идее в корне сайта должен был такой файл появиться, или я ошибаюсь. Вот эта строчка в роботсе нужна вообще?Логика подсказывает, что нужна.
  • https://lockerstore.ru/sitemap.xml вот эта в роботсе открывается, но она гугловская, как в роботсе под яндекс так же сделать?

Share this post


Link to post
Share on other sites
8 минут назад, nikifalex сказал:

Я правильно понимаю, что в роботсе нужно изменить https://lockerstore.ru/yandex.xml на https://lockerstore.ru/index.php?route=extension/feed/yandex_sitemap?

А вид  https://lockerstore.ru/yandex.xml это если бы я создал физический файл, что бы робот не грузил базу , а на прямую брал данные от туда? или вот я вообще из тундры и ничего не понимаю?:mellow:

 

Share this post


Link to post
Share on other sites

неправильно. лучше посмотрите на htaccess

Share this post


Link to post
Share on other sites
12 минут назад, nikifalex сказал:

неправильно. лучше посмотрите на htaccess

подшаманил стало открываться, убрал правда [L] 

У меня вопрос для чего нужно было в htaccess [L] Сейчас заново закину на проверку вебмастер.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
You are posting as a guest. If you have an account, please sign in.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Similar Content

    • By Vasyasever
      Добрый день! Ребят, столкнулись с такой проблемой, что в сеч консоли не индексируются страницы товаров и еще часть страниц сайта, по подсказке в сеч консоли пишет, что индексация заблокирована в файле Robots.txt.
      1.Не могу понять ,что закрыто или что не дописали, (есть подозрение , что его составляли от фонаря) 
      файл выглядит так : 
       
      User-agent: *
      Disallow: /*route=account/
      Disallow: /*route=affiliate/
      Disallow: /*route=checkout/
      Disallow: /*route=product/search
      Disallow: /index.php?route=product/product*&manufacturer_id=
      Disallow: /admin
      Disallow: /catalog
      Disallow: /system
      Disallow: /*?sort=
      Disallow: /*&sort=
      Disallow: /*?order=
      Disallow: /*&order=
      Disallow: /*?limit=
      Disallow: /*&limit=
      Disallow: /*?filter=
      Disallow: /*&filter=
      Disallow: /*?filter_name=
      Disallow: /*&filter_name=
      Disallow: /*?filter_sub_category=
      Disallow: /*&filter_sub_category=
      Disallow: /*?filter_description=
      Disallow: /*&filter_description=
      Disallow: /*?tracking=
      Disallow: /*&tracking=
      User-agent: Yandex
      Disallow: /*route=account/
      Disallow: /*route=affiliate/
      Disallow: /*route=checkout/
      Disallow: /*route=product/search
      Disallow: /index.php?route=product/product*&manufacturer_id=
      Disallow: /admin
      Disallow: /catalog
      Disallow: /system
      Disallow: /*?sort=
      Disallow: /*&sort=
      Disallow: /*?order=
      Disallow: /*&order=
      Disallow: /*?limit=
      Disallow: /*&limit=
      Disallow: /*?filter=
      Disallow: /*&filter=
      Disallow: /*?filter_name=
      Disallow: /*&filter_name=
      Disallow: /*?filter_sub_category=
      Disallow: /*&filter_sub_category=
      Disallow: /*?filter_description=
      Disallow: /*&filter_description=
      Clean-param: tracking
      Host: https://bogema2002.com.ua/ 
       
    • By kamaro1990
      Кто как считает, какие страницы следует скрывать от ПС в robots.txt? На некоторых сайтах скрыто чуть ли не половина сайта (и корзина, и восстановление логина, и рега и т.д.). 
    • By Gixoc
      Редактор Robot.txt - модуль для редактирования robots.txt прямо из админки. Может кому понадобится)
       
      Если файла нет (как на оригинальном opencart'е к примеру), он его создаст. Устанавливается в модули, vQmod'а не требует, никакие файлы не перезаписывает.
       
      Распространяется — «как есть» (as is).
      Версия Opencart — 1.5, 2.1, 2.2, 2.3, 3.0.
      Установка — стандартная через Установку дополнений (через встроенный Ocmod). Для версии Opencart 1.5 — просто загрузите содержимое upload из архива 1.5.x.gixoc.editrobots.zip в корень сайта.
       
      Добавлена версия для OpenCart 3 (спасибо Nymphetamine за адаптацию)
       
      01.02.2019
      Теперь при нажатии на "Создать" ссылки генерируются с учетом ЧПУ Opencart, т.е. создаются действительные ссылки
       
      28.09.2018
      Добавил возможность создания не только самого файла robots.txt (если он не существует), но и его содержимое. 
      Теперь при нажатии на "Создать" - поле заполняется данными из файла robots.txt сборки ocStore соответствующей версии.
    • By Gixoc
      Скачать/Купить дополнение


      Edit Robots.txt
      Редактор Robot.txt - модуль для редактирования robots.txt прямо из админки. Может кому понадобится)
       
      Если файла нет (как на оригинальном opencart'е к примеру), он его создаст. Устанавливается в модули, vQmod'а не требует, никакие файлы не перезаписывает.
       
      Распространяется — «как есть» (as is).
      Версия Opencart — 1.5, 2.1, 2.2, 2.3, 3.0.
      Установка — стандартная через Установку дополнений (через встроенный Ocmod). Для версии Opencart 1.5 — просто загрузите содержимое upload из архива 1.5.x.gixoc.editrobots.zip в корень сайта.
       
      Добавлена версия для OpenCart 3 (спасибо Nymphetamine за адаптацию)
       
      01.02.2019
      Теперь при нажатии на "Создать" ссылки генерируются с учетом ЧПУ Opencart, т.е. создаются действительные ссылки
       
      28.09.2018
      Добавил возможность создания не только самого файла robots.txt (если он не существует), но и его содержимое. 
      Теперь при нажатии на "Создать" - поле заполняется данными из файла robots.txt сборки ocStore соответствующей версии.
      Добавил Gixoc Добавлено 21.01.2018 Категория SEO, карта сайта, оптимизация Системные требования Сайт разработчика https://gixoc.ru Старая цена Метод активации Без активации Ioncube Loader Нет OpenCart 3.0
      2.3
      2.2
      2.1
      2.0
      1.5.6.4
      1.5.6.3
      1.5.6.2
      1.5.6.1
      1.5.6
      1.5.5.1
      1.5.5
      1.5.4.1
      1.5.3.1 ocStore 3.0
      2.3
      2.2
      2.1
      1.5.5.1.2
      1.5.5.1.1
      1.5.5.1
      1.5.4.1.2
      1.5.4.1.1
      1.5.4.1
      1.5.3.1
      1.5.2.1
      1.5.1.3 OpenCart.Pro, ocShop Opencart.pro 2.3
      Opencart.pro 2.1
      OcShop 1.5.6.4.х Обращение к серверу разработчика  
  • Recently Browsing   0 members

    No registered users viewing this page.

×

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.