Jump to content
Sign in to follow this  
ale120188

Подскажите как правильно настроить в .htaccess (robots) кириллический адрес сайта ?

Recommended Posts

Подскажите как настроить правильно кириллический адрес в robots и .htaccess ? 

Пример: правильно или нет ?

 

# SEO URL Settings
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.xn--70adpd.net.ua
RewriteRule ^(.*)$ http://xn--70adpd.net.ua/$1 [R=301,L]

 

И на robots ?

 

Host: xn--70adpd.net.ua
Sitemap: http://xn--70adpd.net.ua/index.php?route=record/google_sitemap_blog

 

Уже третий месяц не индексируется сайт. Поисковики не могут понять ?

 

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
You are posting as a guest. If you have an account, please sign in.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Similar Content

    • By chukcha
      Скачать/Купить дополнение


      Robots noindex
      Это небольшое дополнение, которое добавляет тег
      <meta name="robots" content="noindex,follow"> на некоторые страницы.
      Это хорошо для SEO.
      Страницы, которые затрагивает расширение:
      Категория страницы: (sort, page, limit)
      Производитель: (sort, page, limit)
      Акции: (sort, page, limit)
      Сравнение: (вся страница)
      Поиск: ( вся страница)
      Регистрация и Логин: (вся страница)
      Оформление заказ: (вся страница)
      Корзина: (вся страница)
      Q.A:
      Зачем это делать?
      Из коробки OpenCart этого всего нет. Расширение позволяет корректно установить мета тег на конкретных страницах.
      Для SEO это важный тег, это позволит вам побороть дублирующий контент на страницах несущих технологическую нагрузку.
      Почему бы не использовать / запретить в файле robots.txt?
      Наличие запретов в robots.txt не помешает, но некоторые боты не хотят в него смотреть.
      И Google говорит, что этот тег ему нравится
      Требования:
      версия 2.x , отдельно для simple (demo: http://demo2.slasoft.kharkov.ua/index.php?route=product/category&path=20_27&limit=50)
      версия 1.5.x (demo: http://demo.slasoft.kharkov.ua/compare-products/)
      Добавил chukcha Добавлено 09.12.2015 Категория Прочее Системные требования Метод активации Ioncube Loader OpenCart ocStore OpenCart.Pro, ocShop Обращение к серверу разработчика Старая цена  
    • By agent008
      Здравствуйте!
      Подскажите пожалуйста, надо ли разрешать индексировать страницы ("Новинки", "Популярные", "Лидеры продаж", "Все товары")?
    • By mironanpe
      Подскажите файл .htaccess ставит код для блокировки индексации. Яндекс.Вебмастер пишет ошибку 403. Я меняю .htaccess, а через какое то время все возвращается. В чем может быть проблема?
       
      # 1.To use URL Alias you need to be running apache with mod_rewrite enabled.
      # 2. In your opencart directory rename htaccess.txt to .htaccess.
      # For any support issues please visit: http://www.opencart.com
      Options +FollowSymlinks
      # Prevent Directory listing
      Options -Indexes
      # Prevent Direct Access to files
      <FilesMatch "(?i)((\.tpl|.twig|\.ini|\.log|(?<!robots)\.txt))">
       Require all denied
      ## For apache 2.2 and older, replace "Require all denied" with these two lines :
      # Order deny,allow
      # Deny from all
      </FilesMatch>
      # SEO URL Settings
      RewriteEngine On
      # If your opencart installation does not run on the main web folder make sure you folder it does run in ie. / becomes /shop/
      RewriteBase /
      RewriteRule ^sitemap.xml$ index.php?route=extension/feed/google_sitemap [L]
      RewriteRule ^googlebase.xml$ index.php?route=extension/feed/google_base [L]
      RewriteRule ^system/storage/(.*) index.php?route=error/not_found [L]
      RewriteCond %{REQUEST_FILENAME} !-f
      RewriteCond %{REQUEST_FILENAME} !-d
      RewriteCond %{REQUEST_URI} !.*\.(ico|gif|jpg|jpeg|png|js|css)
      RewriteRule ^([^?]*) index.php?_route_=$1 [L,QSA]
      ### Additional Settings that may need to be enabled for some servers
      ### Uncomment the commands by removing the # sign in front of it.
      ### If you get an "Internal Server Error 500" after enabling any of the following settings, restore the # as this means your host doesn't allow that.
      # 1. If your cart only allows you to add one item at a time, it is possible register_globals is on. This may work to disable it:
      # php_flag register_globals off
      # 2. If your cart has magic quotes enabled, This may work to disable it:
      # php_flag magic_quotes_gpc Off
      # 3. Set max upload file size. Most hosts will limit this and not allow it to be overridden but you can try
      # php_value upload_max_filesize 999M
      # 4. set max post size. uncomment this line if you have a lot of product options or are getting errors where forms are not saving all fields
      # php_value post_max_size 999M
      # 5. set max time script can take. uncomment this line if you have a lot of product options or are getting errors where forms are not saving all fields
      # php_value max_execution_time 200
      # 6. set max time for input to be recieved. Uncomment this line if you have a lot of product options or are getting errors where forms are not saving all fields
      # php_value max_input_time 200
      # 7. disable open_basedir limitations
      # php_admin_value open_basedir none

      SetEnvIfNoCase User-Agent "^Yandex" search_bot
      SetEnvIfNoCase User-Agent "^Yahoo" search_bot
      SetEnvIfNoCase User-Agent "^Googlebot" search_bot
      SetEnvIfNoCase User-Agent "^Aport" search_bot
      SetEnvIfNoCase User-Agent "^msnbot" search_bot
      SetEnvIfNoCase User-Agent "^spider" search_bot
      SetEnvIfNoCase User-Agent "^Robot" search_bot
      SetEnvIfNoCase User-Agent "^php" search_bot
      SetEnvIfNoCase User-Agent "^Mail" search_bot
      SetEnvIfNoCase User-Agent "^bot" search_bot
      SetEnvIfNoCase User-Agent "bot" search_bot
      SetEnvIfNoCase User-Agent "^igdeSpyder" search_bot
      SetEnvIfNoCase User-Agent "^Snapbot" search_bot
      SetEnvIfNoCase User-Agent "^WordPress" search_bot
      SetEnvIfNoCase User-Agent "^BlogPulseLive" search_bot
      SetEnvIfNoCase User-Agent "^Parser" search_bot
      SetEnvIfNoCase User-Agent "^Googlebot-Image" search_bot
      SetEnvIfNoCase User-Agent "^StackRambler" search_bot
      SetEnvIfNoCase User-Agent "^Adsbot-Google" search_bot
      SetEnvIfNoCase User-Agent "^WebAlta" search_bot
      SetEnvIfNoCase User-Agent "^Googlebot-Mobile" search_bot
      SetEnvIfNoCase User-Agent "^YandexImages" search_bot
      SetEnvIfNoCase User-Agent "http://www.google.com/bot.html" search_bot
      <FilesMatch "^.*$">
      Order Allow,Deny
      Allow from all
      Deny from env=search_bot
      </FilesMatch>
       
    • By Symon81
      Здравствуйте уважаемые форумчане!
      Столкнулся с проблемой, переход с http:// на https://
      Тоесть при https://мой_домен.ру работает, а при https://www.мой_домен.ру выдает ошибку 500
      Так же появилась проблема с ЧПУ и SEO PRO - включаешь ЧПУ и больше нет страниц после главной, отключаешь все работает, но страницы с id и ииндексами
      уже не первый форум читаю, переделывал .htaccess много раз, но все тщетно:
      в домене стоят записи
      @ A XXXXXX
      www A XXXXXX
      В апаче выставил AllowOverride - чтобы читался .htaccess
      Может кто в курсе как и что поправить, напишите мне пожалуйста
      Вот сам файл .htaccess
      AllowOverride All Options +FollowSymlinks #Options +SymLinksIfOwnerMatch # Prevent Directoy listing Options -Indexes # Prevent Direct Access to files <FilesMatch "(?i)((\.tpl|\.ini|\.log|(?<!robots)\.txt))">  Require all denied </FilesMatch> # SEO URL Settings RewriteEngine on RewriteBase / RewriteCond %{HTTP:PORT} !^443$ RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R] RewriteCond %{HTTP_HOST} ^www.fixmed\.ru$ [NC] RewriteRule ^(.*)$ https://fixmed.ru/$1 [R=301,L] RewriteRule ^sitemap.xml$ index.php?route=extension/feed/google_sitemap [L] RewriteRule ^googlebase.xml$ index.php?route=extension/feed/google_base [L] RewriteRule ^system/download/(.*) index.php?route=error/not_found [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{REQUEST_URI} !.*\.(ico|gif|jpg|jpeg|png|js|css) RewriteRule ^([^?]*) index.php?_route_=$1 [L,QSA] ExpiresActive On ExpiresDefault "access plus 1 hour" AddOutputFilterByType DEFLATE text/html text/plain text/xml application/xml application/xhtml+xml text/css text/javascript application/javascript application/x-javascript  
    • By AndySparrow
      Добрый день.
      Делаем мультимагазин. Создали поддомен и появилась проблема: все ссылки с поддомена ведут на основной домен.
      Таким образом, при нажатии на любой товар на поддомене загружается этот товар на основном домене.
      Подскажите, пожалуйста, что делать?
  • Recently Browsing   0 members

    No registered users viewing this page.

×

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.