Перейти к содержанию
ale120188

Подскажите как правильно настроить в .htaccess (robots) кириллический адрес сайта ?

Рекомендуемые сообщения

Подскажите как настроить правильно кириллический адрес в robots и .htaccess ? 

Пример: правильно или нет ?

 

# SEO URL Settings
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.xn--70adpd.net.ua
RewriteRule ^(.*)$ http://xn--70adpd.net.ua/$1 [R=301,L]

 

И на robots ?

 

Host: xn--70adpd.net.ua
Sitemap: http://xn--70adpd.net.ua/index.php?route=record/google_sitemap_blog

 

Уже третий месяц не индексируется сайт. Поисковики не могут понять ?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти

  • Похожий контент

    • От Symon81
      Здравствуйте уважаемые форумчане!
      Столкнулся с проблемой, переход с http:// на https://
      Тоесть при https://мой_домен.ру работает, а при https://www.мой_домен.ру выдает ошибку 500
      Так же появилась проблема с ЧПУ и SEO PRO - включаешь ЧПУ и больше нет страниц после главной, отключаешь все работает, но страницы с id и ииндексами
      уже не первый форум читаю, переделывал .htaccess много раз, но все тщетно:
      в домене стоят записи
      @ A XXXXXX
      www A XXXXXX
      В апаче выставил AllowOverride - чтобы читался .htaccess
      Может кто в курсе как и что поправить, напишите мне пожалуйста
      Вот сам файл .htaccess
      AllowOverride All Options +FollowSymlinks #Options +SymLinksIfOwnerMatch # Prevent Directoy listing Options -Indexes # Prevent Direct Access to files <FilesMatch "(?i)((\.tpl|\.ini|\.log|(?<!robots)\.txt))">  Require all denied </FilesMatch> # SEO URL Settings RewriteEngine on RewriteBase / RewriteCond %{HTTP:PORT} !^443$ RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R] RewriteCond %{HTTP_HOST} ^www.fixmed\.ru$ [NC] RewriteRule ^(.*)$ https://fixmed.ru/$1 [R=301,L] RewriteRule ^sitemap.xml$ index.php?route=extension/feed/google_sitemap [L] RewriteRule ^googlebase.xml$ index.php?route=extension/feed/google_base [L] RewriteRule ^system/download/(.*) index.php?route=error/not_found [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{REQUEST_URI} !.*\.(ico|gif|jpg|jpeg|png|js|css) RewriteRule ^([^?]*) index.php?_route_=$1 [L,QSA] ExpiresActive On ExpiresDefault "access plus 1 hour" AddOutputFilterByType DEFLATE text/html text/plain text/xml application/xml application/xhtml+xml text/css text/javascript application/javascript application/x-javascript  
    • От AndySparrow
      Добрый день.
      Делаем мультимагазин. Создали поддомен и появилась проблема: все ссылки с поддомена ведут на основной домен.
      Таким образом, при нажатии на любой товар на поддомене загружается этот товар на основном домене.
      Подскажите, пожалуйста, что делать?
    • От chukcha
      Скачать/Купить дополнение


      Robots noindex
      Это небольшое дополнение, которое добавляет тег
      <meta name="robots" content="noindex,follow"> на некоторые страницы.
      Это хорошо для SEO.
      Страницы, которые затрагивает расширение:
      Категория страницы: (sort, page, limit)
      Производитель: (sort, page, limit)
      Акции: (sort, page, limit)
      Сравнение: (вся страница)
      Поиск: ( вся страница)
      Регистрация и Логин: (вся страница)
      Оформление заказ: (вся страница)
      Корзина: (вся страница)
      Q.A:
      Зачем это делать?
      Из коробки OpenCart этого всего нет. Расширение позволяет корректно установить мета тег на конкретных страницах.
      Для SEO это важный тег, это позволит вам побороть дублирующий контент на страницах несущих технологическую нагрузку.
      Почему бы не использовать / запретить в файле robots.txt?
      Наличие запретов в robots.txt не помешает, но некоторые боты не хотят в него смотреть.
      И Google говорит, что этот тег ему нравится
      Требования:
      версия 2.x , отдельно для simple (demo: http://demo2.slasoft.kharkov.ua/index.php?route=product/category&path=20_27&limit=50)
      версия 1.5.x (demo: http://demo.slasoft.kharkov.ua/compare-products/)
      Добавил chukcha Добавлено 09.12.2015 Категория Прочее Системные требования Метод активации Ioncube Loader OpenCart ocStore OpenCart.Pro, ocShop  
    • От snastik
      500.00 руб
      Скачать/Купить дополнение


      SEOFIX Mета-тег NOINDEX
      vQmod SEO Mета-тег Избавляет от дублей контента и ускоряет индексацию поисковыми системами.
      ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
      Работает на всей линейке 1.5.х opencart, ocstore, думаю и максисторе тоже если что подправлю под ваши файлы.
      На страницах Категории, Производителя, Акций для:
      1. Пагинации – (постраничный переход)
      2. Сортировки – (по цене, названию, рейтингу и тд)
      3. Лимита – (кол-во товара на странице)
      Добавляет Мета-тег: <meta name="robots" content="noindex,follow" />
      Новое в версии 1.2
      4. Ссылки вида /site/category/?page=1 перобразуются в /site/category
      временно приостановлено - требует багфикса.
      5. Описание категории выводиться только для первой страницы.
      6. Убирает дублированные ссылки с изображений во всех списках товаров (категории, производитель, поиск, акции и стандартные модули) заменяя href=" на onclick="location.href тем самым устраняя ссылочную переспамленность шабла
      Тем самым нет необходимости в robots.txt закрывать от индексации такие страницы как:
      Disallow: /*?sort
      Disallow: /*?limit
      Disallow: /*?page
      Что существенно ускоряет индексацию поисковыми системами, так как, тег noindex говорит поисковой системе что эту страницу индексировать ненужно, но в свою очередь тег follow говорит о том что необходимо переходить по ссылкам дальше. Подробнее в мануале Яндекса http://help.yandex.ru/webmaster/controlling-robot/html.xml#meta Google разумеется тоже понимает данные Мета-Теги.
      Единственное действующее решение, которое действительно выкидывает быстро дубли из ПС, если закрывать через robots.txt, этот процесс может затянуться более чем на полгода.
      Установка происходит по средствам vQmod в случае его отсутствия возможна ручная установка.
      После установки на страницах пагинации,сортировки, лимита в исходном коде Вы увидите что появился Мета-тег: <meta name="robots" content="noindex,follow" /> на «хороших» страницах он будет отсутствовать.
      Пункты 1-4 гарантированно работают на всех шаблонах и сборках. Пункты 4-6 гарантированно работают на дефолтном шаблоне.
      Для индивидуальных шаблоном могут потребоваться правки вкумода, если в шаблоне изменен код вывода изображений.
      F.A.Q. (будет дополняться)
      Приветствую! Заинтересовал ваш новый модуль "SEO Мета-тег".
      В описании модуля идет речь про постраничный переход в пагинации,
      Каким образом это реализовано? Решает ли это проблему дублей, когда идут вот такие урлы /?page=2 /?page=3 /?page=4
      Да решает, если в строке есть "page=", то на страницу добавляется метатег "noindex"
      А будет ли это работать на моем шаблоне?
      Я не знаю, так как я не телепат. Гарантировано работает на дефолтном шаблоне и шаблонах сделанных на его основе. Но при небольших доработках запускается на любом шаблоне.
      Адаптация к нестандартным шаблонам платная.
      Как проверить что модуль установлен и правильно работает ?
      Откройте любую страницу с сортировкой или пагинацией и посмотрите ее исходный код, если в разделе <head> появилось <meta name="robots" content="noindex,follow" /> значит ок.
      По аналогии смотрим ссылку в пагинации на первую страницу со второй и ссылки в списках на изображениях.
      В случае необходимости технической поддержки пишите в личку:
      Адрес сайта.
      Доступ в административную часть
      Доступ на ftp
      Техническая поддержка сайтам на локальном хостинге не оказывается.
      Техническая поддержка не связанная с работоспособностью модуля платная.
      Автор модуля не несет ответственности за работоспособность модуля и ошибки возникшие в его работе связанные с использованием неоригинального шаблона, сторонних или сильно модифицированных версий движка, использования дополнений от сторонних разработчиков, вызывающих конфликты с кодом данного дополнения.
      Автор гарантирует работу модуля на оригинальном движке OcStore 1.5.х B Opencart 1.5.х скачанных с официальных сайтов.
      Автор не гарантирует работоспособность модуля и не осуществляет консультации и поддержку дополнения, в случае использования покупателем (ворованных, купленных в складчину дополнений, для которых у покупателя отсутствует поддержка авторов дополнений).
      Дополнение распространяется для использования на одном магазине. Для использования на нескольких магазинах, пожалуйста приобретайте лицензию на каждый.
      Добавил snastik Добавлено 27.01.2014 Категория SEO, карта сайта, оптимизация  
    • От Gusev
      Всем доброго воскресного дня
       
      Решил прогнать сайт через NetPeak Spider на наличие пробелов в работе сайта, битых ссылок и тд. В ответ он выдает критическую ошибку редиректа с http на https, по https ответ NULL.
      Сайт доступен, при прогоне на ответ сервера в вебмастере отвечает что все гут, с Джет Кешем время 260 сек. Не могу понять в чем проблема. Возможно неверно настроен .htaccess? Прошу опытных коллег помочь, ибо в php и настройках серверов не силен.
       
      Ниже привожу текст .htaccess
       
      ServerSignature Off
      # 1.To use URL Alias you need to be running apache with mod_rewrite enabled.
      # 2. In your opencart directory rename htaccess.txt to .htaccess.
      # For any support issues please visit: http://www.opencart.com
      Options +FollowSymlinks
      # Prevent Directoy listing
      Options -Indexes
      # Prevent Direct Access to files
      <FilesMatch "(?i)((\.tpl|\.ini|\.log|(?<!robots)\.txt))">
       Require all denied
      ## For apache 2.2 and older, replace "Require all denied" with these two lines :
      # Order deny,allow
      # Deny from all
      </FilesMatch>
      # SEO URL Settings
      RewriteEngine On
      # If your opencart installation does not run on the main web folder make sure you folder it does run in ie. / becomes /shop/
      RewriteBase /
      RewriteCond %{THE_REQUEST} //
      RewriteRule .* /$0 [R=301,L]
      RewriteCond %{SERVER_PORT} !^443$
      RewriteRule .* https://%{SERVER_NAME}%{REQUEST_URI} [R=301,L]
      RewriteCond %{HTTP_HOST} ^www\.(.*)$ [NC]
      RewriteRule ^(.*)$ https://%1/$1 [R=301,L]
      RewriteRule ^sitemap.xml$ index.php?route=extension/feed/google_sitemap [L]
      RewriteRule ^googlebase.xml$ index.php?route=extension/feed/google_base [L]
      RewriteRule ^system/download/(.*) index.php?route=error/not_found [L]
      RewriteCond %{REQUEST_FILENAME} !-f
      RewriteCond %{REQUEST_FILENAME} !-d
      RewriteCond %{REQUEST_URI} !.*\.(ico|gif|jpg|jpeg|png|js|css)
      #RewriteRule ^page/([^/\.]+)/?$ page=$1 [L]
      RewriteRule ^([^?]*) index.php?_route_=$1 [L,QSA]
      RewriteCond %{REQUEST_URI} ^(.*[^/])//+(.*)$
      RewriteRule . %1 [R=301,L]

      ### Additional Settings that may need to be enabled for some servers
      ### Uncomment the commands by removing the # sign in front of it.
      ### If you get an "Internal Server Error 500" after enabling any of the following settings, restore the # as this means your host doesn't allow that.
      # 1. If your cart only allows you to add one item at a time, it is possible register_globals is on. This may work to disable it:
      # php_flag register_globals off
      # 2. If your cart has magic quotes enabled, This may work to disable it:
      # php_flag magic_quotes_gpc Off
      # 3. Set max upload file size. Most hosts will limit this and not allow it to be overridden but you can try
      # php_value upload_max_filesize 999M
      # 4. set max post size. uncomment this line if you have a lot of product options or are getting errors where forms are not saving all fields
      # php_value post_max_size 999M
      # 5. set max time script can take. uncomment this line if you have a lot of product options or are getting errors where forms are not saving all fields
      # php_value max_execution_time 200
      # 6. set max time for input to be recieved. Uncomment this line if you have a lot of product options or are getting errors where forms are not saving all fields
      # php_value max_input_time 200
      php_value memory_limit 250M
      # 7. disable open_basedir limitations
      # php_admin_value open_basedir none
      ### Display PHP errors
      ### Uncomment the commands by removing the # sign in front of it.
      # php_flag display_startup_errors on
      # php_flag display_errors on
      # php_flag html_errors on
      # php_flag track_errors on
      # php_value error_reporting "E_ALL"
      ### Сжать ответ сервера для перечисленных MIME типов
      #<ifModule mod_deflate.c>
      #  <IfModule mod_filter.c>
      #      AddOutputFilterByType DEFLATE text/plain text/html
      #      AddOutputFilterByType DEFLATE text/css
      #      AddOutputFilterByType DEFLATE text/javascript application/javascript application/x-javascript
      #      AddOutputFilterByType DEFLATE text/xml application/xml application/xhtml+xml application/rss+xml
      #      AddOutputFilterByType DEFLATE application/json
      #      AddOutputFilterByType DEFLATE application/vnd.ms-fontobject application/x-font-ttf font/opentype image/svg+xml image/x-icon
      #  </ifModule>
      #</ifModule>

      <IfModule mod_deflate.c>
      AddOutputFilterByType DEFLATE text/plain
      AddOutputFilterByType DEFLATE text/html
      AddOutputFilterByType DEFLATE text/xml
      AddOutputFilterByType DEFLATE text/css
      AddOutputFilterByType DEFLATE application/xml
      AddOutputFilterByType DEFLATE application/xhtml+xml
      AddOutputFilterByType DEFLATE application/rss+xml
      AddOutputFilterByType DEFLATE application/javascript
      AddOutputFilterByType DEFLATE application/x-javascript
      </IfModule>
      ### Способ #1
      ### Подсказать браузеру схему кеширования через заголовки в ответе сервера
      <ifModule mod_headers.c>
          # 43200 - день, 604800 - неделя, 2592000 - месяц
          <FilesMatch "\.(html|js|css)$">
          Header set Cache-Control "max-age=2592000"
              #Header unset Last-Modified
          </FilesMatch>
          <Files *.txt>
          Header add Cache-Control "max-age=43200"
          </Files>
          <FilesMatch "\.(flv|swf|ico|gif|jpg|jpeg|png)$">
          Header set Cache-Control "max-age=2592000"
          </FilesMatch>
          <FilesMatch "\.(pl|php|cgi|spl|scgi|fcgi)$">
          # отключить кэширование
          Header unset Cache-Control
          </FilesMatch>
      </IfModule>
      ### Способ #2
      ### Подсказать браузеру схему кеширования через заголовки в ответе сервера
      <IfModule mod_expires.c>
          # Enable expires
          ExpiresActive On
          # Default a cache expiration
          ExpiresDefault "access plus 10 month"
          # Images
          ExpiresByType image/gif                 "access plus 1 month"
          ExpiresByType image/png                 "access plus 1 month"
          ExpiresByType image/jpg                 "access plus 1 month"
          ExpiresByType image/jpeg                "access plus 1 month"
          # CSS, JavaScript
          ExpiresByType text/css                  "access plus 1 year"
          ExpiresByType application/javascript    "access plus 1 year"
          ExpiresByType text/javascript           "access plus 1 year"
      </IfModule>

      ### Удалить заголовок ETag (иначе есть проблемы с кешированием при включенном сжатии)
      <IfModule mod_headers.c>
          Header unset ETag
      </IfModule>
      FileETag None
       
       
  • Последние посетители   0 пользователей онлайн

    Ни одного зарегистрированного пользователя не просматривает данную страницу

×

Важная информация

На нашем сайте используются файлы cookie и происходит обработка некоторых персональных данных пользователей, чтобы улучшить пользовательский интерфейс. Чтобы узнать для чего и какие персональные данные мы обрабатываем перейдите по ссылке. Если Вы нажмете «Я даю согласие», это означает, что Вы понимаете и принимаете все условия, указанные в этом Уведомлении о Конфиденциальности.