Jump to content

Search the Community

Showing results for tags 'robots.txt'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Основной
    • Новости и анонсы
    • Предложения и пожелания
    • Акции, подарки, конкурсы и награды
  • For developers
    • Общие вопросы
    • Нововведения на форуме
  • Opencart 3.x
    • Opencart 3.x: Общие вопросы
    • Opencart 3.x: Установка и обновление
    • Opencart 3.x: Локализация
    • Opencart 3.x: Настройка и оптимизация
    • Opencart 3.x: Песочница
    • Opencart 3.x: Поиск модулей
    • Opencart 3.x: Отчёты об ошибках
  • Opencart 2.x
    • Opencart 2.x: Общие вопросы
    • Opencart 2.x: Установка и обновление
    • Opencart 2.x: Локализация
    • Opencart 2.x: Настройка и оптимизация
    • Opencart 2.x: Песочница
    • Opencart 2.x: Поиск модулей
    • Opencart 2.x / ocStore 2.x: Отчёты об ошибках
  • Поддержка и ответы на вопросы
    • Общие вопросы
    • Установка, обновление, настройка
    • Шаблоны, дизайн и оформление магазина
    • Модули и дополнения
    • Помощь программистам и разработчикам
    • Мобильная витрина
    • Вопросы безопасности
    • SEO-вопросы (оптимизация и продвижение магазина)
    • Перевод
    • Отчёты об ошибках
    • Интернет-магазины и электронная коммерция
    • Песочница
  • Услуги
    • Создание магазинов под ключ
    • Дизайн, верстка и шаблоны
    • Программирование, создание модулей, изменение функциональности
    • Настройка и мелкая работа по уже существующему сайту
    • Обновление версии движка магазина
    • Наполнение магазина
    • Системное администрирование (настройка хостинга, серверов, ПО)
    • Другие услуги
    • Отзывы об исполнителях
    • Отзывы о заказчиках
  • Разное
    • Примеры сайтов на OpenCart (ocStore)
    • Курилка
    • Предложения по улучшению
    • Группы

Categories

  • Шаблоны
    • Бесплатные шаблоны
    • Платные шаблоны
  • Filters
  • Promotions & Pricing
  • Coupons & reward points, affiliate programs
  • Blogs, News & Articles
  • Shopping Cart & Order
  • Product Options
  • Product Attributes
  • Product Combinations
  • Search
  • SEO & Optimization
  • Caching & Server Performance
  • Платежные системы
  • Доставки
  • Editors
  • Design & Navigation
  • Banners, Slideshows & Galleries
  • Email Marketing & SMS Integration
  • Customer Support & Chat
  • Обмен данными
  • Учет в заказе
  • Compare & Wishlist
  • Социальные сети
  • Parsers
  • Модули
  • Tools & Developer Tools
  • Licenses
  • Языковые пакеты
  • Прочее
  • Отчеты
  • Сборки
  • Услуги
    • Графика и дизайн
    • Маркетинг

Categories

  • Настройка OpenCart
  • Служебные документы
  • Оплата

Blogs

  • Konorws (Разработка и модификация Opencart)
  • Блог mr.Kent)
  • AWS
  • Прожектор Бритни Спирс
  • Layk
  • Продвижение интернет-магазина, seo оптимизация
  • Записная книжка
  • Блог RGB
  • Записки от sitecreator
  • О программировании и другом
  • Модули которые сделают сайт лучше
  • Блог веб-студии NeoSeo
  • Useful IT
  • Задачи, идеи, решения.
  • Найденные решения проблем с Opencart
  • ocdroid blog
  • Заметки на полях...
  • Pimur
  • Серж Ткач
  • О жизни, смерти, о бизнесе и Опенкарте
  • Полезное с бесполезным
  • Просто мысли от laim731
  • Маркетинг и продвижение интернет-магазина
  • Магазин Tv-Project.com
  • Мой копирайтинг
  • Разработка под Opencart
  • SEO боксинг специального назначения
  • Подбери свои боксерские перчатки
  • Get-Web Dev
  • Seok
  • Как добавить название города к домену на Опенкарт? (город в качестве категории)
  • Оптимизация и ускорение сайта: JavaScript...
  • Best practice
  • Ultimate Guide to Building an MVP
  • Vlad-Egorov-Blog

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Сайт


Skype


Город:


Интересы

Found 31 results

  1. Version 1.1.2

    601 downloads

    Редактор Robot.txt - модуль для редактирования robots.txt прямо из админки. Может кому понадобится) Если файла нет (как на оригинальном opencart'е к примеру), он его создаст. Устанавливается в модули, vQmod'а не требует, никакие файлы не перезаписывает. Распространяется — «как есть» (as is). Версия Opencart — 1.5, 2.1, 2.2, 2.3, 3.0. Установка — стандартная через Установку дополнений (через встроенный Ocmod). Для версии Opencart 1.5 — просто загрузите содержимое upload из архива 1.5.x.gixoc.editrobots.zip в корень сайта. Добавлена версия для OpenCart 3 (спасибо Nymphetamine за адаптацию) 01.02.2019 Теперь при нажатии на "Создать" ссылки генерируются с учетом ЧПУ Opencart, т.е. создаются действительные ссылки 28.09.2018 Добавил возможность создания не только самого файла robots.txt (если он не существует), но и его содержимое. Теперь при нажатии на "Создать" - поле заполняется данными из файла robots.txt сборки ocStore соответствующей версии.

    Free

  2. Предположим, есть у меня страница акриловых ванн. Ссылка на эту страницу: index.php?route=product/category&path=25_32 Чпу ссылка этой страницы: /vanny/akrilovye/ Вопрос: Если в robots.txt я напишу: Disallow: index.php?route=product/category&path=25_32 Таким образом я запрещу поисковику индексировать страницу акриловых ванн совсем? или только её не-чпу дубль? Мне просто не совсем понятно, как это дело работает. Запрет идет на индексацию содержимого страницы или ссылок на содержимое?
  3. Здравствуйте. После установки Версия ocStore 2.1.0.1 стоит такой robots.txt: User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Clean-param: tracking Подскажите, нашел вот такой, стоит ли заменить?: User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*?page= Disallow: /*&page= Disallow: /wishlist Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*route=product/search Disallow: /*?page= Disallow: /*&page= Clean-param: tracking Clean-param: filter_name Clean-param: filter_sub_category Clean-param: filter_description Disallow: /wishlist Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category Host: Vash_domen Sitemap: http://Vash_domen/sitemap.xml
  4. Добрый день! Ребят, столкнулись с такой проблемой, что в сеч консоли не индексируются страницы товаров и еще часть страниц сайта, по подсказке в сеч консоли пишет, что индексация заблокирована в файле Robots.txt. 1.Не могу понять ,что закрыто или что не дописали, (есть подозрение , что его составляли от фонаря) файл выглядит так : User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Clean-param: tracking Host: https://bogema2002.com.ua/
  5. Кто как считает, какие страницы следует скрывать от ПС в robots.txt? На некоторых сайтах скрыто чуть ли не половина сайта (и корзина, и восстановление логина, и рега и т.д.).
  6. Скачать/Купить дополнение Edit Robots.txt Редактор Robot.txt - модуль для редактирования robots.txt прямо из админки. Может кому понадобится) Если файла нет (как на оригинальном opencart'е к примеру), он его создаст. Устанавливается в модули, vQmod'а не требует, никакие файлы не перезаписывает. Распространяется — «как есть» (as is). Версия Opencart — 1.5, 2.1, 2.2, 2.3, 3.0. Установка — стандартная через Установку дополнений (через встроенный Ocmod). Для версии Opencart 1.5 — просто загрузите содержимое upload из архива 1.5.x.gixoc.editrobots.zip в корень сайта. Добавлена версия для OpenCart 3 (спасибо Nymphetamine за адаптацию) 01.02.2019 Теперь при нажатии на "Создать" ссылки генерируются с учетом ЧПУ Opencart, т.е. создаются действительные ссылки 28.09.2018 Добавил возможность создания не только самого файла robots.txt (если он не существует), но и его содержимое. Теперь при нажатии на "Создать" - поле заполняется данными из файла robots.txt сборки ocStore соответствующей версии. Добавил Gixoc Добавлено 21.01.2018 Категория SEO, карта сайта, оптимизация Системные требования Сайт разработчика https://gixoc.ru Старая цена Метод активации Без активации Ioncube Loader Нет OpenCart 3.0 2.3 2.2 2.1 2.0 1.5.6.4 1.5.6.3 1.5.6.2 1.5.6.1 1.5.6 1.5.5.1 1.5.5 1.5.4.1 1.5.3.1 ocStore 3.0 2.3 2.2 2.1 1.5.5.1.2 1.5.5.1.1 1.5.5.1 1.5.4.1.2 1.5.4.1.1 1.5.4.1 1.5.3.1 1.5.2.1 1.5.1.3 OpenCart.Pro, ocShop Opencart.pro 2.3 Opencart.pro 2.1 OcShop 1.5.6.4.х Обращение к серверу разработчика
  7. Уважаемые специалисты! Требуется доработать действующий магазин на Opencart 1.5.5: 1. Добавить Https протокол (SSL ключ получен) . Прописать редиректы на новую версию. 2. Добавить кроссбраузерную мобильную версию сайта, оптимизировать под стандарту. 3. Обновить установленные модули отзывов, новостей, оплаты, доставки (магазин давно не обновлялся). 4. Исправить внутренние ошибки сайта в css и javascript. Отредактировать robots.txt \ sitemap.xml 5. Настроить 301 редирект на неработающие страницы. Определить все битые бэклинки. 6. Оптимизация загрузки страниц сайта. 7. Дать рекомендации для дальнейшего развития магазина. Интересует долгосрочное сотрудничество. Ссылку на сайт предоставим в л.с. Успехов.
  8. Всем привет. Подскажите пожалуйста правильно ли настроен robots.txt движок сайта ocstore 1.5.5.1.2 ?? User-agent: Yandex User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?coolfilter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*compare-products Disallow: /*search Disallow: /*cart Disallow: /*checkout Disallow: /*login Disallow: /*logout Disallow: /*vouchers Disallow: /*wishlist Disallow: /*my-account Disallow: /*order-history Disallow: /*newsletter Disallow: /*return-add Disallow: /*forgot-password Disallow: /*downloads Disallow: /*returns Disallow: /*transactions Disallow: /*create-account Disallow: /*recurring Disallow: /*address-book Disallow: /*reward-points Disallow: /*affiliate-forgot-password Disallow: /*create-affiliate-account Disallow: /*affiliate-login Disallow: /*affiliates User-agent: Yandex Crawl-delay: 10 Host: https://**** Sitemap: https://****/sitemap.xml
  9. Приветствую всех. Еще раз всех поблагодарю, уже не раз меня выручали люди на форуме, на всей стадии моего проекта с 0,знаний было столько же - полный 0, не то что в програмировании в ворде не знал как работать, но с вашей помощью сделал более менее проект. Собственно к проблеме. 1)Сначала использовал гугловский сайтмап, но он выдавал 624 ошибки с тэгом img, как я понял криминала нету ,то что Яша не умеет читать тэги, но я решил доработать и поставил яндекс сайт мап. 2)И у меня не радуют теперь ошибки выдаваемые в роботс.тхт Вопрос как вылечить и робот.тхт от этих ошибок?Неужели просто удалить две строчки хмл?и как это скажется? Фото прилагаю ниже Сайт lockerstore.ru В .htacess RewriteEngine On RewriteCond %{HTTP_HOST} ^www.lockerstore.ru$ [NC] RewriteRule ^(.*)$ https://lockerstore.ru/$1 [R=301,L] RewriteBase / RewriteRule ^sitemap.xml$ index.php?route=extension/feed/google_sitemap [L] RewriteRule ^googlebase.xml$ index.php?route=extension/feed/google_base [L] RewriteRule ^yandex.xml$ index.php?route=feed/yandex_sitemap [L] RewriteRule ^system/download/(.*) index.php?route=error/not_found [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{REQUEST_URI} !.*\.(ico|gif|jpg|jpeg|png|js|css) RewriteRule ^([^?]*) index.php?_route_=$1 [L,QSA] RewriteEngine On RewriteCond %{HTTPS} off RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301] <IfModule mod_expires.c> Робот.тхт User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= host: https://lockerstore.ru Sitemap: https://lockerstore.ru/sitemap.xml Sitemap: https://lockerstore.ru/yandex.xml User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Спасибо за внимание.
  10. Извините за дикость! Только начинаю разбираться в данном вопросе. Но может подскажите, что делать с этой ошибкой? Гоша ругается на роботс а именно на строку Clean-param: tracking, Вопрос? как исправить или просто не обращать внимания, все таки директива для Яндекса.
  11. Подскажите пожалуйста.Начал долго грузиться сайт stroymarket-online.com.ua . Не могу понять в чем дело.В поддержке хоста сказали: - Ваш сайт очень интенсивно индексирует бот яндекса. Если это не прекратится в течении суток - ограничьте его работу через robots.txt. Что здесь исправить? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Clean-param: tracking
  12. Добрый день! Нужна помощь! Перелопапил весь инет, но результата не получил. Проблема в выдаче ошибки "HTTP ERROR 500" при загрузке sitemap по предоставленной модулем ссылке - /index.php?route=extension/feed/google_sitemap. Очень нужна помощь. Может я что-то неправильно указал в htaccess?. Спасибо!
  13. Здравствуйте. В индекс П С попали не нужные страницы которые без мета тегов и тд(Поиск товара, обратная связь , регистрация ) . Убирать через robots.txt не вижу смысла .. Вставил вручную данный тег " <meta name="robots" content="noindex,nofollow" />" , но он стал по верх всего , просто не корректно смотрится " см картинку"... Вопрос :Планирую вставить этот тег " <meta name="robots" content="noindex,nofollow" />" после тегов <meta property="og:title" content=" <meta property="og:type" content="website" /> <meta property="og:url" content=" <meta property="og:image" content=" Но какой скрипт вставляет их туда я хз Так как в программирование я полный профан подскажите кому не лень....
  14. Здравствуйте! Пожалуйста помогите подружиться с роботом Яндекс :-) при создании сайта, прописала в файле robots.txt такие строки Теперь, когда мне необходима индексация, внесла изменения в robots.txt Так же загрузила всё в вебмастер, в том числе и sitemap. Робот заходит, но не хочет индексировать ссылаясь на всё тот же файл robots.txt....Подскажите, что делать? Количество проиндексированных страниц - 0! Может кто уже сталкивался с такой же проблемой? Время очень дорого :(
  15. Интернет магазин ZUNDA.RU Добрый день. Прошу не бесплатной помощи. (яндекс кошелек, сбербанк для России) Второй раз приходит отказ от маркета, из-за такой проблемы: Маркет пишет ответ на запрос по обратной связи: Как решение проблемы, они предлагают убрать мне галочки с пунктов отмеченных на 3 скрине (и то не факт наверное что получится пройти). Но я считаю что статистика эта нужна и мне не хотелось бы этого делать. У кого есть какие-то варианты. Обратите внимание, что при отправке магазина на очередную проверку маркета, проходит 24-36 часов до ответа, поэтому нужны именно знающие люди, а не теоретики. Очень рассчитываю на Вашу помощь. Ну а по возможности, посмотрите robots.txt и sitemap.html
  16. Добрый день. Требуется настроить robots.txt, чтобы закрыть от индексации все служебные страницы и прочие папки, куда соваться яндексу и гуглу не стоит))), в общем, привести файл в человеческий вид. Сейчас есть только стандартный robots.txt. Понимаю, что там все несложно, но нет времени разбираться, поэтому хотелось бы получить помощь профессионала, кто в этом разбирается досконально. Предложения просьба писать в личку с указанием стоимости работы.
  17. Такое сообщение выдает в инструментах веб мастера. GOOGLE (Файл Sitemap содержит URL, доступ к которым заблокирован в файле robots.txt.) ИСПОЛЬЗУЮ СТАНДАРТНЫЙ Sitemap_Google в Каналах продвижения админки. Вот robots.txt., в чем может быть проблема, первый раз работаю с опенкартом. ПОМОГИТЕ РАЗОБРАТЬСЯ User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /wishlist Disallow: /user Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category Host: sunny888.ru Sitemap: http://sunny888.ru/index.php?route=feed/google_sitemap Sitemap: http://sunny888.ru/sitemap.xml
  18. - Ребята, стандартный Sitemap сам автоматический обновляется? - Именно такую ссылку надо указывать в Robots.txt? - Когда перехожу просто http://sunny888.ru/sitemap.xml - тоже самое открывает, хотя там нет в корне такого файла. пример: http://sunny888.ru/index.php?route=feed/google_sitemap
  19. Что сделать, чтобы поисковик не индексировал страницу панели управления хостингом? Поисковая система проиндексировала такой url адрес: http://my_domain.ru:2222/ Кто знает, как правильно закрыть от индексации данный url через robots.txt, что именно прописать нужно? Я бы сделал так: Disallow: /2222/, но, вначале стоит двоеточие, у меня возникают сомнения в правильности. Вот и не знаю, как правильно прописать: Disallow: /2222/ или Disallow: :2222/ или еще как-то.
  20. User-agent: * Disallow: /*route=checkout/ Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?order= Disallow: /*&order= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*?currency= Disallow: /*?route=product Disallow: /*?keyword Disallow: /*?product/product&product_id= Disallow: /*?product/category&path= Disallow: /*?route=common/home Disallow: /*?product_id Disallow: /&coolfilter* Disallow: /?coolfilter* User-agent: Yandex Disallow: /*route=checkout/ Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?order= Disallow: /*&order= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?currency= Disallow: /*?route=product Disallow: /*?keyword Disallow: /*?product/product&product_id= Disallow: /*?product/category&path= Disallow: /*?route=common/home Disallow: /*?product_id Disallow: /&coolfilter* Disallow: /?coolfilter* Host: www.micma.ru Sitemap: http://micma.ru/index.php?route=feed/google_sitemap
  21. Здравствуйте. Столкнулся с проблемой. Не индексируются статьи. Пробовал разные способы ускорения - через инструменты вебмастеров и пр. Подозреваю, что дело в robots.txt, но сам разобраться не могу. Прошу специалистов проверить и подсказать. Ссылки вида http://krovatki.biz/articles/chto-takoe-krovatka-transformer. Заранее спасибо.
  22. Всем добрый день, извиняюсь если что то написал неправильно или слишком слюнтяво, но сам только начинаю пытаться осваивать SEO. Помогите пожалуйста один вопрос решить. Нужно запрещать главную страницу к индексации или нет? Весь смысл в том что сайт является магазином. Товар и прочая информация обновляется с регулярностью 2 дня и все это отображается на главной. Если нужно запретить главную к индексации, то как написать директиву в robots.txt? Заранее Спасибо! Ссылка на главную магазина http://www.zolywka.ru/ не является рекламой.
  23. Друзья, есть такое указание: Необходимо, чтобы при запросе любых некорректных URLs вида http://site.ru/?N, где N любой численный или строковый параметр, сервер отдавал HTTP/1.1 404 Not Found, либо HTTP/1.1 301 Moved Permanently с переадресацией на главную... Каким образом составить код для .htaccess и robots.txt ?
  24. Много читали про robots txt в итоге у нас содержимое файла выглядит следующим образом ВОПРОС ВОТ В ЧЕМ: у нас интернет-магазин, нужно, чтобы индексировались страницы с товаром, производителями, в общем весь товар...правильный ли у нас для этого файл??????????????посмотрите пожалуйста....... User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*?page= Disallow: /*&page= Disallow: /wishlist Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category User-agent: Yandex Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?tracking= Disallow: /*&tracking= Disallow: /*route=product/search Disallow: /*?page= Disallow: /*&page= Clean-param: tracking Clean-param: filter_name Clean-param: filter_sub_category Clean-param: filter_description Disallow: /wishlist Disallow: /login Disallow: /index.php?route=product/manufacturer Disallow: /index.php?route=product/compare Disallow: /index.php?route=product/category Host: www.chelovechek-baby.ru
  25. Добрый день, форумчане. Думаю над robots.txt. Выкурил уже весь форум, но решения как такового нет. Для того чтобы избавиться от дублей планирую закрыть категории товаров с надеждой на то, что будут индексироваться товары по прямым ссылкам. Посмотрите мой robots.txt, пожалуйста, всё ли так делаю. User-agent: * Disallow: /cache Disallow: /catalog Disallow: /download Disallow: /system Disallow: /index.php?route=account/* Disallow: /index.php?route=checkout/* Disallow: /index.php?route=common/home Disallow: /index.php?route=product/product/captcha Disallow: /index.php?route=information/contact/captcha Disallow: /index.php?route=information/information&information_id= Disallow: /index.php?route=account/login Disallow: /*route=account/* Disallow: /*route=checkout/* Disallow: /*route=affiliate/ Disallow: /*route=product/search Disallow: /*?* Disallow: /*&* Disallow: /matreshki Disallow: /matreshki/semenovskaya Disallow: /matreshki/tradicionnye Disallow: /matreshki/avtorskaya Disallow: /matreshki/neobychnye Disallow: /matreshki/futlyary-matreshki Disallow: /beresta Disallow: /beresta/posuda Disallow: /beresta/nabory-dlya-speciy Disallow: /beresta/salfetnicy Disallow: /hohloma Disallow: /hohloma/nabory-predmetov Disallow: /hohloma/doski Disallow: /shkatulki Disallow: /shkatulki/mstyora Disallow: /shkatulki/paleh User-agent: Yandex Disallow: /cache Disallow: /catalog Disallow: /download Disallow: /system Disallow: /index.php?route=account/* Disallow: /index.php?route=checkout/* Disallow: /index.php?route=common/home Disallow: /index.php?route=product/product/captcha Disallow: /index.php?route=information/contact/captcha Disallow: /index.php?route=information/information&information_id= Disallow: /index.php?route=account/login Disallow: /*route=account/* Disallow: /*route=checkout/* Disallow: /*route=affiliate/ Disallow: /*route=product/search Disallow: /*?* Disallow: /*&* Disallow: /matreshki Disallow: /matreshki/semenovskaya Disallow: /matreshki/tradicionnye Disallow: /matreshki/avtorskaya Disallow: /matreshki/neobychnye Disallow: /matreshki/futlyary-matreshki Disallow: /beresta Disallow: /beresta/posuda Disallow: /beresta/nabory-dlya-speciy Disallow: /beresta/salfetnicy Disallow: /hohloma Disallow: /hohloma/nabory-predmetov Disallow: /hohloma/doski Disallow: /shkatulki Disallow: /shkatulki/mstyora Disallow: /shkatulki/paleh Host: www.rusgifts.com
×

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.