Jump to content
Search In
  • More options...
Find results that contain...
Find results in...
  • Sign Up

Search the Community

Showing results for tags 'robots.txt'.

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Основной
    • Новости и анонсы
    • Предложения и пожелания
    • Акции, подарки, конкурсы и награды
  • Opencart 3.x
    • Opencart 3.x: Общие вопросы
    • Opencart 3.x: Установка и обновление
    • Opencart 3.x: Локализация
    • Opencart 3.x: Настройка и оптимизация
    • Opencart 3.x: Песочница
    • Opencart 3.x: Поиск модулей
    • Opencart 3.x: Отчёты об ошибках
  • Opencart 2.x
    • Opencart 2.x: Общие вопросы
    • Opencart 2.x: Установка и обновление
    • Opencart 2.x: Локализация
    • Opencart 2.x: Настройка и оптимизация
    • Opencart 2.x: Песочница
    • Opencart 2.x: Поиск модулей
    • Opencart 2.x / ocStore 2.x: Отчёты об ошибках
  • Реклама и продвижение
    • SEO-вопросы (оптимизация и продвижение магазина)
    • Контекстная реклама
    • Торговые площадки
    • E-commerce tracking и бизнес аналитика
    • Разное
  • Поддержка и ответы на вопросы
    • Общие вопросы
    • Установка, обновление, настройка
    • Шаблоны, дизайн и оформление магазина
    • Модули и дополнения
    • Помощь программистам и разработчикам
    • Мобильная витрина
    • Вопросы безопасности
    • Перевод
    • Отчёты об ошибках
    • Интернет-магазины и электронная коммерция
    • Песочница
  • Услуги
    • Создание магазинов под ключ
    • Дизайн, верстка и шаблоны
    • Программирование, создание модулей, изменение функциональности
    • Настройка и мелкая работа по уже существующему сайту
    • Обновление версии движка магазина
    • Наполнение магазина
    • Системное администрирование (настройка хостинга, серверов, ПО)
    • Другие услуги
  • Разное
    • Примеры сайтов на OpenCart (ocStore)
    • Курилка
    • Предложения по улучшению

Categories

  • Шаблоны
    • Бесплатные шаблоны
    • Платные шаблоны
  • Filters
  • Promotions & Pricing
  • Реклама и продвижение
  • Coupons & reward points, affiliate programs
  • Blogs, News & Articles
  • Shopping Cart & Order
  • Product Options
  • Product Attributes
  • Product Combinations
  • Search
  • SEO & Optimization
  • Caching & Server Performance
  • Платежные системы
  • Доставки
  • Editors
  • Design & Navigation
  • Banners, Slideshows & Galleries
  • Email Marketing & SMS Integration
  • Customer Support & Chat
  • Обмен данными
  • Учет в заказе
  • Compare & Wishlist
  • Социальные сети
  • Parsers
  • Модули
  • Tools & Developer Tools
  • Licenses
  • Языковые пакеты
  • Прочее
  • Отчеты
  • Сборки
    • ocStore
  • Услуги
    • Графика и дизайн
    • Маркетинг

Categories

  • Служебные документы
  • Оплата

Categories

  • Gereneral questions
  • Purchasing extensions
  • For developer
  • Account
  • Technical support
  • Financial department

Blogs

  • Konorws (Разработка и модификация Opencart)
  • Блог mr.Kent)
  • Прожектор Бритни Спирс
  • Layk
  • Продвижение интернет-магазина, seo оптимизация
  • Записная книжка
  • Блог RGB
  • Модули которые сделают сайт лучше
  • Блог веб-студии NeoSeo
  • Useful IT
  • del
  • Найденные решения проблем с Opencart
  • ocdroid blog
  • Заметки на полях...
  • Pimur
  • Серж Ткач
  • О жизни, смерти, о бизнесе и Опенкарте
  • Полезное с бесполезным
  • Просто мысли от laim731
  • Маркетинг и продвижение интернет-магазина
  • Мой копирайтинг
  • Разработка под Opencart
  • SEO боксинг специального назначения
  • Get-Web Dev
  • Seok
  • Блоги sitecreator-а
  • Best practice
  • Vlad-Egorov-Blog
  • Блог spectre
  • commanddotcom
  • Внимание мошенники
  • del
  • Наблюдения обычного человека
  • Блог Rassol2
  • Блог Exploits
  • блог для натуралов
  • Настюша, тут есть темы
  • Пропитано рекламой
  • Tutorial
  • ОтВинта
  • Tg chnls
  • Блог
  • Блог sv2109
  • КАК ОРГАНИЗОВАТЬ НОВОСТНЫЕ ПОДПИСКИ НА БАЗЕ API OPENCART 3/0/2
  • VDS/VPS, серверы под Linux: установка, настройка, оптимизация
  • IT блог
  • Блог
  • Блог разработчика Opencart
  • Opencart SEO
  • Путёвые заметки о работе магазина NiceBike на платформе OpenCart
  • Blondi Blog
  • Полезные статьи, новости.
  • Пользователям в назидание
  • Блог владельца магазина

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Сайт


Skype


Город:


Интересы

  1. Version 1.1.2

    868 downloads

    Редактор Robot.txt - модуль для редактирования robots.txt прямо из админки. Может кому понадобится) Если файла нет (как на оригинальном opencart'е к примеру), он его создаст. Устанавливается в модули, vQmod'а не требует, никакие файлы не перезаписывает. Распространяется — «как есть» (as is). Версия Opencart — 1.5, 2.1, 2.2, 2.3, 3.0. Установка — стандартная через Установку дополнений (через встроенный Ocmod). Для версии Opencart 1.5 — просто загрузите содержимое upload из архива 1.5.x.gixoc.editrobots.zip в корень сайта. Добавлена версия для OpenCart 3 (сп
    Free
  2. Здравствуйте. После установки Версия ocStore 2.1.0.1 стоит такой robots.txt: User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter= Disallow: /*&filter= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Di
  3. Друзья, есть такое указание: Необходимо, чтобы при запросе любых некорректных URLs вида http://site.ru/?N, где N любой численный или строковый параметр, сервер отдавал HTTP/1.1 404 Not Found, либо HTTP/1.1 301 Moved Permanently с переадресацией на главную... Каким образом составить код для .htaccess и robots.txt ?
  4. Доброго времени суток. Скажите пожалуйста , могу ли я составить robots.txt следующим образом Запретить изначально индексацию всего сайта диррективой Disallow а после разрешить индексацию только определенных страниц? Disallow: / Allow: /page1 Allow: /page2 Allow: /page3 Allow: /page4 Allow: /page5 Allow: /page6 Заранее спасибо за ответ
  5. Подскажите пожалуйста. как мне в файле robots.txt закрыть от индексацию не все товары,а только несколько товаров в категории. пример вот категория /Ambient-Lounge/Acoustic_Sofa/ вот товар который хочу закрыть от идек-ции /Ambient-Lounge/Acoustic_Sofa/Acoustic_Sofa-Eco_Weave.html /Ambient-Lounge/Acoustic_Sofa/Acoustic_Sofa-Hot_Chocolate.html /Ambient-Lounge/Acoustic_Sofa/Acoustic_Sofa-Luscious_Grey.html /Ambient-Lounge/Acoustic_Sofa/Acoustic_Sofa-Sakura_Pink.html /Ambient-Lounge/Acoustic_Sofa/Acoustic_Sofa-Wildberry_Deluxe.html
  6. Интернет магазин ZUNDA.RU Добрый день. Прошу не бесплатной помощи. (яндекс кошелек, сбербанк для России) Второй раз приходит отказ от маркета, из-за такой проблемы: Маркет пишет ответ на запрос по обратной связи: Как решение проблемы, они предлагают убрать мне галочки с пунктов отмеченных на 3 скрине (и то не факт наверное что получится пройти). Но я считаю что статистика эта нужна и мне не хотелось бы этого делать. У кого есть какие-то варианты. Обратите внимание, что при отправке магазина на очередную проверку маркета, проходит 24-36 часов до ответа, поэтому нужны именно знающие люд
  7. Добрый день. Требуется настроить robots.txt, чтобы закрыть от индексации все служебные страницы и прочие папки, куда соваться яндексу и гуглу не стоит))), в общем, привести файл в человеческий вид. Сейчас есть только стандартный robots.txt. Понимаю, что там все несложно, но нет времени разбираться, поэтому хотелось бы получить помощь профессионала, кто в этом разбирается досконально. Предложения просьба писать в личку с указанием стоимости работы.
  8. 1) В файле robots.txt по умолчанию уже что-то прописано а именно Я так понимаю, это защита от индексирования? 2) Существует ли возможность описание категории поместить под списком товаров, чтобы человек видел в первую очередь товар? Либо же через опцию "скрытый текст", но реализацию этого я нашёл только через javascript, что не видят поисковики( Спасибо за ответы!
  9. Допустим robots.txt ... Allow: /категория1 # здесь разрешаю поисковикам видеть категорию, ибо гуглится по описанию Allow: /категория1/подкатегория1 Disallow: /категория1/(здесь хз что ставить) # чтобы запретить поисковикам видеть любые страницы с символом после слеша в категории1 ... Возможно ли это? :oops:
  10. Уважаемые спецы, что-то не хватает тямы разобраться в правилах запрета динамических ссылок: Есть динамическая ссылка типа: mysite/index.php?route=news/news&npath=2&news_id=1 и её дубли: mysite/index.php?route=news/news&npath=-1&news_id=1 mysite/index.php?route=news/news&news_id=1 Как правильно запретить динамические дубли в robots.txt??? (чтобы основная ссылка была открыта для индексации?) Вариант №1 Disallow: /index.php?route=news/news&npath=-1&news_id= Disallow: /index.php?route=news/news&news_id= Вариант №2 Disallow: /*-1&news_id=*
  11. Здравствуйте. В индекс П С попали не нужные страницы которые без мета тегов и тд(Поиск товара, обратная связь , регистрация ) . Убирать через robots.txt не вижу смысла .. Вставил вручную данный тег " <meta name="robots" content="noindex,nofollow" />" , но он стал по верх всего , просто не корректно смотрится " см картинку"... Вопрос :Планирую вставить этот тег " <meta name="robots" content="noindex,nofollow" />" после тегов <meta property="og:title" content=" <meta property="og:type" content="website" /> <meta property="og:url" content=" &l
  12. Здравствуйте. Столкнулся с проблемой. Не индексируются статьи. Пробовал разные способы ускорения - через инструменты вебмастеров и пр. Подозреваю, что дело в robots.txt, но сам разобраться не могу. Прошу специалистов проверить и подсказать. Ссылки вида http://krovatki.biz/articles/chto-takoe-krovatka-transformer. Заранее спасибо.
  13. Всем добрый день, извиняюсь если что то написал неправильно или слишком слюнтяво, но сам только начинаю пытаться осваивать SEO. Помогите пожалуйста один вопрос решить. Нужно запрещать главную страницу к индексации или нет? Весь смысл в том что сайт является магазином. Товар и прочая информация обновляется с регулярностью 2 дня и все это отображается на главной. Если нужно запретить главную к индексации, то как написать директиву в robots.txt? Заранее Спасибо! Ссылка на главную магазина http://www.zolywka.ru/ не является рекламой.
  14. Всем доброго времени суток, уважаемые форумчане. Поставил свой сайт на индексацию. Гугл проверил и начал свое дело. Все вроде хорошо, каждый день по 100 - 150 ссылок индексируется, но меня смутила одна вещь, откуда у меня в магазине аж СТОЛЬКО ссылок - 2481. Товаров 522, + категории 200, + производители 190 ну и так, по мелочам. В лучшем случае - 1500. http://gyazo.com/887535548334a97cc3da2d5d23b7cec9 В robots.txt по скрывал все что не надо: User-agent: * Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /wishlist Disallow: /login Disallo
  15. Добрый день, форумчане. Думаю над robots.txt. Выкурил уже весь форум, но решения как такового нет. Для того чтобы избавиться от дублей планирую закрыть категории товаров с надеждой на то, что будут индексироваться товары по прямым ссылкам. Посмотрите мой robots.txt, пожалуйста, всё ли так делаю. User-agent: * Disallow: /cache Disallow: /catalog Disallow: /download Disallow: /system Disallow: /index.php?route=account/* Disallow: /index.php?route=checkout/* Disallow: /index.php?route=common/home Disallow: /index.php?route=product/product/captcha Disallow: /index.php?route=information/cont
  16. Много читали про robots txt в итоге у нас содержимое файла выглядит следующим образом ВОПРОС ВОТ В ЧЕМ: у нас интернет-магазин, нужно, чтобы индексировались страницы с товаром, производителями, в общем весь товар...правильный ли у нас для этого файл??????????????посмотрите пожалуйста....... User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /system Disallow: /*?so
  17. Здравствуйте! Пожалуйста помогите подружиться с роботом Яндекс :-) при создании сайта, прописала в файле robots.txt такие строки Теперь, когда мне необходима индексация, внесла изменения в robots.txt Так же загрузила всё в вебмастер, в том числе и sitemap. Робот заходит, но не хочет индексировать ссылаясь на всё тот же файл robots.txt....Подскажите, что делать? Количество проиндексированных страниц - 0! Может кто уже сталкивался с такой же проблемой? Время очень дорого :(
  18. - Ребята, стандартный Sitemap сам автоматический обновляется? - Именно такую ссылку надо указывать в Robots.txt? - Когда перехожу просто http://sunny888.ru/sitemap.xml - тоже самое открывает, хотя там нет в корне такого файла. пример: http://sunny888.ru/index.php?route=feed/google_sitemap
  19. Предположим, есть у меня страница акриловых ванн. Ссылка на эту страницу: index.php?route=product/category&path=25_32 Чпу ссылка этой страницы: /vanny/akrilovye/ Вопрос: Если в robots.txt я напишу: Disallow: index.php?route=product/category&path=25_32 Таким образом я запрещу поисковику индексировать страницу акриловых ванн совсем? или только её не-чпу дубль? Мне просто не совсем понятно, как это дело работает. Запрет идет на индексацию содержимого страницы или ссылок на содержимое?
  20. Такое сообщение выдает в инструментах веб мастера. GOOGLE (Файл Sitemap содержит URL, доступ к которым заблокирован в файле robots.txt.) ИСПОЛЬЗУЮ СТАНДАРТНЫЙ Sitemap_Google в Каналах продвижения админки. Вот robots.txt., в чем может быть проблема, первый раз работаю с опенкартом. ПОМОГИТЕ РАЗОБРАТЬСЯ User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?or
  21. Меня интересует правильная настройка sitemap. Сейчас динамическая карта находится https://gemelli.com.ua/index.php?route=extension/feed/google_sitemap, а для search console показывается карта с url sitemap.xml - статическая. Мне нужно что-бы динамическая карта попадала в статическую и для googl показывалась с правильным ЧПУ. Настроить приоритеты и время обновления, а также правильно настроить robots.txt.
  22. Добрый день! Нужна помощь! Перелопапил весь инет, но результата не получил. Проблема в выдаче ошибки "HTTP ERROR 500" при загрузке sitemap по предоставленной модулем ссылке - /index.php?route=extension/feed/google_sitemap. Очень нужна помощь. Может я что-то неправильно указал в htaccess?. Спасибо!
  23. Скачать/Купить дополнение Edit Robots.txt Редактор Robot.txt - модуль для редактирования robots.txt прямо из админки. Может кому понадобится) Если файла нет (как на оригинальном opencart'е к примеру), он его создаст. Устанавливается в модули, vQmod'а не требует, никакие файлы не перезаписывает. Распространяется — «как есть» (as is). Версия Opencart — 1.5, 2.1, 2.2, 2.3, 3.0. Установка — стандартная через Установку дополнений (через встроенный Ocmod). Для версии Opencart 1.5 — просто загрузите содержимое
  24. Извините за дикость! Только начинаю разбираться в данном вопросе. Но может подскажите, что делать с этой ошибкой? Гоша ругается на роботс а именно на строку Clean-param: tracking, Вопрос? как исправить или просто не обращать внимания, все таки директива для Яндекса.
  25. Приветствую всех. Еще раз всех поблагодарю, уже не раз меня выручали люди на форуме, на всей стадии моего проекта с 0,знаний было столько же - полный 0, не то что в програмировании в ворде не знал как работать, но с вашей помощью сделал более менее проект. Собственно к проблеме. 1)Сначала использовал гугловский сайтмап, но он выдавал 624 ошибки с тэгом img, как я понял криминала нету ,то что Яша не умеет читать тэги, но я решил доработать и поставил яндекс сайт мап. 2)И у меня не радуют теперь ошибки выдаваемые в роботс.тхт Вопрос как вылечить и робот.тхт от этих ошибо
×
×
  • Create New...

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.