schulmin Опубліковано: 17 січня 2015 Share Опубліковано: 17 січня 2015 Добрый день. Вот решение вопроса http://www.masterwebs.ru/topic/15963-problema-dublei-–-bezogovorochnaja-pobeda/Может кому пригодится. Надіслати Поділитися на інших сайтах More sharing options...
vovik53 Опубліковано: 23 січня 2015 Share Опубліковано: 23 січня 2015 Спасибо! Хорошая полезная статья.Единственный вопроc.Если применить вышеуказанный в статье скрипт.Как должен выглядеть тогда файл robots.txt (по конкретнее хотелось бы узнать для опенкарта).И я так понял вставлять данный скрипт нужно в файл index.php сразу после открытия <head>? Спасибо. :-) Надіслати Поділитися на інших сайтах More sharing options...
vovik53 Опубліковано: 23 січня 2015 Share Опубліковано: 23 січня 2015 Куда размещать скрипт?не понятно. Надіслати Поділитися на інших сайтах More sharing options...
snastik Опубліковано: 23 січня 2015 Share Опубліковано: 23 січня 2015 https://opencartforum.com/files/file/1620-seofix-m%D0%B5%D1%82%D0%B0-%D1%82%D0%B5%D0%B3-noindex/ Надіслати Поділитися на інших сайтах More sharing options... schulmin Опубліковано: 23 січня 2015 Автор Share Опубліковано: 23 січня 2015 (Vovik 53)Я посмотрю вечером и напишу Вам все подробно. Надіслати Поділитися на інших сайтах More sharing options... vovik53 Опубліковано: 23 січня 2015 Share Опубліковано: 23 січня 2015 спасибо разобрался в header.tpl надо прописывать,и удалить из robots.txt несколько строчек вообщем оставить стандартный robots.txt для опенкарта.и все по-моему и дубли должны исчезнуть после нескольких апгейтов,но у меня проблема в поиске страницы с неправильными урлами т.е вида например : favoritmebel.com/index.php?route=product/quickview&manufacturer_id=6&product_id=301 т.е не чпу,а нужно чтобы яндекс удалил эти урлы и проиндексировал чпу- ные урлы.Может кто поможет разобраться и вообще с помощью этого скрипта можно убрать страницы с неправильными урлами и в дальнейшем,чтобы индексировались страницы с правильными например вида: favoritmebel.com/gostinaj/stenki/laim_6.html.Спасибо.(чпу включен на страницах сайта все нормально,а поисковик не правильно индексирует) Надіслати Поділитися на інших сайтах More sharing options... schulmin Опубліковано: 24 січня 2015 Автор Share Опубліковано: 24 січня 2015 спасибо разобрался в header.tpl надо прописывать,и удалить из robots.txt несколько строчек вообщем оставить стандартный robots.txt для опенкарта.и все по-моему и дубли должны исчезнуть после нескольких апгейтов,но у меня проблема в поиске страницы с неправильными урлами т.е вида например : favoritmebel.com/index.php?route=product/quickview&manufacturer_id=6&product_id=301 т.е не чпу,а нужно чтобы яндекс удалил эти урлы и проиндексировал чпу- ные урлы.Может кто поможет разобраться и вообще с помощью этого скрипта можно убрать страницы с неправильными урлами и в дальнейшем,чтобы индексировались страницы с правильными например вида: favoritmebel.com/gostinaj/stenki/laim_6.html.Спасибо.(чпу включен на страницах сайта все нормально,а поисковик не правильно индексирует) Да, все верно со скриптом. Как вариант 301 редирект не работает. Еще есть решения по правильной настройке 404 ошибки и скрипт для поднятия SEO текста вверх внутри кода- для поисковых роботов(просто в движке описание категорий в коде очень низко находится) Если есть потребность поделюсь. Надіслати Поділитися на інших сайтах More sharing options... vovik53 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Я пока не стал покупать платный модуль от snastika попробую пока вот это решение от frilanser;если бы я решал эту задачу, то сделал бы так в файле catalog\view\theme\*\template\common\header.tpl после <?php if ($keywords) { ?><meta name="keywords" content="<?php echo $keywords; ?>" /><?php } ?> добавить <?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?><meta name="robots" content="noindex"/> <?php } ?>вроде" яша" стал убирать не чпу-ные ссылки из поиска(а "гоша" сразу их убрал!)Попробую пока подожду еще несколько апгейтов яндекса проверю потом,если ,что куплю платный модуль. :-) Надіслати Поділитися на інших сайтах More sharing options... Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 По моему от этих тэгов мало толка. Лично эксперементировал, роботы плюют на них и индексируют все подряд. Только роботс.txt работает ok. Это мое личное мнение, не утверждаю что я прав. Надіслати Поділитися на інших сайтах More sharing options... chukcha Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Если страница уже проиндексирована, то конечно плюют Если принять вовремя меры - то все отлично работает. Надіслати Поділитися на інших сайтах More sharing options... fijneman Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Хотелось тут спросить по этим тегам. Сейчас вернул пару категирий, которые были в noindex, nofollow, добавил ссылки на них в сайтмапу. Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу? З.Ы. Экспериментирую с более четкими вхождениями ключевиков и решил потестить на этих, закрытых ранее, категориях. Надіслати Поділитися на інших сайтах More sharing options... chukcha Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу? время лечит... ждите. Надіслати Поділитися на інших сайтах More sharing options... Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу? Они так и поступают при очередном проходе страницы, я эту хрень уже не один год наблюдаю. Толлько robots.txt открывает и закрывает нужные, ненужные двери независимо ни от чего. Зачем усложнять то что и так очень просто? Надіслати Поділитися на інших сайтах More sharing options... chukcha Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Вот смотрите вы указали в роботс не индексировать, но это не значит что робот туда не зайдет О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс Тоже самое и тегом noindex Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более. Надіслати Поділитися на інших сайтах More sharing options... Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Вот смотрите вы указали в роботс не индексировать, но это не значит что робот туда не зайдет О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс Тоже самое и тегом noindex Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более. Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде. Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет. Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше. Надіслати Поділитися на інших сайтах More sharing options... 2 weeks later... vovik53 Опубліковано: 10 лютого 2015 Share Опубліковано: 10 лютого 2015 Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде. Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет. Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше. закрыл в robots.txt url-вида :(не чпу) favoritmebel.com/index.php?route=product/quickview&manufacturer_id=8&product_id=66 яндекс все равно индексирует с такими урлами или он постепенно "выкидывает" из индекса не чпу урлы чета не могу понять.Вообщем в поиске есть еще урлы такого вида как выше.Если вы говорите что поисковик реагирует только на robots.txt то должен "выкинуть" со временем не чпу урлы и оставить только чпу.Я правильно понимаю. Вообщем что делать с урлами которые не чпу ,но уже проиндексированы? Надіслати Поділитися на інших сайтах More sharing options... afwollis Опубліковано: 10 лютого 2015 Share Опубліковано: 10 лютого 2015 "такие url" не должны быть ссылками. автор quickview должен был делать их "кнопками", а адрес в javascript формировать. тогда и ситуаций подобных не возникало бы. Надіслати Поділитися на інших сайтах More sharing options... 1 month later... moby Опубліковано: 31 березня 2015 Share Опубліковано: 31 березня 2015 <?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?> Добрый день! Скажите, каким должно быть это условие, чтобы тег выводился на карточке товара? Надіслати Поділитися на інших сайтах More sharing options... jey Опубліковано: 4 квітня 2015 Share Опубліковано: 4 квітня 2015 нужная штука Надіслати Поділитися на інших сайтах More sharing options... vovik53 Опубліковано: 11 квітня 2015 Share Опубліковано: 11 квітня 2015 Вообщем настроил robots.txt (поставил "маски" не чпу урлов),и "почистил" поиск удалил не чпу урлы сейчас хоть поиск чистый стал с нормальными урлами.А вообще выше указанный модуль nouindex нормально работает страницы пагинации яндекс выкидывает,но правда очень медленно.Так что автору мерси. :-) Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0 Перейти до списку тем Зараз на сторінці 0 користувачів Ні користувачів, які переглядиють цю сторінку Последние темы Последние дополнения Последние новости Вся активність Головна Реклама і просування SEO-питання (оптимізація та просування магазину) [HowTo] Решение как прописать мета теги " noindex " " nofollow " Покупцям Оплата розширень фізичними особами Оплата розширень юридичними особами Політика повернень Розробникам Регламент розміщення розширень Регламент продажу та підтримки розширень Віртуальний обліковий запис автора Політика просування оголошень API каталогу розширень Вирішення спорів щодо авторських прав Корисна інформація Публічна оферта Політика повернень Політика конфіденційності Платіжна політика Політика передачі особистих даних Політика прозорості Останні розширення Повний пакет SEO Автор: GeekoDev SameSite Session Fix Opencart 3 Автор: web_bond SP Telegram повідомлення FREE Автор: spectre Відключити порожні категорії Автор: spectre SEO Автор тексту категорії / фільтра / блогу з датою оновлення контенту + мікророзмітка Автор: radaevich × Уже зареєстровані? Ввійти Реєстрація Ваші замовлення Назад Придбані модулі та шаблони Ваші рахунки Лист очікувань Альтернативні контакти Форум Новини ocStore Назад Офіційний сайт Демо ocStore 3.0.3.2 Демо ocStore 2.3.0.2.4 Завантажити ocStore Документація Історія версій ocStore Блоги Модулі Шаблони Назад Безкоштовні шаблони Платні шаблони Де купувати модулі? Послуги FAQ OpenCart.Pro Назад Демо Купити Порівняння × Створити... Important Information На нашому сайті використовуються файли cookie і відбувається обробка деяких персональних даних користувачів, щоб поліпшити користувальницький інтерфейс. Щоб дізнатися для чого і які персональні дані ми обробляємо перейдіть за посиланням . Якщо Ви натиснете «Я даю згоду», це означає, що Ви розумієте і приймаєте всі умови, зазначені в цьому Повідомленні про конфіденційність. Я даю згоду
schulmin Опубліковано: 23 січня 2015 Автор Share Опубліковано: 23 січня 2015 (Vovik 53)Я посмотрю вечером и напишу Вам все подробно. Надіслати Поділитися на інших сайтах More sharing options...
vovik53 Опубліковано: 23 січня 2015 Share Опубліковано: 23 січня 2015 спасибо разобрался в header.tpl надо прописывать,и удалить из robots.txt несколько строчек вообщем оставить стандартный robots.txt для опенкарта.и все по-моему и дубли должны исчезнуть после нескольких апгейтов,но у меня проблема в поиске страницы с неправильными урлами т.е вида например : favoritmebel.com/index.php?route=product/quickview&manufacturer_id=6&product_id=301 т.е не чпу,а нужно чтобы яндекс удалил эти урлы и проиндексировал чпу- ные урлы.Может кто поможет разобраться и вообще с помощью этого скрипта можно убрать страницы с неправильными урлами и в дальнейшем,чтобы индексировались страницы с правильными например вида: favoritmebel.com/gostinaj/stenki/laim_6.html.Спасибо.(чпу включен на страницах сайта все нормально,а поисковик не правильно индексирует) Надіслати Поділитися на інших сайтах More sharing options...
schulmin Опубліковано: 24 січня 2015 Автор Share Опубліковано: 24 січня 2015 спасибо разобрался в header.tpl надо прописывать,и удалить из robots.txt несколько строчек вообщем оставить стандартный robots.txt для опенкарта.и все по-моему и дубли должны исчезнуть после нескольких апгейтов,но у меня проблема в поиске страницы с неправильными урлами т.е вида например : favoritmebel.com/index.php?route=product/quickview&manufacturer_id=6&product_id=301 т.е не чпу,а нужно чтобы яндекс удалил эти урлы и проиндексировал чпу- ные урлы.Может кто поможет разобраться и вообще с помощью этого скрипта можно убрать страницы с неправильными урлами и в дальнейшем,чтобы индексировались страницы с правильными например вида: favoritmebel.com/gostinaj/stenki/laim_6.html.Спасибо.(чпу включен на страницах сайта все нормально,а поисковик не правильно индексирует) Да, все верно со скриптом. Как вариант 301 редирект не работает. Еще есть решения по правильной настройке 404 ошибки и скрипт для поднятия SEO текста вверх внутри кода- для поисковых роботов(просто в движке описание категорий в коде очень низко находится) Если есть потребность поделюсь. Надіслати Поділитися на інших сайтах More sharing options...
vovik53 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Я пока не стал покупать платный модуль от snastika попробую пока вот это решение от frilanser;если бы я решал эту задачу, то сделал бы так в файле catalog\view\theme\*\template\common\header.tpl после <?php if ($keywords) { ?><meta name="keywords" content="<?php echo $keywords; ?>" /><?php } ?> добавить <?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?><meta name="robots" content="noindex"/> <?php } ?>вроде" яша" стал убирать не чпу-ные ссылки из поиска(а "гоша" сразу их убрал!)Попробую пока подожду еще несколько апгейтов яндекса проверю потом,если ,что куплю платный модуль. :-) Надіслати Поділитися на інших сайтах More sharing options...
Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 По моему от этих тэгов мало толка. Лично эксперементировал, роботы плюют на них и индексируют все подряд. Только роботс.txt работает ok. Это мое личное мнение, не утверждаю что я прав. Надіслати Поділитися на інших сайтах More sharing options...
chukcha Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Если страница уже проиндексирована, то конечно плюют Если принять вовремя меры - то все отлично работает. Надіслати Поділитися на інших сайтах More sharing options... fijneman Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Хотелось тут спросить по этим тегам. Сейчас вернул пару категирий, которые были в noindex, nofollow, добавил ссылки на них в сайтмапу. Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу? З.Ы. Экспериментирую с более четкими вхождениями ключевиков и решил потестить на этих, закрытых ранее, категориях. Надіслати Поділитися на інших сайтах More sharing options... chukcha Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу? время лечит... ждите. Надіслати Поділитися на інших сайтах More sharing options... Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу? Они так и поступают при очередном проходе страницы, я эту хрень уже не один год наблюдаю. Толлько robots.txt открывает и закрывает нужные, ненужные двери независимо ни от чего. Зачем усложнять то что и так очень просто? Надіслати Поділитися на інших сайтах More sharing options... chukcha Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Вот смотрите вы указали в роботс не индексировать, но это не значит что робот туда не зайдет О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс Тоже самое и тегом noindex Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более. Надіслати Поділитися на інших сайтах More sharing options... Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Вот смотрите вы указали в роботс не индексировать, но это не значит что робот туда не зайдет О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс Тоже самое и тегом noindex Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более. Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде. Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет. Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше. Надіслати Поділитися на інших сайтах More sharing options... 2 weeks later... vovik53 Опубліковано: 10 лютого 2015 Share Опубліковано: 10 лютого 2015 Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде. Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет. Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше. закрыл в robots.txt url-вида :(не чпу) favoritmebel.com/index.php?route=product/quickview&manufacturer_id=8&product_id=66 яндекс все равно индексирует с такими урлами или он постепенно "выкидывает" из индекса не чпу урлы чета не могу понять.Вообщем в поиске есть еще урлы такого вида как выше.Если вы говорите что поисковик реагирует только на robots.txt то должен "выкинуть" со временем не чпу урлы и оставить только чпу.Я правильно понимаю. Вообщем что делать с урлами которые не чпу ,но уже проиндексированы? Надіслати Поділитися на інших сайтах More sharing options... afwollis Опубліковано: 10 лютого 2015 Share Опубліковано: 10 лютого 2015 "такие url" не должны быть ссылками. автор quickview должен был делать их "кнопками", а адрес в javascript формировать. тогда и ситуаций подобных не возникало бы. Надіслати Поділитися на інших сайтах More sharing options... 1 month later... moby Опубліковано: 31 березня 2015 Share Опубліковано: 31 березня 2015 <?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?> Добрый день! Скажите, каким должно быть это условие, чтобы тег выводился на карточке товара? Надіслати Поділитися на інших сайтах More sharing options... jey Опубліковано: 4 квітня 2015 Share Опубліковано: 4 квітня 2015 нужная штука Надіслати Поділитися на інших сайтах More sharing options... vovik53 Опубліковано: 11 квітня 2015 Share Опубліковано: 11 квітня 2015 Вообщем настроил robots.txt (поставил "маски" не чпу урлов),и "почистил" поиск удалил не чпу урлы сейчас хоть поиск чистый стал с нормальными урлами.А вообще выше указанный модуль nouindex нормально работает страницы пагинации яндекс выкидывает,но правда очень медленно.Так что автору мерси. :-) Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0 Перейти до списку тем Зараз на сторінці 0 користувачів Ні користувачів, які переглядиють цю сторінку Последние темы Последние дополнения Последние новости Вся активність Головна Реклама і просування SEO-питання (оптимізація та просування магазину) [HowTo] Решение как прописать мета теги " noindex " " nofollow " Покупцям Оплата розширень фізичними особами Оплата розширень юридичними особами Політика повернень Розробникам Регламент розміщення розширень Регламент продажу та підтримки розширень Віртуальний обліковий запис автора Політика просування оголошень API каталогу розширень Вирішення спорів щодо авторських прав Корисна інформація Публічна оферта Політика повернень Політика конфіденційності Платіжна політика Політика передачі особистих даних Політика прозорості Останні розширення Повний пакет SEO Автор: GeekoDev SameSite Session Fix Opencart 3 Автор: web_bond SP Telegram повідомлення FREE Автор: spectre Відключити порожні категорії Автор: spectre SEO Автор тексту категорії / фільтра / блогу з датою оновлення контенту + мікророзмітка Автор: radaevich
fijneman Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Хотелось тут спросить по этим тегам. Сейчас вернул пару категирий, которые были в noindex, nofollow, добавил ссылки на них в сайтмапу. Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу? З.Ы. Экспериментирую с более четкими вхождениями ключевиков и решил потестить на этих, закрытых ранее, категориях. Надіслати Поділитися на інших сайтах More sharing options...
chukcha Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу? время лечит... ждите. Надіслати Поділитися на інших сайтах More sharing options... Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу? Они так и поступают при очередном проходе страницы, я эту хрень уже не один год наблюдаю. Толлько robots.txt открывает и закрывает нужные, ненужные двери независимо ни от чего. Зачем усложнять то что и так очень просто? Надіслати Поділитися на інших сайтах More sharing options... chukcha Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Вот смотрите вы указали в роботс не индексировать, но это не значит что робот туда не зайдет О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс Тоже самое и тегом noindex Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более. Надіслати Поділитися на інших сайтах More sharing options... Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Вот смотрите вы указали в роботс не индексировать, но это не значит что робот туда не зайдет О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс Тоже самое и тегом noindex Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более. Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде. Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет. Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше. Надіслати Поділитися на інших сайтах More sharing options... 2 weeks later... vovik53 Опубліковано: 10 лютого 2015 Share Опубліковано: 10 лютого 2015 Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде. Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет. Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше. закрыл в robots.txt url-вида :(не чпу) favoritmebel.com/index.php?route=product/quickview&manufacturer_id=8&product_id=66 яндекс все равно индексирует с такими урлами или он постепенно "выкидывает" из индекса не чпу урлы чета не могу понять.Вообщем в поиске есть еще урлы такого вида как выше.Если вы говорите что поисковик реагирует только на robots.txt то должен "выкинуть" со временем не чпу урлы и оставить только чпу.Я правильно понимаю. Вообщем что делать с урлами которые не чпу ,но уже проиндексированы? Надіслати Поділитися на інших сайтах More sharing options... afwollis Опубліковано: 10 лютого 2015 Share Опубліковано: 10 лютого 2015 "такие url" не должны быть ссылками. автор quickview должен был делать их "кнопками", а адрес в javascript формировать. тогда и ситуаций подобных не возникало бы. Надіслати Поділитися на інших сайтах More sharing options... 1 month later... moby Опубліковано: 31 березня 2015 Share Опубліковано: 31 березня 2015 <?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?> Добрый день! Скажите, каким должно быть это условие, чтобы тег выводился на карточке товара? Надіслати Поділитися на інших сайтах More sharing options... jey Опубліковано: 4 квітня 2015 Share Опубліковано: 4 квітня 2015 нужная штука Надіслати Поділитися на інших сайтах More sharing options... vovik53 Опубліковано: 11 квітня 2015 Share Опубліковано: 11 квітня 2015 Вообщем настроил robots.txt (поставил "маски" не чпу урлов),и "почистил" поиск удалил не чпу урлы сейчас хоть поиск чистый стал с нормальными урлами.А вообще выше указанный модуль nouindex нормально работает страницы пагинации яндекс выкидывает,но правда очень медленно.Так что автору мерси. :-) Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0 Перейти до списку тем Зараз на сторінці 0 користувачів Ні користувачів, які переглядиють цю сторінку Последние темы Последние дополнения Последние новости Вся активність Головна Реклама і просування SEO-питання (оптимізація та просування магазину) [HowTo] Решение как прописать мета теги " noindex " " nofollow "
Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу? Они так и поступают при очередном проходе страницы, я эту хрень уже не один год наблюдаю. Толлько robots.txt открывает и закрывает нужные, ненужные двери независимо ни от чего. Зачем усложнять то что и так очень просто? Надіслати Поділитися на інших сайтах More sharing options...
chukcha Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Вот смотрите вы указали в роботс не индексировать, но это не значит что робот туда не зайдет О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс Тоже самое и тегом noindex Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более. Надіслати Поділитися на інших сайтах More sharing options... Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Вот смотрите вы указали в роботс не индексировать, но это не значит что робот туда не зайдет О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс Тоже самое и тегом noindex Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более. Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде. Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет. Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше. Надіслати Поділитися на інших сайтах More sharing options... 2 weeks later... vovik53 Опубліковано: 10 лютого 2015 Share Опубліковано: 10 лютого 2015 Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде. Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет. Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше. закрыл в robots.txt url-вида :(не чпу) favoritmebel.com/index.php?route=product/quickview&manufacturer_id=8&product_id=66 яндекс все равно индексирует с такими урлами или он постепенно "выкидывает" из индекса не чпу урлы чета не могу понять.Вообщем в поиске есть еще урлы такого вида как выше.Если вы говорите что поисковик реагирует только на robots.txt то должен "выкинуть" со временем не чпу урлы и оставить только чпу.Я правильно понимаю. Вообщем что делать с урлами которые не чпу ,но уже проиндексированы? Надіслати Поділитися на інших сайтах More sharing options... afwollis Опубліковано: 10 лютого 2015 Share Опубліковано: 10 лютого 2015 "такие url" не должны быть ссылками. автор quickview должен был делать их "кнопками", а адрес в javascript формировать. тогда и ситуаций подобных не возникало бы. Надіслати Поділитися на інших сайтах More sharing options... 1 month later... moby Опубліковано: 31 березня 2015 Share Опубліковано: 31 березня 2015 <?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?> Добрый день! Скажите, каким должно быть это условие, чтобы тег выводился на карточке товара? Надіслати Поділитися на інших сайтах More sharing options... jey Опубліковано: 4 квітня 2015 Share Опубліковано: 4 квітня 2015 нужная штука Надіслати Поділитися на інших сайтах More sharing options... vovik53 Опубліковано: 11 квітня 2015 Share Опубліковано: 11 квітня 2015 Вообщем настроил robots.txt (поставил "маски" не чпу урлов),и "почистил" поиск удалил не чпу урлы сейчас хоть поиск чистый стал с нормальными урлами.А вообще выше указанный модуль nouindex нормально работает страницы пагинации яндекс выкидывает,но правда очень медленно.Так что автору мерси. :-) Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0 Перейти до списку тем Зараз на сторінці 0 користувачів Ні користувачів, які переглядиють цю сторінку
Yury2265 Опубліковано: 31 січня 2015 Share Опубліковано: 31 січня 2015 Вот смотрите вы указали в роботс не индексировать, но это не значит что робот туда не зайдет О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс Тоже самое и тегом noindex Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более. Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде. Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет. Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше. Надіслати Поділитися на інших сайтах More sharing options...
vovik53 Опубліковано: 10 лютого 2015 Share Опубліковано: 10 лютого 2015 Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде. Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет. Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше. закрыл в robots.txt url-вида :(не чпу) favoritmebel.com/index.php?route=product/quickview&manufacturer_id=8&product_id=66 яндекс все равно индексирует с такими урлами или он постепенно "выкидывает" из индекса не чпу урлы чета не могу понять.Вообщем в поиске есть еще урлы такого вида как выше.Если вы говорите что поисковик реагирует только на robots.txt то должен "выкинуть" со временем не чпу урлы и оставить только чпу.Я правильно понимаю. Вообщем что делать с урлами которые не чпу ,но уже проиндексированы? Надіслати Поділитися на інших сайтах More sharing options...
afwollis Опубліковано: 10 лютого 2015 Share Опубліковано: 10 лютого 2015 "такие url" не должны быть ссылками. автор quickview должен был делать их "кнопками", а адрес в javascript формировать. тогда и ситуаций подобных не возникало бы. Надіслати Поділитися на інших сайтах More sharing options... 1 month later... moby Опубліковано: 31 березня 2015 Share Опубліковано: 31 березня 2015 <?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?> Добрый день! Скажите, каким должно быть это условие, чтобы тег выводился на карточке товара? Надіслати Поділитися на інших сайтах More sharing options... jey Опубліковано: 4 квітня 2015 Share Опубліковано: 4 квітня 2015 нужная штука Надіслати Поділитися на інших сайтах More sharing options... vovik53 Опубліковано: 11 квітня 2015 Share Опубліковано: 11 квітня 2015 Вообщем настроил robots.txt (поставил "маски" не чпу урлов),и "почистил" поиск удалил не чпу урлы сейчас хоть поиск чистый стал с нормальными урлами.А вообще выше указанный модуль nouindex нормально работает страницы пагинации яндекс выкидывает,но правда очень медленно.Так что автору мерси. :-) Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0
moby Опубліковано: 31 березня 2015 Share Опубліковано: 31 березня 2015 <?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?> Добрый день! Скажите, каким должно быть это условие, чтобы тег выводился на карточке товара? Надіслати Поділитися на інших сайтах More sharing options...
jey Опубліковано: 4 квітня 2015 Share Опубліковано: 4 квітня 2015 нужная штука Надіслати Поділитися на інших сайтах More sharing options...
vovik53 Опубліковано: 11 квітня 2015 Share Опубліковано: 11 квітня 2015 Вообщем настроил robots.txt (поставил "маски" не чпу урлов),и "почистил" поиск удалил не чпу урлы сейчас хоть поиск чистый стал с нормальными урлами.А вообще выше указанный модуль nouindex нормально работает страницы пагинации яндекс выкидывает,но правда очень медленно.Так что автору мерси. :-) Надіслати Поділитися на інших сайтах More sharing options...
Recommended Posts