Перейти до вмісту
Пошук в
  • Детальніше...
Шукати результати, які ...
Шукати результати в ...

[HowTo] Решение как прописать мета теги " noindex " " nofollow "


Recommended Posts

Спасибо! Хорошая полезная статья.Единственный вопроc.Если применить вышеуказанный в статье скрипт.Как должен выглядеть тогда файл

robots.txt (по конкретнее хотелось бы узнать для опенкарта).И я так понял вставлять данный скрипт нужно в файл index.php сразу после открытия <head>? Спасибо. :-)

Надіслати
Поділитися на інших сайтах


спасибо разобрался в header.tpl надо прописывать,и удалить из robots.txt несколько строчек вообщем оставить стандартный robots.txt для опенкарта.и все по-моему и дубли должны исчезнуть после нескольких апгейтов,но у меня проблема в поиске страницы с неправильными урлами т.е вида например :

 
favoritmebel.com/index.php?route=product/quickview&manufacturer_id=6&product_id=301
 

т.е не чпу,а нужно чтобы яндекс удалил эти урлы и проиндексировал чпу- ные урлы.Может кто поможет разобраться и вообще с помощью этого скрипта можно убрать страницы с неправильными урлами и в дальнейшем,чтобы индексировались страницы с правильными например вида:

 
favoritmebel.com/gostinaj/stenki/laim_6.html.Спасибо.(чпу включен на страницах сайта все нормально,а поисковик не правильно индексирует) 
Надіслати
Поділитися на інших сайтах


 

спасибо разобрался в header.tpl надо прописывать,и удалить из robots.txt несколько строчек вообщем оставить стандартный robots.txt для опенкарта.и все по-моему и дубли должны исчезнуть после нескольких апгейтов,но у меня проблема в поиске страницы с неправильными урлами т.е вида например :

 
favoritmebel.com/index.php?route=product/quickview&manufacturer_id=6&product_id=301
 

т.е не чпу,а нужно чтобы яндекс удалил эти урлы и проиндексировал чпу- ные урлы.Может кто поможет разобраться и вообще с помощью этого скрипта можно убрать страницы с неправильными урлами и в дальнейшем,чтобы индексировались страницы с правильными например вида:

 
favoritmebel.com/gostinaj/stenki/laim_6.html.Спасибо.(чпу включен на страницах сайта все нормально,а поисковик не правильно индексирует) 

 

Да, все верно со скриптом. Как вариант 301 редирект не работает. Еще есть решения по правильной настройке 404 ошибки и скрипт для поднятия SEO текста вверх внутри кода- для поисковых роботов(просто в движке описание категорий в коде очень низко находится) Если есть потребность поделюсь. 

Надіслати
Поділитися на інших сайтах


Я пока не стал покупать платный модуль от snastika попробую пока вот это решение от frilanser;если бы я решал эту задачу, то сделал бы так

в файле catalog\view\theme\*\template\common\header.tpl

после

<?php if ($keywords) { ?>
<meta name="keywords" content="<?php echo $keywords; ?>" />
<?php } ?>

добавить

<?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?>
<meta name="robots" content="noindex"/>


<?php } ?>вроде" яша" стал убирать не чпу-ные ссылки из поиска(а "гоша" сразу их убрал!)Попробую пока подожду еще несколько апгейтов яндекса проверю потом,если ,что куплю платный модуль. :-)

Надіслати
Поділитися на інших сайтах


По моему от этих тэгов мало толка. Лично эксперементировал, роботы плюют на них и индексируют все подряд. Только роботс.txt работает ok.

 

Это мое личное мнение, не утверждаю что я прав.

Надіслати
Поділитися на інших сайтах


Если страница уже проиндексирована, то конечно плюют

 

Если принять вовремя меры - то все отлично работает.

Надіслати
Поділитися на інших сайтах

Хотелось тут спросить по этим тегам. Сейчас вернул пару категирий, которые были в noindex, nofollow, добавил ссылки на них в сайтмапу. Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу?

 

З.Ы. Экспериментирую с более четкими вхождениями ключевиков и решил потестить на этих, закрытых ранее, категориях.

Надіслати
Поділитися на інших сайтах


Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу?

 

время лечит... ждите.

Надіслати
Поділитися на інших сайтах

Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу?

Они так и поступают при очередном проходе страницы, я эту хрень уже не один год наблюдаю.

Толлько robots.txt открывает и закрывает нужные, ненужные двери независимо ни от чего.

Зачем усложнять то что и так очень просто?

Надіслати
Поділитися на інших сайтах


Вот смотрите

 

вы указали в роботс не индексировать, но это не значит что робот туда не зайдет

О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс

 

Тоже самое и тегом noindex

Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более.

Надіслати
Поділитися на інших сайтах

Вот смотрите

 

вы указали в роботс не индексировать, но это не значит что робот туда не зайдет

О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс

 

Тоже самое и тегом noindex

Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более.

Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде.

Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет.

Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше.

Надіслати
Поділитися на інших сайтах


  • 2 weeks later...

Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде.

Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет.

Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше.

закрыл в robots.txt url-вида :(не чпу)

 
favoritmebel.com/index.php?route=product/quickview&manufacturer_id=8&product_id=66
яндекс все равно индексирует с такими урлами или он постепенно "выкидывает" из индекса не чпу урлы чета не могу понять.Вообщем в поиске есть еще урлы
такого вида как выше.Если вы говорите что поисковик реагирует только на robots.txt то должен "выкинуть" со  временем не чпу урлы и оставить только чпу.Я правильно понимаю.
Вообщем что делать с урлами которые не чпу ,но уже проиндексированы?
Надіслати
Поділитися на інших сайтах


"такие url" не должны быть ссылками.

автор quickview должен был делать их "кнопками", а адрес в javascript формировать.

тогда и ситуаций подобных не возникало бы.

Надіслати
Поділитися на інших сайтах

  • 1 month later...

 

<?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?>

 

Добрый день! Скажите, каким должно быть это условие, чтобы тег выводился на карточке товара?

Надіслати
Поділитися на інших сайтах


Вообщем настроил robots.txt (поставил "маски" не чпу урлов),и "почистил" поиск удалил не чпу урлы сейчас хоть поиск чистый стал с нормальными урлами.А вообще выше указанный модуль nouindex нормально работает страницы пагинации яндекс выкидывает,но правда очень медленно.Так что автору мерси. :-)

Надіслати
Поділитися на інших сайтах


Створіть аккаунт або увійдіть для коментування

Ви повинні бути користувачем, щоб залишити коментар

Створити обліковий запис

Зареєструйтеся для отримання облікового запису. Це просто!

Зареєструвати аккаунт

Вхід

Уже зареєстровані? Увійдіть тут.

Вхід зараз
  • Зараз на сторінці   0 користувачів

    • Ні користувачів, які переглядиють цю сторінку
×
×
  • Створити...

Important Information

На нашому сайті використовуються файли cookie і відбувається обробка деяких персональних даних користувачів, щоб поліпшити користувальницький інтерфейс. Щоб дізнатися для чого і які персональні дані ми обробляємо перейдіть за посиланням . Якщо Ви натиснете «Я даю згоду», це означає, що Ви розумієте і приймаєте всі умови, зазначені в цьому Повідомленні про конфіденційність.