Jump to content
Sign in to follow this  
schulmin

[HowTo] Решение как прописать мета теги " noindex " " nofollow "

Recommended Posts

Спасибо! Хорошая полезная статья.Единственный вопроc.Если применить вышеуказанный в статье скрипт.Как должен выглядеть тогда файл

robots.txt (по конкретнее хотелось бы узнать для опенкарта).И я так понял вставлять данный скрипт нужно в файл index.php сразу после открытия <head>? Спасибо. :-)

Share this post


Link to post
Share on other sites

Куда размещать скрипт?не понятно.

Share this post


Link to post
Share on other sites

(Vovik 53)Я посмотрю вечером и напишу Вам все подробно.

Share this post


Link to post
Share on other sites

спасибо разобрался в header.tpl надо прописывать,и удалить из robots.txt несколько строчек вообщем оставить стандартный robots.txt для опенкарта.и все по-моему и дубли должны исчезнуть после нескольких апгейтов,но у меня проблема в поиске страницы с неправильными урлами т.е вида например :

 
favoritmebel.com/index.php?route=product/quickview&manufacturer_id=6&product_id=301
 

т.е не чпу,а нужно чтобы яндекс удалил эти урлы и проиндексировал чпу- ные урлы.Может кто поможет разобраться и вообще с помощью этого скрипта можно убрать страницы с неправильными урлами и в дальнейшем,чтобы индексировались страницы с правильными например вида:

 
favoritmebel.com/gostinaj/stenki/laim_6.html.Спасибо.(чпу включен на страницах сайта все нормально,а поисковик не правильно индексирует) 

Share this post


Link to post
Share on other sites

 

спасибо разобрался в header.tpl надо прописывать,и удалить из robots.txt несколько строчек вообщем оставить стандартный robots.txt для опенкарта.и все по-моему и дубли должны исчезнуть после нескольких апгейтов,но у меня проблема в поиске страницы с неправильными урлами т.е вида например :

 
favoritmebel.com/index.php?route=product/quickview&manufacturer_id=6&product_id=301
 

т.е не чпу,а нужно чтобы яндекс удалил эти урлы и проиндексировал чпу- ные урлы.Может кто поможет разобраться и вообще с помощью этого скрипта можно убрать страницы с неправильными урлами и в дальнейшем,чтобы индексировались страницы с правильными например вида:

 
favoritmebel.com/gostinaj/stenki/laim_6.html.Спасибо.(чпу включен на страницах сайта все нормально,а поисковик не правильно индексирует) 

 

Да, все верно со скриптом. Как вариант 301 редирект не работает. Еще есть решения по правильной настройке 404 ошибки и скрипт для поднятия SEO текста вверх внутри кода- для поисковых роботов(просто в движке описание категорий в коде очень низко находится) Если есть потребность поделюсь. 

Share this post


Link to post
Share on other sites

Я пока не стал покупать платный модуль от snastika попробую пока вот это решение от frilanser;если бы я решал эту задачу, то сделал бы так

в файле catalog\view\theme\*\template\common\header.tpl

после

<?php if ($keywords) { ?>
<meta name="keywords" content="<?php echo $keywords; ?>" />
<?php } ?>

добавить

<?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?>
<meta name="robots" content="noindex"/>


<?php } ?>вроде" яша" стал убирать не чпу-ные ссылки из поиска(а "гоша" сразу их убрал!)Попробую пока подожду еще несколько апгейтов яндекса проверю потом,если ,что куплю платный модуль. :-)

Share this post


Link to post
Share on other sites

По моему от этих тэгов мало толка. Лично эксперементировал, роботы плюют на них и индексируют все подряд. Только роботс.txt работает ok.

 

Это мое личное мнение, не утверждаю что я прав.

Share this post


Link to post
Share on other sites

Если страница уже проиндексирована, то конечно плюют

 

Если принять вовремя меры - то все отлично работает.

Share this post


Link to post
Share on other sites

Хотелось тут спросить по этим тегам. Сейчас вернул пару категирий, которые были в noindex, nofollow, добавил ссылки на них в сайтмапу. Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу?

 

З.Ы. Экспериментирую с более четкими вхождениями ключевиков и решил потестить на этих, закрытых ранее, категориях.

Share this post


Link to post
Share on other sites
Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу?

 

время лечит... ждите.

Share this post


Link to post
Share on other sites

Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу?

Они так и поступают при очередном проходе страницы, я эту хрень уже не один год наблюдаю.

Толлько robots.txt открывает и закрывает нужные, ненужные двери независимо ни от чего.

Зачем усложнять то что и так очень просто?

Share this post


Link to post
Share on other sites

Вот смотрите

 

вы указали в роботс не индексировать, но это не значит что робот туда не зайдет

О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс

 

Тоже самое и тегом noindex

Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более.

Share this post


Link to post
Share on other sites

Вот смотрите

 

вы указали в роботс не индексировать, но это не значит что робот туда не зайдет

О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс

 

Тоже самое и тегом noindex

Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более.

Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде.

Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет.

Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше.

Share this post


Link to post
Share on other sites

Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде.

Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет.

Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше.

закрыл в robots.txt url-вида :(не чпу)

 
favoritmebel.com/index.php?route=product/quickview&manufacturer_id=8&product_id=66
яндекс все равно индексирует с такими урлами или он постепенно "выкидывает" из индекса не чпу урлы чета не могу понять.Вообщем в поиске есть еще урлы
такого вида как выше.Если вы говорите что поисковик реагирует только на robots.txt то должен "выкинуть" со  временем не чпу урлы и оставить только чпу.Я правильно понимаю.
Вообщем что делать с урлами которые не чпу ,но уже проиндексированы?

Share this post


Link to post
Share on other sites

"такие url" не должны быть ссылками.

автор quickview должен был делать их "кнопками", а адрес в javascript формировать.

тогда и ситуаций подобных не возникало бы.

Share this post


Link to post
Share on other sites

 

<?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?>

 

Добрый день! Скажите, каким должно быть это условие, чтобы тег выводился на карточке товара?

Share this post


Link to post
Share on other sites

Вообщем настроил robots.txt (поставил "маски" не чпу урлов),и "почистил" поиск удалил не чпу урлы сейчас хоть поиск чистый стал с нормальными урлами.А вообще выше указанный модуль nouindex нормально работает страницы пагинации яндекс выкидывает,но правда очень медленно.Так что автору мерси. :-)

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
You are posting as a guest. If you have an account, please sign in.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Recently Browsing   0 members

    No registered users viewing this page.

×

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.