Перейти к содержанию
schulmin

[HowTo] Решение как прописать мета теги " noindex " " nofollow "

Рекомендуемые сообщения

Спасибо! Хорошая полезная статья.Единственный вопроc.Если применить вышеуказанный в статье скрипт.Как должен выглядеть тогда файл

robots.txt (по конкретнее хотелось бы узнать для опенкарта).И я так понял вставлять данный скрипт нужно в файл index.php сразу после открытия <head>? Спасибо. :-)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Куда размещать скрипт?не понятно.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

(Vovik 53)Я посмотрю вечером и напишу Вам все подробно.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

спасибо разобрался в header.tpl надо прописывать,и удалить из robots.txt несколько строчек вообщем оставить стандартный robots.txt для опенкарта.и все по-моему и дубли должны исчезнуть после нескольких апгейтов,но у меня проблема в поиске страницы с неправильными урлами т.е вида например :

 
favoritmebel.com/index.php?route=product/quickview&manufacturer_id=6&product_id=301
 

т.е не чпу,а нужно чтобы яндекс удалил эти урлы и проиндексировал чпу- ные урлы.Может кто поможет разобраться и вообще с помощью этого скрипта можно убрать страницы с неправильными урлами и в дальнейшем,чтобы индексировались страницы с правильными например вида:

 
favoritmebel.com/gostinaj/stenki/laim_6.html.Спасибо.(чпу включен на страницах сайта все нормально,а поисковик не правильно индексирует) 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

 

спасибо разобрался в header.tpl надо прописывать,и удалить из robots.txt несколько строчек вообщем оставить стандартный robots.txt для опенкарта.и все по-моему и дубли должны исчезнуть после нескольких апгейтов,но у меня проблема в поиске страницы с неправильными урлами т.е вида например :

 
favoritmebel.com/index.php?route=product/quickview&manufacturer_id=6&product_id=301
 

т.е не чпу,а нужно чтобы яндекс удалил эти урлы и проиндексировал чпу- ные урлы.Может кто поможет разобраться и вообще с помощью этого скрипта можно убрать страницы с неправильными урлами и в дальнейшем,чтобы индексировались страницы с правильными например вида:

 
favoritmebel.com/gostinaj/stenki/laim_6.html.Спасибо.(чпу включен на страницах сайта все нормально,а поисковик не правильно индексирует) 

 

Да, все верно со скриптом. Как вариант 301 редирект не работает. Еще есть решения по правильной настройке 404 ошибки и скрипт для поднятия SEO текста вверх внутри кода- для поисковых роботов(просто в движке описание категорий в коде очень низко находится) Если есть потребность поделюсь. 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Я пока не стал покупать платный модуль от snastika попробую пока вот это решение от frilanser;если бы я решал эту задачу, то сделал бы так

в файле catalog\view\theme\*\template\common\header.tpl

после

<?php if ($keywords) { ?>
<meta name="keywords" content="<?php echo $keywords; ?>" />
<?php } ?>

добавить

<?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?>
<meta name="robots" content="noindex"/>


<?php } ?>вроде" яша" стал убирать не чпу-ные ссылки из поиска(а "гоша" сразу их убрал!)Попробую пока подожду еще несколько апгейтов яндекса проверю потом,если ,что куплю платный модуль. :-)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

По моему от этих тэгов мало толка. Лично эксперементировал, роботы плюют на них и индексируют все подряд. Только роботс.txt работает ok.

 

Это мое личное мнение, не утверждаю что я прав.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Если страница уже проиндексирована, то конечно плюют

 

Если принять вовремя меры - то все отлично работает.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Хотелось тут спросить по этим тегам. Сейчас вернул пару категирий, которые были в noindex, nofollow, добавил ссылки на них в сайтмапу. Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу?

 

З.Ы. Экспериментирую с более четкими вхождениями ключевиков и решил потестить на этих, закрытых ранее, категориях.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу?

 

время лечит... ждите.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Поисковики же по идее должны по новой их проиндексировать и вернуть в выдачу?

Они так и поступают при очередном проходе страницы, я эту хрень уже не один год наблюдаю.

Толлько robots.txt открывает и закрывает нужные, ненужные двери независимо ни от чего.

Зачем усложнять то что и так очень просто?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Вот смотрите

 

вы указали в роботс не индексировать, но это не значит что робот туда не зайдет

О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс

 

Тоже самое и тегом noindex

Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Вот смотрите

 

вы указали в роботс не индексировать, но это не значит что робот туда не зайдет

О странице он будет знать, но ее содержимое не будет индексировать (посмотрите, иногда в выдаче существуют сайт с надписью, содержимое недоступно из-за правил в роботс

 

Тоже самое и тегом noindex

Робот посетит, но содержимое не будет учитывать. Возможно он обратит внимание на Заголовок (title), на описание (description) , но не более.

Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде.

Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет.

Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Вообще не могу согласиться с вами. Я занимался, тестировал это активно пару лет назад и прежде.

Если в роботс дверь закрыта то и в индексе страницы, папки, файла нет.

Noindex есть абсолютный 0, я имею ввиду вся страница в индексе и кэше.

закрыл в robots.txt url-вида :(не чпу)

 
favoritmebel.com/index.php?route=product/quickview&manufacturer_id=8&product_id=66
яндекс все равно индексирует с такими урлами или он постепенно "выкидывает" из индекса не чпу урлы чета не могу понять.Вообщем в поиске есть еще урлы
такого вида как выше.Если вы говорите что поисковик реагирует только на robots.txt то должен "выкинуть" со  временем не чпу урлы и оставить только чпу.Я правильно понимаю.
Вообщем что делать с урлами которые не чпу ,но уже проиндексированы?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

"такие url" не должны быть ссылками.

автор quickview должен был делать их "кнопками", а адрес в javascript формировать.

тогда и ситуаций подобных не возникало бы.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

 

<?php if(isset($this->request->get['page']) || isset($this->request->get['limit']) || isset($this->request->get['sort'])) { ?>

 

Добрый день! Скажите, каким должно быть это условие, чтобы тег выводился на карточке товара?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Вообщем настроил robots.txt (поставил "маски" не чпу урлов),и "почистил" поиск удалил не чпу урлы сейчас хоть поиск чистый стал с нормальными урлами.А вообще выше указанный модуль nouindex нормально работает страницы пагинации яндекс выкидывает,но правда очень медленно.Так что автору мерси. :-)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти

  • Последние посетители   0 пользователей онлайн

    Ни одного зарегистрированного пользователя не просматривает данную страницу

×

Важная информация

На нашем сайте используются файлы cookie и происходит обработка некоторых персональных данных пользователей, чтобы улучшить пользовательский интерфейс. Чтобы узнать для чего и какие персональные данные мы обрабатываем перейдите по ссылке. Если Вы нажмете «Я даю согласие», это означает, что Вы понимаете и принимаете все условия, указанные в этом Уведомлении о Конфиденциальности.