Перейти к содержанию

Рекомендуемые сообщения

Добрый день! Подскажите пожалуйста по тегу canonical.  Если я захожу в категорию там прописан тег canonical, тут все нормально, но если я перехожу на вторую страницу в данной категории (категория/?page=2) то данный тег отсутствует . prev и next есть.  Раньше не обращал внимание, а сейчас заметил. По логике на второй странице данный тег должен указывать на /категория/, или я не прав?  Если прав, то как можно исправить?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
			// http://googlewebmastercentral.blogspot.com/2011/09/pagination-with-relnext-and-relprev.html
			if ($page == 1) {
			    $this->document->addLink($this->url->link('product/category', 'path=' . $category_info['category_id'], true), 'canonical');
			} elseif ($page == 2) {
			    $this->document->addLink($this->url->link('product/category', 'path=' . $category_info['category_id'], true), 'prev');
			} else {
			    $this->document->addLink($this->url->link('product/category', 'path=' . $category_info['category_id'] . '&page='. ($page - 1), true), 'prev');
			}

			if ($limit && ceil($product_total / $limit) > $page) {
			    $this->document->addLink($this->url->link('product/category', 'path=' . $category_info['category_id'] . '&page='. ($page + 1), true), 'next');
			}

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Спасибо, но все так и есть. Данный код присутствует, но на второй странице не выводиться canonical

Изменено пользователем SergeySh

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
12 минут назад, SergeySh сказал:

Спасибо, но все так и есть. Данный код присутствует. 

ну так то да, только код отличается от ваших хотелок

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
6 минут назад, nikifalex сказал:

ну так то да, только код отличается от ваших хотелок

Я понимаю) можете подсказать как должен выглядеть код? 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
11 минут назад, SergeySh сказал:

Я понимаю) можете подсказать как должен выглядеть код? 

 

добавьте каноникал после $page==2

но я бы посоветовал сначала ссылку почитать которая сверху этого когда

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Да, я читал ее. Как я понял, то что я хочу не нужно, раз оно не упоминается.  Просто обратил, что на многих сайта так реализовано почему-то.

14 минут назад, spectre сказал:

 

добавьте каноникал после $page==2

но я бы посоветовал сначала ссылку почитать которая сверху этого когда

к сожалению, не понял как это сделать... 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
4 минуты назад, SergeySh сказал:

Да, я читал ее. Как я понял, то что я хочу не нужно, раз оно не упоминается.  Просто обратил, что на многих сайта так реализовано почему-то.

к сожалению, не понял как это сделать... 

не запаривайтесь об этом

если вы уж взялись за СЕО - то страницы 2 и выше будете вероятнее всего закрывать от индексации. А значит и в каноникале на 2, 3 и дальше смысла нет. 

 

Если пагинацию закроете в роботсе - то там и ботов не будет, ради кого труды?

Если пагинацию закроете noindex, follow тегом - то дубли никак не попадут в выдачу - они же запрещены к индексации.

 

 

Кроме того - каноникал указывается на главной странице, среди схожих, а логическую цепочку обеспечивают теги next , prev . То есть поисковику известно все что надо: что страница 1 - главная, что страница 2 является страницей продолжающей содержимое первой. 

 

Вроде так, если не так - меня поправят. 

Недавно тоже занимался этим вопросом, у себя реализовывал так:

 

не запрещать пагинацию в роботс.

ноиндекс, фолов для пагинации выше 2 в коде - добавить

каноникал на первой - уже есть в окстор

теги прев/некст  - уже есть в окстор

показывать текст описания только на главной странице. (еще не сделал, но буду, т.к. рекомендовали местные)

редирект с пагинации 2 и выше вместо page=1 на /

также делал приставку в метатегах "Страница № Х" для пагинации, просто чтобы по феншую)

 

 

 

 

 

  • +1 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
7 минут назад, Guava сказал:

 

 Спасибо, я в принципе, так и предполагал, просто смутило, что на многих сайтах это есть. 

 Все, что Вы написали, я уже реализовал, кроме noindex, follow -  для чего это нужно?:) или ссылкой киньте, где тема обсуждается?:)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
7 минут назад, Guava сказал:

не запаривайтесь об этом

если вы уж взялись за СЕО - то страницы 2 и выше будете вероятнее всего закрывать от индексации. А значит и в каноникале на 2, 3 и дальше смысла нет. 

 

Если пагинацию закроете в роботсе - то там и ботов не будет, ради кого труды?

Если пагинацию закроете noindex, follow тегом - то дубли никак не попадут в выдачу - они же запрещены к индексации.

 

 

Кроме того - каноникал указывается на главной странице, среди схожих, а логическую цепочку обеспечивают теги next , prev . То есть поисковику известно все что надо: что страница 1 - главная, что страница 2 является страницей продолжающей содержимое первой. 

 

Вроде так, если не так - меня поправят.

 

 

 

Все правильно вы рекомендуете
Я тоже рекомендую страницы пагинации закрывать в robots.txt все равно они дальше от главной на один клик поэтому их вес минимальный и они разбавляют СЯ своим малым весом. Все равно все товары открыты для индексации и есть в sitemap

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
11 минут назад, SergeySh сказал:

 Спасибо, я в принципе, так и предполагал, просто смутило, что на многих сайтах это есть. 

 Все, что Вы написали, я уже реализовал, кроме noindex, follow -  для чего это нужно?:) или ссылкой киньте, где тема обсуждается?:)

https://support.google.com/webmasters/answer/96569?hl=ru

https://support.google.com/webmasters/answer/93710?hl=ru

 

10 минут назад, markimax сказал:

Все равно все товары открыты для индексации и есть в sitemap

 

По этому поводу имею теорию, на основе прочитанного на этом форуме и своих знаний. (подчеркну, что теорию, т.к. не являюсь сотрудником поисковой системы)

 

Разница таки есть (точнее должна быть по моему мнению).

Да, товары есть в sitemap и все равно проиндексируются, за одним но.  — проиндексированные товары затем нужно будет выдавать по запросу. Запрет в роботс может привести вот к чему: товары, которые лежат на странице 2,3 и далее не получают никаких внутренних ссылок и могут быть посчитаны мусорными, малонужными.

Почему пришел к такому выводу. Весь сайт - это перечень относительных показателей, и если, например, на страницу контактов есть 10 000 ссылок (со всех товаров и категорий), а на товар ссылок 0 - то будет ли поисковая система в принципе рассматривать страницу данного товара, как что то значимое? 

 

Да, конечно же, внутренний ссылочный вес - один из множества факторов, который не является основополагающим. Но все же - выходит, что запрет страницы в роботс - делает эту страницу не существующей для ботов, а ссылки со страниц, которые технически закрыты и не существуют для глаз поисковых систем - равняются нулю.

 

Второй пример у меня по поводу неоднозначно идентифицируемых товаров. То есть есть категория Бусы, и в ней две почти одинаковые модели. Одна на второй странице пагинации лежит, а вторые бусы на первой. - по итогу, при прочих равных, выдаваться будет страница товара бус с первой страницы. Все вроде хорошо, но потом товар уходит из наличия, перемещается в последнюю страницу пагинации - и поисковой системе нужно будет выдавать уже страницу товара бусы 2 . Что в результате - в результате ни первая ни вторая страница бус не "растут"  в поиске, т.к. поисковая система вынуждена чередовать посадочные страницы, т.к. параметры тех самых страниц при прочих равных условиях будут динамичными. 

 

Прошу воспринимать написанное как простой банальный пример. Ситуацию с схожими товарами - под один искомый запрос отлично решает модуль меток, но тем, кто не использует этим - лучше не закрывать пагинацию роботсом, а использовать ноиндекс, фоллов.

 

 

п.с. (я уже представляю, как мой ник вносят в список сумасшедших сеошников - фанатиков :D  )

Кто что думает об этом?

 

  • +1 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
10 часов назад, Guava сказал:

 

Кто что думает об этом?

 

 

Очень странно выглядит, когда у страницы, где есть прев/некст, есть ещё и редирект, или есть запрет её в роботсе, или ноиндекс стоит в неде.

Рабинович, вы либо крестик снимите, либо трусы наденьте!

...

Я не сеошник, но почему, когда люди говорят про сео, они обязательно забывают про здравый смысл?

 

Изменено пользователем florapraktik

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
10 часов назад, markimax сказал:

 

Все правильно вы рекомендуете
Я тоже рекомендую страницы пагинации закрывать в robots.txt все равно они дальше от главной на один клик поэтому их вес минимальный и они разбавляют СЯ своим малым весом. Все равно все товары открыты для индексации и есть в sitemap

Вот интересно, если закрыть (считай удалить) страницы со "слабым весом", другие страницы станут "тяжелее"?

 

Категория, у которой всего 15-20 товаров (страницы пагинации закрыты) будет тяжелее категории в которой 150-200 товаров (пагинация открыта)? 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Какой-то чел придумал название вес ссылки (по сути вес страницы), или как говорят буржуи - link juice.

Потому что нужно было внятно объяснить что такое PR

Но потом оказалось, что PR внутри Г это не совсем так, и стали говорить об утечке веса

Ну, а как же. Закон сохранения энергии, если что-то прибыло (кинетическая),  превратилась в потенциальную, и как кинетическая убыла

 

Я был удивлен когда на одном из подопечных сайтов, я PR одной страницы поднял до 3 (вернее  - он сам) за счет внутренней перелинковки ( я тогда был зеленый-зеленый), Типа двигал одну страницу,
Чтобы это объяснить стали лепить и утечку веса, и вес ссылки и все эти рисунки со стаканчками. Как-то ведь нужно лапшу заказчикам вешать.

Т.е. Закрыв пагинацию от индексации (роботс) вы просто затрудняете хождение по мукам по ссылкам боту
Бот пришел, посмотрел в робот, увидел что не надо и давай долбать по доступным ссылкам
Потом отдал ссылки индексатору.
Тот в свою очередь поработал с контентом, а потом решил посмотреть в карту, или не решил -

9749028112.png

Вот же скотыняка, когда хочет тогда и ходит

 

http://easycaptures.com/fs/uploaded/1247/7848163736.png

 

А вот так он посещает страницы - выборка (ого, давно не смотрел) за год)
Но тут еще такая вещь, что и сайтом по сути пока не занимаются, т.е. просто растят ему возраст

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
1 час назад, florapraktik сказал:

Вот интересно, если закрыть (считай удалить) страницы со "слабым весом", другие страницы станут "тяжелее"?

 

Категория, у которой всего 15-20 товаров (страницы пагинации закрыты) будет тяжелее категории в которой 150-200 товаров (пагинация открыта)? 

Не известно, т.к. прочие равные условия. По кол-ву внутренних ссылок "тяжелее" будет категория в которой 150-200 товаров и страницы пагинации открыты для просмотра ссылок с них. Эта тема сама по себе дебри, но если есть выбор - закрыть пагинацию в роботс или тегом. Я выбрал - тегом. Считаю это логичнее, но не претендую на мнение эксперта. 

 

п.с. вы немного не туда. Речь скорее о весе товаров. Либо ноль ссылок - либо минимум одна. Наверное, в теории об этом речь.

Изменено пользователем Guava

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
7 часов назад, Guava сказал:

Эта тема сама по себе дебри, но если есть выбор - закрыть пагинацию в роботс или тегом. Я выбрал - тегом. Считаю это логичнее, но не претендую на мнение эксперта. 

 

А Вы читали статью, написанную гугоидами для вебмастеров? Ту статью, на которую ссылка во втором сообщении этой темы?

 

Если я правильно понял, мы исходим из того, что гуглоиды злые люди, желающие нам всяческих бед, и поэтому нельзя им доверять. Правильно? И поэтому, если гуглоиды что-то советуют, то надо делать ровно наоборот.:D

 

Существуют явные рекомендации гугла о том, как надо обрабатывать страницы пагинации. И когда вебмастера пытаются делать по своему, я объясняю это их поведение внутренним недоверием к официальным инструкциям вообще и к рекомендациям ПС в частности.:D

 

Кто-то может объяснить, почему выполнить рекомендации, не вариант? Типа, выиграет тот, кто нарушит правила?:D

И вообще, всё сео, это искусство обмана ПС?:D

Или как?

Изменено пользователем florapraktik
поставил смайлики на всякий случай
  • +1 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Гугл еще давал одно уточнение, что Категория( например) со страницами, которые "соединены в цепочку" с помощью prev и next рассматривается как некая совокупность, а не как ряд дублированных страниц.

Для интернет-магазина одним из факторов "полезности" для пользователя является полнота ассортимента.

Мне представляется, что при прочих равных условиях магазин с noindex на страницах пагинации уступит в выдаче.

  • +1 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
21 час назад, Guava сказал:

закроете в роботсе

 

21 час назад, Guava сказал:

закроете noindex

в первом случае вешаете на туалет табличку "занято" и все заранее в курсе

во втором ждете когда откроют дверь и кричите "закрой дверь не видишь я испражняюсь"

 

20 часов назад, Guava сказал:

эта ссылка никакого отношения к пагинации не имеет

22 часа назад, spectre сказал:

 

 

21 час назад, Guava сказал:

закрывать от индексации. А значит и в каноникале на 2, 3 и дальше смысла нет

вообще нет смысла ни в чем что делаете на неиндексируемых страницах, в т.ч.

21 час назад, Guava сказал:

теги прев/некст  - уже есть в окстор

также делал приставку в метатегах "Страница № Х" для пагинации, просто чтобы по феншую)

 

 

 

Пару лет назад по дурости в Seo Page (ныне Full IndeX) я уже делал yandex/noindex - ничем хорошим не закончилось. Потом сразу же заблокировал опцию

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
31 минуту назад, Otvet сказал:

эта ссылка никакого отношения к пагинации не имеет

Человек просил ссылки на описание ноиндекс и фоллов, речь была не об описании каноникал. 

 

 

Всем спасибо за мнения.

 

@Otvet , скажите , из  нижепроцитированного списка все верно? вы также делаете или чтото иначе?

 

Цитата

не запрещать пагинацию в роботс.
ноиндекс, фолов для пагинации выше 2 в коде - добавить
каноникал на первой - уже есть в окстор
теги прев/некст  - уже есть в окстор
показывать текст описания только на главной странице. (еще не сделал, но буду, т.к. рекомендовали местные)
редирект ссылки на первую страницу page=1 с пагинации 2 и выше вместо page=1 на /
также делал приставку в метатегах "Страница № Х" для пагинации, просто чтобы по феншую)

 

 

И вопрос по этой фразе. Что за yandex/noindex ? что имеется ввиду. Я не пользовался Full Index.

Цитата

 я уже делал yandex/noindex

и ничем хорошим это не закончилось - о чем именно речь. Не произошло ожидаемого эффекта или сайт был занижен ?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Нет, я не делаю так - об этом можно было бы догадаться по сообщению выше.

Так не делает никто из тех кого можно учитывать. Noindex это фетиш любителей включать всё на WP в SEO by Yoast и ему подобных плагинах и кто то притащил еще сюда

Я по дурости когда то запилил временно в модуль ибо не имел квалификации по работе с мета-тегами, заголовками и контентом в опенкарт. И чтоб не писать в инструкции про роботс.тхт сделал noindex

 

40 минут назад, Guava сказал:

о чем именно речь. Не произошло ожидаемого эффекта или сайт был занижен ?

На подопечном сайте, потом у клиента с относительно высокой посещаемостью (тогда их было мало) просело на величину около 10-15%

Я смотрел статистику и увидел что по НЧ с яндекса снижение, сразу стало понятно что не нужно играть в инноватора с лозунгом "я сделаю по своему, мне плевать как делают ситилинки и прочие из топа"

Так что читайте четкие рекомендации гугла и смотрите на топовые сайты

 

40 минут назад, Guava сказал:

Что за yandex/noindex

<meta name="yandex"
https://yandex.ru/support/webmaster/controlling-robot/html.xml

yandex-301117.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
3 часа назад, Otvet сказал:

Нет, я не делаю так - об этом можно было бы догадаться по сообщению выше.

 

Догадаться можно о чём угодно, вопрос будет ли догадка верной. За ответ спасибо.

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
12 часов назад, jaffagold сказал:

Гугл еще давал одно уточнение, что Категория( например) со страницами, которые "соединены в цепочку" с помощью prev и next рассматривается как некая совокупность, а не как ряд дублированных страниц.

Да, так они заявляют. Они понимают, что в сети есть масса контента, который слишком велик, что бы поместиться на одной странице и поэтому Бог дал нам пагинацию - контент, разбитый на несколько урлов.

И они стремятся обрабатывать пагинацию именно как один контент, разбитый на части, а не как отдельные независимые страницы.

Беда в  том, что робот тупой и не всегда может достоверно и надёжно собрать разбитый контент в кучу.  Что бы ему помочь придумали прев/некст или "показать всё".

 

Хуже всего то, что если слушать Платона, то по всему выходит, что Яндекс не умеет обрабатывать пагинацию как одно целое. Ибо зафиксирован случай, когда Платон дал прямую чёткую рекомендацию пагинацию скрыть. Впрочем, если читать Ответа, то по всему выходит, что с Яндексом тоже не всё так просто.:)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Терпеть не могу, когда меня по НЧ бросает на какаю-то страницу с пагинацией , а нужная уже убежала, неизвестно куда..

  • +1 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Мне иногда попадаются прикольные статейки из мира сео

И я также смотрю "PR" таких статей,

Ну например Когда нужно использовать noindex follow

https://www.google.com.ua/search?client=firefox-b&dcr=0&ei=qgMzWrnBDcz36ATl2KqwCg&q=what++noIndex++follow+when+do+I+need+it&oq=what++noIndex++follow+when+do+I+need+it&gs_l=psy-ab.3..33i160k1.200092.225411.0.226698.14.14.0.0.0.0.188.2011.0j13.13.0....0...1.1.64.psy-ab..1.1.168....0.gKzExxmvTcw

 

Тыкаешь по первой, второй, смотришь в код, далее опять по ссылкам..

хм, пагинация закрыта

http://dan-nolan.com/what-is-noindex/

а роботс.тхт - только для карты
Чувак наверное что-то знает :)

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Не понял о чем речь

 

http://dan-nolan.com/page/2/

<!-- All in One SEO Pack 2.1.4 by Michael Torbert of Semper Fi Web Design[185,240] -->
<link rel='prev' href='http://dan-nolan.com/' />
<link rel='next' href='http://dan-nolan.com/page/3/' />

<!-- /all in one seo pack -->

и всё

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти

  • Последние посетители   0 пользователей онлайн

    Ни одного зарегистрированного пользователя не просматривает данную страницу

×

Важная информация

На нашем сайте используются файлы cookie и происходит обработка некоторых персональных данных пользователей, чтобы улучшить пользовательский интерфейс. Чтобы узнать для чего и какие персональные данные мы обрабатываем перейдите по ссылке. Если Вы нажмете «Я даю согласие», это означает, что Вы понимаете и принимаете все условия, указанные в этом Уведомлении о Конфиденциальности.