Jump to content
Search In
  • More options...
Find results that contain...
Find results in...

Дубли страниц. Как устранить?


Recommended Posts

В Яндекс:Вебмастере обнаружил, что на многие страницы имеются дубли.
Вот пример:
http://тмн.ремтех.рф/remont-stiralnih-mashin.html
http://тмн.ремтех.рф/remont-stiralnih-mashin.html?pm_source=oane.ws&pm_block=none&pm_position=0

Вторая ссылка является дублем.
Что это за приставки после вопросительного знака? Как эта ссылка образовалась? Как ее устранить?

Link to comment
Share on other sites


50 минут назад, markimax сказал:

Закройте в robots.txt эти параметры

А для поискового продвижения не навредит, если я в роботс.тхт закрою эти параметры? Если навредит, то может переадресацию надо делать? Но если переадресацию, то не понятно как ее делать, ведь эти параметры на одну и ту же страницу каждый раз могут быть разными, как я понял.

Link to comment
Share on other sites


не в роботс, а ноиндекс - собствено я не знаю для Яндекс, но для Гугл ето правильное решение.

Можете посмотрет как ето сделано для page в ето дополнение и переделат для ваши параметри

 

Link to comment
Share on other sites

В 06.08.2018 в 17:27, Agatha65 сказал:

не в роботс, а ноиндекс - собствено я не знаю для Яндекс, но для Гугл ето правильное решение.

Можете посмотрет как ето сделано для page в ето дополнение и переделат для ваши параметри

 

Но здесь есть нюанс, как говорил Мюллер
noindex,follow через время "превращается"  в  noindex,nofollow
И Google по своему интерпретирует мета теги ;)

 

Link to comment
Share on other sites

Да но если ссылки на эти страницы и оно закрыти в robots.txt, они всеранво будут в индексе.

Вопрос и ответ можно посмотреть в видео ниже, начиная с отметки 24:36.

Quote

Если эти страницы заблокированы в robots.txt, то теоретически может случиться, что кто-то случайно поставит ссылку на эти страницы. И тогда может случиться, что мы проиндексируем эти URL, но без контента, потому что он заблокирован в robots.txt.

Если страницы блокируются с помощью файла robots.txt, так же стоит добавить на эти страницы метатег noindex. И если кто-то поставит ссылку на эти страницы, и бот перейдет по этой ссылке, подумав «может быть, здесь что-то полезное», тогда мы поймем, что эти страницы не нужно индексировать, и пропустим их при индексации

 

 

Link to comment
Share on other sites


Спасибо. И еще один вопрос, родственный этой теме:

Надо избавиться от страниц (корзина, оформление заказа и подобных). Сами ссылки я закомментировал, но хочу, чтобы их вообще на сайте не было. Насколько правильным будет решением сделать переадресацию с этих страниц, на 404 ошибку в файле .htaccess? Или это глупость несусветная? ))

Link to comment
Share on other sites


2 часа назад, vtkach сказал:

Да но если ссылки на эти страницы и оно закрыти в robots.txt, они всеранво будут в индексе.

Вопрос и ответ можно посмотреть в видео ниже, начиная с отметки 24:36.

 

 

Все расплывчато... "возможно", "может", "может так случиться"
 

Цитата

Но, как директивы в robots.txt, так и инструкция noindex в мета-теге robots являются лишь рекомендацией для роботов, поэтому они не гарантируют что закрытые страницы не будут проиндексированы и не будут добавлены в индекс.

Алгоритмы ПС сами себе на уме. Они как журнал "хочу всё знать"

Link to comment
Share on other sites

33 minutes ago, markimax said:

Все расплывчато... "возможно", "может", "может так случиться"
 

Алгоритмы ПС сами себе на уме. Они как журнал "хочу всё знать"

Почему расплывчато. Он имел ввиду что если страницы закрыты в robots.txt, но где-то есть внешние ссылки на эти страницы, например проставили конкуренты, кто-то переслал по почте, скинул на фб, написал в комментах и тп, то робот всеравно будет на них заходить и они будут индексироватся. Но понятно что они не попадут в результат поиска, а просто будут висеть в индексе, пока их не уберут оттуда с помошью noindex.

Link to comment
Share on other sites


2 часа назад, vtkach сказал:

Если их не будет на сайте то как люди будут переходить к оформлению заказа?

На сайте нет оформления заказа. Это не магазин. Поэтому хочу избавиться даже от самих страниц с корзинами и прочими могазинными страницами.

Link to comment
Share on other sites


Чтобы при заходе по ссылке оформления заказа, выдавало "Страница не найдена", как прописать в .htaccess?

Пытаюсь так, но ничего не происходит:

Redirect 410 /index\.php?route=checkout/fastorder/fastorder

 

Link to comment
Share on other sites


Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
 Share

×
×
  • Create New...

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.