Перейти к публикации
Поиск в
  • Дополнительно...
Искать результаты, содержащие...
Искать результаты в...

kamaro1990

Новичок
  
  • Публикаций

    22
  • Зарегистрирован

  • Посещение

Посетители профиля

Блок последних посетителей выключен и не отображается другим пользователям.

Достижения kamaro1990

Apprentice

Apprentice (3/14)

  • First Post
  • Collaborator
  • Week One Done
  • One Month Later
  • One Year In

Последние медали

0

Репутация

  1. А как это дело можно подправить в ocStore 2.3.0.2.3? Всё, проблема решена. Нашел Ваш ответ на данную проблему в старых ветках. Спасибо за подсказку куда капать!)
  2. Кто подскажет, чего сайт на https весь заходит в индекс гугла с https страницами, а главная с http? Уже два раза отправлял url на индексацию, но всё никак. Причем в Яше всё нормально - в выдаче главная с https.
  3. Кто как считает, какие страницы следует скрывать от ПС в robots.txt? На некоторых сайтах скрыто чуть ли не половина сайта (и корзина, и восстановление логина, и рега и т.д.).
  4. Подскажите что делать в сложившейся ситуации? Открыл сайт для индексации. Страницы начали индексироваться, но столкнулся с вышеизложенной проблемой. Исправил http на https и остальные страницы уже начали добавляться с https. НО первые страницы остались в индексе с http. Что с этим делать? Удалять их через вебмастер или со временем они сами выпадут из индекса? Вроде ж несложный вопрос для знающих, но что-то все молчат(((
  5. Вроде немного разобрался. Всем спасибо!
  6. То есть, Вы считаете, что лучше убрать эти строки с робост? Или может заморочиться и сделать как-то на эти урлы page=2, page=3 и т.д. посадочные страницы с другими тайтлами и описаниями и открыть ПС эти страницы? Или это я уже сильно загибаю в плане уникальности контента на каждой странице???
  7. Тааак... немного понял. Похоже, я неправильно понял назначение этих строк. НО!!! Если мы убираем эти строки с роботс, то в индекс попадают page=2, page=3 и т.д. с тайтлом, дискрипшеном и описанием внизу категории аналогичным первой странице категории. Верно? А это ж уже будет как дублирование контента. То есть, типа страницы разные, судя по урлу, а текст везде один в один. Это нормально?
  8. Подскажите, стоит эти строки прописывать или нет?
  9. Ну судя по роботсам, практически все прописывают эти строки. Закрывают страницы без тайтла и дискрипшина. Вроде это нормальная практика. Или я неправ?
  10. В том-то и дело, что оно закрыто в роботс с первого дня существования сайта, ещё до индексации, а в индекс попали(
  11. Открыл сайт для индексации и начал каждый день мониторить какие страницы сайта добавляются в выдачу Гугла. И сегодня заметил появление вот такого дела. Вопрос: это нормально? И если нет, то как это исправить?
  12. А вот у меня теперь ещё вопрос по старым проиндексированным страницам с http: что с ними делать? Удалять с индекса чтоб не было дублей или со временем они сами выпадут и останутся только https?

×
×
  • Создать...

Важная информация

На нашем сайте используются файлы cookie и происходит обработка некоторых персональных данных пользователей, чтобы улучшить пользовательский интерфейс. Чтобы узнать для чего и какие персональные данные мы обрабатываем перейдите по ссылке. Если Вы нажмете «Я даю согласие», это означает, что Вы понимаете и принимаете все условия, указанные в этом Уведомлении о Конфиденциальности.