Jump to content
Search In
  • More options...
Find results that contain...
Find results in...

plazz

Newbie
  
  • Posts

    11
  • Joined

  • Last visited

Information

  • Gender
    Мужчина
  • City:
    Киев

plazz's Achievements

Rookie

Rookie (2/14)

  • First Post
  • Collaborator
  • Conversation Starter
  • Week One Done
  • One Month Later

Recent Badges

1

Reputation

  1. Я почитал про модуль, но не понятно, как этот модуль решит то, что мне нужно. А нужно, так: Это категории, а не товары. Вместо: сайт/audi --> сайт/audi/audi-100/ --> сайт/audi/audi-100/audi-100-2004-2006 Что бы было вот так: сайт/audi --> сайт/audi-100/ --> сайт/audi-100-2004-2006
  2. Здравствуйте! ocStore 1.5.5.1.2 После импорта категорий, совпали сео урлы и начали неправильно открываться те страницы где совпадения, например: site.com/mazda/3 site.com/vw/polo/3 Когда с мазды, хочу зайти в модель 3 --> открывает - site.com/vw/polo/3 Я помнил правило, что урлы должны быть уникальны на всю систему, но не думал, что могут быть проблемы, т.к. адреса страницы по сути разные. Но оказывается, что если есть совпадение, как в данном примере - 3 и 3, то ругается. В общем, это не проблема, поменял урлы, и получился вот такой вывод: http://site.com/ford/ford-fiesta/ford-fiesta-2006-2008/ Собственно, не сильно нравиться повторения ford, fiesta Можно, как-то сделать так, что бы вместо: http://site.com/ford/ford-fiesta/ было: http://site.com/ford-fiesta/ Ну и дальше: http://site.com/ford/ford-fiesta/ford-fiesta-2006-2008/ = site.com/ford-fiesta-2006-2008/ и так, для всех категорий. Спасибо!
  3. Да я с Вами согласен. Извините, если что :) Сегодня вот общался с прогером знакомым, то же самое говорит... Просто я парюсь, в том плане, что у меня все очень красиво подготовлено по теме оптимизации. Я неплохо логику СЕО понимаю. И стараюсь запуститься идеально, так что бы ничего лишнего для ПС не было. Но кодить не шарю. В общем, я извиняюсь. Пункт №2 - актуален. А по первому.. Надо подумать правильно ) Просто не хочется запустить и потом чистить..
  4. Язвить не обязательно. Фильтр фильтром, это понятно. Я не спорю, что я херово разбираюсь, но когда у меня одна и та же страница доступна по (!) адресам.. Это нормально? Я понимаю, что отсортированная страница, должна получить свой адрес. Но когда, 1в1 страница, открывается по 14-ти адресам.. весело...
  5. За денежку, нужно не просто сделать, а показать, что бы я сохранил все это дело и смог уже потом сам все выполнить, когда мне нужно будет. Движок OcStore 1.5.5.1.2 Подключен SeoPro, чпу импортированы ровно, все уникальные. В этом плане все Гуд. 1. Убрать дубли не только что бы робот не видел (в robots.txt), а что бы страниц с таким окончанием как: ?sort=p.sort_order&order=ASC ?sort=p.model&order=DESC ?limit=15 - не было совсем. Получается нужно, что бы такие страницы выдавали 404. Я догадываюсь, что настраивать нужно, по идее .htaccess, но я не кодер совсем.. ) Проверяю я все это дело скриптом, задача которого лазить по всем страницам сайта, как и поисковые роботы, но с целью загнать их в кеш. Скрипт работает ровно, я его тестил на правильно оптимизированном сайте, он мне выдавал все ссылки правильно. На моем же, тестовом, выдает кучу дублей. То что в robots.txt - ?sort, ?limit - закрыто, это одно, но мне бы хотелось что бы все было чисто и красиво. И скрипт это покажет в виде того, что будет ходить, по конкретным страницам а не и по их дублям. 2. Переадресация на субдомен. К примеру на основном домене site.com есть разделы 1,2,3,4. У меня должна быть возможность, когда мне нужно будет, настроить так, что бы когда посетитель кликнет на 1, он попадет на субдомен - 1.site.com
  6. Скрипт, вполне вменяемый, т.к. сканировал один магазин, на опенкарте, с правильными чпу. В общем, я по магазину походил, вполне адекватный, все красиво по ссылкам. Для теста, его скриптом просканил, мне красиво все ссылки скрипт выдал, никаких дублей, красота. То есть, скрипт работает правильно.
  7. 1. https://opencartforum.com/files/file/2239-boost-%D1%83%D1%81%D0%BA%D0%BE%D1%80%D0%B8%D1%82%D0%B5%D0%BB%D1%8C-opencart-ajax-%D0%B7%D0%B0%D0%B3%D1%80%D1%83%D0%B7%D0%BA%D0%B0-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D0%B5%D0%B9/ 2. Я так понимаю, что надо как-то правильно поредактить .htaccess, что бы страниц которые начинаются с ?sort, ?order, ?limit - физически не существовало?
  8. Ничего понять не могу... Если у меня есть: Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Значит по страницам которые начинаются с ?sort, ?order, ?limit - скрипт не должен лазить. Тем не менее - лазит.. В чем тогда проблема?
  9. А вообще, достаточно будет закрыть в роботсе, то что Вы говорите, что бы все красиво было? Или еще что-то нужно?
  10. Ой йой ) Я нуб!! Я в роботс еще вообще не лазил ) Прикрепил роботс robots.txt
  11. Здравствуйте! Вопрос по оптимизации. Настроил ЧПУ, все вроде гуд, Но. Сканирую скриптом сайт. Скрипт предназначен для того, что бы ходить по всем страницам сайта с целью загнать их в кеш. Может кто-то даже с ним знаком, это скрипт с этого модуля: https://opencartforu...грузка-модулей/ Так вот. У меня все вроде ровно и красиво по чпу, но когда сканирую сайт, в результатах вижу картину: СКРИН прикрепил. Получается, одна и та же страница, может открываться по всем ссылкам которые в скрине. Понятное дело, что это не совсем гуд для сео. Подскажите люди добрые, как решить этот трабл? Или может это и не трабл вовсе и ничего решать не нужно. Может это внутренняя тема движка и так должно быть.. В общем, надо разобраться, перед тем как заливать все это дело на реальный хостинг. Кстати, если кому не жалко, у кого есть сайт с красиво настроенными чпу, и сайт дружит с поисковиками, можно было бы для теста загрузить скрипт, буквально на 30 секунд, что бы прошелся по страницам и посмотреть результат. Может это так должно быть, и не нужно париться.. Для скана, достаточно просто ссылки магазина, я вставлю её в скрипт и с локалки запущу, буквально на 20-30 сек. Этого будет достаточно.
×
×
  • Create New...

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.