Перейти до вмісту
Пошук в
  • Детальніше...
Шукати результати, які ...
Шукати результати в ...

shurc1

Користувачі
  
  • Публікації

    80
  • З нами

  • Відвідування

Усі публікації користувача shurc1

  1. Приветствую. Исодные данные: Движок: ocStore 2.3.0.2.4 колич. товаров 10к+ колич. категорий 500+ Фильтров на сайте не используем. шаблон CyberStore от Алексея Предполагаемый трафик (с фейсбука будем лить) 5-10к посетителей в день (за 8 часов), т.е. одновременно на сайте могут шариться в районе 500-1000 человек. Поведение посетителей - в основном это: - просмотр страницы товара (и покупка через корзину) - либо поиск других товаров через форму поиска - либо поиск товаров через просмотр категорий Что посоветуете по хостингу при таком трафике, чтобы ИМ работал без тормозов? Время отклика - до 1000мс приемлимо. Особенно интересно мнение тех веб-администраторов, которые реально имеют такой трафик у себя на своих работающих сайтах!
  2. Отличное решение! А как можно изменить этот модификатор таким образом, чтобы ватермарк накладывался только на изображения, которые есть на странице товара? Т.е. чтобы никакие изображения НЕ модифицировались (ни на странице категорий, ни на стр. производителей, ни прочие изображения, которые использует движок), КРОМЕ ТОЛЬКО ИЗОБРАЖЕНИЙ НА СТРАНИЦЕ ПРОДУКТА?
  3. более подробно я уж не знаю, как и излагать, даже выделил жирным: насколько на самом деле важен для SEO продвижения (в частости в Google) вопрос об использовании протокола HSTS? Именно в этом и есть суть вопроса. Я его подключать не хочу. Причина проста - дополнительные риски потери трафика при глюках на хостинге. Мы пользуемся обычным R3 Let's Encrypt сертификатом. Выдаются такие сертификаты на 3 месяца. Новые сертификаты по окончании действия старого автоматом генерируются в админке хостинга (и прописываются для домена тоже автоматом). Вдруг что-то не так пойдет с этим процессом (не вовремя сгенерируется новый сертификат, например), то сайт для посетителей просто станет недоступным, т.к. их браузеры будут принудительно перенаправлены на HTTPS (которого в тот момент просто может не быть на сайте из-за банальных глюков на хостинге). Но если HTST реально важен для Гугла и за его (HSTS) использование на своем сайте я получу дополнительные "баллы" (которые существенно поднимут "впечатление гугла" о моем сайте) при ранжировании в поисковой выдаче, тогда уж буду его включать на сайте и внимательно следить за тем, чтобы все работало исправно.
  4. Доброй поры суток. Запускаем новый сайт. Решил проверить на всякий пожарный в Serpstat на ошибки, а вдруг, что критичное есть... Помимо прочего, обратил внимание и на то, что отсутствие на сайте протокола HSTS, по мнению серпстата, - это "ошибка", которая имеет высокий приоритет... Вот я и задумался: это только в Serpstat эта "ошибка" имеет высокий приоритет или и в поисковых системах тоже? Т.е. стоит ли ее внедрять на сайте или нет? https://prnt.sc/-NQYE7eESWtK Кто-нибудь из специалистов может подсказать, насколько на самом деле важен для SEO продвижения (в частости в Google) вопрос об использовании протокола HSTS на сайтах? Желательно из собственного практического опыта. Т.е. если перефразировать вопрос более просто, то могу спросить так: насколько меньше Гугл будет "любить" сайт и насколько менее эффективно он (сайт) будет продвигаться в поисковой системе (при прочих равных условиях), если на сайте не будет использоваться технология HSTS? Многие сайты используют эту технология, но многие и не используют. Чисто ради интереса проверил на вскидку некоторые популярные интернет-магазиы и маркетплейсы... и как видно, используют HSTS далеко не все... motoblok.biz - не использует allo.ua - не использует f.ua - не использует ua.all.biz - не использует
  5. спасибо за совет. я так обычно и делаю. ну пароль каждый раз вводить как-то не очень удобно (даже если он в браузере запоминается), проще закрыть доступ из вне по какому-нибудь куки через .htaccess Я сайты тестирую с разных браузеров/устройств/IP поэтому куку один раз поставил и все...
  6. не то, что могут, а прямо таки игнорируют! поэтому никакой надежды на эти robots.txt у меня давно уже нет, все наглухо закрываю через .htaccess
  7. 1) спасибо за наводку, буду иметь ввиду 2) понятное дело, что я все сразу же прикрыл через .htaccess <Limit GET POST HEAD>. Оставил только доступ для своего IP. Но поскольку IP у меня динамичесий и часто я всякое разное тестирую через VPN, то поставил еще доступ и по кукам... SetEnvIf Cookie....
  8. Давно уже собирался перейти на Centbrowser, как раз самое время ...
  9. Всех приветствую. Возник такой вопрос. Есть сайт на опенкарте. ну, скажем, www.somesite.com.ua. Он продвигается в Мерчанте, контексте гугла, SEO и т.д. Активно иднескируется поисковыми системами (в основном Гуглом), на нем постоянно есть посетители, идут заказы товаров и т.д. Короче, говоря, сайт рабочий. Но вот я создал поддомен test.somesite.com.ua. Создал его для тестирования движка, отладки разных технических моментов и т.д. Нигде я этот поддомен не рекламировал, нигде не продвигал, нигде не указывал на него никах ссылок из вне, короче говоря, нигде его не "засветил". Никому о нем вообще даже не говорил. И вот, спустя неделю, после создания поддомена, в логах оступа сервера наблюдаю трафик от поисковых систем - в основном от Гугла, но есть и другие роботы. ВОПРОС №1: Как эти поисковые системы узнали о существовании этого поддомена??? Откуда у них эта информация? ВОПРОС №2: Как при создании поддоменов не "засветить" их? Как можно создать 20-30 поддоменов таким образом, чтобы о них не узнал ни один из поисковых роботов? И вообще, чтобы никто в интернете о них не знал?
  10. В разрешениях группы изначально настроен доступ в api https://prnt.sc/0efYOGStGoUm В БД я вручную прописал доступ к api/currency и для "modify" и для "access" https://prnt.sc/SzLOMKW0DZna Не пойму, что вы имеете ввиду? Это в админке нужно что-то добавить?
  11. Движок: ocStore 2.3.0.2.3 Есть група пользователей "Менеджеры" с ограниченными правами. При открытии пользователями этой группы страницы редактирования заказа index.php?route=sale/order/edit выскакивает ошибка (javascript alert) о том, что доступ запрещен. Возникает она, насколько я понимаю, при xhr запросе к index.php?route=api/currency. Но вот, как же разрешить доступ, чтобы ошибка не вскакивала, я не понимаю. https://prnt.sc/vm8bngWnO7TI ошибка при запросе xhr - api/currency https://prnt.sc/LD-uMdziecSY - api/currency - не нашел в этих настройках
  12. shurc1

    Opencart на стероїдах

    Я так понимаю, что на этом скрине видно результат профилирования какой-то конкретной страницы на сайте (а не отдельного файла контроллера или файла модели) ? Т.е. вся страница загрузилась примерно за 0,4сек. Подскажите, пожалуйста, как Вы это сделали? Где вы прописали (в каком файле и в каком месте) xhprof_enable(); и потом xhprof_disable() ? У меня долго открываются странциы на сайте (примерно 3-5сек). И страницы товаров, и категорий, и даже информационные страницы - все долго загружаются. Но не могу понять, в чем причина. Я установил xhprof себе на VPS. Но не пойму, как правильно отпрофилировать какую-то конкретную страницу на сайте, которая долго грузится? Отдельный файл контроллера получается - просто в начале контрллера прописываю xhprof_enable() со всеми необходимыми параметрами, а в конце xhprof_disable(). А вот как всю страницу отпрофилировать не пойму.
    Отличный модуль. Страницы по 200шт в день отправляет на просто прекрасно и практически все после этого попадают в индекс! Очень благодарен автору за такой модуль!
  13. shurc1

    Opencart на стероїдах

    Подскажите, пожалуйста, а с помощью какого программного обеспечения можно получить такой отчет, как на этой картинке, в котором видно, сколько какая функция забирает времени на себя при загрузке страницы сайта?
  14. shurc1

    Opencart на стероїдах

    Подскажите, пожалуйста, а как Вы поняли, что проблема именно в этой функции? Как понять, какая функция тянет на себя львиную долю времени при открытии страницы?
  15. shurc1

    Opencart на стероїдах

    Подскажите, а как можно переписать код меню, чтобы оно кешировалось? У меня на сайте тоже долго открываются страницы (примерно 2-5сек). Использую шаблон Аурус. Но если меняю шаблон на Default, то тот же сайт работает в 10 раз быстрее. Загрузка страниц (0,3-0,5сек). тоже автотематика и много категорий. Товаров, правда всего около 4000.
  16. https://prnt.sc/g94OpEWyZGuP так не получится, оно не удаляет {csvnc} Если использовать повторяющуюся границу, чтобы отобрать нужные элементы то разделитель в этой повторяющейся границе (в данном случае {csvnc}) уже не удаляется во вкладке "Поиск и замена". Если не использовать повторяющуюся границу, а использовать обычную, то тогда выражение {.*}{csvnc}| сработает. Но я не знаю, как тогда отобрать именно предпоследний элемент?
  17. Всем хорошего дня! Можете подсказать, как можно спарсить из одинаковых элементов (например, "хлебных крошек" на сайте) предпоследний элемент? Ну например, взять вот этой сайт: https:// dvigateli. com.ua/p1068498915-dvigatel-audi-bby.html - донор https://prnt.sc/gwHlV-VG0Mzq - что нужно спарсить https://prnt.sc/slmrAw8ujrJJ - пытаюсь настроить с помощью повторяющейся границы парсинга Но не получается. Настраиваю: пропустить 1 элемент с конца. Но ведь остается еще несколько элементов, а мне нужно оставить только один (предпоследний) - "Audi A2"
    Покупаю этот модуль уже для второго сайта. На этом сайте чуть более 5тыс товаров, с безвозмездным кредитом от Гугла в $300 перевел на укр язык более 11млн символов буквально за полчаса в несколько кликов! Плюс очень удобный перевод внутри самой админки - почти везде, где есть укр. версия текстового поля - доступна кнопка перевода в один клик. Время экономит в разы! Работает четко. Поддержка от разработчика оперативная. Рекомендую!
  18. Обнаружил некий модификатор, который модифицировал модуль Seo_pro. Отключил его (модификатор). После чего все сделал, как Вы написали и указали на скрине. И действительно теперь никаких переадресаций нет. Сразу выдает 200. Спасибо за совет!
  19. У меня вообще в том поле пусто, что у Вас на скрине - вообще там нет никаких параметров. И тем не менее, как ни странно, все работает и метки не обрезаются, т.е. получается, что GET параметры обрабатывает не только SeoPro, но и еще какой-то другой модуль это все дело перехватывает? На всякий случай я добавил весь перечень UTM-меток в это поле, что Вы указали, поставил в самый конец gclid, но ничего не изменилось. Все равно срабатывает переадресация.
  20. Доброй поры суток. Крутим рекламу в Гугл мерчант. При клике на рекламное объявление, посетитель соответственно попадает на страницу нашего сайта ( на страницу товара ). URL этой страницы включает в себя параметры GET запроса, которые передает Гугл: ...utm_source=google&utm_medium=cpc&utm_campaign... и так далее В логах доступа наблюдаю интересную картину: все заходы от посетителей на сайт получают в ответ 301 редирект. При чем, редиректит сайт на ту же самую страницу только поменяв порядок GET параметров в запрашиваемом URL. Поставив gclid на первое место после знака вопроса, а потом уже все остальное. Вот внизу привожу пример реальной записи (одной из многих тысяч) из access.log: Request_uri /rasprodazha-472/datchik-potoka-rashoda-vozduha-rashodomer-mazda-x-pr-9667?utm_source=google&utm_medium=cpc&utm_campaign=torgovaya_common&utm_content=&utm_term=&tovar=9667&gclid=EAIaIQobChMI4_KO9cb9_AIVkL13Ch3EVQFlEAQYBiABEgIr0vD_BwE Redirect_uri /rasprodazha-472/datchik-potoka-rashoda-vozduha-rashodomer-mazda-x-pr-9667?gclid=EAIaIQobChMI4_KO9cb9_AIVkL13Ch3EVQFlEAQYBiABEgIr0vD_BwE&utm_source=google&utm_medium=cpc&utm_campaign=torgovaya_common&utm_term=&utm_content=&tovar=9667 Не пойму, от чего так происходит? Где искать причину? Может быть, у кого-то была схожая ситуация? Подозрение, что, возможно, какой-то из модулей так делает? htaccess стандартный опенкарта, вот его содержимое, думаю, причина не в нем Options +FollowSymlinks Options -Indexes # Prevent Direct Access to files <FilesMatch "(?i)((\.tpl|\.ini|\.log|(?<!robots|txt)\.txt))"> Require all denied ## For apache 2.2 and older, replace "Require all denied" with these two lines : # Order deny,allow # Deny from all </FilesMatch> RewriteEngine On RewriteBase / # only www -> https RewriteCond %{HTTP_HOST} ^www\.(.*)$ [NC] RewriteRule ^ https://%1%{REQUEST_URI} [R=301,L] RewriteRule ^sitemap.xml$ index.php?route=extension/feed/google_sitemap [L] RewriteRule ^googlebase.xml$ index.php?route=extension/feed/google_base [L] RewriteRule ^system/download/(.*) index.php?route=error/not_found [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{REQUEST_URI} !.*\.(ico|gif|jpg|jpeg|png|js|css) RewriteRule ^([^?]*) index.php?_route_=$1 [L,QSA]
×
×
  • Створити...

Important Information

На нашому сайті використовуються файли cookie і відбувається обробка деяких персональних даних користувачів, щоб поліпшити користувальницький інтерфейс. Щоб дізнатися для чого і які персональні дані ми обробляємо перейдіть за посиланням . Якщо Ви натиснете «Я даю згоду», це означає, що Ви розумієте і приймаєте всі умови, зазначені в цьому Повідомленні про конфіденційність.