Я хочу затронуть тему очередей, которые используются повсеместно в интернет-проектах, но в Opencart данная тема особо не освещена.
Представьте, что вам нужно прямо сейчас сделать выгрузку для какого-то маркетаплейса, вот только в выгрузке у вас, например, 50к товаров. Крон у вас работает раз в сутки, а менеджер магазина не подключится по ssh и не будет запускать консольный скрипт выгрузки. В подобной ситуации вам поможет система очередей.
Очереди - это не конкретная технология, а только принцип. В самом примитивном виде у нас есть издатель и подписчик (producer и worker). Издатель добавляет в очередь данные, по сути инициирует выполнение какого-то действия. А воркер непосредственно выполняет нужную нам работу. Между ними присутствует обменник, который хранит сообщения и распределяет их между воркерами. При этом мы можем использовать несколько воркеров (обработчиков) для одной задачи.
Где можно использовать очереди
1. Асинхронное (фоновое) выполнение задач.
Допустим, что при оформлении заказа мы отправляем письма о новом заказе через внешний SMTP-сервер, админу кидаем уведомление в телеграм, а также экспортируем данные о заказе в CRM.
Какие проблемы нас поджидают:
синхронное выполнение каждого процесса - пользователь будет ждать, пока отработает последовательно каждый из процессов
зависимость от внешних сервисов - они вполне могут работать нестабильно и все это время клиент будет видеть экран загрузки, вместо быстрого оформления заказа.
Вместо этого мы создаем три отдельных очереди (для email, телеграма и CRM) и просто кидаем в них сообщения. Пользователь успешно оформляет заказ, а в это время процессы отправки писем и уведомлений выполняются параллельно в фоне.
Также можно: генерировать выгрузки в маркетплейсы по запросу пользователя, делать импорт/экспорт товаров, строить карты сайта, отчеты и т.д.
2. Имитация многопоточности.
PHP "из коробки" однопоточный, но с помощью очередей можно сделать несколько обработчиков одной задачи.
Примеры:
Импорт товаров - у нас есть исходный эксель-файл с товарами. Распарсить файл и получить данные можно довольно быстро, а вот импорт данных потребует больших ресурсов, т.к. нужно выполнять вставку данных во множество таблиц.
Исходя из этого разбиваем процесс импорта на два этапа:
на первом этапе парсим эксель файл и в результате парсинга каждой строки получаем результирующий набор данных, нужный для создания товара. Этот набор данных мы кидаем в очередь для импорта.
создаем обработчик, который будет заниматься только импортом готовых данных. При этом мы можем запустить одновременно 5 таких обработчиков (или сколько позволят ваши ресурсы) и система очередей будет распределять задачи по импорту товаров между данными обработчиками. В итоге вместо построчного импорта товаров мы получаем 5 параллельных обработчиков импорта.
Данную технику можно применить для парсинга товаров.
От теории перейдем к практике.
Система очередей на RabbitMQ
Выше я уже писал, что система очередей - это лишь архитектурный принцип и он может быть реализован с помощью множества технологий: крон и база данных, хранилище типа Redis и т.д., но я выбрал в качестве примера специалированное ПО RabbitMQ. Кролик содержит множество возможностей: гибкую маршрутизацию, масштабируемость, хранилище сообщений и т.д.
Я использую Docker в качестве среды для локальной разработки, поэтому покажу, как установить RabbitMQ именно в этой среде. Про Docker я писал в этой статье: https://opencartforum.com/blogs/entry/383-zapusk-i-otladka-opencart-s-pomoschyu-docker-i-xdebug/
Установка RabbitMQ с помощью docker compose
1. В docker-compose.yml добавляем сервис:
rabbitmq:
image: rabbitmq:3-management-alpine
hostname: my-rabbit
volumes:
- ./rabbitmq/etc/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf
- ./rabbitmq/data:/var/lib/rabbitmq/mnesia/rabbit@my-rabbit
- ./rabbitmq/logs:/var/log/rabbitmq/log
ports:
- 5672:5672
- 15672:15672
2. В корневой директории Docker-проекта создаем папку rabbitmq и в ней создаем три папки: data, etc, logs для хранилища данных, конфигов и логов. В папке rabbitmq/etc создаем файл конфига rabbitmq.conf с содержимым:
loopback_users.guest = true
listeners.tcp.default = 5672
management.listener.port = 15672
management.listener.ssl = false
Далее как обычно билдим все в Docker для установки нового сервиса и запускаем контейнеры:
docker-compose up -d --build
Для администрирования RabbitMQ поставляется с панелью, которая будет доступна по адресу: http://localhost:15672. В данной панели можно смотреть, какие очереди выполняются, получить сообщения, очистить очереди т.д.
Пароль и логин для доступа: guest / guest. Естественно, на рабочем сервере нужно удалить гостевого пользователя и добавить нового админа.
Использование RabbitMQ c Opencart
Написал простую библиотеку https://github.com/ozzzi/opencart-rabbitmq
Для ее работы нужно:
1. Установить зависимость:
composer require php-amqplib/php-amqplib
.
В библиотеке предполагается, что папка vendor будет лежать на уровень выше, чем корневая директория opencart.
2. Добавить в config.php конфиг RabbitMQ:
define('RABBITMQ_HOST', 'host');
define('RABBITMQ_PORT', '5672');
define('RABBITMQ_USER', 'guest');
define('RABBITMQ_PASS', 'guest');
Если речь идет о исполнении в докер-контейнере, то в качестве хоста нужно указать айпи контейнера (читаем предыдущую статью о докере).
Затем в опенкарте можем использовать библиотеку:
$this->load->library('queue');
$this->queue->addTask('queueName', ['some' => 'data']);
Первый параметр в методе addTask - имя очереди, а второй параметр (опциональный) - данные, которые нужно передать в воркер.
Примеры
Далее я приведу примеры использования очередей для отправки почты, импорта товаров из Excel, и парсинга сайтов.
1. Отправка email
Полный код: https://github.com/ozzzi/email_service
В коде Opencart-а меняем родной код отправки email-ов на:
$this->load->library('queue');
$this->queue->addTask('email', ['data' => 'examlpe_data']);
Т.е. мы добавили в очередь email данные для обработки: кому, от кого и что отсылаем.
За обработку данной очереди отвечает воркер: cli/email_notify.php. Вы должны сами реализовать получение конфигов для SMTP-сервера.
В панели управления RabbitMQ можно увидеть, что во вкладке очередей появилась новая очередь и одно сообщение. Чтобы очередь его отработала, воркер cli/email_notify.php должен быть запущен. Для примера мы запустим его вручную внутри контейнера, а в конце я объясню, как сделать запуск автоматическим.
Смотрим имена контейнеров:
docker ps
Нас интересует, контейнер с PHP-FPM. Чтобы войти в него выполняем:
docker exec -it container_name bash
Далее переходим в папку cli и стандартно запускаем скрипт:
php email_notify.php
Если все прошло успешно, в панели кроля вы увидите, что очередь email очистилась. Значит сообщение ушло получателю.
2. Импорт товаров из Excel
Полный код: https://github.com/ozzzi/excel_import_worker
В админской части вам нужно реализовать загрузку файла, передать конфиг настроек полей и подключить загрузчик композер: '/vendor/autoload.php'
Затем реализовываем наш загрузчик (producer):
use App\Service\ExcelParser;
$file = 'price.xlsx';
$setting = [
'category' => 'B',
'name' => 'C',
'model' => 'D',
'price' => 'G',
'quantity' => 'H',
'manufacturer' => 'F',
'description' => 'M',
];
$this->load->library('queue');
$excelService = new ExcelParser($setting, $file);
foreach ($excelService->parse() as $product) {
$this->queue->addTask('import', ['product' => $product]);
}
В итоге после чтения каждой строки мы добавляем в очередь import объект с данными товара. Чтобы обработать все сообщение из очереди "импорт" запускаем воркер: cli/product_import.php (App\Service\ProductImport - вам нужно реализовать самим ). Чтобы процесс пошел "бодрей", можно запустить параллельно несколько воркеров product_import.php.
3. Парсер сайта в несколько потоков
Полный код: https://github.com/ozzzi/html_parser_worker
Для примера возьмем первый попавшийся магазин стройматериалов (ссылка в коде) и спарсим все товары из категории "Сухие смеси". Разделим процесс парсинга на два этапа:
Получение списка ссылок на карточки товаров. За один запрос мы можем получить все ссылки на товары для первой страницы. Если страниц пагинации в категории 5 и в среднем на загрузку страницы уходит 1 секунда, то за 5 секунд мы получим все ссылки на товары в данной категории.
Парсинг страниц товаров в несколько потоков. Т.к. каждая карточка товара загружается условную секунду, то данный процесс нам нужно распараллелить, запустив несколько воркеров.
Запускаем скрипт cli/parser_category.php, который будет отправлять в очередь parse_product ссылки на товары.
Затем запустим несколько воркеров cli/import_worker.php. В результате ProductParser возвращает сущность Товар, которая импортируется с помощью сервиса ProductImport, с которым вы уже знаете, что делать.
Надеюсь, что вы поняли, как применять очереди в таком простом виде.
Теперь расскажу, как запускать воркеры как демоны в автоматическом режиме (чтобы они работали постоянно и перезапускались сами вместе с системой). Один из способов - supervisor.
Установка для Debian\Ubuntu стандартная:
apt-get install supervisor
Добавляем конфиг для запуска конкретного скрипта. Например, добавим конфиг для запуска воркера в виде двух процессов:
Создаем файл:
/etc/supervisor/conf.d/worker.conf
[program:worker]
command=php /path/to/script.php
stdout_logfile=/var/log/worker.log
autostart=true
autorestart=true
user=www-data
stopsignal=KILL
process_name=%(program_name)s_%(process_num)02d
numprocs=2
Перезагружаем supervisor:
service supervisor restart
Если вам скучно, обязательно попробуйте очереди.