Для достижения цели был использован фреймворк Scrapy, который позволяет создавать веб-скрейперы (парсеры) с высокой производительностью. С помощью Scrapy были определены правила парсинга HTML-страниц сайта, а также созданы необходимые модели для хранения данных. 1. Был написан скрипт, который автоматически посещает страницы сайта, извлекает информацию о товарах и сохраняет её в файл csv. 2. Были разработаны запросы для выборки и анализа собранной информации. 3. Благодаря использованию Scrapy, проект легко масштабируется для обработки больших объемов данных и может быть адаптирован под различные сайты.