Prom.ua — найбільший маркетплейс України, де продаються понад 100 млн товарів від десятків тисяч підприємців з усієї країни.
На Prom.ua:
- кожен покупець може знайти все, що потрібно, за найкращою ціною: від зубної щітки до культиватора для саду та городу.
- кожен підприємець може продавати товари в каталозі маркетплейса, на сайті, створеному на платформі Прома та у мобільному додатку «Prom покупки».
Prom.ua в цифрах:
- щодня маркетплейс відвідують 4,8 млн осіб
- на маркетплейсі працюють понад 60 тис. компаній
- у каталозі 102,5 млн товарів
Data Team займається напрямками:
- Обробка великих даних — ми процесимо всю зібрану клієнтську аналітику та перетворюємо це на впорядковані дані, над якими можна будувати продукти та використовувати їх для прийняття рішень.
- Стрімінгова аналітика — процесинг даних в реальному часі, для використання в роботі інших сервісів, зокрема антифроду.
- Пошук — наша команда супроводжує те, як працює пошук в каталозі та сервіси, пов’язані з забезпеченням його функціонування.
- ML сервіси — ми допомагаємо команді дата саєнтистів впроваджувати їхні моделі в продакшн та контролювати справну роботу.
Зараз ми шукаємо Middle Python Software Engineerʼa на напрямки «Обробка великих даних» та «Стрімінгова аналітика»
Проекти та сервіси команди з технічного боку:
- Для роботи з великими даними: Python + Pyspark (як фреймворк обробки) + HDFS (як сторедж) + Airflow(шедулер) + JupyterHub і notebooks (середовище для експериментів/тестування гіпотез).
- Стрімінгова аналітика: Kafka (як шина даних) + Spark + Scala/Python + Clickhouse/Redis (як стореджі).
- Для роботи з пошуком: ElasticSearch (як пошуковий движок) + Python/Kotlin/Java (для написання сервісів/плагінів) + Kafka (як шина даних).
- Запуск ML сервісів: Tensorflow/Scikit Learn/Spark MLlib (як фреймворки навчання моделей) + FastAPI/Aiohttp (як фреймворки для веб обгортки) + Annoy/Faiss (для пошуку схожих векторів).
Що важливо для даної позиції:
- від 2 років досвіду роботи з Python
- вміння оцінювати обчислювальну та ресурсну складність застосованих алгоритмів
- бажання набувати експертизи та розвиватися в інших напрямках роботи команди
Буде плюсом:
- досвід роботи з Spark, Airflow та іншими переліченими технологіями з напрямків «Обробка великих даних» та «Стрімінгова аналітика»
- досвід роботи з Docker, Kubernetes, CI/CD
- розуміння роботи і досвід використання веб фреймворків
Найближчі задачі:
- Вдосконалення сервісу для проведення АБ тестів.
- Вдосконалення середовищ для експериментів датасаєнтистів і аналітиків.
- Розробка та оптимізація пайплайнів обробки даних.
- Вдосконалення системи обробки великих даних.
З нами ви:
- Будете впливати на користувацький досвід мільйонів людей
- Розвиватимете вміння роботи з мікросервісами: як підтримувати їх під значним навантаженням, як реалізувати трейсинг та збирати логи для спостережуваності в такій системі, збирати метрики і використовувати їх для реагування на інциденти, як скейлити вашу реалізацію
- Отримаєте знання та вміння в напрямках, якими займається команда
- Використовуватимете технології описані раніше та впроваджуватимете нові, які найліпше вирішують поставлені завдання.
Як у нас проходить підбір на дану позицію?
- Знайомство (30 хвилин) — ми познайомимось з вами і вашим досвідом, поділимось деталями про вакансію, відповімо на ваші запитання. У разі взаємної зацікавленості, з радістю продовжимо на технічному інтерв’ю.
- Технічна співбесіда з лідом та розробкою (1.5 год).