Ми шукаємо Senior Data Engineer, який приєднається до команди Stellar та допоможе створювати продукти світового рівня для наших клієнтів. Приєднавшись до Stellar, ти станеш частиною спільноти з понад 300+ AdTech експертів, працюватимеш поряд із досвідченими професіоналами в культурі, що цінує досконалість, інновації та співпрацю.
Що таке Stellar? Stellar — це спільнота, мережа та окремий бізнес-юніт у складі Sigma Software, який спеціалізується на рішеннях у сфері рекламних технологій (AdTech). За ці роки ми мали можливість співпрацювати з деякими з найбільших AdTech-компаній світу та допомагали численним стартапам вирости з ідеї у прибутковий бізнес. З 2008 року ми співпрацюємо з компаніями у сфері рекламних технологій, допомагаючи їм створювати, розвивати та підтримувати свої технології.
Ми створюємо Competence Center, де зосереджуємося на розвитку нашої експертизи, щоб стати найкращими спеціалістами у галузі. Якщо ти шукаєш довгострокову співпрацю, спільний розвиток та можливість будувати міцні відносини з провідними клієнтами, — це чудова можливість.
Обов’язки
- Проєктувати, розробляти та підтримувати комплексних (E2E) конвеєрів великих даних, які є оптимізованими, масштабованими та здатними обробляти великі обсяги даних у режимі реального часу та у пакетному режимі
- Тісно співпрацювати з кросфункціональними командами для збору вимог і розробки якісних рішень для обробки даних, що відповідають бізнес-цілям
- Впроваджувати процеси трансформації та інтеграції даних за допомогою сучасних фреймворків для великих даних та хмарних платформ
- Створювати та підтримувати моделі даних, сховища даних та схеми для забезпечення потреб в аналітиці та звітності
- Забезпечувати якість, надійність та продуктивність даних шляхом впровадження надійних методів тестування, моніторингу та оповіщення
- Брати участь у прийнятті архітектурних рішень для розподілених систем даних та допомагати оптимізувати продуктивність для середовищ з високим навантаженням
- Дотримуватися стандартів безпеки та управління даними
Вимоги
- 4+ роки досвіду в області інженерії даних, архітектури великих даних або суміжних сферах
- Високий рівень володіння Python і PySpark
- Глибокі знання SQL (оптимізація запитів, складні з’єднання, вікна функцій) і досвід роботи з базами даних NoSQL
- Глибоке розуміння принципів розподілених обчислень і практичний досвід роботи з такими технологіями, як Apache Spark, Kafka, Hadoop, Presto або Databricks
- Досвід проєктування та управління сховищами даних і Data Lake у хмарних середовищах (AWS, GCP або Azure)
- Знання моделювання даних, проєктування схем та налаштування продуктивності для великих наборів даних
- Глибоке розуміння практик DevOps для автоматизації розгортання, моніторингу та масштабування застосунків великих даних (наприклад, конвеєри CI/CD)
- Володіння англійською мовою на рівні Upper-Intermediate або вище
Особисті якості
- Відмінні навички комунікації та здатність ефективно працювати в мультикультурних і кросфункціональних командах
We are seeking a Senior Data Engineer to join our Stellar team and contribute to building world-class products for our clients. By joining Stellar, you’ll become part of a community of 300+ AdTech experts, working alongside seasoned professionals in a culture that values excellence, innovation, and collaboration.
What is Stellar? It is a community, a network, and a dedicated business unit within Sigma Software that specializes in advertising technology solutions. Over the years, we’ve had the opportunity to work with some of the largest AdTech companies in the world. We have helped numerous AdTech startups grow from an idea to a thriving business. Since 2008, we’ve been working with advertising technology businesses to help them envision, build, and support their technology.
We are building a Competence Center where we stay focused on exploring our domain to become the best specialists in the industry. If you are looking to build long-term cooperation, common business development, and building strong relationships with the best Customers, this could be a perfect fit.
Responsibilities
- Design, develop, and maintain end-to-end big data pipelines that are optimized, scalable, and capable of processing large volumes of data in real-time and in batch mode
- Collaborate closely with cross-functional stakeholders to gather requirements and deliver high-quality data solutions that align with business goals
- Implement data transformation and integration processes using modern big data frameworks and cloud platforms
- Build and maintain data models, data warehouses, and schema designs to support analytics and reporting needs
- Ensure data quality, reliability, and performance by implementing robust testing, monitoring, and alerting practices
- Contribute to architectural decisions for distributed data systems and help optimize performance for high-load environments
- Ensure compliance with data security and governance standards
Requirements
- 4+ years of experience in data engineering, big data architecture, or related fields
- Strong proficiency in Python and PySpark
- Advanced knowledge of SQL (query optimization, complex joins, window functions) and experience with NoSQL databases
- Solid understanding of distributed computing principles and hands-on experience with technologies such as Apache Spark, Kafka, Hadoop, Presto, or Databricks
- Experience designing and managing data warehouses and data lake architectures in cloud environments (AWS, GCP, or Azure)
- Familiarity with data modeling, schema design, and performance tuning for large datasets
- Strong understanding of DevOps practices for automating deployment, monitoring, and scaling big data applications (e.g., CI/CD pipelines)
- At least an Upper-Intermediate level of English
Personal profile
- Excellent communication skills and the ability to work effectively in cross-cultural and cross-functional teams