Минимум степень бакалавра компьютерных наук или смежной области.
Понимание процесса разработки ПО, роли DevOps, опыт работы от 3 лет.
Понимание подхода Infrastructure-as-a-Code.
Опыт работы с Terraform или Kubernetes.
Опыт работы с Python от 2 лет.
Крепкие знания в Amazon Web Services.
Опыт работы в Linux.
Опыт работы с SQL.
Опыт работы с GitLab.
Опыт работы с Big Data.
Белая зарплата с защитой от колебания курса.
Премии за успехи и ежегодный пересмотр зарплаты.
Обязательный курс английского языка с бизнес-тренером из США в рабочее время в комфортном классе в небольших группах до
Весь мир мы вам обещать не будем, но в Кремниевой Долине или Европе вы побываете с интересной командировкой.
Система профессионального развития, техническая библиотека, буккроссинг.
Компенсация дополнительных курсов, конференций, митапов и всего того, что вам необходимо для развития.
Гибкий рабочий график, нет заморочек с time tracking в JIRA и тд. Если вам вдохновенно работается вечером, никто не будет требовать от вас приходить рано утром, но на митинги с заказчиком опаздывать нельзя.
В зависимости от выбранного вами проекта:
1) • Проектирование и разработка высокораспределенных и масштабируемых решений для автоматизации и оркестрации.
• Разработка и внедрение архитектуры облачной системы и лучшие практики.
• Создание инструментов и решений для управления событиями и платформой клиентских данных.
• Создание масштабируемой Service Mesh в Kubernetes.
• Реализация стратегии оптимизации затрат с помощью спотовых инстансов.
• Постоянная оценка существующего стека и инфраструктуры для поддержания оптимальной производительности, доступности и безопасности.
• Участие в полном процессе SDLC, используя методологию Agile, включая обнаружение, начало, историю и создание задач, разбивку и оценку, итеративное планирование, разработку и модульное тестирование, а также выпуск / развертывание.
2) • Анализ архитектуры и бизнес-логики приложений.
• Миграция архитектуры на AWS.
• Разработка и развитие фреймворка для BigData pipilene с использованием Terraform, Python, Gitlab и др.
• Работа c Big Data технологиями: Hadoop, Hive, Presto, Apache Flink.
• Плотное взаимодействие с инженерами партнера.
1) Проект Arlo представляет собой систему SmartHome в сфере безопасности. Включает в себя такие устройства как камеры видеонаблюдения, сигнализации, видеозвонки и т.д. Стартовал 5 лет назад и находится на стадии активного развития: в год выходит от 4 до 7 новых девайсов.
Приложение установлено более 1 миллиона раз на Google Play и AppStore; имеет более 500 тысяч уникальных пользователей еженедельно.
Приложение предлагает широкий набор функций: добавление и настройка устройств, настройка режимов и автоматизированных механизмов их смены по расписанию или геозонированию, стриминг live video и просмотр записанных клипов с камер видеонаблюдения, Push-To-Talk — трансляция звука с микрофона устройства на динамик камеры, SIP звонки в экстренную службу и прочее.
2) Проект для крупной американской компании работающей в сфере телекоммуникаций — Charter Communications.
Цель проекта — миграция и адаптация BigData инфраструктуры из on-premise дата центра на платформу AWS.