Наша команда занимается поддержкой и развитием корпоративного озера данных, поиском и решением проблем, мониторингом и тюнингом производительности на кластере hadoop. Наша задача — построение высокопроизводительного и отказоустойчивого корпоративного хранилища данных.
Мы ищем DevOps инженера, готового погрузиться в современный стек big data.
От вас требуется:
- Опыт работы с Hadoop;
- Владение Python/Go/Bash и умение писать скрипты автоматизации;
- Желание осваивать новые технологии;
- Понимание важности документации;
Будет плюсом:
- Знание Kubernetes, OpenStack;
- Опыт работы с Ansible;
- Опыт развертывания Airflow.
Задачи:
- Развитие и поддержка сервисов платформы (HDFS, Trino, Airflow, Spark, Flink);
- Оптимизация процессов и технологий внутри платформы;
- Переезд мониторинга на prometheus;
- Импрувмент dev кластеров (развертывание по запросу);
- Поддержка и развитие airflow;
- Обновление компонентов платформы;
- Повышение надежности и производительности платформы на всех уровнях.
Наш стек:
Hadoop, Trino, Airflow, Spark, Flink, Ansible
Мы хотим, чтобы каждый сотрудник был доволен своей работой, поэтому мы предлагаем:
- Можно работать из дома либо в офисе;
- Можно работать вне РФ. Гибкое начало рабочего дня с 8 до 12 по Москве;
- ДМС (со стоматологией) с первого месяца работы, страхование жизни;
- Корпоративный сервис с поддержкой юриста, психолога и финансового консультанта;
- Промокоды и бонусы от партнеров;
- Электронная корпоративная библиотека;
- Профессиональный и дружный коллектив;
- Возможность профессионального развития, обучение за счет компании, участие в специализированных конференциях;
- Совместную постановку целей и индивидуальный план развития.
Как будем знакомиться:
- HR-интервью;
- Техническое интервью в зуме;
- Финальное интервью в офисе или в зуме.
Если вакансия интересна — откликайся!