Обязанности: Сопровождение и развитие платформы данных; Запуск и сопровождение ETL процессов, конвейеров данных; Разработка и сопровождение CI/CD конвейеров; Работа с данными, ad-hoc, выгрузки по запросу; Выполнение изменений в настройках доступов к данным/инструментам; Обеспечение требований безопасности на прикладном уровне. Требования: Знание компонентов экосистемы Hadoop (Spark, Hive, Impala, Hbase); Опыт работы с ClickHouse, PostgreSQL; Понимание принципов работы Kafka; Знание SQL, Python, Java, Scala; Опыт работы с Apache Airflow; Опыт построения CI/CD; Опыт работы c Zabbix, Splunk; Знание Linux. Условия: Оформление согласно ТК РФ; Достойный уровень заработной платы + премии; График работы: 5/2 с 9:15 до 18:00; Социальный пакет: ДМС со стоматологией, телемедицина, полис для выезжающих за рубеж, доплата по больничным листам до 20 дней в году, материальная помощь в особых случаях; Профессиональное развитие: обучение за счет компании, посещение профильных конференций, электронная библиотека; Корпоративная культура: командные виды спорта, корпоративные мероприятия, тимбилдинги, лектории; Работа в команде профессионалов с уникальной экспертизой; Комфортный офис в центре: тренажерный и спортивный залы, лаунж-зона, корпоративная столовая, микромаркеты, кухни с чаем, кофе и снеками на каждом этаже.