Обязанности:
Стек технологий: · Hadoop (HDFS, Hive, YARN, Spark, Kafka), интеграции с БД Oracle, SAP Hana, Clickhouse, Postgres, MySQL, оркестрация Airflow,ETL Spark, Python/Scala, SAP DS, облачные технологии YandexCloud. Задачи: • проектирование и разработка витрин данных; • мониторинг, поддержка, оптимизация ETL-процессов; • интеграция данных из различных источников (преимущественно batch-загрузки из SQL баз данных); • поддержка команды и пользователей по вопросам эффективной работы с данными. Навыки: • уверенные знания SQL; • знание Python; • понимание принципов организации хранилищ данных, ETL/ELT, форматов хранения данных; • уверенный опыт работы с Hadoop, Spark, Airflow. Условия: Полностью официальное трудоустройство; Высокий конкурентный оклад; Карьерное развитие внутри команды-профессионалов; ДМС; Современное корпоративное оборудование; Гибкий режим работы (удаленный график, при желании есть возможность приезжать в офис).