Обязанности: проектирование и разработка аналитических витрин данных на платформе Hadoop с последующим внедрением в промышленную эксплуатацию; разработка и настройка потоков данных ETL для преобразования и загрузки данных; создание и поддержка документации, необходимой для успешного прохождения приемо-сдаточных испытаний; автоматизация процессов, связанных с обработкой и управлением данными; создание прототипов витрин данных с использованием SQL и Spark; контроль качества данных; участие в миграции данных с Teradata на Hadoop. Требования: опыт работы не менее 1 года в роли Разработчика, Data Engineer, Data Analyst, ETL Developer; глубокие знания SQL, включая планирование запросов, функции, процедуры, индексы, партиционирование и методы сжатия данных, а также оптимизацию запросов; практический опыт работы с Hadoop; навык проектирования и реализации витрин данных и ETL-процессов; работа с большими объемами данных; знание Python будет преимуществом.