Обязанности: Проектирование и разработка витрин данных; Проектирование, разработка и поддержка процессов ETL для загрузки данных в/из Data Lake/Factory Data Platform; Интеграция новых источников в DataLake/DWH/Factory Data Platform; Настройка и поддержка фильтрации, маршрутизации и очередей данных на платформе Factory Data Platform. Настройка и поддержка пост-обогащения, преобразования и контекстуализации данных в Factory Data Platform. Определение и поддержка политики хранения тегов/данных. Контроль качества загружаемых данных (ручные и автоматические тесты DQ); Написание документации; Требования: Обширный опыт предоставления решений по обработке данных для облачных приложений; Понимание работы базы данных и принципов разработки DWH; Понимание хранилищ данных, очистки данных, конвейеров данных и других аналитических методов, необходимых для использования данных. Опыт работы с технологиями Hadoop (HDInsight, Spark, Hive, Scala и т. д.); Хорошее знание SQL, Python/Scala или Java; Опыт работы с Nifi, Kafka, Airflow, InfluxDB/Flux; Опыт разработки потоковой передачи данных Опыт работы со стеком Yandex Cloud Platform/ Azure от 1 года; Понимание технологии серверов ретрансляции KEP/OPC (OPC UA/DA, теги, именование, публикация) как плюс. Уровень английского языка – средний или выше Условия: Оформление по ИП; Долгосрочная перспектива; Удаленный формат работы ; Гибкое начало и окончание рабочего дня; Белая заработная плата; Возможность развития и профессионального роста.