Обязанности:
Мы ищем разработчика для масштабного проекта по трансформации данных. Работа начнется с амбициозной миграции витрин на целевой стек, а затем перейдет в стадию развития аналитики, создания сложных срезов и обогащения данных. Наш стек и задачи: Data Processing: Разработка и оптимизация ETL/ELT пайплайнов на Spark и Hive (экосистема Hadoop). Backend: Коммерческая разработка на Java (микросервисы, высоконагруженные системы). Storage: Работа с PostgreSQL (включая процедуры и триггеры) и построение витрин данных. Streaming: Интеграция с Apache Kafka (работа с продюсерами и консьюмерами). Архитектура: Проектирование архитектуры витрин и мониторинг производительности данных. Что мы ждем от вас: Опыт в коммерческой разработке на Java от 2 лет. Уверенное владение SQL и понимание принципов работы реляционных БД. Практический опыт с Hadoop (Hive, Spark) от 2 лет. Понимание того, как строится качественная архитектура данных и пайплайны. Будет преимуществом: Знание Scala или Python, опыт работы с Docker/Kubernetes, а также понимание принципов Data Quality. Почему стоит идти к нам: Интересный жизненный цикл проекта: от миграции «с нуля» до развития сложной аналитики Big Data. Профессиональная среда: работа в распределенной команде экспертов, у которых есть чему поучиться. Гибкость: возможность работать удаленно из Москвы, Санкт-Петербурга, Сочи или Нижнего Новгорода. Рост: мы поддерживаем стремление развиваться в Big Data и предоставляем возможность участия в разных проектах внутри компании. Индивидуальный подход: уровень дохода обсуждаем открыто, отталкиваясь от ваших ожиданий и навыков.Похожие вакансии