Обязанности:
RedLab — глобальная ИТ-компания. Мы входим в международный холдинг Litota Group и предоставляем экспертизу для реализации самых амбициозных ИТ-проектов. Наше главное преимущество — команда высококвалифицированных специалистов со всего мира, которых объединяет любовь к своему делу. Мы не просто закрываем вакансии: мы обогащаем команды клиентов ценнейшим опытом экспертов, самостоятельно реализуем проекты и создаем ИТ-продукты, которые меняют рынки. Наша репутация — это наши результаты: 🥇 1 место — Аутстаффинг / B2B (микро/малый/средний бизнес), 2024 🥉 3 место — Аутстаффинг / B2B (корпоративный сектор), 2024 300+ успешных проектов 92% постоянных клиентов Наши клиенты: УБРиР, Vileda, Hyundai, Брусника, VK, Ростелеком, Еврохим, ГринМани, Doubletapp, НЛМК и другие лидеры рынка. Мы разрабатываем продукты для ведущих российских банков и крупнейших корпораций. Присоединяйся к нам, чтобы работать на самых интересных и значимых проектах в IT-индустрии страны!Мы ищем Data-инженера для аутстафф направления для работы над масштабными ИТ-проектами, в том числе международного уровня, в самых разных сферах. Задачи: Разработка, реализация и поддержка типовых интеграционных решений, на стеке технологий, принятых в команде. (Java, Groovy, Apache Nifi, Airflow). Оперативное реагирование на информацию о проблемах в зоне ответственности, выполнение типовых задач в установленный срок. Поддержание в актуальном состоянии документации типовых интеграционных решений платформы больших данных. Предоставление отчетности о своей деятельности начальнику отдела/ руководителю в порядке, установленном руководством. Требования: Общее представление о стеке технологий BigData. Понимать различия работы между BigData и с данными обычного размера. Знание SQL (индексы, функции, умение писать не сложные запросы). Опыт работы с любой реляционной БД (Oracle, Postgres, MySQL, MsSQL, DB2 и т.п.). Умение работать с Git (знание команд git pull/commit/push). Опыт работы с любым графическим ETL инструментом (Apache Nifi, Airflow, Talend, Informatica, SAS и т.п.). Представление о работе с Hadoop. Понимание устройства HDFS, форматов данных. Понимание работы с Hive или любого другого хранилища на основе Hadoop. Опыт использования системами ведения проектов и документации. Знания основ программирования (JAVA, Groovy, Python). Мы предлагаем: Удаленную работу - возможность работать из любого города. Заключение договора гражданско-правового характера. Важно! Оплата за фактически отработанное время на проекте, выплата осуществляется в российских рублях. Интересные и уникальные проекты - в финансовой и промышленной сферах. Мы предоставляем сложные, но стабильные проекты с современным стеком. Ты фокусируешься на коде и архитектуре, а мы берем на себя переговоры с заказчиком, решение бюрократических вопросов и защиту твоего спокойствия и интересов. Твоя зона ответственности — качественный продукт, наша — надежная поддержка и своевременная оплата. Этапы отбора: Мы уважаем твое время, поэтому наш процесс отбора максимально прозрачен: Анкета – знакомство с твоим опытом. Первичное интервью – расскажем о проектах, узнаем друг друга. Техническое интервью – обсуждение твоих навыков и кейсов. Оффер – выходим с предложением о сотрудничестве. Откликайся на вакансию и становись экспертом в сильной команде!Похожие вакансии