Обязанности:
В Arenadata стартовал новый проект в области управления большими данными в облаках. Нам нужен DevOps инженер для поддержки команды разработки и деплоя компонентов на проекте. В ваши обязанности будет входить сборка, упаковка, исследование и запуск программных продуктов в платформу на основе микросервисной архитектуры, а также разработка K8s operator'a для автоматизации деплоя Spark и других компонет экосистемы Hadoop в кластере Kubernetes. Что нужно делать: Проектировать архитектуру k8s кластера и осуществить выбор технологий для ее реализации; Исследовать взаимодействие и конфигурирование компонентов экосистемы Hadoop в k8s кластере; Разрабатывать и поддерживать k8s operator на основе operatorSDK framework; Обеспечивать качество кода путем проведения код-ревью и наставничества для менее опытных разработчиков; Оптимизировать производительность и масштабируемость кластера; Внедрить лучшие практики разработки, тестирования и развертывания программного обеспечения; Работать в тесном взаимодействии с PO, Developers и др. для обеспечения успешного запуска и поддержки продуктов; Поддерживать и развивать существующие k8s кластера, включая исправление багов и добавление новых функциональностей. Мы ждем, что вы: Владеете экспертными знаниями Docker/Kubernetes (K8s); Имеете опыт эксплуатации кластеров K8s и поддержки жизненного цикла приложений микросервисной архитектуры; Имеете знания и опыт разработки K8s operator с использованием operatorSDK framework (Go, Ansible). Будет плюсом: Обладаете опытом эксплуатации и конфигурирования компонент экосистемы Hadoop (Spark, Yarn, Ranger, Hue); Владеете экспертными знаниями любого Linux-дистрибутива; Знаете Python минимум на скриптовом уровне, имеете желание развиваться в этом направлении; Имеете практический опыт работы с любым облачным провайдером (AWS, GCP, Azure, VK Cloud, Yandex, SberCloud и пр.); Имеете знания и опыт разработки на Golang, либо желание развиваться в этом направлении; Понимаете принципы работы: СУБД, каталогов, очередей, брокеров сообщений (PostgreSQL, Greenplum, Apache Kafka, Clickhouse, Apache Zookeeper, Apache Hadoop и др.)