Обязанности: Поддержка и развитие CI/CD пайплайнов в GitLab CI; Управление конфигурациями и оркестрацией серверов с помощью Ansible; Настройка и поддержка систем мониторинга и алертинга (Prometheus, Grafana); Централизованный сбор и анализ логов (ELK Stack, Graylog); Управление артефактами и образами через Sonatype Nexus; Работа с системами хранения данных: PostgreSQL, MinIO (S3-совместимое хранилище); Обеспечение безопасности инфраструктуры: работа с Vault (секреты, ключи шифрования); Оптимизация нагрузки, устранение инцидентов; Взаимодействие с командами разработки, аналитики данных и ML-инженерами — помощь в настройке окружений, оптимизация ресурсов, консультации по best practices; Написание скриптов на Bash и Python для автоматизации процессов резервного копирования, ротации логов, мониторинга состояния сервисов; Разработка скриптов для интеграции между компонентами платформы (например, автоматическая регистрация сервисов в Vault, синхронизация данных между MinIO и HDFS, автоматическое масштабирование ресурсов); Создание кастомных утилит для упрощения работы команды разработки и дата-инженеров (CLI-инструменты для деплоя, проверки конфигураций, сбора диагностики). Требования: Linux (Ubuntu): уверенное администрирование, написание скриптов (Bash/Python), понимание работы сетей и файловой системы; CI/CD: глубокое знание GitLab CI (написание сложных пайплайнов, использование артефактов, кэшей, динамических окружений); Оркестрация: Опыт работы с Kubernetes (развертывание приложений, Helm-чарты, ingress, network policies, troubleshooting). Опыт работы с Docker Swarm (понимание отличий от K8s, режимы работы); Управление конфигурациями: продвинутый уровень Ansible (роли, jinja2, vault, динамические инвентори); Мониторинг: настройка Prometheus (экспортеры, правила алертинга, recording rules) и Grafana (дашборды, настройка алертов); Логирование: Опыт работы с ELK Stack (Elasticsearch, Logstash, Kibana) — настройка pipeline, индексов. Опыт работы с Graylog (sidecar, extractors, streams); Базы данных: опыт поддержки PostgreSQL (бэкапы/восстановление, репликация, мониторинг производительности); Безопасность: практический опыт работы с HashiCorp Vault (авторизация, динамические секреты, интеграция с приложениями и CI/CD); Будет плюсом: Опыт написания экспортеров для Prometheus; Навыки оптимизации PostgreSQL (DBA skills); Big Data: опыт администрирования Hadoop (HDFS, YARN), Apache Ranger, Trino, Apache Hive; MLOps: работа с TensorFlow в продакшене, DVC, Dagster, Airflow, MLflow; Data Governance: настройка OpenMetadata для каталогизации данных и управления метаданными. Условия: Оформление в соответствии с ТК РФ; Удаленный график работы или офис в современном Бизнес-центре в Москве; Режим работы: с 9.30 до 18.30, в пятницу с 9.30 до 17.30; Финансовые условия обсуждаются индивидуально, в зависимости от профессионального опыта и стажа работы; ДМС после испытательного срока.
Похожие вакансии
DevOps Engineer (Middle+/Senior)
От 250 000 до 400 000 руб.
Москва. Станции метро: Аэропорт, ЦСКА
ДЖЕЙКЕТ РАБОТА