Обязанности:
Mediascope – исследовательская компания, которая работает на стыке медиа и IТ. Мы анализируем аудиторию телевидения, интернета, радио и прессы, поставляем данные и создаем уникальные аналитические продукты, которыми пользуются российские медиа, рекламные агентства и компании-рекламодатели. Наша задача – создавать и поддерживать индустриальные стандарты работы с данными на рынке медиа и рекламы, а также развивать медиаисследования в России. Стек технологий, с которым работаем: SQL (PostgreSQL и SparkSQL), PySpark (Zeppelin/Jupyter notebooks), Nifi, Hadoop, S3, Kafka, и др. Команда, в которой предстоит работать Наш отдел управления данными — это микс из data-инженеров, аналитиков и ML-энтузиастов, которые превращают терабайты медиаданных в понятные истории и прогнозы. Мы: Строим дата-платформы, которые обрабатывают данные 24/7 (да, даже ночью, пока вы спите!) Автоматизируем рутину: например, учим нейросети распознавать рекламные интеграции в ТВ-эфире Работаем с технологиями Airflow, Python, Spark и, конечно, экспериментируем с GPT/LLM У нас нет скучных дней: сегодня запускаем модель для анализа соцсетей, завтра — оптимизируем запросы на 50% Чем предстоит заниматься: Разрабатывать и поддерживать data-пайплайны для обработки медиаданных в рамках медиа-мониторинга (мониторинг рекламы, новостей, ТВ, интернета и пр.) в BigData platform Сопровождать релизы Участвовать в создании архитектуры данных и витрин для реализации медиа-мониторинга Оптимизировать производительность имеющихся процессов, исследовать и внедрять новые технологии/инструменты для повышения эффективности разработки Участвовать в процессе поддержки и мониторинга работы разработанных объектов в BigData platform Обмениваться опытом и знаниями с командой (проводить ДЕМО, писать документацию) Что для этого потребуется: Опыт работы в качестве дата-инженера: (ETL, DWH, облачные хранилища) от 3-5 лет Глубокое понимание и опыт работы с полным циклом данных: сбор (API, парсинг, стриминг), обработка (DAGs, Airflow), хранение (Data Warehouse/Lakehouse, витрины), разработка отчетов Уверенный SQL Практика Python на продвинутом уровне (Zeppelin/Jupyter notebooks; библиотеки: pandas, numpy, pyspark, Altair; извлечение\загрузка данных в\из разных источников; написание логики для прототипирования транзакций (преобразований) данных и др.) Знание Apache Airflow, Spark Системное мышление Будет плюсом: Понимание принципов работы ML-моделей и их эксплуатации Практика работы с LLM (Fine-tuning, RAG, интеграция в продукты, n8n) Бэкграунд в медиа, рекламе или смежных областях Мы предоставим комфортные условия для работы: Возможность выбирать формат работы – офис, удаленка, гибрид Официальное оформление, гарантируем соблюдения трудового кодекса РФ Расширенная медицинская страховка (включая стоматологию) Используем современный стек технологий и открыты к внедрению новых инструментов Работа в аккредитованной IT-компании Мы умеем быстро подстраиваться под изменения, и у нас внутри гибкие процессы Наши заказчики – крупные компании на российском медиарынке, у нас разные проекты от значимых до очень значимых Наши преимущества: Выделенный наставник с первых дней работы: мы понимаем, что новая компания - всегда стресс, поэтому у нас новичкам помогают старшие коллеги Внутренние комьюнити: 2 трека внутренних митапов для аналитиков и инженеров; возможность выступать как спикер или приходить на выступления других коллег в качестве слушателя Карьерный рост: при хороших результатах работы вы быстро двигаетесь по карьерному треку Уникальная корпоративная культура, ориентированная на людей. Для нас важен каждый коллега, мы всегда открыты к диалогу и любым вопросам сотрудниковПохожие вакансии