Обязанности:
Мы в поиске Data Scientist в команду ADV Platform. Мы разрабатываем инструмент дополнительного рекламного продвижения на сайте Lamoda для брендов, представленных на площадке. Основная задача команды – поиск баланса между ставкой рекламодателя в аукционе и оценкой качества объявления. Предстоит работать над такими задачами: Разрабатывать модели, которые оценивают качество рекламных товаров и рекламных объявлений; Развивать рекламу в сторону персонализации количества и расположения рекламных слотов; Разработка автобиддера – механизма автоматического управления рекламными компаниями, позволяющего рекламодателям не торговать на площадке самим, а только устанавливать бюджет и пожелания по рекламной кампании. Стэк технологий: Big data (Hadoop, PySpark, Hive), Python, Catboost, Airflow, Docker, SQL, PyTorch. Почему у нас классно: Хорошо выстроенные процессы: квартальное планирование по методологии OKR, двухнедельные спринты, регулярные стендапы и проектные встречи для синхронизации. Сильная команда middle и senior специалистов, развитое DS-сообщество, где есть возможность обмениваться знаниями на внутренних митапах У нас представлен полный жизненный цикл разработки data-driven продуктов с применением ML — от идеи и генерации гипотез до запуска АБ тестов. В части разработки онлайн-сервисов и деплоя моделей нам помогает команда инженеров. Мы ожидаем: Опыт в области анализа данных и машинного обучения (от 2 лет); Опыт работы с SQL, Hadoop, Hive, Spark; Владение Python, Linux, методами работы с большими данными; Опыт работы как минимум с 2 ML библиотеками: Scikit-learn, CatBoost/XGBoost, PyTorch, Spark ML; Знания теории вероятностей и математической статистики; Знания в области машинного обучения, прогнозного моделирования и методов статистического анализа; Знание алгоритмов и структур данных; Высшее образование в области прикладной математики, информационных технологий, информатики и т.п; Английский язык на уровне технического чтения. Как мы работаем: Пишем на Python 3.6+ и PySpark 3.0; Для ресерча доступны два сервера (80 cores, 650Gb RAM), на которых развернут JupyrerHub и есть доступ к Hadoop-кластеру; Код с логикой ML-пайплайнов упаковываем в Docker и выкатываем, используя CI/CD-инструменты с запуском code style проверок и тестов; Используем Airflow для управления ML-пайплайнами и запуском их по расписанию; В командах есть культура code review как для изменений по части продакшен-пайплайнов, так и для ресерч-задач; Регулярно проводим командные брейнштормы с целью генерации новых идей по развитию наших data-driven продуктов; В компании внедрена культура принятия решений на основании данных и все изменения тестируем через АБ-эксперименты.