Обязанности:
Мы в поиске Data Scientist в команду Рекламной платформы. В нашей команде мы создаем высоконагруженный сервис для рекламного продвижения на платформе Lamoda. Наша цель – выйти за рамки классических подходов рекомендательных систем и достичь гармонии между релевантностью контента и финансовыми результатами. Наши алгоритмы дополняют рекомендательную систему сайта, предоставляя пользователям лучший опыт взаимодействия и одновременно обеспечивая платформе высокий уровень дохода. Предстоит работать над задачами для всех участников рекламы: Для пользователей: Улучшать модели машинного обучения, которые обеспечивают персонализированное качество рекламы в режиме реального времени, делая взаимодействие с платформой комфортным и полезным. Для рекламодателей: Разрабатывать инструменты для эффективного распределения бюджета и автоматизации участия в рекламных аукционах. Для платформы: Создавать методы оптимального распределения рекламного контента и персонализировать его объем для каждой аудитории. Мы ожидаем: Опыт работы от 3 лет. Владение Python и умение писать сложные SQL-запросы. Отличное понимание классического ML и опыт работы с основными DS-библиотеками. Опыт работы с Hadoop, Spark, Airflow, Docker. Опыт вывода ML-моделей в прод для решения бизнес-задач. Знание математической статистики, теории вероятности, алгоритмов и структур данных. Опыт проведения A/B-тестов и анализа их результатов. Будет плюсом: Опыт в рекламных технологиях, рекомендательных системах и других высоконагруженных сервисах. Знания основ и опыт применения Deep Learning. Высшее образование в области математики, информационных технологий и т.п. Стэк технологий: Big data (Hadoop, PySpark, Hive), Python, Catboost, Airflow, Docker, SQL. Почему у нас классно: Полный жизненный цикл разработки data-driven продуктов с применением ML - от генерации идеи и до подведения результатов АБ-теста. Кросс-функциональная команда со всеми необходимыми компетенциями для развития продукта. Культура code review и принятия решений на основании данных. Всё необходимое железо для работы: мощные ресерч-сервера с GPU и большой Hadoop-кластер. Сильная команда специалистов и развитое DS-сообщество - активно обмениваемся знаниями и выступаем на митапах.