Обязанности:
О нас DataLouna — киберспортивная аналитика нового поколения. 4 года превращаем сырые данные CS2 и Dota 2 в уникальную статистику, предсказания и беттинг-линии. Мы часть крупного киберспортивного холдинга (Team Spirit и другие проекты), работаем с топовыми букмекерами. Не только агрегируем базовые метрики, но и создаём собственные вместе с профессиональными аналитиками и тренерами. На этой базе строим B2B-решения: API, предиктивные модели, уникальные линии. Команда: 7 человек. Минимум бюрократии, максимум влияния на продукт. Кого мы ищем Мы ищем инженера-исследователя со стартаперским майндсетом. У нас нет микро-задач с разжеванным ТЗ. Мы даем продуктовую цель (например: «нужен аналог dotabuff»). Дальше ты идешь сам: Ресёрчишь домен (API, бинарные протоколы) и ограничения. Выбираешь инструменты — задаешь вопрос «а нужен ли нам тут Kafka, если хватит Redis?». Проектируешь БД, пишешь код и катишь в прод. Идеальных условий нет: источники без API часто лежат, данные обфусцированы, потеря в live-матчах недопустима. Поэтому нам важен твой инженерный подход к отказам и умение строить надежные системы в хаосе. Чем будет заниматься разработчик (Тебе не нужно быть экспертом во всех этих пунктах с первого дня, но это тот технический ландшафт, в котором предстоит работать, развиваться и брать на себя ответственность). Парсинг и сбор данных Писать на Node.js/TypeScript парсеры и скрейперы публичных сайтов и API (киберспортивные платформы, букмекерские виджеты) — работа с DOM, WebSocket-фидами, REST/GraphQL источниками. Обходить анти-бот защиту: прокси-инфраструктура, анти-детект-браузеры (Octobrowser), Playwright. Интегрироваться с бинарными протоколами (Steam Game Coordinator) и парсить демо-файлы матчей. Обработка и хранение данных Проектировать схемы БД под новые продуктовые фичи и источники данных: таблицы, связи, индексы, партиционирование. Маппить и нормализовать сущности (команды, игроки, матчи, турниры) между разными источниками. Оптимизировать запросы и структуру под нагрузку — PostgreSQL для транзакционных данных, ClickHouse для аналитики и больших объёмов. Поддерживать миграции, версионирование схем и эволюцию данных без даунтайма. Бэкенды для фронта и админок Развивать REST/GraphQL API для веб-приложений и админ-панелей. Делать real-time стримы через WebSocket / SSE / GraphQL subscriptions для live-данных матчей и коэффициентов. Очереди и оркестрация Писать воркеры и пайплайны на BullMQ + Redis для парсинга, AI-обработки и сборки данных. Делать оркестраторы расписаний и фоновых задач. AI-фичи Интегрировать Claude / Anthropic SDK для AI-комментариев матчей, анализа драфтов и других продуктовых фич. Интеграции и DevOps-смежное Писать сервисные интеграции (нотификации, вебхуки, мосты между внешними системами). Деплоить в GKE через GitLab CI + Flux CD, работать с Docker/Kubernetes-манифестами. Стек не догмат. Основной код мы пишем на TypeScript. Если для потоковой передачи данных лучше зайдёт Kafka, или для сложной оркестрации Temporal — мы открыты к обсуждению, если есть аргументы и опыт. Условия 💰 $3,500 – 5,500 (в зависимости от опыта) 📍 Удалённо, гибкий график Отбор Созвон с CTO (15–20 мин) — знакомство, технические вопросы. Техническое интервью (1.5–2 часа) — опыт, system design. Оплачиваемый испытательный срок — работаем сразу над боевыми задачами Как откликнуться Без ответов на эти 3 пункта отклик не рассматриваем. 1. AI в разработке Какими AI-инструментами пользуешься в работе? Что из них настраивал под себя? Делал ли какие-то удобные решения или автоматизации для собственных задач? 2. Базы и инфраструктура данных Расскажи про свой реальный опыт: приходилось ли самому проектировать схему базы под конкретную задачу — что это была за задача, какие решения принимал? Настраивал ли брокеры сообщений — какие, в каком контексте, что было нетривиального? Не перечисляй стек — опиши, что делал руками. 3. Киберспорт Коротко про твой бэкграунд в Dota/CS: играл ли (и насколько активно) и разбираешься ли в профессиональной сцене (турниры, команды, форматы)?Похожие вакансии