Обязанности:
Мы развиваем интеллектуальное ядро для SaaS-платформы ресторанной аналитики. У нас есть работающий прототип, развернутая инфраструктура и база знаний. Сейчас мы переходим от MVP к продукту, наша цель создать ассистента, который не просто отвечает на вопросы подокументации, а ведет полноценный диалог, помнит контекст беседы и оперирует "живыми" данными бизнеса.Основная цель, превратить LLM из чат-бота в аналитического партнера. Ассистент должен понимать контекст, запрашивать актуальные метрики через инструменты (MCP), анализировать их и давать обоснованный ответ, сохраняя историю диалога. Текущий стек: LLM Qwen 3.0 (локальный инференс) Выделенный сервер с GPU 2080 Ti RAG (Neo4j + ChromaDB) MCP для доступа с API аналитики Django/LangChain/LangGraph/Pydantic MLOps: MLflow, AirFlow Окружение: Docker, Linux, Git Задачи: Контекст и память: Управление контекстным окном: суммаризация истории, выборка релевантных веток диалога Реализация механизмов Short/Long-term memory, чтобы ассистент помнил суть беседы Агенты и инструменты: Разработка MCP-сервера и инструментов для запроса метрик ресторанов (выручка, средний чек, фудкост) Обучение модели корректному вызову функций на основе намерений пользователя Оптимизация и дообучение: Fine-tuning Qwen 3.0 под специфику ресторанной аналитики Оптимизация инференса и потребления VRAM (квантование, батчинг) Ведение экспериментов и версионирование моделей в MLflow Поиск и качество: Настройка гибридного поиска: векторы + графовые связи в Neo4j Повышение релевантности выдачи при сложных запросах Внедрение метрик качества ответов и A/B-тестирование промптов/стратегий retrieval Поддержка: Оркестрация задач обновления знаний и дообучения в AirFlow Поддержка существующей модели классификации товаров Наши ожидания: Запускали open-source LLM локально (не только API) Строили RAG: поиск + генерация ответа на основе данных Делали AI-агентов, которые вызывают функции / работают с API Интегрировали модели с БД (SQL, векторные, графовые) Реализовывали "умную" память диалога (не просто историю сообщений) Python: асинхронность, оптимизация, типизация на уверенном уровне Опыт работы с MLOps-инструментами (MLflow, AirFlow) Английский: чтение технической документации (B1+) Будет плюсом: Опыт с Neo4j / графовыми базами Опты работы с MCP Проекты в аналитике, BI или FoodTech Условия: Зарплата: от 200 000 до 280 000 ₽ на руки (обсуждается по итогам собеседования) Официальное трудоустройство в аккредитованной IT-компании Полная удалёнка + возможность работать из офиса на Петроградке (кофе, печеньки, обеды) Работа в режиме R&D: тестирование гипотез, минимум бюрократии Техническая свобода: готовы обсуждать и внедрять новые архитектурные и инфраструктурные решения Работа в команде разработки SaaS-платформы ресторанной аналитикиПохожие вакансии
От 150 000 до 250 000 руб.
Санкт-Петербург. Станции метро: Петроградская
Специальный Технологический Центр (ООО СТЦ)
От 100 000 до 100 000 руб.
Санкт-Петербург. Станции метро: Петроградская
ОБЩЕСТВО С ОГРАНИЧЕННОЙ ОТВЕТСТВЕННОСТЬЮ "СПЕЦИАЛЬНЫЙ ТЕХНОЛОГИЧЕСКИЙ ЦЕНТР"
От 150 000 руб.
Санкт-Петербург. Станции метро: Петроградская
Филиал в г. Санкт-Петербург АО Концерн Радиостроения Вега
От 250 000 руб.
Санкт-Петербург. Станции метро: Петроградская
Филиал в г. Санкт-Петербург АО Концерн Радиостроения Вега