Команда отвечает за два направления: миграция отчетности с SAP на КАП (Корпоративная аналитическая платформа) и внедрение инструментов ИИ-Помощника в продукт «Платформа Сервисы». Миграция отчетности с SAP на КАП (Корпоративная аналитическая платформа) включает в себя: сбор бизнес-требований для отчетности в рамках проекта миграции с SAP доставку данных в КАП построение витрин данных на GreenPlum реализация отчетов и дашбордов на Apache Superset Внедрение инструментов ИИ-Помощника в продукт «Платформа Сервисы» Внедрения LLM в бизнес-процессы, реализованные на Платформе Реализация ИИ-помощников и ИИ-агентов на базе LLM Обязанности Анализ исходных данных в различных системах и форматах для решения бизнес-задач (оценка структуры, качества, полноты и применимости данных); Загрузка, очистка и трансформация больших объемов данных из различных источников (RDBMS, Hadoop, плоские файлы) в рабочую область (платформы Teradata и Hadoop) Проектирование и разработка аналитических витрин данных для целей отчетности и моделирования Мониторинг и оптимизация процессов загрузки, преобразования данных и сборки витрин Контроль качества загружаемых данных, разработка автоматизированных инструментов для оценки качества данных Разработка, поддержка и оптимизация инфраструктуры и внутренних сервисов для обработки больших объемов данных Разработка инструментов для автоматизации рутинных задач, связанных с обработкой данных Разработка и поддержка сопроводительной документации и спецификаций данных, развитие и поддержка базы знаний по вопросам работы с данными Требования Анализ исходных данных в различных системах и форматах для решения бизнес-задач (оценка структуры, качества, полноты и применимости данных); Загрузка, очистка и трансформация больших объемов данных из различных источников (RDBMS, Hadoop, плоские файлы) в рабочую область (платформы Teradata и Hadoop) Проектирование и разработка аналитических витрин данных для целей отчетности и моделирования Мониторинг и оптимизация процессов загрузки, преобразования данных и сборки витрин Контроль качества загружаемых данных, разработка автоматизированных инструментов для оценки качества данных Разработка, поддержка и оптимизация инфраструктуры и внутренних сервисов для обработки больших объемов данных Разработка инструментов для автоматизации рутинных задач, связанных с обработкой данных Разработка и поддержка сопроводительной документации и спецификаций данных, развитие и поддержка базы знаний по вопросам работы с данными Условия Коммерческий опыт в data разработке/аналитике от 3х лет Приветствуется опыт работы с экосистемой Hadoop (HDFS, Hive, Spark, Impala, HBase, YARN) Навыки программирования на Python (опционально) и SQL Навыки работы с реляционными СУБД PostgreSQL Опыт работы с GreenPlum Фундаментальные знания принципов Реляционных баз данных, построения распределенных систем хранения и обработки данных Приветствуется опыт работы с промышленными ETL-инструментами (Informatica, ODI, SAP DataService)