Если просят войти через iCloud, отправить коды из SMS, запустить код, что-то установить, перевести деньги или сделать что угодно, связанное с деньгами, не соглашайтесь: это признаки мошенничества.
Product Owner
генерация резюме
сопроводительное письмо
описание
AI VK развивает технологии искусственного интеллекта для ключевых продуктов VK, создаёт систему рекомендаций и поиска контента на платформах.
задачи
- Определять стратегию, цели и приоритеты развития Data Platform в части инструментов для работы с данными — LLM-agent, self-service ETL, Предсконфигурированные Jupyter-ноутбуки, Единый оркестратор, Банк метрик, Единый Git, DataHub.
- Быть центром коммуникации для всех заказчиков продуктов, управлять их ожиданиями и бэклогом core-разработки.
- Выстраивать централизирующую функцию инструментов Data Platform для бизнес-юнитов и команд.
- Совместно с командами core-разработки формулировать цели, архитектурные решения и требования к системам.
- Отвечать за верхнеуровневую архитектуру, CJM, взаимную интеграцию и целостность экосистемы инструментов.
- Формировать и поддерживать синхронизированные бэклоги по каждому инструменту.
- Управлять приоритизацией задач, контролировать выполнение, влиять на ход разработки в матричной структуре.
- Отвечать за аудиторные метрики над данными и инструментами, строить контроль и мониторинг их качества.
- Развивать культуру продуктового подхода в инженерных командах.
- Работать руками с инструментами — тестировать фичи, проверять сценарии использования, вносить улучшения.
требования
- Глубоко понимать принципы построения ETL-инфраструктуры, работы с оркестраторами, CI/CD-практик для data pipelines, управления схемами и метаданными, RAG систем и LLM-агентов.
- Иметь практический опыт в архитектуре и проектировании инструментов самообслуживания для data-инженеров и аналитиков.
- Иметь опыт руководства командами или направлениями не менее 2 лет, уметь ставить цели и управлять приоритетами в матричной структуре.
- Уметь работать на стыке: понимать технические детали до уровня кода и инфраструктуры, мыслить как продукт.
- Понимать архитектуру data mesh, data platform, data governance, принципы lineage, каталогов метаданных и управления качеством данных.
- Иметь развитые навыки коммуникации и фасилитации.
- Будет плюсом знание Airflow, Spark, dbt, Prefect, Jupyter, Kafka и аналогов.
условия
- Гибкий график работы.
- Бонусы и скидки от партнеров.
- Офис в центре города.
- ДМС.
- Профессиональная команда.
навыки