Green Wave Palace
сегодня

ai engineer

в пределах рынка
вакансия 240 000 ₽
в среднем 234 000 ₽
мэтч
Добавь резюме в профиле, чтобы видеть % мэтча с вакансией

сопроводительное письмо

Добавь резюме в профиле, а нейросеть определит твою категорию. Затем ты сможешь генерировать сопроводительные письма для вакансий этой категории

описание

Green Wave Palace создает нативные мобильные приложения и веб-платформы для бизнеса, а также сопровождает их. Проектировать и внедрять продукционные LLM-сервисы: от ingestion и индексирования данных до генерации ответов и обратной связи пользователей.

задачи

  • Проектировать и внедрять продукционные LLM-сервисы: от ingestion и индексирования данных до генерации ответов и обратной связи пользователей
  • Строить RAG-пайплайны: гибридный поиск (векторный + BM25), сжатие контекста, переранжирование (cross-encoder/learning-to-rank), фильтрация по метаданным
  • Оркестрировать агентные сценарии (LangChain / LangGraph): планирование шагов, вызов инструментов, обработка ошибок и фолбэков
  • Поднимать/подключать MCP-серверы и публиковать tools/resources/prompts для хоста (например, Claude/ChatGPT/IDE), обеспечивать безопасность и аутентификацию MCP
  • Выполнять оценку качества: автоматические и человек-в-контуре (groundedness, factuality, relevance, hallucination rate)
  • Разрабатывать и поддерживать REST/HTTP API (FastAPI, async/await), сервисные интеграции и очереди фоновой обработки
  • Обеспечивать надежность и безопасность: контроль PII, guardrails, валидация и санитизация входных данных

требования

  • Python 3.x: асинхронщина (asyncio/httpx), типизация, Pydantic, FastAPI, SQLAlchemy; уверенный практический опыт продакшн-бэкенда
  • Опыт построения RAG: выбор эмбеддингов (OpenAI, e5, BGE и др.), стратегия чанкинга/оверлапа, индексация и обновление индексов, векторные БД (FAISS, Pinecone, Weaviate), гибридный поиск и переранжирование
  • LangChain/LangGraph или любой другой агентский фреймворк; умение собирать цепочки/графы, подключать инструменты, внешние API и хранилища
  • Работа с несколькими LLM-провайдерами (OpenAI, Anthropic, Mistral, Gemini, др.), маршрутизация моделей и фолбэки; базовая настройка токен-параметров и системных промптов
  • Практика оценки и наблюдаемости: метрики качества, латентности и стоимости; умение построить простую eval-линию
  • Будет плюсом LLMOps/Observability (Langfuse/Arize Phoenix, Promptfoo/Ragas, cost & latency dashboards, трейсинг цепочек), поиск (Elasticsearch/OpenSearch, гибридный (BM25 + dense), внешние reranker-модели (например, cross-encoder/Cohere ReRank)), облака и инфраструктура (AWS/GCP/Azure (в т.ч. Azure OpenAI/Bedrock/Vertex), Docker/K8s, очереди (Celery/Kafka), Redis) и мультимодальность (VLM), OCR, извлечение структурированных фактов из документов

условия

  • Возможность удалённой работы
Telegram Добавить в отклики