Если просят войти через iCloud, отправить коды из SMS, запустить код, что-то установить, перевести деньги или сделать что угодно, связанное с деньгами, не соглашайтесь: это признаки мошенничества.
platform engineer
генерация резюме
сопроводительное письмо
описание
Описания нет
задачи
- Администрировать и сопровождать Data Platform (Arenadata DB / Greenplum, Kafka, ClickHouse);
- Управлять кластерами хранения и обработки данных;
- Настраивать и поддерживать отказоустойчивость (HA), репликации, балансировку;
- Управлять обновлениями, патчами и релизами;
- Администрировать Kafka-кластеры (topology, partitioning, replication, retention);
- Тюнить producer/consumer, работать с lag и производительностью;
- Поддерживать потоковые ETL и ingestion pipelines;
- Интегрировать платформу с DWH, BI и ML-системами;
- Поддерживать и развивать контуры передачи и обработки данных между системами;
- Участвовать в обеспечении стабильности data pipelines;
- Мониторить платформу (Prometheus, Grafana, ELK/OpenSearch);
- Анализировать производительность (SQL, storage, network);
- Оптимизировать запросы и работу кластеров;
- Реагировать на инциденты (L2/L3), проводить root cause analysis;
- Автоматизировать эксплуатацию (Bash / Python / Ansible / Terraform);
- Развивать CI/CD для инфраструктуры данных;
- Управлять конфигурациями (Infrastructure as Code);
- Настраивать RBAC и контроль доступа;
- Подготавливать документацию и инструкции;
- Передавать знания и участвовать в менторстве.
требования
- Опыт администрирования Data Platform / Big Data / DWH от 3 лет;
- Уверенное знание Linux (RHEL/CentOS/Ubuntu) на уровне системного администрирования;
- Практический опыт эксплуатации production-кластеров: Arenadata DB / Greenplum (или аналогичные MPP-системы), Apache Kafka (обязательно с опытом администрирования, не только использования), ClickHouse;
- Понимание распределенных систем: репликация, партиционирование, отказоустойчивость, сетевые взаимодействия (TCP/IP), storage;
- Опыт работы с PostgreSQL / Greenplum архитектурой, оптимизацией SQL-запросов;
- Практика работы с Kafka: настройка топиков и retention policy, работа с replication / partitioning, performance tuning producer/consumer;
- Навыки автоматизации: Bash и/или Python, Ansible и/или Terraform;
- Опыт мониторинга: Prometheus, Grafana, ELK / OpenSearch;
- Опыт работы с инцидентами: L2/L3 support, root cause analysis;
- Будет плюсом Docker / Kubernetes, Hadoop ecosystem, Spark / Flink, Airflow, опыт работы с высоконагруженными enterprise DWH, опыт в промышленности / телекоме / финтехе.
условия
- Сотрудничество по ИП РФ.
навыки