Добавь резюме в профиле, а нейросеть определит твою категорию. Затем ты сможешь генерировать сопроводительные письма для вакансий этой категории
data engineer
сопроводительное письмо
описание
Вам нужно будет заниматься миграцией данных с Spark и Databricks на GCP, работать с BigQuery, Dataflow, Beam, Cloud Composer, Dataplex и Vertex AI, глубоко использовать DBT для больших проектов, писать код на Python с pandas и numpy, продвинутый SQL, конвертировать PySpark в Dataflow/Beam, настраивать Terraform для GCP, CI/CD в GitLab, Docker и Airflow
требования
- Имеете 5+ лет опыта Data Engineer на enterprise-уровне
- Имеете 2–3+ года опыта работы с GCP data stack: BigQuery, Dataflow/Beam, Cloud Composer, Dataplex, Vertex AI
- Имеете реальный опыт миграций Spark/Databricks → GCP
- Глубоко знаете DBT (dbt-core, dbt-bigquery) с большими проектами
- Отлично владеете Python (pandas, numpy) и продвинутым SQL
- Имеете опыт конверсии PySpark → Dataflow/Beam
- Хорошо знаете Terraform для GCP
- Имеете опыт с CI/CD (GitLab), Docker, Airflow
- Будет плюсом опыт миграций BI (QuickSight → BigQuery-инструменты), Dataproc Serverless, понимание data governance на GCP
условия
- Условий в вакансии нет