Добавь резюме в профиле, а нейросеть определит твою категорию. Затем ты сможешь генерировать сопроводительные письма для вакансий этой категории
data analyst
сопроводительное письмо
описание
Вам нужно будет работать с данными от 2 лет опыта, уверенно использовать PySpark с DataFrame API и понимать ленивые вычисления, трансформации и действия, строить витрины и пайплайны в PySpark, разбираться в принципах Spark кластера включая драйвер, executors, партиционирование и их влияние на производительность, владеть сложным SQL с JOIN, оконными функциями и подзапросами, взаимодействовать с продуктом и бизнесом формулируя задачи, определяя метрики и поддерживая решения цифрами.
требования
- От 2 лет опыта работы с данными как аналитик, инженер данных или продуктовый аналитик
- Опыт регулярной работы с PySpark: DataFrame API, базовое понимание ленивых вычислений и разницы между трансформациями и действиями
- Уверенный SQL: сложные JOIN, оконные функции, подзапросы для агрегаций и выборки последних или первых записей
- Опыт построения витрин и пайплайнов в PySpark
- Понимание принципов работы Spark кластера на базовом уровне: драйвер, executors, партиционирование данных и влияние на производительность
- Опыт взаимодействия с продуктом и бизнесом: формулирование аналитических задач, определение метрик, поддержка решений цифрами
условия
- Офисы в Москве и Санкт-Петербурге