Необходимые навыки
4+ лет опыта на инженерных позициях (Spark Developer, Big Data Developer etc..)
Опыт и знания практик DevOps (Docker, мониторинг инфраструктуры) Опыт работы с внутренними/внешними клиентами
Опыт работы и знание минимум в 2х областях из: Apache Hadoop, Data Lake/Delta Lake, Apache Spark, Apache Kafka, Apache Ignite
Опыт разработки на Python3 или Java ( Если Java, то желание вникать в работу проектов на PySpark, Python/Airflow)
Предлагаем
— возможность работать над масштабным проектом с нуля
— мы не привязываемся к офису, готовы сотрудничать удаленно
— есть медицинская страховка; компенсация спортивных клубов и школ иностранных языков; есть скидки в сети «Сильпо», наших ресторанах и аптеках
— у нас есть внутреннее обучение (ИТ и не только)
— расположение офиса на Левом берегу, Березняки БЦ Сильвер Бриз. У нас есть отлично оборудованные коворкинги, для желающих поработать в офисной обстановке
Обязанности
• Тестирование, развертывание и поддержка озера данных (Apache Hadoop, Apache Spark)
• Создание и мониторинг ELT процессов (Apache Spark, Apache Kafka)
• Создание и поддержка инфраструктуры для Business Intelligence & Data Science практик в компании
О проекте
Наш проект заключается в разработке дата платформы, куда будут стекаться все аналитические данные компании. Это отличная возможность участвовать в запуске и работе большого Hadoop/Spark кластера и в одной из самых интересных BI практик в Восточной Европе