Text copied to clipboard!

Заглавие

Text copied to clipboard!

Инженер по Hadoop

Описание

Text copied to clipboard!
Търсим Инженер по Hadoop, който да се присъедини към нашия екип и да играе ключова роля в проектирането, внедряването и поддръжката на мащабируеми решения за обработка на големи данни. Като част от нашата технологична структура, вие ще работите с различни екипи за разработка, анализ и поддръжка, за да осигурите надеждност, сигурност и ефективност на нашите Hadoop клъстери и свързаните с тях инструменти. Вашата роля ще включва анализ на изискванията на бизнеса, създаване на архитектурни решения, автоматизация на процеси и оптимизация на производителността на системите. Ще бъдете отговорни за интеграцията на Hadoop с други платформи за данни, както и за мониторинг и разрешаване на инциденти, свързани с инфраструктурата. Освен това ще участвате в процесите по осигуряване на сигурността на данните, управление на достъпа и прилагане на най-добрите практики за работа с чувствителна информация. Вашите ежедневни задачи ще включват писане на скриптове за автоматизация, настройка на клъстери, работа с HDFS, MapReduce, Hive, Pig, Spark и други компоненти на Hadoop екосистемата. Ще работите в тясно сътрудничество с DevOps и Data Science екипи, за да осигурите безпроблемна интеграция и поддръжка на инфраструктурата. Успешният кандидат трябва да има силни аналитични умения, опит с Linux системи, познания по програмиране (Java, Python или Scala) и желание за непрекъснато учене и развитие. Ако сте мотивиран, комуникативен и имате страст към работата с големи данни, ще се радваме да се присъедините към нашия екип.

Отговорности

Text copied to clipboard!
  • Проектиране, внедряване и поддръжка на Hadoop клъстери
  • Мониторинг и оптимизация на производителността на системите
  • Интеграция на Hadoop с други платформи за данни
  • Автоматизация на процеси чрез скриптове и инструменти
  • Осигуряване на сигурност и управление на достъпа до данни
  • Разрешаване на технически инциденти и поддръжка на инфраструктурата
  • Сътрудничество с други екипи за реализиране на бизнес изисквания
  • Документиране на архитектурни решения и процеси
  • Участие в процеси по бекъп и възстановяване на данни
  • Обучение и подпомагане на по-малко опитни колеги

Изисквания

Text copied to clipboard!
  • Висше образование в областта на компютърните науки или сходна специалност
  • Опит с Hadoop екосистемата (HDFS, MapReduce, Hive, Pig, Spark)
  • Умения за работа с Linux/Unix операционни системи
  • Познания по програмиране (Java, Python или Scala)
  • Опит с инструменти за автоматизация и скриптове (Bash, Shell, Ansible)
  • Разбиране на концепциите за сигурност и управление на достъпа
  • Аналитично мислене и умения за решаване на проблеми
  • Добри комуникационни умения и работа в екип
  • Желание за учене и развитие в областта на големите данни
  • Предимство е опит с облачни платформи (AWS, Azure, GCP)

Потенциални въпроси за интервю

Text copied to clipboard!
  • Какъв е вашият опит с Hadoop и свързаните технологии?
  • Работили ли сте с HDFS, MapReduce, Hive или Spark?
  • Как подхождате към оптимизацията на производителността на Hadoop клъстер?
  • Имате ли опит с автоматизация на процеси чрез скриптове?
  • Как осигурявате сигурността на данните в Hadoop среда?
  • Можете ли да опишете случай, в който сте разрешили критичен инцидент?
  • Какви програмни езици използвате най-често?
  • Имате ли опит с облачни платформи и интеграция с Hadoop?
  • Как се справяте с работа под напрежение и кратки срокове?
  • Какви са вашите очаквания за професионално развитие?