Text copied to clipboard!

Nosaukums

Text copied to clipboard!

Spark izstrādātājs

Apraksts

Text copied to clipboard!
Mēs meklējam pieredzējušu Spark izstrādātāju, kurš pievienotos mūsu datu inženierijas komandai un palīdzētu izstrādāt, optimizēt un uzturēt lielapjoma datu apstrādes risinājumus, izmantojot Apache Spark. Šī loma ir būtiska mūsu uzņēmuma datu infrastruktūras attīstībā, nodrošinot efektīvu un mērogojamu datu plūsmu apstrādi dažādos projektos un nozarēs. Kā Spark izstrādātājs, jūs strādāsiet ciešā sadarbībā ar datu inženieriem, analītiķiem un programmatūras izstrādātājiem, lai izstrādātu un ieviestu datu cauruļvadus, kas apstrādā miljoniem ierakstu dienā. Jūs būsiet atbildīgs par Spark lietojumprogrammu izstrādi, testēšanu un optimizāciju, kā arī par datu kvalitātes un integritātes nodrošināšanu. Ideālais kandidāts ir ar spēcīgām programmēšanas prasmēm (īpaši Scala vai Python), pieredzi darbā ar lielajiem datiem un izpratni par datu arhitektūru un ETL procesiem. Mēs meklējam cilvēku, kurš ir motivēts, analītiski domājošs un spējīgs strādāt gan patstāvīgi, gan komandā. Pienākumi ietver arī sadarbību ar DevOps komandām, lai nodrošinātu nepārtrauktu integrāciju un izvietošanu, kā arī dokumentācijas uzturēšanu un labāko prakšu ievērošanu. Ja jums ir vēlme strādāt dinamiskā vidē, kurā tiek izmantotas jaunākās tehnoloģijas un risinājumi, šī ir lieliska iespēja attīstīt savu karjeru datu inženierijas jomā.

Atbildības

Text copied to clipboard!
  • Izstrādāt un uzturēt Apache Spark lietojumprogrammas
  • Optimizēt datu apstrādes cauruļvadus lieliem datu apjomiem
  • Sadarboties ar datu inženieriem un analītiķiem
  • Nodrošināt datu kvalitāti un integritāti
  • Veikt koda testēšanu un atkļūdošanu
  • Dokumentēt izstrādes procesus un risinājumus
  • Ieviest labākās prakses datu apstrādē
  • Integrēt Spark risinājumus ar citiem datu rīkiem un platformām
  • Atbalstīt datu arhitektūras izstrādi
  • Sadarboties ar DevOps komandām CI/CD procesos

Prasības

Text copied to clipboard!
  • Pieredze darbā ar Apache Spark
  • Zināšanas Scala vai Python programmēšanā
  • Izpratne par ETL procesiem un datu arhitektūru
  • Pieredze darbā ar Hadoop vai līdzīgām platformām
  • Spēja analizēt un optimizēt datu plūsmas
  • Zināšanas par SQL un datubāzēm
  • Spēja strādāt komandā un patstāvīgi
  • Labas komunikācijas prasmes
  • Augsta atbildības sajūta un precizitāte
  • Vēlama pieredze ar mākoņplatformām (AWS, Azure, GCP)

Iespējamie intervijas jautājumi

Text copied to clipboard!
  • Kāda ir jūsu pieredze ar Apache Spark?
  • Kādas programmēšanas valodas jūs pārzināt?
  • Vai jums ir pieredze ar ETL procesu izstrādi?
  • Kā jūs nodrošināt datu kvalitāti savos projektos?
  • Vai esat strādājis ar mākoņplatformām? Kurām?
  • Kā jūs optimizējat Spark lietojumprogrammas?
  • Vai jums ir pieredze ar CI/CD rīkiem?
  • Kā jūs risināt problēmas ar lēnu datu apstrādi?
  • Vai esat strādājis komandā ar datu analītiķiem?
  • Kā jūs dokumentējat savu darbu?