Text copied to clipboard!
Tittel
Text copied to clipboard!Data Pipeline Ingeniør
Beskrivelse
Text copied to clipboard!
Vi leter etter en dyktig og motivert datapipeline-ingeniør som kan designe, utvikle og vedlikeholde effektive og skalerbare datapipelines. Som datapipeline-ingeniør vil du spille en sentral rolle i vår datainfrastruktur og sikre at data flyter sømløst mellom ulike systemer og plattformer. Du vil samarbeide tett med dataanalytikere, dataforskere og programvareutviklere for å sikre at dataene er tilgjengelige, pålitelige og optimalisert for analyse og innsikt.
Stillingen krever solid erfaring med moderne dataplattformer, ETL-prosesser (Extract, Transform, Load), og skybaserte løsninger som AWS, Azure eller Google Cloud. Du bør ha god forståelse for databaser, både relasjonelle og ikke-relasjonelle, samt erfaring med programmeringsspråk som Python, Scala eller Java. Kjennskap til verktøy som Apache Airflow, Kafka, Spark eller dbt er en stor fordel.
Som datapipeline-ingeniør vil du være ansvarlig for å utvikle og vedlikeholde automatiserte dataprosesser, overvåke datakvalitet og ytelse, samt identifisere og løse eventuelle flaskehalser i databehandlingen. Du vil også bidra til å forbedre eksisterende arkitektur og implementere beste praksis for dataintegrasjon og datasikkerhet.
Vi ser etter en person som er analytisk, strukturert og har en sterk interesse for datateknologi. Du bør være komfortabel med å jobbe i et tverrfaglig team og ha evne til å kommunisere tekniske konsepter på en forståelig måte til både tekniske og ikke-tekniske interessenter.
Hvis du ønsker å være en del av et innovativt og fremtidsrettet miljø hvor data står i sentrum, og du har lidenskap for å bygge løsninger som gir verdi, oppfordrer vi deg til å søke.
Ansvarsområder
Text copied to clipboard!- Designe og implementere skalerbare datapipelines
- Automatisere ETL-prosesser for dataintegrasjon
- Overvåke og forbedre datakvalitet og ytelse
- Samarbeide med dataanalytikere og utviklere
- Optimalisere eksisterende datainfrastruktur
- Sikre datasikkerhet og etterlevelse av retningslinjer
- Feilsøke og løse problemer i databehandlingsprosesser
- Dokumentere pipeline-arkitektur og prosesser
- Implementere beste praksis for databehandling
- Jobbe med skyplattformer som AWS, Azure eller GCP
Krav
Text copied to clipboard!- Bachelorgrad i informatikk, ingeniørfag eller tilsvarende
- Erfaring med ETL-verktøy og dataprosessering
- God kunnskap om databaser (SQL og NoSQL)
- Erfaring med programmering i Python, Scala eller Java
- Kjennskap til verktøy som Apache Airflow, Spark eller Kafka
- Erfaring med skyplattformer (AWS, Azure, GCP)
- Sterke analytiske og problemløsningsevner
- Evne til å jobbe selvstendig og i team
- God muntlig og skriftlig kommunikasjonsevne
- Erfaring med versjonskontrollsystemer som Git
Potensielle intervjuspørsmål
Text copied to clipboard!- Hvilken erfaring har du med å bygge datapipelines?
- Hvilke ETL-verktøy har du brukt tidligere?
- Har du erfaring med skyplattformer? Hvilke?
- Hvordan sikrer du datakvalitet i pipeline-prosesser?
- Kan du beskrive en utfordrende pipeline du har jobbet med?
- Hvilke programmeringsspråk behersker du best?
- Hvordan håndterer du feil og avvik i databehandling?
- Har du erfaring med sanntidsdatabehandling?
- Hvordan dokumenterer du pipeline-arkitektur?
- Hva motiverer deg til å jobbe med datainfrastruktur?