Text copied to clipboard!

Titel

Text copied to clipboard!

Data Pipeline Ingeniør

Beskrivelse

Text copied to clipboard!
Vi søger en erfaren og engageret Data Pipeline Ingeniør til at designe, udvikle og vedligeholde robuste og skalerbare data pipelines, der understøtter vores forretningskritiske beslutningsprocesser. Som Data Pipeline Ingeniør vil du spille en central rolle i vores data engineering-team og arbejde tæt sammen med data scientists, softwareudviklere og forretningsanalytikere for at sikre, at data flyder effektivt og sikkert gennem vores systemer. Du vil være ansvarlig for at opbygge og optimere dataarkitekturer, automatisere dataindsamling og -transformation, samt sikre datakvalitet og -tilgængelighed. Du skal have erfaring med moderne dataplatforme, cloud-teknologier og programmeringssprog som Python eller Scala. Kendskab til værktøjer som Apache Airflow, Kafka, Spark og databaser som Snowflake, BigQuery eller Redshift er en fordel. Stillingen kræver en stærk forståelse for dataintegration, ETL-processer og data governance. Du skal kunne arbejde selvstændigt og i teams, og være i stand til at kommunikere tekniske løsninger klart til både tekniske og ikke-tekniske interessenter. Vi tilbyder et dynamisk arbejdsmiljø med mulighed for faglig udvikling, fleksible arbejdstider og adgang til de nyeste teknologier. Hvis du brænder for data engineering og ønsker at være med til at forme fremtidens datainfrastruktur, vil vi meget gerne høre fra dig.

Ansvarsområder

Text copied to clipboard!
  • Designe og implementere skalerbare data pipelines
  • Automatisere dataindsamling og -transformation
  • Sikre datakvalitet og -integritet
  • Samarbejde med data scientists og udviklere
  • Overvåge og optimere pipeline-ydeevne
  • Dokumentere dataprocesser og arkitektur
  • Implementere data governance og sikkerhedsstandarder
  • Fejlsøge og løse tekniske problemer
  • Integrere data fra forskellige kilder og systemer
  • Bidrage til valg og implementering af nye teknologier

Krav

Text copied to clipboard!
  • Bachelor- eller kandidatgrad i datalogi, softwareudvikling eller lignende
  • Erfaring med ETL-processer og dataintegration
  • Stærke programmeringsevner i Python, Scala eller Java
  • Kendskab til cloud-platforme som AWS, GCP eller Azure
  • Erfaring med databaser som Snowflake, BigQuery eller Redshift
  • Kendskab til værktøjer som Apache Airflow, Kafka og Spark
  • Forståelse for data governance og sikkerhed
  • Evne til at arbejde i tværfunktionelle teams
  • Gode kommunikationsevner på dansk og engelsk
  • Analytisk tankegang og problemløsningsevner

Mulige interviewspørgsmål

Text copied to clipboard!
  • Hvilke dataplatforme og værktøjer har du erfaring med?
  • Kan du beskrive en kompleks data pipeline, du har bygget?
  • Hvordan sikrer du datakvalitet i dine løsninger?
  • Har du erfaring med cloud-baserede dataløsninger?
  • Hvordan håndterer du fejl og undtagelser i pipelines?
  • Hvordan dokumenterer du dine dataflows og arkitektur?
  • Hvordan samarbejder du med ikke-tekniske interessenter?
  • Hvilke sikkerhedsforanstaltninger implementerer du i dine pipelines?
  • Hvordan holder du dig opdateret med nye teknologier?
  • Hvad motiverer dig ved at arbejde med data engineering?