Data engineer - Detachering opdracht in Gelderland

Het Kadaster
Direct solliciteren Let op! De opdracht sluit over 3 dagen

Opdrachtomschrijving

Kadaster
Het Kadaster registreert en verstrekt gegevens over de ligging van vastgoed in Nederland en de daarmee samenhangende rechten, zoals eigendom en hypotheek. Als zelfstandig bestuursorgaan is dat onze wettelijke taak. Onze gegevens bieden houvast bij het onderzoeken van maatschappelijke vraagstukken, of het nu gaat om de beste route voor een nieuwe snelweg, actuele ontwikkelingen op de woningmarkt of het in beeld brengen van leegstand.

Opdracht
De organisatie is bezig met de ontwikkeling van een toekomstbestendig dataplatform binnen het DAMA-DMBOK raamwerk en zoekt ondersteuning in de vorm van een ervaren data engineer. De opdracht wordt uitgevoerd binnen een scrumteam, bestaande uit onder meer data engineers en een solution architect.
Het omvat het ontwerpen, bouwen en beheren van een schaalbaar, veilig en gebruiksvriendelijk dataplatform. Het platform moet stabiele toegang tot data bieden en aansluiten bij de behoeften van data-analisten, data scientists en andere gebruikers binnen de organisatie.
De werkzaamheden richten zich op het ontwikkelen van data pipelines en workflows in onder andere Azure Data Factory en Databricks. Daarnaast wordt verwacht dat je actief meedenkt over en bijdraagt aan schaalbare en onderhoudbare platformcomponenten, en bestaande oplossingen beheert en optimaliseert. Ook het adviseren over verbeteringen op het gebied van architectuur, beveiliging en datagebruik. Bij een toekomstbestendig platform hoor ook AI en machine learning toepassingen hiervoor wordt ook een bijdrage gevraagd.
De opdracht vereist een mate van zelfstandigheid en eigenaarschap. Tegelijkertijd wordt verwacht dat je actief meedenkt over toekomstige toepassingen en verbeteringen binnen het platformlandschap.

Belangrijkste technieken, methoden en tools

  • Microsoft Azure Cloud
  • Databricks / Unity Catalog
  • Azure Data Factory
  • Kubernetes
  • Python / PySpark
  • SQL
  • Git (Devops / Gitea)
  • Terraform scripting
  • Medaillon architecture
  • ETL / ELT pipelines
  • Microsoft Well Architected Framework
  • Infrastructure as Code
  • Private en public cloud data oplossingen
  • Agile werken
  • Projectmatig werken

Verantwoordelijkheden
Hier zijn enkele belangrijke verantwoordelijkheden:

  • Opzetten, beheren en optimaliseren van het data platform zoals Databricks
  • Data pipelines ontwikkelen en onderhouden
  • Implementeren van kwaliteit, performance, security en governance standaarden
  • Meedenken en integreren van verschillende data technologieën en/of processen
  • Samenwerking met andere engineers, analisten, data scientisten en architecten

Taken
Ontwerp en bouwen aan de hand van Microsoft, Databricks en de Kadaster richtlijnen

  • Beheren en optimaliseren van schaalbare en efficiënte data applicatie landschap zoals Databricks en Azure Data Factory
  • Bouwen en adviseren over clusterconfiguratie, data pipelines, Delta Lake-strategieën, en ML/AI-workloads
  • Opzetten van best practices voor performance, resourcegebruik, kostenoptimalisatie en beveiliging binnen het data platform
  • Zorgen voor naadloze integratie met cloudomgevingen zoals Azure
  • Koppelingen maken met databases, API’s, data lakes, ETL-pipelines en BI-tools
  • Infrastructure as code schrijven zoals Terraform
  • Bouwen van CI/CD-processen voor notebooks, jobs en pipelines
  • Zorgen voor data governance en naleving van security policies
  • Implementeren en evalueren van audit logging en monitoring
  • Adviseren en samenwerken met data scientisten en engineers om code of processen efficiënter te maken
  • Assisteren bij troubleshooting en probleemoplossing
  • Documenteren van oplossingen en best practices

Competenties
– Analytisch
– Oplossingsgerichtheid
– Resultaatgerichtheid
– Nauwkeurig
– Communicatief zowel schriftelijk als mondeling sterk
– Sterke samenwerkingsvaardigheden
– Kwaliteitsgericht
– Klantgericht
– Proactief en initiatiefrijk
– Probleemoplossend vermogen en het vermogen om onder druk te werken

Eisen

  • Door de kandidaat zélf geschreven CV en motivatiebrief
  • Hbo- of wo-werk- en -denkniveau
  • Het CV dient in het Nederlands te zijn opgesteld en mag niet langer zijn dan maximaal 6 pagina’s A4
  • Minimaal 1 jaar ervaring met Databricks
  • Minimaal 1 jaar ervaring met Python en SQL
  • Minimaal 2 jaar Azure ervaring
  • Minimaal 2 jaar ervaring in een vergelijkbare functie als Data Engineer

Wensen

  • Azure en/of Databricks certificeringen zijn een pluspunt. Geen onderscheid in hoeveel of welke certificaten. Voorkeur heeft Azure DP-203 en/of Databricks Data Engineer associate
  • Bekendheid met overheid compliance-normen zoals ISO 27001, GDPR, AVG en andere relevante voorschriften
  • aantoonbaar 1 of meer jaren ervaring met Terraform
  • aantoonbaar 2 of meer jaren ervaring met Databricks
  • aantoonbaar 3 of meer jaren ervaring als data engineer
  • aantoonbaar 3 of meer jaren ervaring in Azure
  • aantoonbaar Minimaal 1 jaar ervaring met Kubernetes
  • aantoonbaar Minimaal 2 jaar ervaring met Azure Data Factory (ADF)

Vul je gegevens hieronder in, dan nemen we binnen 2 uur contact met je op om samen te kijken of er een match is. Heb je nog vragen? Bel ons op verborgenof stuur een e-mail naar We helpen je graag verder!

Opdrachtvereisten

De opdrachtgever heeft eisen en wensen doorgegeven waaraan een kandidaat moet voldoen. Hieronder vind je een overzicht van de belangrijkste punten, zodat je een goed beeld krijgt van de opdracht.

Eisen opdrachtgever

  • Door de kandidaat zélf geschreven CV en motivatiebrief
  • Hbo- of wo-werk- en -denkniveau
  • Het CV dient in het Nederlands te zijn opgesteld en mag niet langer zijn dan maximaal 6 pagina’s A4
  • Minimaal 1 jaar ervaring met Databricks
  • Minimaal 1 jaar ervaring met Python en SQL
  • Minimaal 2 jaar Azure ervaring
  • Minimaal 2 jaar ervaring in een vergelijkbare functie als Data Engineer

Wensen opdrachtgever

  • Azure en/of Databricks certificeringen zijn een pluspunt. Geen onderscheid in hoeveel of welke certificaten. Voorkeur heeft Azure DP-203 en/of Databricks Data Engineer associate
  • Bekendheid met overheid compliance-normen zoals ISO 27001, GDPR, AVG en andere relevante voorschriften
  • aantoonbaar 1 of meer jaren ervaring met Terraform
  • aantoonbaar 2 of meer jaren ervaring met Databricks
  • aantoonbaar 3 of meer jaren ervaring als data engineer
  • aantoonbaar 3 of meer jaren ervaring in Azure
  • aantoonbaar Minimaal 1 jaar ervaring met Kubernetes
  • aantoonbaar Minimaal 2 jaar ervaring met Azure Data Factory (ADF)

Sollicitatie procedure

Vind opdracht
Solliciteren
Reactie
Start opdracht
  1. Vind een opdracht die bij je past

    Bekijk het actuele overzicht van beschikbare opdrachten en ontdek wat aansluit bij jouw profiel en ambities. Heb je iets interessants gevonden? Klik dan door voor meer informatie en details over de opdracht.

  2. Solliciteer direct

    Klaar om te solliciteren? Met één klik stuur je jouw profiel naar de opdrachtgever of partner.

  3. Reactie van de opdrachtgever

    Na je sollicitatie neemt de opdrachtgever of partner contact met je op. Je hoort of je wordt uitgenodigd voor een gesprek, of dat je eventueel in aanmerking komt voor een andere opdracht.

  4. Start met je opdracht

    Ben je geselecteerd? Gefeliciteerd! Je kunt snel aan de slag en samen met de opdrachtgever duidelijke afspraken maken over de startdatum, voorwaarden en verwachtingen.

Direct solliciteren Let op! De opdracht sluit over 3 dagen