Cloud/Data Engineer

  • 36 uur
  • Utrecht (RVO)
  • 01-06-2026
  • 7 maanden
  • Deadline: 18-05-2026

Voor onze klant RVO zijn wij op zoek naar een Cloud/Data Engineer

Opdrachtomschrijving

Jouw rol als Cloud/Data Engineer:
- Als Cloud/Data Engineer: Je houdt je bezig met de realisatie van schaalbare, efficiënte en veilige data-platforms in de Azure-cloud, waarbij Databricks
een centrale plek inneemt. Je werkt nauw samen met data scientists, ML engineers en business stakeholders aan oplossingen die techniek, beleid en
concrete waarde voor Nederland verbinden.

- Data Architectuur Modellering: Je houdt je bezig met het inrichten van de Medaillon Architectuur (Bronze, Silver, Gold) binnen Databricks. Je bent
sterk in het vertalen van complexe business logica naar helder gestructureerde datasets, bij voorkeur volgens Kimball (dimensioneel modelleren), en
weet robuuste goud-lagen te bouwen. Het gebruik van Metric Views is je bekend, zodat rapportages en analyses altijd op de juiste dataset steunen.

- Engineering Transformaties: Je houdt je bezig met het ontwikkelen van robuuste datapijplijnen met PySpark en SQL, en je kent de mogelijkheden
van Spark Declarative Pipelines (SDP). Met diepgaande kennis van dbt (data build tool) ontwerp je modulaire en onderhoudbare transformaties.

- Storage Performance-optimalisatie: Je houdt je bezig met het maximaliseren van de platform-performance. Dat doe je door het inzetten van de
juiste Databricks compute clusters en het benutten van schaalmogelijkheden. Je bent goed op de hoogte van optimalisaties binnen Delta Lake, zoals
Partitioning, Clustering, Z-Ordering en Liquid Clustering.

- Governance Security: Je houdt je bezig met het inrichten van centrale governance via Unity Catalog. Je implementeert RBAC (Role-Based Access
Control) en je hanteert data security best practices als standaard bij de bouw van oplossingen.

- Platform Deployment: Je houdt je bezig met automatisering en ‘Engineering Excellence’ via Databricks Asset Bundles (DABs) voor betrouwbare en
reproduceerbare deployments. Daarnaast ben je vaardig in het instrumenteren, monitoren en debuggen van Databricks jobs, pijplijnen en
platformcomponenten.

Achtergrond opdracht

De wereld verandert elke dag en wij veranderen mee. Met meer dan 6.000 RVO’ers werken we iedere dag aan morgen. We ondersteunen, adviseren en
stimuleren ondernemend Nederland. Nationaal en internationaal, want ons werk stopt niet bij de grens.

Grote uitdagingen
We helpen ondernemers en organisaties met innoveren en verduurzamen. Samen werken we aan:

- De verduurzaming van onze energievoorzieningen.
- Het tegengaan van klimaatverandering.
- Een omslag naar een duurzaam landbouw- en voedselsysteem.
- Een sterke digitale economie.

Het zijn grote uitdagingen, maar wij geloven dat het mogelijk is. Daarom verbinden we ondernemers, overheden en organisaties om te bouwen aan het
Nederland van morgen. We doen het samen.

Waar jij het verschil maakt
Wij maken overheidsbeleid bereikbaar en uitvoerbaar. Van voorlichting, advies en financiering tot het bieden van een luisterend oor voor ondernemers en
organisaties. En dat is nog maar een klein onderdeel van wat we doen. Ondernemend Nederland is ontzettend veelzijdig en daarom zijn wij dat ook.

Functie eisen

  • 3 jaar aantoonbare ervaring in het ontwerpen en bouwen van een cloud data platform met Databricks op Azure en zorgen voor het 
    integreren, opschonen en beschikbaar maken van data voor business intelligence toepassingen aantoonbaar middels cv en/of motivatie
  • 3 jaar aantoonbare ervaring in het ontwerpen en uitwerken van een technische data solution architectuur, met aandacht voor Governance & 
    Security, aantoonbaar middels cv en/of motivatie
  • 2 jaar aantoonbare ervaring  in het ontwikkelen van robuuste datapijplijnen met PySpark en SQL, aantoonbaar middels cv en/of motivatie

Functie wensen

  • Analytisch vermogen
    • Kan complexe datavraagstukken en businesslogica vertalen naar schaalbare data-oplossingen (Medallion, Kimball).
    •  Ziet verbanden tussen brondata, transformaties en eindgebruik (rapportages/AI).
    • Probleemoplossend vermogen
    • Lost performance-, pipeline- en datakwaliteitsproblemen zelfstandig op
    • Maakt onderbouwde keuzes in tooling (Delta Lake optimalisaties, clustering, etc.).
    • Kwaliteitsgerichtheid (Engineering Excellence)
    • Werkt volgens best practices (CI/CD, testing, versioning, IaC).
    • Levert reproduceerbare, onderhoudbare en schaalbare oplossingen. 
  • Kennis van en ervaring met Backend & SQL/Postgres: Met Django ontwikkel je API’s, implementeer je authenticatie en zorg je voor betrouwbare 
    koppelingen met databases, waaronder Postgres.
  • Kennis van en ervaring met Monitoring & MLOps: Je zorgt voor goede monitoring en logging (Application Insights, Databricks metrics) en hebt idealiter ervaring met MLOps (model lifecycle management).
  • Kennis van en ervaring met Microsoft Azure, met name Databricks, Storage, Active Directory en Key Vault.
  • Ervaring om data veilig en compliant te beheren, met aandacht voor toegangscontrole, encryptie en privacywetgeving
  • Kennis en ervaring om betrouwbare en efficiënte data pipelines en platformen te bouwen, integreren en beheren voor analyse en rapportage.
  • Kennis en ervaring met het inrichten van de Medallion Architectuur (Bronze, Silver, Gold) binnen Databricks
  • Kennis en ervaring met de mogelijkheden van Spark Declarative Pipelines (SDP). 
  • In staat om complexe data architecturen te ontwerpen en implementeren, met focus op schaalbaarheid, security en integratie van cloud en data 
    platformen.

Reageer voor 18-05-2026 10:00

Heb je interesse?

Reageer dan via onderstaand formulier of neem contact op met de hiernaast vermelde contactpersoon.