Wir suchen einen Data Developer mit Schwerpunkt Databricks, der für die Entwicklung, Optimierung und Verwaltung von Datenpipelines auf Spark, Delta Lake und Unity Catalog verantwortlich ist. Die Tätigkeit konzentriert sich auf die Arbeit mit sehr großen Datensätzen (Hunderte Millionen Zeilen, Terabyte-Volumen), die Leistungsoptimierung und die effiziente Nutzung von Clusterressourcen.