Preferences

Privacy is important to us, so you have the option of disabling certain types of storage that may not be necessary for the basic functioning of the website. Blocking categories may impact your experience on the website. More information

Accept all cookiesClose button

These items are required to enable basic website functionality.

Always active

These items are used to deliver advertising that is more relevant to you and your interests.

These items allow the website to remember choices you make (such as your user name, language, or the region you are in) and provide enhanced, more personal features.

These items help the website operator understand how its website performs, how visitors interact with the site, and whether there may be technical issues.

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Cookies

Datenentwickler - Databricks

Hybrid
Full-time
Contractor
nach Vereinbarung
Entwickler

Im Allgemeinen

Wir suchen einen Data Developer mit Schwerpunkt Databricks, der für die Entwicklung, Optimierung und Verwaltung von Datenpipelines auf Spark, Delta Lake und Unity Catalog verantwortlich ist. Die Tätigkeit konzentriert sich auf die Arbeit mit sehr großen Datensätzen (Hunderte Millionen Zeilen, Terabyte-Volumen), die Leistungsoptimierung und die effiziente Nutzung von Clusterressourcen.

Mission

  • Entwicklung und Optimierung von Datenpipelines in Apache Spark auf der DatabricksPlattform
  • Arbeit mit dem Unity Catalog und Verwaltung von Datenobjekten im Rahmen des Governance-Modells
  • Optimierung der Pipeline-Performance für Tabellen mit über 500 Millionen Zeilen und mehr als 1 TB Daten
  • Optimierung und Konfiguration von Databricks-Clustern für maximale Effizienz und Ressourcennutzung
  • Optimierung von Delta LakeTabellen (Layout, Partitionierung, Z-Sortierung, VACUUM, Komprimierung)
  • Zusammenarbeit mit Architekten, Data Engineers und Analysten bei der Entwicklung der Datenplattform

Fähigkeiten

  • Mindestens 1 Jahr Erfahrung mit dem Unity Catalog
  • Mindestens 2 Jahre Erfahrung in mindestens 2 Projekten mit:
    • Optimierung von Spark-Pipelines
    • Arbeit mit Tabellen mit mindestens 500 Millionen Zeilen und mehr als 1 TB Daten 500 Millionen Zeilen
    • Arbeiten mit Daten von mindestens 1 TB
    • Optimierung der ClusterEinstellungen für maximale Ressourcennutzung
  • Mindestens 2 Jahre Erfahrung mit dem Delta Lake Debugging von Tabellen mit > 1 TB

Vorteil

  • Erfahrung mit Azure (ADF, Synapse, Data Lake Storage)
  • Kenntnisse in CI/CD für Datenpipelines
  • Erfahrung mit der Leistungsüberwachung von Spark-Jobs
  • Erfahrung im Finanzsektor

Vorteile

  • Tolle Kollegen und flexible Arbeitszeiten
  • Karrierecoaching und -entwicklung
  • Flexible Arbeitszeiten
  • Technische Schulungen und Workshops
  • Arbeitsmittel (Mac/Windows)
  • Firmenfeiern
  • Betriebspsychologe für psychisches Wohlbefinden
  • Multisportkarte
Ich bin an dieser Stelle interessiert