Preferences

Privacy is important to us, so you have the option of disabling certain types of storage that may not be necessary for the basic functioning of the website. Blocking categories may impact your experience on the website. More information

Accept all cookiesClose button

These items are required to enable basic website functionality.

Always active

These items are used to deliver advertising that is more relevant to you and your interests.

These items allow the website to remember choices you make (such as your user name, language, or the region you are in) and provide enhanced, more personal features.

These items help the website operator understand how its website performs, how visitors interact with the site, and whether there may be technical issues.

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Cookies

Databricks Developer

Hybrid
Full-time
Contractor
bis zu 7000 CZK/MD
Development

Im Allgemeinen

Dieses Projekt konzentriert sich auf die Konzeption und Implementierung eines durchgängigen ETL-Prozesses und die sichere Datenmigration über einen Proxy-Server in eine in Kanada gehostete SAP-Umgebung. Wir suchen einen erfahrenen Data Engineer, der eine Schlüsselrolle bei der Konzeption der Integrationsarchitektur und der Implementierung skalierbarer Datenpipelines mit Snowflake und Databricks übernimmt.

Mission

  • Konzeption und Implementierung von End-to-End-ETL-Prozessen
  • Datenmigration über eine sichere Proxy-Infrastruktur in die SAP-Umgebung in Kanada
  • Entwicklung und Orchestrierung von Datenpipelines in Databricks und Snowflake
  • Programmierung der Transformationslogik in Python
  • Implementierung von Datenqualitätsprüfungen, Validierungs- und Plausibilitätsprüfungen
  • Protokollierung, Überwachung und Auditierbarkeit von Datentransfers
  • Performance-Optimierung

Fähigkeiten

  • Mindestens 2 Jahre Erfahrung mit Databricks
  • Nachweisbare Erfahrung in der Konzeption und Entwicklung von ETL-Pipelines
  • Fundierte Databricks-Kenntnisse und praktische Erfahrung mit Snowflake
  • Fortgeschrittene Python- und CI/CD-Kenntnisse
  • Erfahrung mit der Datenmigration nach SAP oder der Integration von Unternehmenssystemen
  • Kenntnisse der Sicherheitsprinzipien beim Datentransfer
  • Fokus auf Datenqualität, Auditierbarkeit und stabilen Produktionsbetrieb
  • Erfahrung mit komplexen ETL-Pipelines (über mehrere Tabellen mit verschiedenen Abhängigkeiten) und Abfrageoptimierung (hinsichtlich Performance und Kosten)
  • Erfahrung im Lesen von Delta-Share-Tabellen
  • Erfahrung mit Enterprise GitHub Actions, JFrog und Vorteile

Vorteile

  • Tolle Kollegen und flexible Arbeitszeiten
  • Karrierecoaching und -entwicklung
  • Flexible Arbeitszeiten
  • Technische Schulungen und Workshops
  • Technische Ausstattung (Mac/Windows)
  • Firmenfeiern
  • Betriebspsychologe für psychisches Wohlbefinden
  • Multisportkarte
Ich bin an dieser Stelle interessiert