Preferences

Privacy is important to us, so you have the option of disabling certain types of storage that may not be necessary for the basic functioning of the website. Blocking categories may impact your experience on the website. More information

Accept all cookiesClose button

These items are required to enable basic website functionality.

Always active

These items are used to deliver advertising that is more relevant to you and your interests.

These items allow the website to remember choices you make (such as your user name, language, or the region you are in) and provide enhanced, more personal features.

These items help the website operator understand how its website performs, how visitors interact with the site, and whether there may be technical issues.

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Cookies

Data developer - Databricks

Hybrid
Full-time
Contractor
podľa dohody
Developer

O projekte

Hľadáme Dátového vývojára so špecializáciou na Databricks, ktorý bude zodpovedný za vývoj, optimalizáciu a správu dátových pipelínov nad Sparkom, Delta Lake a Unity Catalogom. Úloha je zameraná na prácu s veľmi veľkými dátovými sadami (stovky miliónov riadkov, TB objemy), ladenie výkonu a efektívne využitie klastrových zdrojov.

Mise

  • Vyvíjať a optimalizovať dátové pipeline v Apache Spark na platformeDatabricks
  • Pracovať s Unity Catalogom a spravovať dátové objekty v rámci governance modelu
  • Optimalizovať výkon pipeline nad tabuľkami s veľkosťou500+ miliónov riadkov a1 TB dát
  • Ladiť a nastavovať Databricks clustery pre maximálnu efektivitu a využitie zdrojov
  • Optimalizovať** Delta Lake** tabuľky (layout, partitioning, Z‑ordering, vacuum, compaction)
  • Spolupracovať s architektmi, dátovými inžiniermi a analytikmi na rozvoji dátovej platformy

Skills

  • Minimálne 1 rok praxe s Unity Catalogom
  • Minimálne 2 roky praxena** min. 2 projektoch** s:
    • ladením a optimalizáciou Spark pipeline
    • prác s tabuľkami s veľkosťou** min. 500 miliónov riadkov**
    • prácou s dátami o veľkosti** aspoň 1 TB**
    • optimalizáciou nastavenia clusterov pre maximálne využitie zdrojov
  • Minimálne 2 roky praxes ladenímDelta Lake na tabuľkách > 1 TB

Výhoda

  • Skúsenosť s Azure (ADF, Synapse, Data Lake Storage)
  • Znalosť CI/CD pre dátové pipeline
  • Skúsenosť s monitoringom výkonu Spark jobov
  • Prax z finančného sektora

Benefity

  • Skvelí kolegovia a plne flexibilná pracovná politika
  • Kariérne koučovanie a rozvoj
  • Flexibilný pracovný čas
  • Technické školenia a workshopy
  • Technické vybavenie pre prácu (Mac / Windows)
  • Firemné večierky
  • Firemný psychológ pre duševnú pohodu
  • Multišport karta
Prihláste sa na túto pozíciu