Předvolby

Ochrana osobních údajů je pro nás důležitá, máte možnost zakázat určité typy cookies, které nemusí být nezbytné pro základní fungování webových stránek. Blokování kategorií může ovlivnit vaši zkušenost s webem. Více informací

Přijmout všechny soubory cookie__wf_rezervovaný_dědictví

Tyto položky jsou vyžadovány pro umožnění základní funkčnosti webových stránek.

Vždy aktivní

Tyto položky se používají k poskytování reklamy, která je pro vás a vaše zájmy relevantnější.

Tyto položky umožňují webové stránce zapamatovat si vaše volby (například vaše uživatelské jméno, jazyk nebo oblast, ve které se nacházíte) a poskytovat vylepšené, osobnější funkce.

Tyto položky pomáhají provozovateli webových stránek pochopit, jak si jeho webové stránky vedou, jak návštěvníci interagují s webem, a zda se mohou vyskytnout technické problémy.

Děkuji! Váš příspěvek byl přijat!
Jejda! Při odesílání formuláře se něco pokazilo.
__wf_rezervovaný_dědictví

Data developer - Databricks

Hybrid
Full-time
Contractor
dle domluvy
Developer

O projektu

Hledáme Datového vývojáře se specializací na Databricks, který bude zodpovědný za vývoj, optimalizaci a správu datových pipeline nad Sparkem, Delta Lake a Unity Catalogem. Role je zaměřená na práci s velmi velkými datovými sadami (stovky milionů řádků, TB objemy), ladění výkonu a efektivní využití clusterových zdrojů.

Mise

  • Vyvíjet a optimalizovat datové pipeline v Apache Spark na platformě Databricks
  • Pracovat s Unity Catalogem a spravovat datové objekty v rámci governance modelu
  • Optimalizovat výkon pipeline nad tabulkami o velikosti 500+ milionů řádků a >1 TB dat
  • Ladit a nastavovat Databricks clustery pro maximální efektivitu a využití zdrojů
  • Optimalizovat Delta Lake tabulky (layout, partitioning, Z‑ordering, vacuum, compaction)
  • Spolupracovat s architekty, datovými inženýry a analytiky na rozvoji datové platformy

Skills

  • Minimálně 1 rok praxe s Unity Catalogem
  • Minimálně 2 roky praxe na min. 2 projektech s:
    • laděním a optimalizací Spark pipeline
    • prací s tabulkami o velikosti min. 500 milionů řádků
    • prací s daty o velikosti alespoň 1 TB
    • optimalizací nastavení clusterů pro maximální využití zdrojů
  • Minimálně 2 roky praxe s laděním Delta Lake na tabulkách > 1 TB

Výhodou

  • Zkušenost s Azure (ADF, Synapse, Data Lake Storage)
  • Znalost CI/CD pro datové pipeline
  • Zkušenost s monitoringem výkonu Spark jobů
  • Praxe z finančního sektoru

Benefity

  • Skvělí kolegové a plně flexibilní pracovní politika
  • Kariérní koučování a rozvoj
  • Flexibilní pracovní doba
  • Technická školení a workshopy
  • Technické vybavení pro práci (Mac / Windows)
  • Firemní večírky
  • Firemní psycholog pro duševní pohodu
  • Multisport karta
Mám zájem o tuto práci