Description

Aufgaben:

Konzeptionierung
Design und Implementierung (Big Data Analytics)
Data Warehousing
KI-Lösungen
Erstellung von Architektur- und Lösungsdesigns
Zusammenarbeit mit anderen IT-Experten und Projektmanagern um Projektziele und -zeitpläne zu erreichen.
Beratung und Präsentation von Best Practices und Lösungsansätzen gegenüber Kunden und Prospects
Mitarbeit bei der Erstellung von Angeboten und technischen Spezifikationen im Rahmen von Business Development Aktivitäten

Anforderungen:

must have:

Schwerpunkte auf Databricks, Apache Spark und Delta Lake
Langjährige Erfahrung im Bereich Data Analytics / Data Lakehouse
mindestens 3 Jahre Projekterfahrung mit Databricks
Fundierte Kenntnisse mit der Programmierung in Python, Spark, SQL oder Scala
Kenntnisse von Cloud Komponenten (bspw. Azure Data Factory etc.)
Sehr gute Deutschkenntnisse und gute Englischkenntnisse

nice to have:

Design und der Implementierung von Data Pipelines, DevOPs, Git, CI/CD, IaaS
Zertifizierungen für Databricks oder Cloud (Azure, AWS, GCP) können das Profil abrunden, präferiert wird jedoch hands-on Projekterfahrung.

Education

Bachelor's degree in Computer Science