IT-P job eXchange


Stellenbeschreibung:

Start: 01.10.2025
Ende: 31.12.2025
Einsatzort: Ruhrgebiet (Essen, Dortmund usw.)
Weitere Hinweise: Bei den Konditionen ist eine Differenz 18€/h von Onsite zum Offsite Stundensatz nötig. Die geplante Aufteilung der Stunden ist wie genannt, kann aber abweichen.
Max. Stundensatz remote: 82€/h – 96/h
Offsite: 230h
Onsite: 20h
Reisezeiten: 0h
Anzahl Personen: 1


Job-Details:
Im Zuge der Transformation zur Produkt- und Service-Organisation plant der Kunde GmbH den Aufbau einer unternehmensweiten Self-Service-Datenplattform auf Basis von Databricks. Ziel ist es, Fachbereichen die eigenständige Erstellung von Analysen und Datenprodukten zu ermöglichen – unter Einhaltung klar definierter Governance-, Administrations- und Serviceprozesse.
Zur Beratung suchen wir zum nächstmöglichen Zeitpunkt eine/n erfahrene/n externe/n Plattformexpert/in für Databricks (m/w/d), die/der nicht nur tiefes technisches Know-how mitbringt, sondern auch erprobte Best Practices aus vergleichbaren Projekten einfließen lässt.

Der Schwerpunkt der Tätigkeit liegt zunächst auf Konzeption, Architektur und Governance – die Umsetzung einzelner Pipelines und Datenmodelle erfolgt in späteren Projektphasen.

  • Entwicklung einer skalierbaren Zielarchitektur für die Databricks-Plattform
  • Definition von Designrichtlinien und Governance-Standards
  • Erarbeitung eines Berechtigungskonzepts
  • Konzeption von CI/CD-Strategien für Datenprodukte
  • Ausgestaltung der Layer-Architektur unter Bezugnahme auf das Medallion-Konzept
  • Beratung zu Staging-Konzepten (Deployment in Multi-Tier-Umgebungen, Quality Gates)
  • Einbringen von Best Practices aus bisherigen Projekten zur Effizienz- und Qualitätssteigerung
  • Abstimmung und Priorisierung von Anforderungen mit Fachbereichen und IT
  • Dokumentation von Architekturentscheidungen, Prozessen und Projektergebnissen

Skills:
Must-Have
  • Mehrjährige Erfahrung mit Databricks in Konzeption und Implementierung im Bereich Data Engineering (Datenmodellierung, ETL, Orchestrierung von Ladeprozessen)
  • Tiefgreifendes Verständnis von Layer-Datenmodellen (z.B. Medallion)
  • Erfahrung in der Entwicklung von Berechtigungskonzepten
  • Kenntnisse in Continuous Ingestion / Continuous Development
  • Fundiertes Verständnis moderner Datenplattformen
  • Lösungsorientierte, strukturierte Arbeitsweise
  • Sehr gute Kommunikations- und Moderationsfähigkeiten
  • Sicherer Umgang mit SQL und Python
  • Verständnis von IT Service Management Prozessen (ITIL)
  • Erfahrung in agilen Projekten, insbesondere Scrum

Nice-to-Have
  • Kenntnisse in Microsoft Azure im Kontext von Databricks / Data Engineering
  • Erfahrung mit Machine Learning und LLMs in Databricks
  • Sicherer Umgang mit Jira und Confluence
  • Gute Kenntnisse in Excel und PowerPoint
  • Sehr gute Deutschkenntnisse in Wort und Schrift

Contact

For further information please contact Marcel Paul gladly available.