Senior Data Engineer MS Fabric Lakehouse
Vollzeit bei Callista Group AG in Winterthur
Dieses Inserat haben wir auf callista.recruitee.com gefunden. Warum wird diese Stelle angezeigt?
Publiziert am: 15.12.2025
Anforderungen:
Abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik oder vergleichbare Qualifikation
5+ Jahre Erfahrung im Data Engineering mit Synapse, Microsoft Fabric oder verwandten Rollen
Hands-on Erfahrung mit Azure Data Factory und PySpark
Erfahrung mit Medallion-Architektur (Bronze/Silver/Gold) und Delta Lake
Vertrautheit mit Spark-Optimierungstechniken (Partitioning, Caching, Performance-Tuning)
Verständnis von CI/CD-Prinzipien und Arbeiten in einer solchen Umgebung
Versicherungs-Knowhow, insbesondere im Vertriebsbereich (Policen, Prämien, Vertriebskanäle)
Du liebst es, komplexe Datenherausforderungen anzugehen und effiziente Lösungen zu entwickeln, die echten Mehrwert liefern.
Du hast ein scharfes Auge für Details und bist committed, hohe Standards für Datenqualität und aufrechtzuerhalten
Fliessende Deutsch und Englischkenntnisse
Generelle Rahmenbedingungen:
Pensum: 100%
Arbeitsmodell: Hybrid nach Absprache
Start: Januar 2026
Dauer: Langfristiges Projekt mit Verlängerungsoption
Für unseren Kunden aus der Krankenversicherungsbranche in der Schweiz suchen wir einen erfahrenen Data Engineer mit Schwerpunkt Microsoft Fabric und Azure. In dieser Position bist du verantwortlich für die Entwicklung skalierbarer Datenpipelines im Vertriebsbereich entlang der Medallion-Architektur und für die Bereitstellung hochwertiger Datengrundlagen für Business Intelligence und Analytics.
Aufgaben:
Design und Management von Azure-Umgebungen für die Nutzung von Microsoft Fabric
Entwicklung und Wartung von End-to-End Datenpipelines mit Microsoft Fabric (Lakehouse) und Azure Data Factory
Datenintegration und -transformation mit PySpark aus verschiedenen Quellsystemen (Vertrieb, Policen, CRM)
Optimierung von Spark-basierten Workflows (Partitioning, Caching, Performance-Tuning)
Entwicklung skalierbarer, cloud-nativer Lösungen unter Einhaltung von Datenqualität und Governance-Standards
Aufbau und Pflege von CI/CD-Pipelines
Enge Zusammenarbeit mit Data Analysts, Data Scientists, Fachabteilungen und Stakeholdern

