Senior Applikationsentwickler (Schwerpunkt Data Engineering)
Vollzeit bei Callista Group AG in Bern
Dieses Inserat haben wir auf callistaace.recruitee.com gefunden. Warum wird diese Stelle angezeigt?
Publiziert am: 28.10.2025
Anforderungen:
Abgeschlossenes Studium oder Ausbildung im Bereich Informatik, Data Science oder Wirtschaftsinformatik
Fundierte Erfahrung in der Backend-Entwicklung mit Python (PySpark-Erfahrung von Vorteil)
Kenntnisse in CI/CD-Pipelines (GitLab), Git und DevOps-Praktiken
Erfahrung mit SQL und Oracle-Datenbanken
Erfahrung in Cloud-Umgebungen (Azure von Vorteil)
Vertraut mit Orchestrierungstools wie Dagster, Airflow oder Databricks Workflows
Gute Kenntnisse moderner Datenarchitekturen (ETL/ELT, DWH, Lakehouse)
Freude an agiler Zusammenarbeit und technischen Diskussionen
Sehr gute Deutsch- und Englischkenntnisse
Generelle Rahmenbedingungen:
Start: Januar 2026 - Dezember 2026
Pensum: 60%
Ort: Bern, 2 mal pro Woche vor Ort zwingend
Du begeisterst dich für Daten, moderne Cloud-Technologien und sauberen Code?
Dann erwartet dich eine spannende Aufgabe an der Schnittstelle zwischen Softwareentwicklung und Data Engineering. In einem agilen Scrum-Team arbeitest du an der Weiterentwicklung der Datenplattform und entwickelst skalierbare, performante Backend-Lösungen, die Datenprozesse intelligent automatisieren und optimieren.
Aufgaben:
Entwicklung und Wartung skalierbarer, effizienter Backend-Lösungen mit Python und PySpark in einer Databricks-Umgebung
Erweiterung und Pflege bestehender Backend-Komponenten (z. B. Transformations- und Test-Engine)
Implementierung von Unit-Tests mit hoher Testabdeckung sowie Integration in CI/CD-Pipelines (GitLab, trunk-based development)
Arbeiten in einem heterogenen Umfeld mit REST-APIs, Oracle-Datenbanken, Dateiimporten und Docker-Containern
Automatisierung von Datenvorbereitungsprozessen und lokalen Workflows mit Dagster (oder vergleichbaren Tools wie Airflow oder Databricks Workflows)
Identifikation technischer Lücken und Erstellung operativ getriebener Stories
Übersetzung fachlicher Anforderungen in technische Spezifikationen, Dokumentation und User Stories
Aktive Mitarbeit im agilen Scrum-Team, inklusive Code-Reviews, technischen Diskussionen und kontinuierlicher Produktverbesserung (DevOps)
Unterstützung im Betrieb und bei der Weiterentwicklung der Datenplattform in einer Cloud-Umgebung (Azure von Vorteil)
Weitere Tätigkeiten:
Umsetzung moderner Datenverarbeitungskonzepte wie ETL/ELT, Data Warehouse, Data Lake, Lakehouse und Medaillon-Architektur, inklusive Performance-Optimierung
Modellierung und Weiterentwicklung von Star- und Snowflake-Datenmodellen zur effizienten Datenanalyse und -bereitstellung

