Du analysierst, designst und betreibst hochkomplexe Schnittstellen zwischen Data-Produkten, Quellsystemen und Zielsystemen und entwickelst gemeinsam im Team die komplette Job- und Datenarchitektur auf Basis von Apache Spark, Airflow, Kubernetes, Python, SQL, C und Unix Shell weiter * Sehr gute Programmierkenntnisse in Python, SQL und Unix Shell; weitere Kenntnisse, zum Beispiel in C, sind von Vorteil
mehr