Als Data Architekt bin ich verantwortlich für das Design und die Implementierung von Datenstrukturen, -pipelines und -architekturen. Ich erstelle effiziente Data Pipelines, gewährleiste Datenqualität und arbeite eng mit IT-Teams und Datenwissenschaftlern zusammen, um den optimalen Wert und die Nutzung von Daten im Unternehmen sicherzustellen.
Gewünschte Aufgaben:
- Entwicklung, Optimierung und Wartung der Dateninfrastruktur unter Verwendung modernster Technologien und Plattformen.
- Implementierung von Datenlösungen in Cloud-Umgebungen wie AWS und Google Cloud.
- Planung und Durchführung von Datenintegration und -migration mit Hilfe von Airflow, StepFunctions, o.Ä.
- Programmierung und Entwicklung von datengetriebenen Prozessen und Anwendungen mit Python und/oder PySpark.
- Enge Zusammenarbeit mit anderen Abteilungen, insbesondere mit Data Scientists und dem Datenmanagement-Team, um integrierte Datenlösungen zu entwickeln und zu implementieren.
- Beratung und Unterstützung bei technischen Herausforderungen im Bereich der Datenarchitektur.
Mein Profil:
- Abgeschlossenes Studium in Informatik und Data Science.
- Tiefgreifende Kenntnisse und Erfahrung mit AWS, Airflow, Python und PySpark.
- Ausgeprägte analytische Fähigkeiten und ein tiefes Verständnis von Datenstrukturen.
- Teamfähigkeit, gute Kommunikationsfähigkeiten und die Fähigkeit, komplexe technische Konzepte einem nicht-technischen Publikum zu vermitteln.
- Ein ständiges Bestreben, sich weiterzubilden und auf dem neuesten Stand der Technologie zu bleiben.
- Sehr gute Kenntnisse mit agilen Arbeitsmethoden, insbesondere Scrum und Kanban. Sehr gute Kenntnisse im klassischen Projektmanagement.