25 km

Mehr als 500 Jobs

1

Passende Jobs zu Ihrer Suche ...

... immer aktuell und kostenlos per E-Mail.
Sie können den Suchauftrag jederzeit abbestellen.
Es gilt unsere Datenschutzerklärung. Sie erhalten passende Angebote per E-Mail. Sie können sich jederzeit wieder kostenlos abmelden.

Informationen zur Anzeige:

Data Analyst (m/w/d)
Unterföhring (bei München)
Aktualität: 03.06.2025

Anzeigeninhalt:

03.06.2025, Allianz Deutschland
Unterföhring (bei München)
Data Analyst (m/w/d)
Aufgaben:
Du arbeitest aktiv beim Ausbau des Controllings und der Datengrundlagen/Datenstrategie im Tribe Digitales Services-Modell mit und unterstützt dabei den Data Lead im Tribe DSM. Du betreibst, testest und entwickelst Datenpipelines für automatisierte Tableau-Dashboards weiter. Du bindest neue Datenquellen an, bereitest Daten auf und transformierst diese. Du analysierst Fehler-Logs und überwachst die verantworteten Komponenten (z.B. via AWS Cloudwatch, Dynatrace). Du stellst die Datenqualität sicher, analysierst und klärst eigenständig die dabei gewonnenen Erkenntnisse mit den jeweiligen Daten-Ownern, Teams und Stakeholdern. Du setzt (Daten-)Analysen und Reports um - von der Erstellung der Anforderungsanalyse bis hin zur Umsetzung sowie Qualitätssicherung und Testing. Du hältst aktiv Rücksprache zu KPIs / Datenanforderungen mit den Teams innerhalb und außerhalb des eigenen Bereichs, sowie mit Datenlieferanten (Sparten-Controllern, Effizienz-Gremien der Sparten). Du erstellst adressatengerechte (Tableau)-Dashboards und Ad-hoc Auswertungen.
Qualifikationen:
Du hast ein abgeschlossenes Studium der Data Science, (Wirtschaft-)Informatik, Mathematik, Wirtschaftswissenschaften oder einen vergleichbaren Abschluss bzw. eine vergleichbare Qualifikation durch Berufserfahrung. Du bringst Erfahrungen in den Bereichen Datenanalyse und Data Engineering, inklusive end-to-end Management von Datenpipelines (Data-in, Data Processing, Data-out) und Requirements Engineering mit, idealerweise 3-5 Jahre. Du hast grundlegende Kenntnisse in SQL (z.B. PostgreSQL, PL/PGSQL) oder anderen Datenbanksprachen, zum Aufbau von Datenpipelines. Du besitzt Expertise im Design und der Optimierung von ETL-Prozessen unter Verwendung von Jenkins für das Management von CI/CD-Pipelines. Du hast Kompetenzen im Management von Datenbanken, insbesondere auf Plattformen wie AWS Aurora, und Erfahrung mit Softwarelösungen wie Excel, DB-Visualizer, GitHub. Du besitzt Erfahrung in der Durchführung von Ad-hoc-Analysen und Abfragen mit Tools wie SQL und Python, sowie in der Nutzung von Datenvisualisierungs-Software (z.B. Tableau). Du bringst ausgeprägte kommunikative Fähigkeiten, hohe Eigeninitiative und Motivation, sowie sehr gute Deutsch- und Englischkenntnisse mit

Berufsfeld

Bundesland

Standorte