25 km
d.velop AG
Werkstudent:in Data Engineering (w/m/d) 03.04.2025 d.velop AG Gescher, Bocholt, Kiel, Meppen, Münster, Osnabrück, Paderborn, Salem und Schöppingen. Sowie im Mobile Office.
Weitere passende Anzeigen:

Ihre Merkliste/

Mit Klick auf einen Stern in der Trefferliste können Sie sich die Anzeige merken

1

Passende Jobs zu Ihrer Suche ...

... immer aktuell und kostenlos per E-Mail.
Sie können den Suchauftrag jederzeit abbestellen.
Es gilt unsere Datenschutzerklärung. Sie erhalten passende Angebote per E-Mail. Sie können sich jederzeit wieder kostenlos abmelden.

Werkstudent:in Data Engineering (w/m/d)

Drucken
Teilen
d.velop AG
Gescher, Bocholt, Kiel, Meppen, Münster, Osnabrück, Paderborn, Salem und Schöppingen. Sowie im Mobile Office.

Informationen zur Anzeige:

Werkstudent:in Data Engineering (w/m/d)
d.velop AG
Gescher, Bocholt, Kiel, Meppen, Münster, Osnabrück, Paderborn, Salem und Schöppingen. Sowie im Mobile Office.
Aktualität: 03.04.2025

Anzeigeninhalt:

03.04.2025, d.velop AG
Gescher, Bocholt, Kiel, Meppen, Münster, Osnabrück, Paderborn, Salem und Schöppingen. Sowie im Mobile Office.
Werkstudent:in Data Engineering (w/m/d)
Aufgaben:
Du unterstützt unser Team bei der Implementierung von robusten und skalierbaren Datenpipelines, die Daten aus verschiedensten Quellen (z.B. APIs, Datenbanken, Streaming-Plattformen) zusammenführen.  Mit Deiner Arbeit unterstützt Du uns nicht nur bei wertvollen Projekten und der effizienten Automatisierung von Datenflüssen, sondern kannst auch Deine kreativen Ideen bei der Optimierung von Schnittstellen und Cloud-Architektur einbringen.  Gemeinsam mit unserem Team arbeitest Du an der Optimierung unserer Dateninfrastruktur in der Cloud (z.B. Kubernetes-Cluster), automatisierst Deployments und schaffst zuverlässige Monitoring- und Alerting-Lösungen. Da uns die Qualität von Daten sowie die Verfügbarkeit dieser am Herzen liegt, freuen wir uns über Deine Unterstützung beim Einrichten von Monitoring-Tools (z.B. Prometheus, Grafana), um die Daten stets aktuell und korrekt zu halten.  Wir sind füreinander da und schätzen uns gegenseitig. Wir arbeiten im Team und ermöglichen Dir, Deine Arbeitszeit flexibel mit Deinem Studium zu vereinbaren.
Qualifikationen:
Erste Berührungspunkte mit Cloud-Technologien, Linux, Containern (z. B. Docker) oder modernen Datenbanken (z.B. ClickHouse) sind ein Plus, aber keine Voraussetzung - wir unterstützen Dich bei der Einarbeitung. Du bringst großes Interesse an modernen Data-Pipelines und -platforms auf Basis von Kubernetes mit und Deine Neugier, neue Aufgaben zu übernehmen und Dich in Themen wie Monitoring und Skalierbarkeit einzuarbeiten, macht Dich besonders wertvoll für unser Team. Wenn wir es uns wünschen könnten, besitzt Du bereits Kenntnisse in REST-APIs, Datenmodellierung oder Programmierungssprachen (z. B. Python, Rust, Go) - ist aber keine Pflicht. Viel wichtiger ist uns Deine Motivation, Dich in abwechslungsreiche Themen einzubringen. Grundlegendes Wissen in Datenverarbeitung, -integration, -visualisierung und -management sowie in Extract, Transform, Load (ETL)-Pipelines wäre von Vorteil, aber kein Muss. Darüber hinaus bist Du idealerweise bereits mit Konfigurations- und Orchestrierungswerkzeugen (z.B. Airflow, Dagster, Luigi) vertraut. Du bist im Studiengang Informatik, Data Engineering, Wirtschaftsinformatik oder in vergleichbaren Fachrichtungen eingeschrieben? Dann bist Du genau richtig bei uns!

Standorte