+++ Data Intelligence Engineer/Datenexperten - Python/PySpark u. SQL; AWS, ETL+++ (m/w/d)+++ 60 PT +++ Remote/FFM

Hessen, Frankfurt am Main  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

+++ Data Intelligence Engineer/Datenexperten - Python/PySpark u. SQL; AWS, ETL+++ (m/w/d)+++ 60 PT +++ Remote/FFM
-----------------------------------------------------------------------------------------
Als Rahmenvertragspartner suchen wir für unseren Kunden einen Data Intelligence Engineer/Datenexperten - Python/PySpark u. SQL

Einsatzort: Remote/FFM

Start. Asap – 31.12.2021
Dauer: 50 PT
Auslastung: 100%

Aufgabe / Anforderungen
# Projektbeschreibung
? UND Entwicklung und Umsetzung von Datenmodellen für Dashboards zur Erfassung, Abbildung und Prognosen zum Betriebsablauf und Ressourceneinsatz des Konzerns
? Aufbereitung und Berechnung sowie der wirtschaftlichen Auswirkungen davon im Datenanalysetool Qlik Sense und Entwicklung von Datenmodellen
? Migration von Analysetools inkl. deren Datenanbindung von Drittplattformen auf die Daten- und Analyseplattform OneSource
?
# Leistungsbeschreibung
? Umsetzung von Anforderungen an die benötigten Daten und die resultierende Datenaufbereitung im Data Lake OneSource
? Management der Anforderungen in enger Abstimmung mit dem Auftraggeber
? Konzeptionelle Entwicklung eines Datenmodells
? Anbindung von Daten und Umsetzung in einer automatisierter Ladestrecke
? Implementierung von Überwachungsfunktionen automatisierter Ladeprozesse
? Ermittlung und Verarbeitung zusätzlich benötigter Daten aus konzerninternen IT-Anwendungen, -Verfahren und -Tools zur Darstellung der in Treiberkennzahlen definierten Werten.
? Identifikation von Datenqualitätsthemen und Entwicklung von Bereinigungsprozessen
? Dokumentation der entwickelten Architekturelemente und Prozesse
? Versionierung und Dokumentation der entwickelnden Skripte
? Bugfixing im Fehlerfall

# Ort
Während der Pandemie remote, danach vor Ort in Frankfurt.

# Muss -Anforderungen:
? Sehr gute Kenntnisse im Bereich Python / PySpark und SQL
? Sehr gute Kenntnisse aus mind. 2 Projekten im Cloud-Umfeld (z.B. AWS)
? Mind. 2 Jahre Erfahrung mit Datenbanken (Oracle/PostGreS)
? Mind. 3 Jahre Erfahrung im Aufbau von ETL Strecken
? Gute Kenntnisse in der Benutzung und Bereitstellung von Datenbanktechnologien
? Erfahrung bei der agilen Projektentwicklung (min. 2 Jahre)

# Soll-Anforderungen
? Erfahrung in der Verarbeitung von Geodaten (min. 2 Jahre)
? Erfahrung mit der Arbeit in agilen Teams (min. 2 Jahre)
? Erfahrung in der Administration von Plattformen in der AWS Cloud (min. 2 Jahre)
? Erfahrung mit der Code-Verwaltung in GitLab (min. 2 Jahre)
? Erfahrung bzgl. der Umsetzung von Monitoring Dashboards in Grafana (min. 2 Jahre)
? Sehr gute Kenntnisse in der Übersetzung von Geschäftsanforderungen in technische Lösungen
? Praktische Erfahrung aus mindestens einem Transportation-Projekt

Abgabefrist: 26.09.21 EOB

Bei Interesse senden Sie uns bitte Ihr aktuelles Word-Profil in deutscher Sprache mit Angabe Ihres Remote UND all in Tagessatzes und Ihrer Verfügbarkeit an

Bei Fragen und als Ansprechpartner stehen wir Ihnen gern zur Verfügung!
Tel. // Jan Noack


Mit freundlichen Grüßen
Jan Noack
-------------------------------------------------
iSAX GmbH & Co. KG
Weinbergstraße 15
01129 Dresden
Tel.:
Fax:
---

Seit 1998 bieten wir zuverlässig und kompetent Dienstleistungen im IT-Bereich und verfügt über qualifizierte und motivierte Mitarbeiter. Für namhafte Unternehmen wird ein breites Spektrum von IT-Dienstleistungen im IT-Betrieb, in der individuellen Anwendungsentwicklung sowie im Projektmanagement erbracht.
Start
ab sofort
Dauer
4 Monate
Von
iSAX GmbH & Co. KG
Eingestellt
23.09.2021
Ansprechpartner:
Steffen Marquardt
Projekt-ID:
2212379
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren