Data Lake Experten (m/w/d)

Erlangen, Bayern  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

Für unseren Kunden im Bereich Medtech sind wir kurzfristig auf der Suche nach mehreren Data Lake Experten, unten eine kurze Rollen- und Aufgabenbeschreibung. Von großem Vorteil wären Erfahrungen mit „SnowFlake“. Ich freue mich sehr über Ihre schnelle Rückmeldung per Mail oder Telefon!
Bei Interesse laden Sie bitte Ihren Lebenslauf über den folgenden Link hoch: https://jobs.hws-gruppe.de/freelancer-de-f46.html

Sollte die Anfrage inhaltlich/zeitlich/fachlich nicht passen, freue ich mich dennoch über ein kurzes Signal und wirklich sehr über Weiterempfehlungen in Ihrem Netzwerk!
Rahmendaten beider Positionen:

Start so schnell wie möglich, gerne noch im November/Dezember
Erstauftrag 6 oder 12 Monate
Auslastung 100%
Leistungserbringung remote sowie in Erlangen (je nach aktueller Lage vmtl. größtenteils bis 100% remote)

Vergütung per Tagessatz auf Basis von 8h (bitte geben Sie einen Satz für Erlangen sowie einen Satz für Leistungen Remote an)

1. Data and Solution Architect – Data Lake Platform

Aufgaben:
- Management der Sol. Architecture und Weiterentwicklung des Cloud Data Lake in Abstimmung mit versch. Fachbereichen
- Reibungsloser Einsatz und Betrieb des Cloud Produktivsystems sicherstellen inkl. 3rd Level Support
- Koordination Operations
- Entwerfen, Entwickeln, Implementieren, Managen von Anforderungen an die Data Lake Plattform mit Fokus auf Datenarchitektur, -Integration (z.B. ETL), Sicherheit, Autorisierung, Datenzugriffsmanagement
- Automatisierung von Cloud-Umgebungen bzgl. Sicherheit, Zuverlässigkeit, Monitoring, Datenversorgung
- Analyse innovativer Datenmanagementkomponenten und -Methoden (z.B. Plattformdienste für Cloud-Lösungen)
- Pilotieren neuer Lösungen durch POC Entwurf und Umsetzung

Anforderungen:
- Background in Informatik und ggf. Medizin
- Mehrjährige Erfahrung in Cloud Services (Azure, AWS, Google) in der Zusammenarbeit mit funktionsübergreifenden Teams
- Technische Kenntnisse in DB- und DWH-Technologien (Snowflake, Oracle, MS-SQL, Azure Synampse, SAP HANA, …) sowie in Datenintegration (SAP SLT und andere ETL Tools)
- Erfahrung mit Datenmodellen von SAP ERP, SAP BI und CRM
- Gutes Verständnis von Unternehmensdatenlandschaften und Architekturbausteinen (Datenbestände)
- Sehr gute Erfahrungen mit Entwicklung von Lösungen mit SQL (standard und prozedural), Skriptsprachen, Datentransformationsmethoden (z.B. Restful APIs, JSON-Verarbeitung und Azure-Funktionen)
- Erfahrung in der Softwareentwicklung mit agilen Arbeitsmodellen (DevOps)

2. Product Owner – Data Lake Services

Aufgaben:
- Begleitung interner Stakeholder bei Umsetzung von Big Data / Analytics Projekten auf interner Data Lake Plattform
- Erarbeitung von Anforderungen mit internen KundInnen für analytische Fragestellungen (z.B. Datenintegration & Modellierung) sowie Hilfe bei der Umsetzung von Projekten oder Change Requests
- Koordination dieser Umsetzung unter Einhaltung prozessualer, funktionaler und technischer Vorgaben, Erfüllung qualtativer Anforderungen wie Dokumentation
- Management von Timeline, Budget, Qualität und Projektumfang
- Analyse innovativer neuer Softwarekomponenten und Methoden
- Pilotieren neuer Lösungen durch Entwurf und Umsetzung von POCs

Anforderungen:
- Background in (Wirtschafts-) Information und ggf. Medizin/Mathematik
- Mehrjährige Erfahrung als IT Business Analyst oder im Bereich Business Process Improvement oder im Bereich Data Management, Engineering und Datenarchitektur mit Schwerpunkt Datenmodellierung und DB-Sprachen (SQL)
- Erfahrung in Requirements Engineering und agilen Arbeitsmodellen (SCRUM)
- Erfahrung mit verschiedenen Datenmodellierungsansätzen wie Star-Schema, Snowflake-Schema etc. sowie im Umgang mit Snowflake, Oracle, MS-SQL usw
- Datenintegrationsmethoden ODBC, CDC, ETL
- Datenmodelle aus SAP ERP, Kenntnisse über geschäftsfeldspezifische Prozesse und Datenmodelle, z.B. im Bereich CRM, Finance, Customer Service
- Verständnis für Datenbestände aus unterschiedlichen Geschäftsbereichen, Datenfluss und -Abfolge
- Ideal: Verständnis von GDPR, Verifizierung und Validierung von IT-Anwendungen gem. Qualitätsmanagementsystem
Start
ab sofort
Dauer
6 Monate
(Verlängerung möglich)
Von
HWS Gruppe
Eingestellt
12.11.2021
Ansprechpartner:
Julian Winter
Projekt-ID:
2248856
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren