Beschreibung
Ihre AufgabenMitwirkung bei der Systemarchitektur und der Design Datenmodellierung und Entwicklung systemübergreifender Lösungen.
Integration und Weiterverarbeitung strukturierter und unstrukturierter Daten aus unternehmensinternen und externen Quellen.
• Data Ingestion & ETL (Informatica, Python, Scala, Spark)
• Analyse und Verarbeitung (Python, Scala, HBase, Spark, Kafka, Big SQL)
• Hadoop basiertes Big Data System auf Basis
• Hortonworks
Fachliche Anforderungen
• Erfahrung mit Hadoop basierten Big Data Umgebungen wie z.B. Cloudera oder Hortonworks ++
• Data Ingestion und ETL-Erfahrung ++
• Praktische Erfahrung in mindestens zwei Skills aus dem Bereich (Python, Scala, HBase, Spark, Kafka) Apache Atlas, Waterline Data ++
• Gute Deutsch- und Englischkenntnisse in Wort und Schrift
• Google Zertifizierung von Vorteil
Haben wir Interesse geweckt? Ich freue mich über Ihren Ihren Kontakt!