Beschreibung
Big Data Architect• 12-14 Jahre Erfahrung mit mindestens 4 Jahren Erfahrung mit Big Data Tools und
Technologien wie Spark, Kafka, Flume, Sqoop, Hive, HDFS, Mapreduce, HBase usw.
• Gute Kenntnisse von Cloud-basierten SaaS-, PaaS- und IaaS-Lösungen
• Bereitstellung der Big Data-Lösung in Cloud AWS, Azure und Google Cloud.
• Zertifiziert auf der "Associate-Ebene" des AWS-Zertifizierungsprogramms.
• Erfahrung im Umgang mit Hybrid-BI-DWH-Implementierungen, d. H. Mit traditionellen und Big Data
Technologies
• Erfahrung mit Big Data-Technologien wie Apache Kafka, Apache Hive, Apache Hue, Apache Flink,
Apache Spark, Apache Parkett, Apache Mesos.
• Starke Erfahrung mit Telekommunikationsdomänen.
• Expertise in den Bereichen Datenmanagement, Datenportfolio, Datenstrategien, Data Governance, Data Lifecycle
und Datensicherheit
• Design- und Architekturerfahrung in Bezug auf das Erstellen, Verbessern und Ändern von Big Data
Ökosystem
• Lastverteilung, Ressourcenoptimierung und Konfiguration des Big Data-Ökosystems
• Erfahrung mit umfangreichen verteilten Anwendungen
• Erfahrung in Oracle GoldenGate für das Replizieren von Big Data und Attunity (Change Data Capture) und
Virtual Distributed Storage (Alluxio) und andere Technologien / Frameworks wie HDFS, AVRO,
• Implementierung von Datenaufbewahrungsrichtlinien, Fehlerprotokollierungs- und -behandlungsmechanismus, Neustart
Optionen bei Jobausfall etc.
• Sicherheitsimplementierung, einschließlich sensibler Kundeninformationen und Kenntnis der EU-
DSGVO-Konformität
• Implementierung eines Authentifizierungs- und Autorisierungsmechanismus für den sicheren Datenzugriff
• Kenntnisse der deutschen Sprache sind ein Muss