Beschreibung
Aufgaben• Unterstützung im BigData System-Umfeld
• 2nd und 3rd Level
• DevOps im Umfeld (Cloudera Hadoop, MongoDB, Elastic Search)
• Durchführung von Leistungsanalysen
• Fehlerbehebung bei großen HBase-Datenbanken
Anforderung:
Unix +++ (good), 2-4 yrs.
RedHat +++ (good), 2-4 yrs.
Apache Hadoop +++ (good), 2-4 yrs.
LDAP +++ (good), 2-4 yrs.
SSL VPN +++ (good), 2-4 yrs.
TLS (Transport Layer Security) +++ (good), 2-4 yrs.
DevOps +++ (good), 2-4 yrs.
Kerberos +++ (good), 2-4 yrs.
Supportprozesse +++ (good), 2-4 yrs.
Qualifikation
? Sehr gute Kenntnisse der Unix-Systemadministration (Redhat / CentOS 6.X oder höher)
? Sehr gut vertraut mit der Verwaltung der Hadoop-Infrastruktur und der Leistungsoptimierung
? Vertrautheit mit Sicherheitsmechanismen wie Kerberos, LDAP, SSL / TSL
? Tiefe Erfahrung mit Cloudera-Distribution (CDH 5.x oder höher)
Know-how im Rahmen von
? Open Source-Bereitstellungstools wie Ansible (Puppet) und Shell-Skripten und Jenkins
? DevOps-Revisionstools wie Bitbucket, Git, SVN
? der Programmierung in Pyton mit IDEs wie PyCharme
? Automatisierung mit Python und / oder Javascript
? Sehr vertraut mit HDFS, YARN, HBase, Hive, Spark, Impala, Kafka usw.
? Kenntnisse zu Dokumentations- / Ticket-Tools wie Confluence und Jira
? Grundlegende Vertrautheit mit datenwissenschaftlichen Tools wie Jupyter und Zeppelin
? Arbeitskenntnisse in Elastic Stack - Elasticsearch, Logstash, Kibana, Beats
? Vertrautheit mit Überwachungstools wie Zabbix
? Grundkenntnisse der OpenShift Container Platform
? Kenntnisse der MongoDB-Plattform - von Vorteil
? Deutsch und Englisch fließend
Projektstart: 02.01.2020
Projektende: 31.12.2020 + Option
Auslastung: 100% (20-40% Remote nach Einarbeitung)
Leistungsort: Regensburg