Beschreibung
Sehr geehrte Damen und Herren,für ein Projekt bei unserem Kunden suchen wir aktuell einen DevOps-Engineer (m/w/d)
Im Rahmen eines Infrastruktur-Projekts werden Tools und Services für die (explorative) Datenanalyse im Kontext Data Science entwickelt und bereitgestellt. In diesem Rahmen wird für den Aufbau einer Data Analytics Plattform – basierend auf einer MicroserviceArchitektur – ein DevOps-Engineer zur Erbringung der nachfolgend benannten Aufgaben und Tätigkeiten gesucht:
• Konzeption, Aufbau & Betrieb von Machine Learning und Data Science Plattformen in enger Zusammenarbeit mit dem Data Science Team,
• Erstellen und Warten der CI/CD-Pipelines im Kontext von Data Analytics / Big Data Infrastrukturen auf Basis moderner Frameworks wie GitLab, Docker und OpenShift,
• Deployment von ML Modellen und Apps über alle Stages,
• Containerisierung und Microservices,
• Konzeption und Umsetzung von User- und Permission-Management,
• Berücksichtigung höchster Datenschutz-Anforderungen,
• Patchen / Updaten der Systeme im regulären Betrieb sowie Incident Handling in Ausnahmesituationen,
• Ganzheitliche Fehlersuche und Fehlerbehebung im Betrieb, Zusammenarbeit mit 2nd Level-Support,
• Dokumentation / Anpassung der System- / Applikationslandschaft,
• Sicherstellung von Betrieb und Wartung der betriebenen Applikationen unter Berücksichtigung zusätzlicher Aspekte wie Monitoring, Logging und Security,
• Absicherung der Zugriffe durch SSO / TLS,
• Optimieren von Prozessen und Schnittstellen im eigenen Bereich sowie angebundenen Systemen zur Steigerung der Datenqualität und Automatisierung,
• Verwendete Technologien: Docker/Kubernetes, GitLab, Cloud Native Stack und Python.
Anforderungen:
• Abgeschlossenes Studium der Informatik oder langjährige Erfahrungen und Kenntnisse bzgl. Aufbau/Entwicklung von Infrastruktur – idealerweise im Kontext Data Science (Machine Learning),
• Erfahrungen mit der Orchestrierung von Containeranwendungen, vorzugsweise mit Kubernetes/OpenShift/Docker/Helm,
• Erfahrung im Aufbau CI/CD-Pipeline-Konzepten sowie dem Deployment von Microservices,
• Erfahrung beim Aufsetzen von Tools aus dem Bereich Machine Learning / Data Analytics, z.B. Airflow, Presto, Minio,
• Systemadministrationskenntnisse (Ansible, Infrastructur as Code),
• Erfahrung im Betrieb und der Wartung der betriebenen Applikationen unter Berücksichtigung zusätzlicher Aspekte wie Monitoring, Logging und Security
• Kenntnisse zur Optimierung von Prozessen und Schnittstellen zur Steigerung der Datenqualität und Automatisierung,
• Erfahrungen mit der Arbeit im Cloud Native Stack,
• Nachweise über sehr gute Kenntnisse in der Programmiersprache Python,
• Kenntnisse im Betrieb von Webapplikationen auf Basis von Java Backends und JavaScript Frontends und in der Nutzung relationaler Datenbanken,
• Erfahrung im Debugging und Performance-Messungen,
• Sicherer Umgang mit verteilten Versionierungsystemen, z. B. git, hg,
• gutes Kommunikationsvermögen sowie gute Deutsch- und Englischkenntnisse.
Geplanter Projektstart:
asap
Auslastung:
100%
Einsatzdauer:
6 Monate +
Einsatzort:
Berlin/remote
Sprache:
deutsch
Bei Interesse Ihrerseits freue ich mich auf eine Kontaktaufnahme an:
Viele Grüße
Tutku Soycan