DevOps-Engineer mit Machine Learning und Big Data (Docker, Kubernetes, OpenShift, Airflow, Ansible, Python) (m/w/d) - Berlin / remote

Berlin  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

DevOps-Engineer mit Machine Learning und Big Data (Docker, Kubernetes, OpenShift, Airflow, Ansible, Python) (m/w/d) - Berlin / remote

Für unser Projekt IT_739 suchen wir folgenden Spezialisten (m/w/d):

Einsatzort: Berlin
Start: 01.09.2021
Dauer: 31.12.2021 + VL Option für 2022
Vertragsart: Vor Ort & remote

Im Rahmen eines Infrastruktur-Projekts werden Tools und Services für die (explorative) Datenanalyse im Kontext Data Science entwickelt und bereitgestellt. In diesem Rahmen wird für den Aufbau einer Data Analytics Plattform – basierend auf einer Microservice Architektur – ein DevOps-Engineer zur Erbringung der nachfolgend benannten Aufgaben und Tätigkeiten gesucht:

- Konzeption, Aufbau & Betrieb von Machine Learning und Data Science Plattformen in enger Zusammenarbeit mit dem Data Science Team,
- Erstellen und Warten der CI/CD-Pipelines im Kontext von Data Analytics / Big Data Infrastrukturen auf Basis moderner Frameworks wie GitLab, Docker und OpenShift,
- Deployment von ML Modellen und Apps über alle Stages,
- Containerisierung und Microservices,
- Konzeption und Umsetzung von User- und Permission-Management,
- Berücksichtigung höchster Datenschutz-Anforderungen,
- Patchen / Updaten der Systeme im regulären Betrieb sowie Incident Handling in Ausnahmesituationen,
- Ganzheitliche Fehlersuche und Fehlerbehebung im Betrieb, Zusammenarbeit mit 2nd Level-Support,
- Dokumentation / Anpassung der System- / Applikationslandschaft,
- Sicherstellung von Betrieb und Wartung der betriebenen Applikationen unter Berücksichtigung zusätzlicher Aspekte wie Monitoring, Logging und Security,
- Absicherung der Zugriffe durch SSO / TLS,
- Optimieren von Prozessen und Schnittstellen im eigenen Bereich sowie angebundenen Systemen zur Steigerung der Datenqualität und Automatisierung,
- Verwendete Technologien: Docker/ Kubernetes, GitLab, Cloud Native Stack und Python.

Anforderungen:
- Abgeschlossenes Studium der Informatik oder langjährige Erfahrungen und Kenntnisse bzgl. Aufbau/ Entwicklung von Infrastruktur – idealerweise im Kontext Data Science (Machine Learning),
- Erfahrungen mit der Orchestrierung von Containeranwendungen, vorzugsweise mit Kubernetes/ OpenShift/ Docker/ Helm,
- Erfahrung im Aufbau CI/CD-Pipeline-Konzepten sowie dem Deployment von Microservices,
- Erfahrung beim Aufsetzen von Tools aus dem Bereich Machine Learning / Data Analytics, z.B. Airflow, Presto, Minio,
- Systemadministrationskenntnisse (Ansible, Infrastructur as Code),
- Erfahrung im Betrieb und der Wartung der betriebenen Applikationen unter Berücksichtigung zusätzlicher Aspekte wie Monitoring, Logging und Security
- Kenntnisse zur Optimierung von Prozessen und Schnittstellen zur Steigerung der Datenqualität und Automatisierung,
- Erfahrungen mit der Arbeit im Cloud Native Stack,
- Nachweise über sehr gute Kenntnisse in der Programmiersprache Python,
- Kenntnisse im Betrieb von Webapplikationen auf Basis von Java Backends und JavaScript Frontends und in der Nutzung relationaler Datenbanken,
- Erfahrung im Debugging und Performance-Messungen,
- Sicherer Umgang mit verteilten Versionierungsystemen, z. B. git, hg,
- gutes Kommunikationsvermögen sowie gute Deutsch- und Englischkenntnisse.

[Jetzt bewerben](https://smsconsulting.hr4you.org/job/apply/633?page_lang=de)

sms Consulting GmbH
Axel Körner
Vertrieb / Rekruting
Euskirchener Straße 89b
52351 Düren


Start
9.2021
Dauer
121
Von
sms Consulting GmbH
Eingestellt
22.07.2021
Ansprechpartner:
Axel Körner
Projekt-ID:
2168249
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren