Beschreibung
Für unseren Kunden in Berlin sind wir aktuell auf der Suche nach einem DevOps-Engineer (m/w/d).Falls Sie die folgende Projektbeschreibung interessiert und Sie die Anforderungen ausreichend abdecken, bitten wir Sie um kurzfristige Rückmeldung unter Angabe Ihrer Kontaktdaten, Ihrer Konditionen für den genannten Einsatzort (Stunden- oder Tagessatz) sowie Ihres Profils (vorzugsweise in Word).
Gerne können Sie uns dieses per E-Mail an schicken. Da der E-Mailversand bekanntermaßen nicht zu den sichersten Datenübertragungen zählt, möchten wir Ihnen zusätzlich eine sichere und verschlüsselte Upload-Möglichkeit für Ihre Bewerbungsunterlagen anbieten. Nutzen Sie dazu die Schaltfläche „Bewerben“ in unserem Projektportal unter https://mindheads.de.
Projektstandort: Berlin
Dauer:
Volumen: 100 PT
Abgabefrist beim Kunden: 29.07.2021
Im Rahmen eines Infrastruktur-Projekts werden Tools und Services für die (explorative) Datenanalyse im Kontext Data Science entwickelt und bereitgestellt. In diesem Rahmen wird für den Aufbau einer Data Analytics Plattform – basierend auf einer MicroserviceArchitektur – ein DevOps-Engineer zur Erbringung der nachfolgend benannten Aufgaben und Tätigkeiten gesucht.
Aufgaben:
- Konzeption, Aufbau & Betrieb von Machine Learning und Data Science Plattformen in enger Zusammenarbeit mit dem Data Science Team,
- Erstellen und Warten der CI/CD-Pipelines im Kontext von Data Analytics / Big Data Infrastrukturen auf Basis moderner Frameworks wie GitLab, Docker und OpenShift,
- Deployment von ML Modellen und Apps über alle Stages,
- Containerisierung und Microservices,
- Konzeption und Umsetzung von User- und Permission-Management,
- Berücksichtigung höchster Datenschutz-Anforderungen,
- Patchen / Updaten der Systeme im regulären Betrieb sowie Incident Handling in Ausnahmesituationen,
- Ganzheitliche Fehlersuche und Fehlerbehebung im Betrieb, Zusammenarbeit mit 2nd Level-Support,
- Dokumentation / Anpassung der System- / Applikationslandschaft,
- Sicherstellung von Betrieb und Wartung der betriebenen Applikationen unter Berücksichtigung zusätzlicher Aspekte wie Monitoring, Logging und Security,
- Absicherung der Zugriffe durch SSO / TLS,
- Optimieren von Prozessen und Schnittstellen im eigenen Bereich sowie angebundenen Systemen zur Steigerung der Datenqualität und Automatisierung,
- Verwendete Technologien: Docker/Kubernetes, GitLab, Cloud Native Stack und Python.
Anforderungen:
- Abgeschlossenes Studium der Informatik oder langjährige Erfahrungen und Kenntnisse bzgl. Aufbau/Entwicklung von Infrastruktur – idealerweise im Kontext Data Science (Machine Learning),
- Erfahrungen mit der Orchestrierung von Containeranwendungen, vorzugsweise mit Kubernetes/OpenShift/Docker/Helm,
- Erfahrung im Aufbau CI/CD-Pipeline-Konzepten sowie dem Deployment von Microservices,
- Erfahrung beim Aufsetzen von Tools aus dem Bereich Machine Learning / Data Analytics, z.B. Airflow, Presto, Minio,
- Systemadministrationskenntnisse (Ansible, Infrastructur as Code),
- Erfahrung im Betrieb und der Wartung der betriebenen Applikationen unter Berücksichtigung zusätzlicher Aspekte wie Monitoring, Logging und Security
- Kenntnisse zur Optimierung von Prozessen und Schnittstellen zur Steigerung der Datenqualität und Automatisierung,
- Erfahrungen mit der Arbeit im Cloud Native Stack,
- Nachweise über sehr gute Kenntnisse in der Programmiersprache Python,
- Kenntnisse im Betrieb von Webapplikationen auf Basis von Java Backends und JavaScript Frontends und in der Nutzung relationaler Datenbanken,
- Erfahrung im Debugging und Performance-Messungen,
- Sicherer Umgang mit verteilten Versionierungsystemen, z. B. git, hg,
- gutes Kommunikationsvermögen sowie gute Deutsch- und Englischkenntnisse.
Für Fragen, Anregungen oder Wünsche stehen wir Ihnen gern zur Verfügung. Aktuelle Informationen über uns sowie weitere Vakanzen finden Sie auch auf unserer Homepage: https://mindheads.de
Kontakt:
mindheads GmbH
Dr.-Haas-Straße 4
96047 Bamberg
Tel.