Azure Data scientist

Mannheim, Baden-Württemberg  ‐ Remote
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

Hallo zusammen,

für unseren Bestandskunden suche ich ab sofort einen Azure Data Scientist.

Start: ASAP
Ende: bis Ende des Jahres++
Standort: Großraum Mannheim
Einsatz: 90% REMOTE

Ihre Aufgaben:
- Beratung und Entwicklung im Bereich Apache Sparks / Databricks
- Einzelne Tools aufsetzen, Data Agent
- Beratung von Kunden im Nutzen und Auswerten von großen Datenmengen und damit möglichen Lösungen
- Strukturierung großer Datenmengen (Datenbank Labordaten)
- Analyse und Auswertung vorliegender Daten
- Eigenverantwortliche Überwachung aller Tracking-Aspekte in enger Zusammenarbeit mit unseren Analysten
- Durchführung von Debugging von Tracking sowie Qualitätssicherung

- Als Big Data Scientist beraten Sie Kunden in der Verarbeitung von strukturierten und unstrukturierten Daten
- Sie entwickeln Big Data Anwendungen mit Technologien wie Azure, Hadoop, Spark und Kafka
- Zudem arbeiten Sie an Big Data Science Lösungen basierend auf Cloud-PaaS- und IaaS-Komponenten, Dabei nutzen Sie Cloud-Plattformen (AWS, MS Azure und Google Computing Engine)
- Überwachung von Verfügbarkeit, Leistung, Sicherheit
- Incident / Change / Problem Management - Kontinuierliche Serviceverbesserung - Identifizierung der Grundursache und Problemlösung
- Patch-Management der Infrastruktur
- Erstellung und Implementierung des Backup and Recovery-Konzepts
- Verwalten und überwachen Sie Tickets von Drittanbietern für die Lieferantenunterstützung
- Implementierung von Autorisierungsanfragen

Ihre Qualifikation:
- Abgeschlossenes Studium, vorzugsweise mit IT Hintergrund bzw. Mathematik / Physik oder eine vergleichbare Berufsausbildung
- Mindestens 2 Jahre Berufserfahrung mit dem Hadoop & Azure ADLS mit DataBricks Ecosystem
- Mindestens 2 Jahre Erfahrung im Bereich grundlegender IT-Technologien wie Betriebssysteme, Datenbanken, Webserver, HTTP-Kommunikation, REST-APIs und Netzwerk
- Sicherheit im Umgang mit Big Data Architekturen und Technologien wie Azure, Hadoop, HBase, Hive, Spark, Storm, Flink, Kafka, Elastic, Cassandra, Neo4J und anderen NoSQL-Datenbanken
- Erfahrung in der Bedienung von Tools wie Databricks und Trifacta
- Erfahrung in der Bedienung von Linux, Java, MS / Azure SQL, SQL DWH und SAP HANA
- Fähigkeiten in Unternehmensberatung und technischer Beratung
- Gute Deutsch- und Englischkenntnisse

Bei Interesse würde ich mich über Ihren CV unter Angabe Ihrer Verfügbarkeit und Ihres Stundensatzes freuen.

Viele Grüße
FRGTech
Start
ab sofort
Dauer
2 Monate
(Verlängerung möglich)
Von
Frank Recruitment Group GmbH
Eingestellt
21.10.2020
Ansprechpartner:
Liam Dawson
Projekt-ID:
1986140
Vertragsart
Freiberuflich
Einsatzart
100 % Remote
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren