Beschreibung
Aktuell suchen wir für eines unserer Projektteams nach einem Data Engineer mir Erfahrung von Datenpipelines in der Google Cloud.Unser Team ist für die Entwicklung und Planung von Datenpipelines aus verschiedenen Datenquellen in den Data Lake zuständig. Wir arbeiten hier hand in Hand mit unseren Data Scientists um die Predictive Analytics Komponenten möglichst genau herauszuarbeiten.
Das Projekt selbst hat die Entwicklung einer Machine Learning Operations Pipeline zur Aufgabe. Wir wollen die Datenexporte in andere Application Programming Interfaces möglichst automatisieren.
Sollten Sie jemanden in Ihrem Netzwerk haben für den das passt, oder ist es gar für Sie spannend?
Gerne sende ich einmal die Details mit:
- Start: spätestens bis 01.08.2021
- Dauer: 1. Monat POC, dann Beauftragung bis Ende 2022
- Auslastung: 60 PT pro Quartal
- Budget: 600€ /Tag
- Level: Junior/Mid Level
- Standort: 100% remote
- Sprachen: Deutsch & englisch
Erfahrungen
- Entwicklung und Planung von Datenpipelines aus verschiedenen Datenquellen in den Data Lake.
- Entwicklung von Predictive Analytics zusammen mit unseren Data Scientists.
- Entwicklung der Machine Learning Operations Pipeline.
- Automatisierung von Datenexporten in andere Application Programming Interfaces.
Unser TechStack:
- Google Cloud, Terraform, Docker, Kubernetes, GitOps, Google Dataflow, Apache Beam, Elasticsearch, BigTable, BigQuery, Python, Java, SQL, API, REST, GraphQL.
Wenn Sie gerne in einem dynamischen jungen Team arbeiten und direkt Ergebnisse Ihrer Arbeit sehen wollen, sind Sie hier richtig.