Beschreibung
Einsendeschluss: 23.07.2019Anzahl d. Personen: 1
Branche: Energy
Einsatzort: Bayern
Zeitraum: 01.08.2019 - 31.01.2020
Auslastung: 960h im og. Zeitraum
Preisvorgabe: EUR/Std.
Aufgabenbeschreibung:
- Develop a data models for structured and unstructured data with SQL DB, noSQL, Parquet
- Develop batch data pipelines for collecting, cleaning and archiving big data with Azure Data Factory, SPARK, Python, DataBricks
- Fetch data from various sources, including Web services, shared drives or database connections
- Deploy the solution to a productive environment in MS Azure cloud
- Support in the definition of the solution architecture with various business units
- Support the development of an energy analytical solution API implementation
**Onsite 768h €/h; Offsite 192h €/h; Insgesamt 960h***
***Bitte vor Ort und Remote Stundensatz angeben***
Skills:
- Degree in Computer Science or related technical discipline.
- Experience in modelling and processing time series data
- Experience in data pipeline development with Azure Data Factory and DataBricks
- Experience in Python development preferably with PySPARK
- Experience in modelling data on RDBMS, noSQL, Parquet
- Experience in Web Service development with REST and SOAP
- Experience in deploying API services in a cloud environment preferably AZURE
- Experience in setting up logging and monitoring for the data services
- Fluent in English, German is a plus
- Take over responsibility
- Analytical thinking
- Enjoying collaborating internationally and across cultural borders
Bei Interesse senden Sie uns bitte Ihr aktuelles Profil (bitte im Word-Format) unter Angabe Ihrer Verfügbarkeit sowie Ihres gewünschten Std.- / bzw. Tagessatzes.
Bitte beachten Sie, dass wir weiterführende Informationen zu dieser Ausschreibung wie bspw. Details zum Standort, dem Endkunden oder Tages- / Stundensätzen nur an bei uns registrierte Berater / Geschäftspartner herausgeben können.
Wenn Sie sich bei uns registrieren möchten, senden Sie uns bitte Ihr Profil (bitte im Word-Format).