Remote

Data Engineer (m/w/d) // Freelance, 100%, remote & Frankfurt

Hessen, Frankfurt am Main
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

DE-Version (EN-Version below)

Für unseren Kunden suchen wir einen Data Engineer:

Unser Kunde ist ein ärztlich geführtes Digital Health Start-Up mit der Mission, Patient*innen eine zeitgemäße Verbesserung des Zugangs zur Therapie mit medizinischem Cannabis zu ermöglichen. Das Unternehmen betreibt eine wachsende Anzahl an Standorten in Deutschland und bietet seinen Patient*innen dabei einen umfassenden, digitalisierten Service.

// DEINE AUFGABE //

- Entwurf, Entwicklung und Pflege der Datenplattform im Big Data-, DWH- und BI-Umfeld Lösungen für umfassende Aufgabenstellungen
- Entwicklung von ETL/ELT Pipelines
- Gemeinsam mit dem Team entwickelst du maßgeschneiderte Strategien, Konzepte und Lösungen zur effizienten Handhabung komplexer Datenbestände in einem anspruchsvollen Aufgabenumfeld
- Du arbeitest im Team an der Weiterentwicklung und Optimierung des Data-Lake
- Du übernimmst weitere Aufgaben in einem agil arbeitenden DevOps-Team
- Entwicklung wichtiger Plattformfunktionen wie Datenqualität, Governance und Auffindbarkeit
- Automatisierung von Datenprozessen und Entwicklung von Tools für den selbständigen Datenimport und -export
- Pflegen und Verwalten von Datenservices für interne Kunden
- Entwerfen und Implementieren von Lösungen für die Herausforderungen, denen unser Kunde im Zuge seines Wachstums gegenübersteht

// DAS BIST DU //

- Studium im Bereich Informatik, Wirtschaftsinformatik oder eine vergleichbare Ausbildung
- Mehrjährige Erfahrung in der Konzeption, Entwicklung und Implementierung von Datenlösungen
- Mehrjährige praktische Erfahrung in der Entwicklung von Cloud-Architekturen/Strategien sowie bei der Umsetzung
- Experte für Datenplattformen mit dem Blick auf die Trends im Markt und immer mit einem Auge auf aktuelle Entwicklungen
- Ausgewiesene Erfahrung als Cloud Data Architect oder Data Engineer
- Nachgewiesene Programmierkenntnisse in Python und SQL, Kenntnisse in Git und Erfahrung mit API-Integrationen
- Fähigkeit, Skripte zu schreiben, um Prozesse innerhalb unserer Datenplattformen zu automatisieren
- Gute Kenntnisse von SQL- und NO-SQL-Datenbanken, ETL/ELT, Data Lake Management und Erstellung automatisierter Datenpipelines
- Gute Kenntnisse von Datenlösungen wie Qlik Replicate, Azure Data Factory, Azure Data Lake, Snowflake, Apache Spark oder ähnlichen Technologien
- Kenntnisse in Bereichen wie z. B. Big Data Tools & Frameworks (z. B. Hadoop, AWS Athena, HDInsight, Spark, Palantir Foundry), Real-Time Stream Processing (z. B. Kafka, AWS Kinesis, Apache Pulsar), Data Warehouse (z. B. AWS Redshift, Azure DataWarehouse, AWS RDS), Data Vault (z. B. Data Vault 2.0, VaultSpeed, Data Vault Builder), oder Data Catalogs (z. B. Alation, Collibra, etc.), Master Data Management
- Solide Kenntnisse im Bereich Cloud-Automation und -Security sowie Connectivity
- Erfahrungen in mehreren der folgenden Bereiche sind von Vorteil: Softwareentwicklung, Big Data, IoT, maschinelles Lernen, Business Intelligence, fortgeschrittene Analytik
- Hohe analytische Fähigkeiten, eigenverantwortliche, qualitätsorientierte Arbeitsweise, professionelles Auftreten, ausgeprägte Team- und Kommunikationsfähigkeit sowie ausgezeichnete Präsentationsfähigkeiten

Wenn du interessiert bist, sende uns bitte deinen aktuellen Lebenslauf, Verfügbarkeit und Stunden- oder Tagessatz an

QUANTUM (https://quantumtec.org/) ist eine Personalvermittlung, die von Freiberuflern aus der digitalen Produktentwicklung gegründet wurde. Wir bringen die Erfahrung aus vielen Jahren in den Rollen Product Owner, Chief Product Owner und Chief Product Officer sowie User Experience Designer und Scrum Coach mit. Wir kennen also deine Herausforderungen! Diese „360°-Sicht“ geben wir an unsere Kunden und dich weiter und haben den Ehrgeiz, die besten Experten mit den richtigen Unternehmen zu verbinden. Werde Teil unserer Community (https://www.linkedin.com/groups//) und frage uns nach einer (kostenlosen) Mitgliedschaft in unserer Community. Dort stellen wir immer wieder Projekte und Specials für unsere Mitglieder ein!

Fon:
E-Mail:

QUANTUM International
MUNICH – WÜRZBURG – MÁLAGA

English version

For our customer we are looking for a Data Engineer:

Our client is a physician-led digital health start-up with the mission to provide patients with a contemporary improvement in access to medical cannabis therapy. The company operates a growing number of sites in Germany and offers its patients a comprehensive, digitized service.

// YOUR TASK //

- Design, development and maintenance of the data platform in the Big Data, DWH and BI environment solutions for comprehensive tasks
- Development of ETL/ELT pipelines
- Together with the team, you develop customized strategies, concepts and solutions for the efficient handling of complex data sets in a challenging task environment
- You work in a team on the further development and optimization of the data lake
- You will take on additional tasks in an agile DevOps team
- Development of important platform functions such as data quality, governance and discoverability
- Automation of data processes and development of tools for independent data import and export
- Maintain and manage data services for internal customers
- Design and implement solutions to the challenges our client faces as it grows

// THAT’S YOU //

- Degree in the field of Computer Science, Business Informatics or a comparable education
- Several years of experience in the design, development and implementation of data solutions
- Several years of practical experience in the development of cloud architectures/strategies as well as in implementation
- Expert in data platforms with an eye on trends in the market and always keeping an eye on current developments
- Proven experience as a Cloud Data Architect or Data Engineer
- Proven programming skills in Python and SQL, knowledge of Git, and experience with API integrations
- Ability to write scripts to automate processes within our data platforms
- Strong knowledge of SQL and NO-SQL databases, ETL/ELT, data lake management, and creating automated data pipelines
- Strong knowledge of data solutions such as Qlik Replicate, Azure Data Factory, Azure Data Lake, Snowflake, Apache Spark, or similar technologies
- Knowledge of areas such as Big Data tools & frameworks (e.g., Hadoop, AWS Athena, HDInsight, Spark, Palantir Foundry), real-time stream processing (e.g., Kafka, AWS Kinesis, Apache Pulsar), data warehousing (e.g. E.g. AWS Redshift, Azure DataWarehouse, AWS RDS), Data Vault (e.g. Data Vault 2.0, VaultSpeed, Data Vault Builder), or Data Catalogs (e.g. Alation, Collibra, etc.), Master Data Management
- Solid knowledge of cloud automation and security as well as connectivity
- Experience in several of the following areas is a plus: Software Development, Big Data, IoT, machine learning, Business Intelligence, advanced analytics
- Strong analytical skills, self-motivated, quality-oriented approach, professional demeanor, strong teamwork and communication skills, and excellent presentation skills

If you are interested, please send us your current CV, availability and hourly or daily rate to

QUANTUM (https://quantumtec.org/) is a recruitment agency founded by freelancers from the digital product development industry. We bring the experience of many years in the roles of Product Owner, Chief Product Owner and Chief Product Officer as well as User Experience Designer and Scrum Coach. We know your challenges! We pass on this “360° view” to our customers and you and have the ambition to connect the best experts with the right companies. Become part of our community (https://www.linkedin.com/groups//) and ask us for a (free) membership in our Community. There, we always post projects and specials for our members!

Phone:
E-Mail:

QUANTUM International
MUNICH – WÜRZBURG – MÁLAGA
Start
ab sofort
Dauer
6 Monate
(Verlängerung möglich)
Von
QUANTUM International
Eingestellt
19.01.2022
Ansprechpartner:
Burkhard Süssenguth
Projekt-ID:
2294386
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.