Beschreibung
WICHTIG: Nur festangestellte Personen (Backgroundcheck erforderlich, KRITIS)
Standort: Berlin, Deutschland (Remoteanteil 80%)
Sprachen: Deutsch (erforderlich), Englisch (erforderlich)
Projektdauer: 03.07.2025 - 02.07.2026 (mit Aussicht auf Verlängerung)
Beschreibung:
Unser Kunde, ein Unternehmen aus der Energiewirtschaft, sucht Unterstützung für die Entwicklung eines Monitoring-Tools. Ziel des Projekts ist die Berechnung einer Vielzahl von KPIs sowie die Bereitstellung intuitiver Visualisierungen für interne Analysen im Kontext von Kapazität und Leistungserbringung durch Regelreserveanbieter (BSP). Der Anwendungsbereich wird auf das Monitoring weiterer Systemdienstleistungen ausgedehnt.
Die Rolle umfasst die Entwicklung und Optimierung von Databricks-Notebooks und Workflows, die Verwaltung von Databricks-Tabellen, die Bereitstellung von Datenpipelines und Analytics-Lösungen sowie die Entwicklung von Automatisierungsskripten mit Python. Zudem wird die Abstimmung mit Stakeholdern und die Erstellung von Dokumentationen erwartet.
Hauptaufgaben:
- Design, Aufbau und Optimierung von Databricks-Notebooks und strukturierten Workflows.
- Verwaltung von Databricks-Tabellen, Optimierung der Speicherebenen und Implementierung effektiver Strategien für Partitionierung, Indexierung und Datenkomprimierung.
- Bereitstellung von Datenpipelines und Analytics-Lösungen unter Anwendung bewährter Databricks-Verfahren.
- Design und Entwicklung von Automatisierungsskripten mit Python, inklusive Code-Reviews.
- Sicherstellung von sicherem und hochwertigem Code im Einklang mit den Standards.
- Koordination mit Stakeholdern zur Abstimmung von Anforderungen in Bezug auf Governance, Sicherheit und Compliance.
Beitrag zu technischen Refinement-Sessions.
- Erstellung von Dokumentationen zur Nachvollziehbarkeit technischer Aspekte.
Anforderungen:
- Branchenkenntnisse in der Energieversorgung sind von Vorteil.
- Kenntnisse in Apache Spark, Airflow, Kafka und im Azure Data Engineering Stack sind ein Plus.
- Erfahrung mit einem .NET-Stack und Blazor (optional).
- Verständnis von Clean Architecture, Data Meshing und Datenstrategien.
Standort: Berlin, Deutschland (Remoteanteil 80%)
Sprachen: Deutsch (erforderlich), Englisch (erforderlich)
Projektdauer: 03.07.2025 - 02.07.2026 (mit Aussicht auf Verlängerung)
Beschreibung:
Unser Kunde, ein Unternehmen aus der Energiewirtschaft, sucht Unterstützung für die Entwicklung eines Monitoring-Tools. Ziel des Projekts ist die Berechnung einer Vielzahl von KPIs sowie die Bereitstellung intuitiver Visualisierungen für interne Analysen im Kontext von Kapazität und Leistungserbringung durch Regelreserveanbieter (BSP). Der Anwendungsbereich wird auf das Monitoring weiterer Systemdienstleistungen ausgedehnt.
Die Rolle umfasst die Entwicklung und Optimierung von Databricks-Notebooks und Workflows, die Verwaltung von Databricks-Tabellen, die Bereitstellung von Datenpipelines und Analytics-Lösungen sowie die Entwicklung von Automatisierungsskripten mit Python. Zudem wird die Abstimmung mit Stakeholdern und die Erstellung von Dokumentationen erwartet.
Hauptaufgaben:
- Design, Aufbau und Optimierung von Databricks-Notebooks und strukturierten Workflows.
- Verwaltung von Databricks-Tabellen, Optimierung der Speicherebenen und Implementierung effektiver Strategien für Partitionierung, Indexierung und Datenkomprimierung.
- Bereitstellung von Datenpipelines und Analytics-Lösungen unter Anwendung bewährter Databricks-Verfahren.
- Design und Entwicklung von Automatisierungsskripten mit Python, inklusive Code-Reviews.
- Sicherstellung von sicherem und hochwertigem Code im Einklang mit den Standards.
- Koordination mit Stakeholdern zur Abstimmung von Anforderungen in Bezug auf Governance, Sicherheit und Compliance.
Beitrag zu technischen Refinement-Sessions.
- Erstellung von Dokumentationen zur Nachvollziehbarkeit technischer Aspekte.
Anforderungen:
- Branchenkenntnisse in der Energieversorgung sind von Vorteil.
- Kenntnisse in Apache Spark, Airflow, Kafka und im Azure Data Engineering Stack sind ein Plus.
- Erfahrung mit einem .NET-Stack und Blazor (optional).
- Verständnis von Clean Architecture, Data Meshing und Datenstrategien.