Schlagwörter
Cloud Computing
Python
Workflows
Datenverarbeitung
Databricks
Künstliche Intelligenz
Amazon Web Services
Machine Learning
Flask
Pyspark
Skills
Im Rahmen meiner Masterarbeit entwickle ich einen skalierbaren KI-Algorithmus zur Anomalieerkennung und integriere diesen in eine Cloud-basierte Datenpipeline auf AWS. Dabei setze ich intensiv Python ein, insbesondere mit PySpark für verteilte Datenverarbeitung. Zudem habe ich Erfahrung mit Databricks und Cloud-Technologien, wodurch mir die Arbeit mit Azure und ähnlichen Plattformen vertraut ist. Die Entwicklung und Optimierung von Workflows sowie die Sicherstellung einer stabilen und zuverlässigen Datenverarbeitung sind Kernbestandteile meiner Arbeit.
Zusätzlich habe ich Erfahrung in der Entwicklung von Python-basierten Anwendungen, darunter Web-Frameworks wie Flask und Streamlit, um datengetriebene Lösungen bereitzustellen. Grundlegende Kenntnisse im Machine Learning ergänzen mein technisches Profil.
Meine Kenntnisse im Überblick
✔ Datenverarbeitung & Data Engineering
Zusätzlich habe ich Erfahrung in der Entwicklung von Python-basierten Anwendungen, darunter Web-Frameworks wie Flask und Streamlit, um datengetriebene Lösungen bereitzustellen. Grundlegende Kenntnisse im Machine Learning ergänzen mein technisches Profil.
Meine Kenntnisse im Überblick
✔ Datenverarbeitung & Data Engineering
- Entwicklung und Optimierung von ETL-Pipelines mit PySpark und Databricks
- Arbeit mit SQL, Data Lakes und strukturierten Datenmodellen
- Automatisierung von Workflows mit Apache Airflow
- Performance-Optimierung von Datenabfragen und Spark-Jobs
- Anwendung von ML-Algorithmen für Datenanalysen
- Verarbeitung großer Datenmengen für ML-Modelle in der Cloud
- Erfahrung mit AWS-Services (S3, Glue, Athena, Redshift, IAM, Lambda)
- Nutzung von Databricks für skalierbare Datenverarbeitung
- Kenntnisse in CI/CD-Pipelines und Git-Workflows
- Deployment von Python-Apps mit Flask & Streamlit
Projekthistorie
Reisebereitschaft
Verfügbar in den Ländern
Deutschland