IT
Data Engineer (m/w/d) im Rahmen der Arbeitnehmerüberlassung
Frankfurt am Main, Deutschland100% RemoteArbeitnehmerüberlassungab sofortDauer 11 Monate100% Auslastung
Eingestellt von
Robert Half Deutschland GmbH & Co. KGAnsprechpartner
Anastasia Talaskin
Projekt-ID
2956783
Information EngineeringETLElasticsearchFehlerbehandlungInfrastrukturJsonPythonMachine LearningNode.JsTelemetrieLogstashSemantikSiemStandardisierungSyslogDaten- / DatensatzprotokollierungFluentdApache KafkaKibanaGolang
Beschreibung
Moin liebes Netzwerk,
für unseren Kunden in Frankfurt am Main bin ich aktuell auf der Suche nach einem Data Engineer (m/w/d) im Rahmen der Arbeitnehmerüberlassung.
Start: asap
Dauer: 31.12.2026, mit Option auf Verlängerung
Standort: Remote, selten vor Ort in Frankfurt am Main
Aufgaben:
- Entwerfen, verbessern und warten von Datenpipelines, um Protokolle in ElasticSearch-, Kibana- und OpenSearch-Umgebungen zu ingestieren.
- Anwenden von OpenTelemetry-Semantik-Konventionen und branchenüblichen Best Practices, um Protokollfelder über heterogene Datenquellen (z. B. JSON, Syslog, proprietäre Formate) hinweg zu normalisieren.
- Initiativen zur Standardisierung und Anreicherung von Protokolldaten leiten, um Alarmkorrelation, Zeitachsenanalyse und Untersuchungskontext zu unterstützen.
- Neue Protokollquellen in das Security-Operations-Ökosystem integrieren, unter Berücksichtigung von Sicherheitsrelevanz, Quellkategorisierung und Anreicherung (z. B. IP-Kontext, Identitätszuordnung).
- SOC-Detection-Engineers unterstützen, indem Quellübergreifende Korrelationen ermöglicht und zu hochpräzisen Alarmierungs-Use-Cases beigetragen wird.
- Anomalieerkennungsmodelle implementieren oder unterstützen, die mithilfe von Machine-Learning-Frameworks ungewöhnliches Verhalten in Protokollen kennzeichnen.
- Mit Security Engineers zusammenarbeiten, um Erkennungslogik bereitzustellen, die auf den Ausgaben Ihrer Pipeline basiert.
- Zur Entwicklung oder Leitung von benutzerdefinierten Protokoll-Transformationsskripten, ETL-Tools und Anreicherungsdiensten beitragen (z. B. Threat-Intelligence-Overlays).
- Verantwortung für Observability und Fehlerbehebung der Logging-Infrastruktur übernehmen, um zeitgerechte Ingestion, Schema-Konsistenz und Systemleistung sicherzustellen.
erforderliche Skills:
- Bachelor- oder Masterabschluss in Informatik, Data Engineering oder einem verwandten Bereich – oder gleichwertige praktische Erfahrung.
- Fundierte Erfahrung mit ElasticSearch, Kibana, OpenSearch sowie Log-Shipping-Tools wie Fluentd, Logstash oder Beats.
- Erfahrung in der Anwendung von OpenTelemetry, ECS (Elastic Common Schema) oder ähnlichen Schema-Strategien.
- Gute Kenntnisse in Python, Go oder Node.js zur Erstellung von Log-Prozessoren, Parsern und Anreicherungsskripten.
- Tiefes Verständnis für strukturierte und unstrukturierte Log-Formate, einschließlich JSON, Syslog und benutzerdefinierte Anwendungsprotokolle.
- Vertrautheit mit dem Aufbau und der Wartung von Pipelines unter Verwendung von Kafka, Filebeat, Logstash oder vergleichbaren Technologien.
- Erfahrung in der Unterstützung eines SOC- oder SIEM-Umfelds mit Schwerpunkt auf Log-Qualität, Korrelationslogik und Erkennungs-Enablement.
Ist dies aktuell für Sie interessant? Dann schicken Sie mir gerne Ihr aktuelles Profil und Ihren Gehaltswunsch per Mail an anastasia.talaskin@roberthalf.de