IT

Data Engineer (m/w/d) im Rahmen der Arbeitnehmerüberlassung

Frankfurt am Main Deutschland100% RemoteArbeitnehmerüberlassungab sofortDauer 11 Monate100% Auslastung
Ansprechpartner
Anastasia Talaskin
Projekt-ID
2956783
Information EngineeringETLElasticsearchFehlerbehandlungInfrastrukturJsonPythonMachine LearningNode.JsTelemetrieLogstashSemantikSiemStandardisierungSyslogDaten- / DatensatzprotokollierungFluentdApache KafkaKibanaGolang

Beschreibung

Moin liebes Netzwerk,

für unseren Kunden in Frankfurt am Main bin ich aktuell auf der Suche nach einem Data Engineer (m/w/d) im Rahmen der Arbeitnehmerüberlassung.

Start: asap
Dauer: 31.12.2026, mit Option auf Verlängerung
Standort: Remote, selten vor Ort in Frankfurt am Main

Aufgaben:
  1. Entwerfen, verbessern und warten von Datenpipelines, um Protokolle in ElasticSearch-, Kibana- und OpenSearch-Umgebungen zu ingestieren.
  2. Anwenden von OpenTelemetry-Semantik-Konventionen und branchenüblichen Best Practices, um Protokollfelder über heterogene Datenquellen (z. B. JSON, Syslog, proprietäre Formate) hinweg zu normalisieren.
  3. Initiativen zur Standardisierung und Anreicherung von Protokolldaten leiten, um Alarmkorrelation, Zeitachsenanalyse und Untersuchungskontext zu unterstützen.
  4. Neue Protokollquellen in das Security-Operations-Ökosystem integrieren, unter Berücksichtigung von Sicherheitsrelevanz, Quellkategorisierung und Anreicherung (z. B. IP-Kontext, Identitätszuordnung).
  5. SOC-Detection-Engineers unterstützen, indem Quellübergreifende Korrelationen ermöglicht und zu hochpräzisen Alarmierungs-Use-Cases beigetragen wird.
  6. Anomalieerkennungsmodelle implementieren oder unterstützen, die mithilfe von Machine-Learning-Frameworks ungewöhnliches Verhalten in Protokollen kennzeichnen.
  7. Mit Security Engineers zusammenarbeiten, um Erkennungslogik bereitzustellen, die auf den Ausgaben Ihrer Pipeline basiert.
  8. Zur Entwicklung oder Leitung von benutzerdefinierten Protokoll-Transformationsskripten, ETL-Tools und Anreicherungsdiensten beitragen (z. B. Threat-Intelligence-Overlays).
  9. Verantwortung für Observability und Fehlerbehebung der Logging-Infrastruktur übernehmen, um zeitgerechte Ingestion, Schema-Konsistenz und Systemleistung sicherzustellen.
erforderliche Skills:
  1. Bachelor- oder Masterabschluss in Informatik, Data Engineering oder einem verwandten Bereich – oder gleichwertige praktische Erfahrung.
  2. Fundierte Erfahrung mit ElasticSearch, Kibana, OpenSearch sowie Log-Shipping-Tools wie Fluentd, Logstash oder Beats.
  3. Erfahrung in der Anwendung von OpenTelemetry, ECS (Elastic Common Schema) oder ähnlichen Schema-Strategien.
  4. Gute Kenntnisse in Python, Go oder Node.js zur Erstellung von Log-Prozessoren, Parsern und Anreicherungsskripten.
  5. Tiefes Verständnis für strukturierte und unstrukturierte Log-Formate, einschließlich JSON, Syslog und benutzerdefinierte Anwendungsprotokolle.
  6. Vertrautheit mit dem Aufbau und der Wartung von Pipelines unter Verwendung von Kafka, Filebeat, Logstash oder vergleichbaren Technologien.
  7. Erfahrung in der Unterstützung eines SOC- oder SIEM-Umfelds mit Schwerpunkt auf Log-Qualität, Korrelationslogik und Erkennungs-Enablement.
Ist dies aktuell für Sie interessant? Dann schicken Sie mir gerne Ihr aktuelles Profil und Ihren Gehaltswunsch per Mail an anastasia.talaskin@roberthalf.de

Bewerben