Profilbild von Alexander Korolev Senior Python Developer - ML Ops Engineer, Data Engineer - NLP aus Darmstadt

Alexander Korolev

verfügbar

Letztes Update: 10.04.2024

Senior Python Developer - ML Ops Engineer, Data Engineer - NLP

Firma: code council GmbH
Abschluss: Master of Science Informatik
Stunden-/Tagessatz: anzeigen
Sprachkenntnisse: deutsch (Muttersprache) | englisch (verhandlungssicher)

Dateianlagen

Profile-Alexander-Korolev_230224.pdf

Skills

[GER]
Alexander Korolev zeichnet sich durch sein breites und technisches Verständnis aus. Aufgrund seiner Lern- und Innovationsbereitschaft hat er sich im Laufe der Zeit gute Kenntnisse in verschiedenen Softwaretechnologien und Programmiersprachen angeeignet. Er unterstützt und gewährleistet mit seinem Wissen den Informationsfluss in homogenen IT-Landschaften. Durch seine strukturierte Arbeits- und Kommunikationsweise ist er in der Lage einzelne Fragestellungen und Anforderungen für den Integrationsprozess zu konkretisieren, Technologien zu definieren und diese umzusetzen.


[EN]
Alexander Korolev is characterized by his broad and technical understanding. Due to his willingness to learn and innovate, he has acquired good knowledge of various software technologies and programming languages over time. With his knowledge, he supports and ensures the flow of information in homogeneous IT landscapes. Due to his structured way of working and communicating, he can specify individual issues and requirements for the integration process, define technologies and implement them..


----------
Für Anfragen können Sie uns auch gerne via Mail an intern@codecouncil.de oder telefonisch unter der +49 157 56 02 99 02 erreichen.

 

Projekthistorie

01/2023 - bis jetzt
Datenintegration im Bahnverkehr - Data Engineer & Softwarearchitekt

Tätigkeit
 
  • MSSQL / Oracle:
Durchführung fortgeschrittener Entwicklung und Optimierungen in der Datenbanklandschaft, um bestehende Strukturen und Abfrageeffizienz zu verbessern. Verwendung von T-SQL für komplexe Datenmanipulation und Analyse, gepaart mit Tests zur Sicherstellung der Datenintegrität und -qualität.
  • ETL:
Entwurf und Implementierung robuster ETL-Pipelines unter Verwendung von Talend, SSIS und Python, um Daten aus verschiedenen Quellen zu extrahieren, zu transformieren und in Oracle- und MS SQL-Datenbanken zu laden.
  • AWS:
Verantwortlich für die Migration von On-Premise-Workloads in die AWS-Cloud unter Verwendung von Cloud-Technologien wie Amazon Relational Database Service (RDS) und S3-Storage.
  • Zabbix, Tableau:
Implementierung eines Überwachungssystems für die ETL-Prozesse und Datenbankinfrastruktur unter Einsatz von Zabbix und Tableau. Konfiguration und Wartung, unterstützt durch regelmäßiges Reporting in Tableau und Jira / Confluence.
  • Git, Jira:
    Verbesserung der Entwicklungs- und Deployment-Prozesse, um die Einführung neuer Features zu beschleunigen. Nutzung von Scrum-Methodiken zur effizienten Koordination und Umsetzung.
  • Docker & Kubernetes:
Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.


Technologien/Tools
• MS SQL Server • Oracle • AWS • ETL • Talend • SSIS • (T)-SQL • Python • C# • Docker • Kubernetes • Tableau • Power BI • Jira/Confluence • CI/CD • Git • Zabbix

09/2022 - bis jetzt
Entwicklung einer Text-To-Speech Anwendung (Open Source) - Software Developer & Machine Learning Engineer

Tätigkeit
 
  • TTS-Technologien:
    Entwicklung und Erforschung fortschrittlicher TTS-Systeme für eine klare und natürliche Sprachausgabe. Umsetzung innovativer Ansätze zur Verbesserung der Verständlichkeit und Natürlichkeit der erzeugten Sprache.
  • Python & PyTorch:
    Verwendung von Python und PyTorch für die Entwicklung und das Training von TTS-Modellen.
  • Python & Jupyter:
    Einsatz von Python und Jupyter-Notebooks zur Steigerung der Effizienz von Datenverarbeitungs- und Verwaltungsprozessen durch Automatisierung dieser.
  • Huggingface & NLP:
Verwendung von vortrainierten NLP-Modellen von Huggingface zur Erweiterung und Verbesserung der TTS-Modelle.
  • C#, JavaScript & WPF:
Entwicklung mehrerer Benutzeroberfläche für die TTS-Anwendung als Desktop-App mit C# unter Verwendung von WPF und einer Webapp.
  • ONNX Runtime:
Verwendung der ONNX Runtime zur Optimierung der Ausführungszeiten der TTS-Modelle.


Technologien/Tools
• Python • PyTorch • NumPy • TTS • Jupyter • Huggingface • C# • Javascript • WPF • ONNX • SQLite • Git • Unit Tests

09/2022 - 02/2024
Datenintegration im Energiekonzern - Software Developer & Data Engineer

Tätigkeit
 
  • Elastic Stack:
    Entwurf und Entwicklung von Datenmodellen in Elastic Search. Implementierung von Datenübertragungslösungen mit Elastic-nativen Tools wie Beats und Logstash, um eine nahtlose und effiziente Datenintegration zu gewährleisten. Datenvisualisierung mit Kibana zur Visualisierung von Datensätzen, Erstellung von benutzerfreundlichen Dashboards.
  • ETL:
    Integration von ETL-Pipelines mit Apache Airflow und Python zur Verarbeitung verschiedener Datenquellen und Datenformate.
  • Redis:
    Implementierung eines Redis-basierten Message Brokers für die Kommunikation und Synchronisation zwischen verschiedenen Systemkomponenten.
  • FastAPI:
    Design und Implementierung von REST APIs mit FastAPI, Schwerpunkt auf Integration und Kommunikation zwischen heterogenen Systemen.
  • Python & Jupyter:
    Einsatz von Python und Jupyter-Notebooks zur Steigerung der Effizienz von Datenverarbeitungs- und Verwaltungsprozessen durch Automatisierung dieser.
  • scikit-learn, Transformers:
    Einsatz von KI-gestützten Datenanalysemethoden unter Verwendung von sklearn und transformers in Python. Fokus auf Mustererkennung und Klassifizierung dieser in Gruppen.
  • Docker & Kubernetes:
Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.


Technologien/Tools
• Elastic Search • ETL • Apache Airflow • Redis • Elastic Stack • Elastic Search • Beats • Logstash
• Kibana • Python • Jupyter • REST • FastAPI • AI • scikit-learn • Transformers • Jira/Confluence
• Git • Docker

01/2022 - 09/2022
Entwicklung eines Emergency Chatbots - Software Developer & Machine Learning Engineer

Tätigkeit
 
  • PyTorch & Huggingface:
    Verwendung von PyTorch zum Entwickeln und Trainieren von Modellen für maschinelles Lernen, insbesondere für die Verarbeitung natürlicher Sprache und das Verstehen von Benutzeranfragen. Verwendung von Huggingface-Tools, einschließlich der Integration von vortrainierten Modellen.
  • LLM (Large Language Models):
Integration von großen Sprachmodellen (Large Language Models), um komplexe Benutzeranfragen zu verstehen und zu reagieren, insbesondere in Notfallsituationen.
  • NLP (Natural Language Processing)
Untersuchung und Implementierung verschiedener NLP-Frameworks wie Rasa, Dialogflow oder IBM Watson zur Analyse, zum Verständnis und zur Verarbeitung menschlicher Sprache, um eine genaue und effektive Kommunikation mit den Benutzern zu ermöglichen.
  • FastAPI:
Entwicklung einer Schnittstelle mit FastAPI für den Chatbot, um eine schnelle, skalierbare und wartbare API-Bereitstellung der NLP-Modelle zu gewährleisten.
  • Unit Tests:
Durchführung umfassender Unit-Tests, um die Zuverlässigkeit und Funktionalität aller Komponenten des Chatbots sicherzustellen.
  • Kubernetes:
Einsatz von Kubernetes für die Orchestrierung und das Management der Anwendungen.

Technologien/Tools
• Python • PyTorch • Jupyter • LLM • NLP • Rasa • Dialogflow • IBM Watson • Huggingface
• Elastic Search • FastAPI • Unit Tests • Kubernetes • Git



01/2021 - 01/2022
Entwicklung eines Sprachassistenten im Bereich AAL (Betreutes Wohnen) - Software Developer & Machine Learning Engineer

Tätigkeit
 
  • PyTorch & TensorFlow:
    Verwendung von PyTorch und TensorFlow für die Entwicklung und das Training von Deep-Learning-Modellen. Speziell für Spracherkennung (ASR), natürliche Sprachverarbeitung (NLP) und Text-to-Speech (TTS).
  • DeepSpeech & Kaldi:
    Erforschung und Implementierung von Spracherkennungsmodellen mit DeepSpeech und Kaldi zur Verbesserung der Transkriptionsgenauigkeit von Nutzeranfragen, insbesondere für den Bereich Ambient Assisted Living.
  • Rasa:
Entwicklung von NLP-Komponenten mit Rasa zum Verstehen und Verarbeiten von Benutzeranfragen, einschließlich der Gestaltung von Dialogabläufen und Integration in den Sprachassistenten.
  • Nvidia Jetson:
Nutzung der Nvidia Jetson-Plattform für Edge-Computing-Anwendungen, um eine schnelle und lokale Verarbeitung von Sprachdaten zu ermöglichen und die Reaktionszeit des Assistenten zu verbessern.
  • Eingebettete Systeme & IoT:
Integration des Sprachassistenten in eingebettete Systeme und IoT-Geräte im Bereich des betreuten Wohnens, um eine nahtlose Interaktion und Konnektivität zu gewährleisten.


Technologien/Tools
• Python • PyTorch • TensorFlow • Jupyter • DeepSpeech • Kaldi • Rasa • NLP • ASR • TTS
• Nvidia Jetson • Unit Tests • Docker • Git • Eingebettete Systeme • IoT


01/2021 - 06/2021
Datenintegration E-Commerce Offline/Online Daten - Software Developer & Data Engineer

Tätigkeit
 
  • Apache Kafka:
Integration von Apache Kafka zur Optimierung der Echtzeit-Datenverarbeitung und -Kommunikation. Nutzung der Streaming-Funktionen von Kafka zum Aufbau einer robusten und skalierbaren Dateninfrastruktur.
  • Java:
Entwurf und Implementierung von spezifischen Kafka-Konnektoren in Java für die Integration neuer Datenquellen. Entwicklung von Kafka-Streams mit Schwerpunkt auf der Echtzeitverarbeitung und Speicherung von E-Commerce-Daten in PostgreSQL- und MSSQL-Datenbanken.
  • Debezium:
Einsatz von Debezium in Verbindung mit Apache Kafka zum Aufbau einer zuverlässigen Datenpipeline für die Datenreplikation und -synchronisation, unterstützt durch kontinuierliche Change Data Capture (CDC) Mechanismen.
  • ETL:
Entwicklung und Optimierung von ETL-Prozessen mittels SSIS zur Gewährleistung einer effizienten Datenextraktion, -transformation und -ladung.
  • Unit Tests:
  • Durchführung von Testautomatisierung mit JUnit und Pytest zur Sicherstellung der Softwarequalität und zur Reduzierung von Fehlern in der Entwicklungsphase.
  • Python:
Entwicklung von Skripten in Python zur Automatisierung von wiederkehrenden Aufgaben und Prozessen, insbesondere im Zusammenhang mit der Datenverwaltung und Systempflege.
  • Docker & Kubernetes:
Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.


Technologien/Tools
• Apache Kafka • PostgreSQL • MSSQL • Debezium • Python • SQL • Redis • JUnit Tests • ETL
• SSIS • Java • Jira/Confluence • CI/CD • Docker • Kubernetes • E-Commerce

01/2020 - 01/2021
CRM – ETL, Datenmanagement und Controlling - Software Developer & Data Engineer

Tätigkeit
 
  • Apache Kafka:
Integration von Apache Kafka zur Optimierung der Echtzeit-Datenverarbeitung und -Kommunikation. Nutzung der Streaming-Funktionen von Kafka zum Aufbau einer robusten und skalierbaren Dateninfrastruktur.
  • Java:
Entwurf und Implementierung spezifischer Kafka-Konnektoren in Java für die Integration neuer Datenquellen.
  • Debezium:
Einsatz von Debezium in Verbindung mit Apache Kafka zum Aufbau einer zuverlässigen Datenpipeline für die Datenreplikation und -synchronisation, unterstützt durch kontinuierliche Change Data Capture (CDC) Mechanismen.
  • ETL:
Entwicklung und Optimierung von ETL-Prozessen mittels SSIS zur Gewährleistung einer effizienten Datenextraktion, -transformation und -ladung.
  • JUnit:
Durchführung von Testautomatisierung mit JUnit und anderen relevanten Tools zur Sicherstellung der Softwarequalität und zur Reduzierung von Fehlern in der Entwicklungsphase.
  • Python:
Entwicklung von Skripten in Python zur Automatisierung von wiederkehrenden Aufgaben und Prozessen, insbesondere im Zusammenhang mit der Datenverwaltung und Systempflege.


Technologien/Tools
• Apache Kafka • Debezium • Java • SQL • Debezium • DevOps • Python • ETL • SSIS
• JUnit Tests • MSSQL • MySQL • CI/CD • Docker

02/2019 - 01/2020
Datenverarbeitung und Datenanalyse- Business Intelligence - Software Developer & Data Engineer

Tätigkeit
 
  • Datenmodellierung:
    Entwurf und Implementierung eines maßgeschneiderten Datenmodells, das speziell auf die Analyseanforderungen des E-Commerce-Kunden zugeschnitten ist. Fokus auf optimierte Datenmodellierungsmethoden, um Effizienz und Skalierbarkeit der Datenverarbeitung und -analyse zu gewährleisten.
  • ETL:
Entwurf und Implementierung von ETL-Pipelines unter Verwendung von SQL Server Integration Services (SSIS) zur effizienten Datenkonsolidierung und -aufbereitung. Entwicklung von Berechnungsmethoden für umfassende statistische Datenanalysen und Berichte.
  • Grafana, Tableau:
    Erstellung von aussagekräftigen Datenvisualisierungen zur Darstellung von Trends und Analysen. Verwendung von Grafana und Tableau für interaktive Dashboards und Berichte, um Erkenntnisse verständlich und zugänglich zu machen.
  • Docker:
Einsatz von Container-Technologien zur effizienten Verwaltung von Softwareanwendungen.


Technologien/Tools
• SQL • MSSQL • SSIS • Grafana • Tableau • Docker • JTL • E-Commerce


01/2015 - 01/2019
Integration / Automatisierung / Monitoring der IT-Landschaft - Software Developer & IT Architect

Tätigkeit
 
  • VMware:
Entwicklung und Implementierung einer virtuellen Infrastruktur an verschiedenen Standorten. Verantwortlich für die kontinuierliche Wartung und Optimierung dieser Systeme.
  • ETL:
Integration und Verwaltung von ETL-Pipelines für die Konsolidierung und Homogenisierung heterogener Datenquellen. Umfassende Nutzung von SSIS (SQL Server Integration Services) für eine effiziente Datenverarbeitung.
  • Rundeck, Ansible:
Entwicklung und Umsetzung von Automatisierungsstrategien für IT-Infrastrukturprozesse. Erstellung von Skripten in Python, Bash und PowerShell zur Ausführung in RunDeck. Orchestrierung und Konfigurationsmanagement von virtuellen Betriebssystemen mit Ansible.
  • Python, C#:
Entwicklung von Skripten und Anwendungen zur Unterstützung, Automatisierung und Überwachung der IT-Infrastruktur. Einsatz von Python und C# zur Optimierung betrieblicher Abläufe.
  • Zabbix:
Integration und Konfiguration von Zabbix zur umfassenden Überwachung der IT-Landschaft. Sicherstellung der Systemverfügbarkeit und Leistungsüberwachung.
  • Docker:
Einsatz von Container-Technologien zur effizienten Verwaltung von Softwareanwendungen.


Technologien/Tools
• Python• C# • ETL • SSIS • Power BI • MSSQL • MySQL • VMware ESX • Ansible • RunDeck • Git
• Docker • Zabbix


Reisebereitschaft

Weltweit verfügbar
Remote Tätigkeit Wünschenswert mit der Reisebereitschaft für notwendige Treffen vor Ort.

Sonstige Angaben

Alexander Korolev zeichnet sich durch sein breites und technisches Verständnis aus. Aufgrund seiner Lern- und Innovationsbereitschaft hat er sich im Laufe der Zeit gute Kenntnisse in verschiedenen Softwaretechnologien und Programmiersprachen angeeignet. Er unterstützt und gewährleistet mit seinem Wissen den Informationsfluss in homogenen IT-Landschaften. Durch seine strukturierte Arbeits- und Kommunikationsweise ist er in der Lage einzelne Fragestellungen und Anforderungen für den Integrationsprozess zu konkretisieren, Technologien zu definieren und diese umzusetzen.

EN
Alexander Korolev is characterized by his broad and technical understanding. Due to his willingness to learn and innovate, he has acquired good knowledge of various software technologies and programming languages over time. With his knowledge, he supports and ensures the flow of information in homogeneous IT landscapes. Due to his structured way of working and communicating, he can specify individual issues and requirements for the integration process, define technologies and implement them.
Profilbild von Alexander Korolev Senior Python Developer - ML Ops Engineer, Data Engineer - NLP aus Darmstadt Senior Python Developer - ML Ops Engineer, Data Engineer - NLP
Registrieren