Thomas Kasic verfügbar

Thomas Kasic

Senior Consultant Datenintegration / ETL / DWH / Pentaho

verfügbar
Profilbild von Thomas Kasic Senior Consultant Datenintegration / ETL / DWH / Pentaho  aus NeukirchenVluyn
  • 47506 Neukirchen-Vluyn Freelancer in
  • Abschluss: Dipl.-Ing. (FH) Elektrotechnik / Informationsverarbeitung
  • Stunden-/Tagessatz: nicht angegeben
  • Sprachkenntnisse: deutsch (Muttersprache) | englisch (verhandlungssicher)
  • Letztes Update: 02.06.2016
SCHLAGWORTE
SKILLS
Erfahrungen
Datenintegration / API / Schnittstellen
ETL - Prozesse / Dataflow Architektur
Datawarehousing  / Datamart
Data Quality / Dublettensuche / Deduplizierung / Fuzzy Matching / Entity Matching
Datenanalyse
Softwareentwicklung / Java
Performanceoptimierung / skalierbare Systeme
Beratung
Projektleitung / Teilprojektleitung / Agile (Kanban)
Administration
Anforderungsmanagement / Presales / Erstellung von Konzepten und Angeboten


Kenntnisse:

Erstellung von ETL Prozessen / PDI (Kettle / Pentaho Data Integrator)
Datawarehouse (DWH Staging / Core / Data Cleansing) / Data Mart
Softwareentwicklung / Architektur
Objektorientierte Programmierung / OOA / OOD
Java, Java Servlets , Apache Ant
Salesforce / SOQL / Custom Objects / SOAP / Schnittstellen
Tomcat, WebSphere Studio Application Developer
C, C++,Delphi
Javascript, HTML, CSS, PHP, VBA
SQL, MS SQL 2000 / MS SQL 2005 / MS SQL 2008, MS SQL 2012 , T-SQL
MySQL 3.X, MySQL 4.X, MySQL 5.X, Postgresql (ab V.8.X), IBM DB2 Host/ IBM DB2  I-Series (AS/400), Oracle 9g, Oracle 10g, Oracle 11g

JDBC / OLE / ODBC / ADO
XML / DTD / JSON
Webservices / SOAP / REST
MS Office, MS Visio, MS Project
Inkscape, Gimp
PGP / GnuPG
Pattern Matching, Entity Matching,Record Linkage, Regular Expressions (Regex)
Win 3.11, 95, NT 4.0, Windows 2000, Windows XP, Vista, Windows 7, Windows 8
Unix, Linux (Redhat / Ubuntu)
Routing, Firewall, Iptables, Apache Webserver, Samba, Shell Scripting
Mind Maps, Metaplan Technik, Requirements engineering
 
PROJEKTHISTORIE
Projekt     Datenintegration / DWH - Erstellen von ETL Prozessen (Dataflow) / Strecken (DI / DWH)
Report Erstellung ; Java / Entwicklung
Zeitraum     07/10 - heute
Branche    Kunststofftechnik
Details:

Bidirektionale Anbindung von Salesforce an die Unternehmens IT
Erstellung der ETL Jobs / Strecken mit Penataho Data Integrator ( PDI / Kettle)
Für die Anbindug wird die Salesforce SOAP Schnittstelle genutzt
Generische Migration der Daten aus einem Lotus Notes basierten, dezentralen CRM System zu Salesforce. Migriert werden über 30 Niederlassungen.
-- Account Object
-- Contact Objekt
Bidirektionale Anbindung der Account und Contact Objekte an die ERP Systeme ( MS Axapta & zwei weitere propietäre ERP Systeme)
Die Daten werden inkrementell im fünf Minuten Intervall aktualisiert.
Erstellen eines Salesforce Custom Objects für das Schnittstellen Logging. Sämtliche Schnittstellen Job Läufe werden, bez. relevanter KPI zusammengefasst, zu Salesforce in das Custom Object hochgeladen.
Täglicher inkrementeller Upload der Produkt & Preis Informationen / insgesamt fünf Salesforce Custom Objects
Realisierung eines Rekamationsworkflows
In einem Custom Object werden Produkt spezifische Reklamationen erfasst. Diese Informationen werden im 5 Minuten Intervall an das ERP System (propietär / DOS basiert) übergeben.
Nach jeder Bearbeitung im ERP System werden die aktualisierten Informationen an Salesforce übergeben.
Realisierung eines Musterbestellung Workflows
Produktmuster werden über Salesforce bestellt und bearbeitet.  Die Daten werden an das ERP System ( MS Axapta ) übergeben und dort weiter bearbeitet.
Die aktualisierten Status Daten werden zurück zu Salesforce übertragen.
Salesforce, SOQL , SOAP API, Data Loader, Workbench, Custom Objects, Pentaho Data Integrator 5.X, Bulk API

Identifizierung von Artikeldubletten in MS Dynamics AX4.
Parsen der Artikelbeschreibung um die semi strukturierten Informationen mittels Regex aus der Artikelbeschreibung zu extrahieren.
Anschließende Identifizierung der Artikel Dubletten via Fuzzy Matching
PDI (Kettle / Pentaho Data Integrator 5.0) , MS Dynamics AX 4 , MS SQL Server 2012, Windows Server 2012

POC - Bidirektionale Anbindung von Salesforce an die Unternehmens IT.
Genutzt wurde die SOAP Webservice Schnittstelle (SF SOAP API 24).
Aufgrund des Proof of Concept wurde die Realisierung der Schnittstellen zu Salesforce mittels PDI beschlossen.
Salesforce,  PDI (Kettle / Pentaho Data Integrator 5.0) , MS SQL Server 2012, Windows Server 2012

Einbindung von Webshop Daten  (MS SQL 2012)  in das DWH.              
Inkrementelles Laden (jede Minute) aller Webshop Daten in das DWH (Staging).
Mittels Fuzzy Matching / unscharfe Suche werden die eventuell bereits vorhanden Kontakte in den Systemen MS Dynamics AX & CRM (Lotus Notes) identifiziert, um die Bestell Prozesse zu beschleunigen und die Erstellung von Dubletten zu verhindern.
PDI (Kettle / Pentaho Data Integrator 5.0) , MS SQL Server 2012, Windows Server 2012, MS Axapta 4
Online Synchronisierung zwischen den Systemen Lotus Notes CRM - DWH - Artegic Elaine ASP (Cloud). Der Gesamtprozess wird mittels PDI (Kettle / Pentaho Data Integrator) realisiert. In diesem Fall wird die Web REST Api von Artegic Elaine für den Datenaustausch genutzt.
PDI (Pentaho Data Integrator 4.2) , MS SQL Server 2008, Lotus Domino 8.5, Artegic Elaine, Windows Server 2012
Verarbeitung von via SFTP zur Verfügung gestellten CSV Dateien mit E-Mail Bounce Informationen. Diese Informationen werden vom DWH dem Lotus Notes basierten CRM zur Verfügung gestellt. Der Gesamtprozess wurde mit PDI (Kettle / Pentaho Data Integrator) realisiert.
PDI (Pentaho Data Integrator 4.2) , MS SQL Server 2008, Lotus Domino 8.5, Artegic Elaine
automatisierte E-Mail Listen Generierung via PDI (Kettle / Pentaho Data Integrator) Die Ergebnis Dateien werden zur weiteren Verarbeitung via SFTP zum ASP Dienstleister (Artegic Elaine) hochgeladen.
Lotus Notes CRM => DWH => Artegic Elaine
PDI (Pentaho Data Integrator 4.2) , MS SQL Server 2008, Lotus Domino 8.5, Artegic Elaine
Erstellen von verschiedenen Excel Reports. Die Erstellung und Versendung der Reports via E-Mail geschieht mittels PDI (Pentaho Data Integrator 4.1 & 4.2)
PDI (Pentaho Data Integrator 4.1 / 4.2) , MS SQL Server 2008
Data Integration (DI) ; Schaffung einer Schnittstelle zwischen folgenden Systemen :
Tisoware (Zeiterfassung ; MS SQL 2008 basierend) - DWH - Lnet (Lotus Notes basiertes Personalmanagement)
PDI (Pentaho Data Integrator 4.1) , MS SQL Server 2008, Tisoware, Lnet, Lotus Domino
Integration eines propietären ERP Systems in das DWH (Staging)
Erstellen der ETL Prozesse / DWH Strukturen / DDL
PDI (Pentaho Data Integrator 4.1) , MS SQL Server 2008
Entwicklung eines hochperformanten, nebenläufigen  Java Programmes für den Export von Lotus Domino Daten in ein DWH (RDBMS)
Aufbau eines DWH (Staging Bereich)
Java, Eclipse, Apache Ant, MS SQL 2008 / MS SQL 2012

            
Projekt Weiterentwicklung einer Lotus Notes Datenbanken zur Erstellung und Verwaltung von Leasinganfragen.

Zeitraum05/10 - 07/2010
BrancheIT-Dienstleister
DetailsDie Datenbank wird im Konzern gesellschaftsübergreifend genutzt. Eine generische Worfklow Engine ermöglicht die Konfiguration von dokumentenübergreifenden Workflows. Sämtliche Prozesschritte werden geloggt um spätere KPI Auswertungen zu ermöglichen.
Darüber hinaus werden relevante Daten über die ODBC Schnittstelle in ein MS SQL 2008 Server DWH exportiert.
Lotus Notes 6.5, Lotus Domino 6.5, Citrix Appserver, MS SQL 2008 Server



Projekt Datenintegration / Konzeption und Erstellung eine Schnittstelle zum Stammdatenabgleich zwischen dem Lotus Domino Konzern Verzeichnis und der "EcholoN® Helpdesk" Software

Zeitraum09/09 - 09/09
BrancheBank
DetailsDie Schnittstelle basiert auf Java / JDBC Technologien und wurde unter Verwendung der Java IDE Netbeans und des Lotus Designers 8.5.1 erstellt. Der Java Agent synchronisiert täglich das Lotus Domino Verzeichnis mit den Stammdatentabellen (MS SQL 2005 Server) der "EcholoN® Helpdesk" Software
     


Projekt Datenintegration / automatisierte Logdaten Auswertung und Performance Auswertung

Zeitraum06/09 - 08/09
BrancheBank
DetailsAutomatisierte Logdaten Auswertung von verteilten Server Logdaten. Analyse der Daten zur Infrastruktur Performance Optimierung für die Server. Parsen der Daten und Überführung in eine strukturierte Form. Speicherung im RDBMS
Debian Linux, PostgreSQL, AWK, SED, PDI, Gnuplot,
Shell Script, Regex
                 

Projekt Erstellen von ETL Prozessen zum Befüllen eines Enterprise DWH
Zeitraum12/05-05/07
BrancheChemie/Pharma
DetailsAnpassung und Einbindung verschiedener Datenquellen (Staging & Core DWH). Sicherstellung des laufenden Betriebes. Überprüfung der Datenqualität. Zusätzlich wurden Performanceoptimierungen  vorgenommen.
Migration der Datenbank von DB2 (Host) auf Oracle 10g.
Das Incident Management erfolgte nach ITIL.
             
DB 2 Host , Oracle 10g, Dezign,  AQT ( Advanced Query Tool)












 
ZEITLICHE UND RÄUMLICHE VERFÜGBARKEIT
Verfügbar ab: 06.06.2016
Reisebereitschaft innerhalb von Deutschland / EU vorhanden.
KONTAKTANFRAGE VERSENDEN

Nachricht:

Absenderdaten: