Jürgen Blecker verfügbar

Jürgen Blecker

Cognos, Data Mining, Data Analyse, BI, ETL and DWH specialist

verfügbar
Profilbild von Juergen Blecker Cognos, Data Mining, Data Analyse, BI, ETL and DWH specialist aus onrequest
  • 60311 on request Freelancer in
  • Abschluss: nicht angegeben
  • Stunden-/Tagessatz: nicht angegeben
  • Sprachkenntnisse: deutsch (Muttersprache) | englisch (gut) | spanisch (Grundkenntnisse)
  • Letztes Update: 24.09.2020
SCHLAGWORTE
PROFILBILD
Profilbild von Juergen Blecker Cognos, Data Mining, Data Analyse, BI, ETL and DWH specialist aus onrequest
DATEIANLAGEN
Profil EN

Diese Anzeige ist nur für angemeldete Nutzer möglich.

Profil DE

Diese Anzeige ist nur für angemeldete Nutzer möglich.

SKILLS
Cognos Analytics 11.1, ETL,
Shell, Perl, Python, SQL, PHP,
DB2, ORACLE, MSSQL, Maria, RoundRobin DB (RRD),
Data Warehouses (DWH), TDS, CRM
Data Analyse, Data Mining
System-P Virtualization (LPARs, VLAN, Storage),
VMware Virtualization (VMs, Cluster, etc),
VMware-VCenter’s SDK-API, HMC-REST-API,
LDAP,SAS,SSH,
LPAR2RRD,
Networking, Firewalls, SAS and SSH tunneling,
Tivoli Productivity Center (TPC), IBM Spectrum Control (ISP).

Please download my profile for details!
PROJEKTHISTORIE
  • 10/2018 - bis jetzt

    • IBM - DACH
    • >10.000 Mitarbeiter
    • Sonstiges
  • Portierung eines Reporting Tools zu IBM Cognos Analytics
  • Auf Basis meiner Empfehlung wurde der OpenSource-basierende Reporting Teil des DWH „BlueCap“ (s.u.) zu IBM Cognos Analytics (CA) portiert. Hierzu wurde auf die neueste Version CA 11.1.x gesetzt, incl. User-Authentifizierung via LDAP-groups.  Das Erstellen diverser BI-Reports und die Presentation mittels CA-Dashboards gehörte zu meinen Aufgaben. Auch wurden die bisher entwickelten ETL-Scripte (Shell, Perl) mit Python neu geschrieben.


  • 01/2014 - bis jetzt

    • IBM - DACH
    • >10.000 Mitarbeiter
    • Sonstiges
  • Projektleitung und Service Management Support
  • Unterstützung der Service- und Key Account Manager in allen Aspekten von Virtualisierungs- und Kapazitätsfragen (BI-Reports).
    BlueCap (siehe unten, das von mir konzipierte DWH, Data Mining & Reporting-Tool) wurde zum zentralen Kapazität-Planungs-Tool für IBM-DACH, wodurch ich zum zentralen Ansprechpartner für das DACH Capacity- & Controlling-Team wurde.
    Ständige Anpassung und Erweiterung von Infrastruktur- und Kapazitätsberichten. Steuern eines Entwicklungsteams zur Weiterentwicklung des DWH „BlueCap“.

    Als verantwortlicher Projektleiter wurde ich beauftragt eine neue, DACH-weite, Infrastruktur zu planen und mit einem Team aufzubauen. Hierzu gehörte u.a. die Netzwerkplanung (VLANs, Firewall rules), Empfehlung der Server-Landschaften und die Auswahl der Middleware. Die Umsetzung erfolgt auf Basis von agilen Vorgehensweisen unter Anlehnung Scrum ähnlicher-Prozesse.


  • 01/2018 - 09/2018

    • IBM - DACH
    • >10.000 Mitarbeiter
    • Sonstiges
  • Portierung eines DWHs inkl. App. von AIX zu RedHat (RHEL).
  • Es wurde beschlossen BlueCap’s DWH (s.u.) und Applikation in ein anderes Netzwerk-Segment zu verlegen und die Applikationen und Scripte, DB2s (incl. allen Procedures), Apache Webserver, etc., zu Redhat RHEL zu portieren. Die grösste Herausforderung war hier das Verlagern des Data Lakes und die vielen Datenquellen wieder zu "connecten" (Security, Firewall, etc.).
    Dies wurde von einem kleinen Team (5 MAs) unter meiner technischen Leitung umgesetzt. 
    In weiteren Schritten wurden diverse Optimierungen vorgenommen. So kamen Column-Oriented-Tables (COT) und Materialized-Query-Tables (MQT) zum Einsatz, was eine erhebliche Perfomance-Steigerung zur Folge hatte.


  • 01/2014 - 12/2016

    • IBM - DACH
    • >10.000 Mitarbeiter
    • Sonstiges
  • Konzeption und Entwicklung eines agilen Data-Warehouses (DWH)
  • Einen Auftrag zur Konzipierung und Entwicklung einer agilen Data-Warehouses (DWH) erhalten, sodass es später auch ein offizielles IBM Tool für die Konfigurations- und Kapazitätsberichterstattung werden kann. Ziel war es, eine Vielzahl von unterschiedlichen Datenquellen (s.u. "Korrelierte Datenquellen“) zusammenzubringen um zu einem aussagekräftigen Kontext zu kommen (Data Analyse). Hierzu wurden die Daten in einem Data Lake zur weiteren Verarbeitung zusammengeführt - unter Vermeidung von Redundanzen. Strukturierte Daten (z.B. aus anderen DBs) wurden direkt in das DWH übertragen oder hinein gelinkt. Hier mussten diverse ETL-Prozesse(ETL-Pipes) definiert und entwickelt werden.
    Bei der Erstellung des Konzepts wurde zunächst geprüft, welche Datenquellen von Interesse sein könnten. Dies beinhaltete umfangreiche Datenanalysen  (Data Analyse) jeder Art von Quelle und Datenmodellen.
    Überprüfen der Netzwerkabhängigkeiten für spätere Firewall-Einstellungen, Sicherheit oder alternativen Zugangslösungen.
    Entwickeln der Datenmodelle und Schemas gemäss Data Vault (3NF) und Datenbankroutinen in Form von komplexen SQL-Anweisungen in Stored Procedures.
    Migration meiner alten Lösung (siehe unten) von MySQL zu DB2.
    Zur Berichterstellung habe ich Tivoli Common Reporting incl. JAZZ etc. (Cognos) eingerichtet (incl. Cognos-Server) und auch Cognos Mobile getestet. Das Erstellen von diversen Reports war hier natürlich auch inkludiert.
    Am Ende habe ich diese Lösung "BlueCap" genannt. Sie wurde zu einem offiziellen IBM Tool und erhielt DACH-weite Akzeptanz.

    Mit BlueCap ist IBM nun in der Lage, ihre virtuelle Infrastruktur (einschließlich ihrer Cloud-Installationen) zu optimieren, die System-Ps, System-Xs (ESXs) und Storage-Systeme besser zu nutzen und verwaiste Ressourcen aufzufinden und freizugeben. Eine eingeschlossene Trendanalyse weist auf bevorstehende Engpässe hin. Einige Customer-Accounts verwenden diese Daten auch für ihre Kundenberichte.
    Schließlich übergab ich das Tool einigen IBM Mitarbeitern, die bis heute noch unter meiner technischen Leitung stehen.

    Korrelierte Datenquellen:
    Tivoli Data Warehouse  (TDW), Tivoli Productivity Center and IBM Spectrum Control (TPC),  Tivoli Decision Support for MVS (TDS (z/os DB2)), IBM internal asset DB and IBM internal configuration DBs (ORACLE-DBs), VMware-VCenter’s SDK-API, System-P’s HMCs CLI und REST-API, Round Robin Databases (RRD) and diverse files formats.

    Angewandte Technologien:
    DB2, DB2 federated connect for ORACLE and z/os DB2, (DB2- SQL and -stored procedures), Tivoli Common Reporting (Cognos), Perl, Shell, PHP, javascript (basic), LDAP, SAS, SSH-Tunneling, LPAR2RRD, …


  • 01/1990 - 12/2014

    • Diverse
    • >10.000 Mitarbeiter
    • Sonstiges
  • Diverse Projekte:
  • Freiberuflich - IBM Deutschland (Frankfurt) – 2013-2014

    Unterstützung des IBM-„Deutsche Bank"-Teams. Entwicklung und Design einer ORACLE-Grid Infrastruktur.
    Evaluieren und Testen von OpenStack für eine mögliche Verwendung.

    Freiberuflich - IBM Deutschland (Frankfurt) – 2013-2014

    Unterstützung des IBM-„Deutsche Bank"-Teams. Entwicklung und Design einer ORACLE-Grid Infrastruktur.
    Evaluieren und Testen von OpenStack für eine mögliche Verwendung.

    Freiberuflich - IBM Deutschland (Ehningen (HO)) – 2012-2013

    Unterstützung bei diversen Outsourcing-und Transition Projekten. Erfassen der IT-Infrastrukturen der Kunden, Re-design und Integration in die virtuellen Technologien der IBM. Anschliessende Übergabe der Projekte an die IDCs für den täglichen Betrieb.
    Parallel dazu wurde die Entwicklung des DWHs "BlueCap" (siehe unten) fortgesetzt, um auch die Virtualisierung der Konfigurationsparameter und Kapazitätsdaten zu ermöglichen.

    Freiberuflich - IBM Deutschland (Ehningen (HO)) – 2009-2011

    Konzeption, Test und Einsatz von virtualisierten Technologien.

    Freiberuflich - IBM Deutschland (Ehningen (HO)) – 2006-2008

    Konsolidierung und Schließung eines Rechenzentrums. Datenerfassung und Auswertung zur optimierten Wiederherstellung der Infrastruktur in einem anderen Rechenzentrum. Entwicklung einer einfachen Routine, um wiederkehrende Datenerfassung zu automatisieren und manuelle Inkonsistenzen durch einen zentralen Datenpool zu verhindern. Diese Routine wurde später "BlueCap" genannt, s.o.).

    :
    :
    :

    Angestellt - ORACLE Germany (Düsseldorf, München) – 1989-1991

    Nach einer gut strukturierten Ausbildung war ich verantwortlich für die Pre- und Postale-Unterstützung für ORACLE-Produkte, mit Schwerpunkt auf ORACLE-Kernel, Client / Server-Architektur, UNIX und Netzwerkkomponenten.

    Angestellt - Nixdorf Computer AG (Paderborn) – 1985-1989

    Pre- und Post-Sales-Support für UNIX-Umgebungen (und erster Kontakt zu relationalen Datenbanken).
    Zentrale Support Abteilung: Internationale Unterstützung für UNIX-Systeme, spezialisiert auf Netzwerktechnologien wie TCP/IP und SNA.


ZEITLICHE UND RÄUMLICHE VERFÜGBARKEIT
als unverheirater Single bin ich geografisch und zeitlich absolut unabhängig.
SONSTIGE ANGABEN
Please download my personal and detailed profile!
KONTAKTANFRAGE VERSENDEN

Nachricht:

Absenderdaten:

WEITERE PROFILE IM NETZ