Andreas Habel verfügbar

Andreas Habel

Software-Architekt und -entwickler (PHP) / IT Consultant

verfügbar
Profilbild von Andreas Habel Software-Architekt und -entwickler (PHP) / IT Consultant aus Schenefeld
  • 22869 Schenefeld Freelancer in
  • Abschluss: Fachinformatik/IHK
  • Stunden-/Tagessatz: nicht angegeben
  • Sprachkenntnisse: deutsch (Muttersprache) | englisch (gut)
  • Letztes Update: 17.06.2019
SCHLAGWORTE
PROFILBILD
Profilbild von Andreas Habel Software-Architekt und -entwickler (PHP) / IT Consultant aus Schenefeld
SKILLS
Softwareentwicklung
  • Über 14 Jahre tiefgreifende Erfahrung in der professionellen, objektorientierten Entwicklung mit PHP
  • Konzeption und Umsetzung von langlebigen und wartbaren Software-Architekturen
  • Vertraut mit den Prinzipien des objektorientierten Designs (SOLID Principles)
  • Mehrjährige Erfahrung mit Software Architektur Pattern / Design Pattern
  • Planung und Einführung von Continuous Integration, -Delivery und -Deployment-Strategien
  • Domain-Driven Design
  • Dependency Injection
  • Event-Driven Design und Event Sourcing
  • Command/Query Responsibility Segregation
  • Test Driven Development / Unit- und Integration-Testing
  • Planung und Aufbau ausfallsicherer Client/Server Konzepte
  • Aufbau von sicheren, performanten und nutzerfreundlichen Schnittstellen
  • Microservice-Architekturen
  • Umfangreiche Kenntnisse im Bereich XML, XSL/XSLT, XPath und den PHP-Extensions DOMDocument und DOMXPath
  • Erfahrung mit XDebug, PHPCodesniffer, PHPDepend, PHPMD, PHPCPD, PHPStan
  • Konzeption von skalierbaren, relationalen Datenbankmodellen in MySQL unter Beachtung von Normalisierungstechniken
  • Fundierte Kenntnisse in der Planung komplexer relationaler Datenbankmodelle/Normalisierung
  • Vertraut mit den gängigen Datenformaten im Schnittstellen-Bereich
  • Bash/Shell Scripting
  • Javascript und NodeJS
  • Grundlagenkenntnisse in den Programmiersprachen C, C++, C#, Perl und Python

IT-Management/Strategie & People Skills
  • Ausgeprägte Hands-On und Can-Do Mentalität
  • Methodisches und strukturiertes Arbeiten
  • Eigenständige Arbeitsweise
  • DevOps Mindset - Automating & Scaling
  • Projekt- und Teamleitung
  • Projektmanagement
  • Fähigkeit zur Konfliktlösung und Eskalationsmanagement
  • Steakholdermanagement / Providermanagement
  • IT Requirements Engineering
  • IT Service Design und IT Service Delivery
  • IT Service Transition
  • Unterstützung bei Projekten im Bereich Microsoft 365 / Office 365
    • Sharepoint Online
    • Office 365 Teams
    • Office 365 Flow
    • Prozess-Automatisierung in Office 365-Umgebungen

IT-Infrastruktur, Operations & DevOps
  • Umfangreiche Kenntnisse in der Inbetriebnahme und Administration von Serverumgebungen im Linux-Bereich
    • Networking / Routing
    • Systemprozesse / systemd
    • Partitioning / LVM
  • Aufbau von DNS Management-Systemen (Domain Handling, Nameserver-Strukturen und -Hochverfügbarkeit)
  • Aufbau sicherer, skalierbarer und performanter Lösungen im Nameserver-Umfeld
  • Datenbank-Architekturen und Hochverfügbarkeits-Lösungen
  • Implementierung von Lösungen im Bereich Monitoring und Metriken
  • Load-Balancer-, Cluster- und Failoverstrategien / Caching-Lösungen
  • Planung, Einführung und Management von Storage-Lösungen im Bereich Enterprise und Small Business, z.B. Dell EMC und HP Enterprise
  • Datensicherungsmethoden im Client- und Server-Bereich
  • Grundlegende Kenntnisse in der Arbeit mit VOIP/SIP
  • GitLab - Aufbau und Betrieb von Deployment- und Testing-Pipelines
  • Paketierung auf linuxbasierten Systemen (RPM, DEB)
  • Toolchain-Automatisierung mit Jenkins
  • Konfigurationsmanagement mit Ansible

IT-Sicherheit
  • Aufbau von Netzwerk-Infrastrukturen (WAN/DMZ, Interne Netzwerke)
  • Netzwerk-Segmentierung, Switching & VLAN-Tagging/Setup
  • Routing- und Firewall-Setups im Open Source Linux Umfeld
    • Netfilter/iptables / OpenWrt / OpnSense / IPSense
  • Angriffsabwehr und DDoS-Strategien für Unternehmensnetzwerke, Servern in DMZ und Rechenzentrum und im Web- und Content Delivery-Bereich
  • Erfahrung im Bereich zertifikatsbasierter Authentifizierungsmethoden und Verschlüsselungsstrategien
    • SSH / RSA / DSA / Secure FTP
    • SSL im Client- und Server-Umfeld
    • PKI / x509
    • DNS-Zonen-Sicherheit mit DNSSEC
    • Dienste- und Datenverschlüsselung
    • S/MIME E-Mail-Signaturen
    • Signaturmanagement
  • Konzeption und Aufbau eigener SSL Certification Authorities
  • Aufbau und Betrieb von VPN-Lösungen auf IPSec- und OpenVPN-Basis
  • Application Proxy Services / Application Firewall
  • Mailserver-Management
    • MX Failover & Replikation
    • DKIM & SPF

Virtualisierung
  • VMWare ESXi Cluster
  • VMWare vSphere
  • VMWare vCenter
  • VMWare HA & Fault Protection
  • Client- und Development-Virtualisierung / Vagrant
  • Virtualisierungslösungen Linux
    • OpenVZ
    • Proxmox
    • KVM
    • LXC / RKT
    • Docker

Weitere Qualifizierungen
  • IHK Hamburg / AEVO
    Ausbildereignungsprüfung (Fachinformatiker Anwendungsentwicklung/Systemintegration)
    Nachweis über berufs und arbeitspädagogische Kenntnisse, Methoden der Wissensvermittlung,
    Konfliktlösungsmethoden, Moderationstechniken
     
  • Bundesnetzagentur Deutschland
    Amateur Radio Novice Examination Certificate (based on ERC 32)
    Nachweis über elektrotechnische und elektronische Kenntnisse im Bereich der Funktechnologie
     
  • Archiware
    Lehrgang/Seminar Archiware PresSTORE P5 Data Management Solutions
    Backup/Restore, Archivierung, PoolManagement & Backup-Strategien, Backup2Disk, Backup2Tape
     
PROJEKTHISTORIE
2019
HTTP-Framework / HTTP-Abstraktion Lucille

Lucille ist eine auf den CQRS-Prinzipien (Command-Query-Responsibility-Segregation) basierende Eigenentwicklung, die es ermöglicht, dynamische Webprojekte oder Schnittstellenanwendungen einfach und performant umzusetzen.
Durch die Trennung von Lese- und Schreibzugriffen (Command & Query) ermöglicht diese Architektur eine gute Wartbarkeit, Skalierungsmöglichkeiten und eignet sich zum Einsatz in serviceorientierten Umgebungen.
Das Lucille HTTP-Framework steht als Open Source Projekt unter der BSD-Lizenz zur freien Nutzung zur Verfügung.

Lucille GitHub-Repository:
https://github.com/conperience/lucille


2019
Konzeption eines Asset Management Systems im Intranet
Um ein einheitliches Intranet für Fachabteilungen zu schaffen, denen bisher eigenständige Webportale zur Verfügung standen und um ein abteilungsübergreifendes Arbeiten mit den hinterlegten Daten zu ermöglichen, wurde ein Asset Management System benötigt, welches sämtliche Geschäftsdaten und deren Beziehungen zueinander in standardisierter Form bereitstellt.

Sekundäres Ziel war es eine unternehmensweite Weboberfläche bzw. Portalansichten zu schaffen, in der sich alle Fachabteilungen über eine zentrale Benutzerauthentifizierung (LDAP Directory) anmelden können.
Das Asset Management System ist vollständig in PHP geschrieben und basiert zur Datenhaltung auf einem relationen Datenbankmodell in MySQL.

Die REST-basierte Schnittstelle, über die Daten zu Assets (Dokumente, Metainformationen und Binär-Daten) abgerufen werden können, ist sowohl mit JSON- als auch XML-formatierten Abfragen verwendbar.
Über HTTP-Methoden wie GET, PUT, PATCH und DELETE lassen sich Asset-Informationen verändern, erzeugen und löschen und werden über eine stetig mitgeführte Versionshistorie nachvollziehbar vorgehalten.
Über eine angepasste Nginx-Proxy-Konfiguration können Dateien wie PDF-, Word- und Excel-Dokumente und hochauflösende Bilder im TIF-Format performant und direkt von dem dahinter liegenden Storage-Server geladen und weiterverarbeitet werden.

Um für die Webansichten schnelle Ladezeiten für Übersichtsseiten mit Vorschaubildern, Datenexporten und einer globalen Asset-Suche zu ermöglichen, werden sämtliche Asset-Stammdaten und Metainformationen parallel in einem ElasticSearch-Cluster vorgehalten.


2019
Unternehmensweite Event Sourcing Datenbank
Ziel des Projekts war die Konzeption und Umsetzung einer Datenbank, mit der alle auftretenden Geschäftsprozesse und Änderungen gesichert, weiterverarbeitet und zu weiteren Auswertungs/Reporting-Zwecken, z.B. durch die Anbindung an andere Business Intelligence Tools / Data Warehouse in einen Gesamtkontext gebracht werden können.

Die grundlegende Funktionsweise von eventbasierten Architekturen ist, Inhaltsdaten und Metainformationen zu aufgetretenen Prozessänderungen standardisiert und chronologisch in so genannten Event-Streams persistent vorzuhalten.
Events, also Ereignisse – etwas, dass in der Vergangenheit passiert ist – werden mit den notwendigen/relevanten Daten unter einem eindeutigen Event-Namen abgelegt.

In einer externen Webapplikation zur Bearbeitung und Verwaltung von Dokumenten kann eine Veränderung des Workflow-Status von „Prüfung Kunde“ zu „Freigabe Kunde“ erfolgen. So wird ein Event mit dem Namen „DocumentWorkflowStatusChanged“ ausgelöst und zusammen mit relevanten Daten wie einer Dokumenten-ID, dem neuen und dem alten Status dem Event-Stream hinzugefügt.

Durch ein sogenanntes Replay – also das erneute „abspielen“ des Event-Streams – können so alle getätigten Statusänderungen des Dokuments über den gesamten Lebenszyklus nachverfolgt werden.
Das Projekt basiert auf einem zentralen Datenbankserver und einer Schittstellen-Architektur auf Basis von JSON-formatierten Event-Daten, die es ermöglicht, sämtliche Ereignisse von allen im Unternehmen und auf externen Servern eingesetzten Softwareprodukten und Webportalen aufzugreifen und im EventStore zu persistieren.

Durch lokales Vorhalten der Events auf allen Servern und durch einen automatisiert laufenden Synchronisierungsprozess werden Event-Daten auch im Falle von Infrastrukturausfällen, wie dem dem Ausfall einer Internetleitung, mit einer zeitlichen Verzögerung, korrekt übertragen.


2018
Redundantes DNS-Management mit Schnittstelle zur DNS-Zonen-Verwaltung
Konzeption und Umsetzung einer redundant ausgelegten Nameserver-Infrastruktur mit XML-basierter Schnittstelle zur programmatischen Verwaltung von Domains und DNS-Zonen.

Um Kunden die Möglichkeit zu geben Änderungen an DNS-Zonen und Domain-Stammdaten durchführen zu können, wurde eine neue Nameserver-Infrastruktur konzipiert, die die Änderungen von allen relevanten Daten in DNS-Bereich ermöglicht und dabei vollständig auf einen schnittstellen-basierten Ansatz setzt.

Durch eine Versionierung der Zonendaten, das Bereitstellen von Kommentaren, Key/Value-Tags (z.B. zur Hinterlegung von Abrechnungsinformationen wie Kostenstellen) kann der Kunde (und dessen Endkunde) jede manuelle und automatisierte Änderung nachvollziehen und organsieren.

Sämtliche Transaktionen werden mit entsprechenden Success- und Error-Codes quitiert, was auch eine vollständig automatisierte Verwaltung und Überwachung der DNS-Zonendaten erlaubt.
Drei Power-DNS-Instanzen als autoritative Nameserver sorgen für eine redundante Verfügbarkeit bei externen DNS-Queries (Anfragen zur Namensauflösung).

Ein interner Master-DNS-Server (Hidden Master; nur interner Managementzweck) verwaltet hierbei die DNS-Zonendaten. Extern erreichbare Abfrage-DNS-Server haben nur lesenden Zugriff.


2018
Automatisierte SEPA-Lastschrift-Verarbeitung mit Office 365
Um die in einem Webshop und anderen Bestellsystemen generierten Rechnungen durch SEPA-Lastschift vom Bankkonto des Zahlungspflichtigen Endkunden automatisiert einziehen zu können, musste eine Lösung geschaffen werden, die auf Basis des vom Unternehmen verwendeten Dienstes Microsoft Office 365 basiert.

Einzuziehende Lastschriften werden dabei von den entsprechenenden externen Systemen in Sharepoint-Online-Listen vorgehalten und müssen von dort aus entsprechend der SEPA-Einreichungs-Fristen automatisiert vor Fälligkeit des Betrages über HBCI an die Hausbank übertragen werden.

In einer Sharepoint-Liste pro Bestellsystem werden die ID des Kunden, der Betrag und die Rechnungsnummer gespeichert. Bei der Verarbeitung der auszuführenden Lastschriften werden die Kundenstammdaten wie der Name des Kunden, die Bankverbindung und die eindeutige Lastschriftmandats-ID aus einer Kundendatenbank gelesen.

Zur Verarbeitung der einzuziehenden Lastschrift werden über eine tägliche laufende PHP-Applikation nachts alle zu verarbeitenden Einträge über die REST-Schnittstelle von Office 365 Sharepoint Online ausgelesen.
Nach einer grundlegenden Verifizierung der Daten werden daraus Lastschrift-Objekte erstellt, alle notwendigen Daten enthalten, um von den Servern der Bank akzeptiert zu werden.

Nach der erfolgreichen Übertragung per HBCI an die Bank werden die verarbeiteten Lastschrift-Einträge über die REST-Schnittstelle in der Sharepoint-Liste als „Verarbeitet markiert“. Hierzu wird ein Feld <Status> in der Sharepoint-Liste auf den entsprechenden Wert gesetzt.
 
ZEITLICHE UND RÄUMLICHE VERFÜGBARKEIT
- Hamburg und Umgebung
- D-A-CH
SONSTIGE ANGABEN
Linkedin:

https://www.linkedin.com/in/andreas-habel/
KONTAKTANFRAGE VERSENDEN

Nachricht:

Absenderdaten:


exali IT-Haftpflicht-Siegel (Sondertarif für Freelancermap-Mitglieder):

Das original exali IT-Haftpflicht-Siegel bestätigt dem Auftraggeber, dass die betreffende Person oder Firma eine aktuell gültige branchenspezifische Berufs- bzw. Betriebshaftpflichtversicherung abgeschlossen hat. Diese Versicherung wurde zum Sondertarif für Freelancermap-Mitglieder abgeschlossen.

Versicherungsbeginn:
25.02.2018

Versicherungsende:
01.01.2020

Zum exali-Profil »