Profilbild von Thomas Gaengler Philosophical Engineer aus Dresden

Thomas Gängler

nicht verfügbar bis 04.10.2022
Kontakt

Letztes Update: 25.03.2022

Philosophical Engineer

Firma: ddoit - Thomas Gängler
Abschluss: Diplom Medieninformation
Stunden-/Tagessatz: anzeigen
Stunden- und Tagessatz in netto; der Tagessatz entspricht dem "geläufigen Standard" von 8 Arbeitsstunden; idealerweise arbeite ich gern 6 Stunden pro Tag; die Preise sind verhandelbar - es kommt immer ganz auf den Umfang oder die Dauer des Auftrages an.
Sprachkenntnisse: deutsch (Muttersprache) | englisch (verhandlungssicher) | russisch (Grundkenntnisse)

Dateianlagen

Lebenslauf_-_Thomas_Gaengler_-_Februar_2022_-_freelance.pdf
Ausfuehrlicher_Lebenslauf_-_Thomas_Gaengler_-_Februar_2022.pdf
Ueber_mich_-_Thomas_Gaengler_-_Juni_2021.pdf
ddoit_-_Thomas_Gaengler_-_Mein_Angebot.pdf

Skills

Glaube an Musik um zu überleben!
Lasst uns teilen, was wir wissen!
Kommunikation ist alles!

Mein Angebot

Sie sind auf der Suche nach einem Vermittler oder Übersetzer zwischen fachlicher und technischer Seite bei der Realisierung ihrer Datenmanagement-Herausforderungen oder Software-Projekte? – Ich helfe ihnen gern die Bedürfnisse ihrer Nutzer oder Anwendergruppen gemeinsam im Team in einer agilen und pragmatischen Arbeitsweise zu ermitteln, zu beschreiben und diese in passgenaue IT-Lösungen umzusetzen.
Ich bin ein vielseitiger IT-Allrounder, d.h., ein guter Mix aus Knowledge-Engineer, Business-Analyst, Projekt- bzw. Aufgabenmanager, User-Experience-Engineer, Servant Leader und Softwareentwickler. So bringe ich ein gutes und umfangreiches Verständnis des gesamten Softwareentwicklungszyklus mit. Beginnend von der Bedarfsanalyse über die Umsetzung hin zur Dokumentation kann ich sie gern mit meinen Fähigkeiten und Kenntnissen tatkräftig unterstützen.
Insbesondere in dem Bereich des Datenmanagements bzw. genauer gesagt der Informationsintegration konnte ich in der Vergangenheit gute und intensive Erfahrungen sammeln, welche ich in Zukunft gern anwenden, weitergeben und ausbauen möchte. Dabei habe ich mich viel mit dem Anwendungsbereich des Bibliothekswesens beschäftigt, aber auch mit der Verarbeitung von E-Commerce-, Umwelt- oder Musikmetadaten. Währenddessen habe ich die Anwendungsgestaltung aus Nutzersicht (UX) sowohl bei der Realisierung von Discovery-Lösungen als auch beim Aufbau von generischen Datenmanagementworkflows beachtet.
Ich arbeite vorzugsweise gern mit (echten) crossfunktionalen und interdisziplinären Teams, d.h., inkl. Domänen-/Geschäftsexperten. Ich möchte Menschen gern verstehen und ihnen dabei helfen, ihre täglichen Herausforderungen und Probleme zu lösen. Ich mache gern Bedarfsanalysen, Projektmanagement, Datenmanagement, Wissensrepräsentationssachen, Domänenmodellierung, Anwendungsgestaltung aus Nutzersicht (UX), User-Story-Modellierung und Datenanalysen.
Ich helfe ihnen gern in folgenden Bereichen bei der Realisierung ihrer IT-Herausforderungen: Projektmanagement, Aufgabenmanagement, Bedarfsanalyse, User-Story-Modelling, Domänenmodellierung, Schnittstellendesign, User-Experience-Design, Datenmanagement, Wissensrepräsentation, Schemadesign, Informationsintegration, Informationsaggregation, ETL, Datenanalyse, Documentstores, Graphdatenbanken, Open Data, Linked Data, Semantic Web. Üblicherweise möchte ich gern in "non-evil"-Anwendungsbereichen arbeiten, d.h., z.B. dem Gesundheitswesen, dem Bibliothekswesen, dem öffentlichen Sektor, dem öffentlichen Nahverkehr oder ähnlichen Bereichen.
Fähigkeiten und Technologien:
  • Arbeitsorganisation: agil, lean
  • Projektmanagement: Aufgabenmanagement, Bedarfsanalyse, User-Story-Modelling, Diagrammgestaltung, Risikoanalyse, Aufwandsschätzung, Anforderungsbeschreibung, Servant Leadership, Dokumentation, Wissensvermittlung
  • Anwendungsgestaltung: Proof-of-Concept-Implementierung, Wireframe-Gestaltung, Domänenmodellierung, Schnittstellendesign, User-Experience-Design
  • Datenmanagement: Wissensrepräsentation, Datenmodellierung/ Schemadesign, Informationsintegration, Informationsaggregation, ETL, Datenanalyse, Open Data, Linked Data, Semantic Web, Documentstores, Graphdatenbanken, Triplestores, relationale Datenbanken
  • Programmierparadigmen: Funktionale Programmierung, Objektorientierte Programmierung
  • Programmiersprachen: Java, Python, Scala, Prolog
  • Beschreibungssprachen: JSON, JSON-LD, RDF, N3, SPIN, XML, CSV, UML
  • Schemasprachen: RDFS, OWL, JSON-Schema, XML-Schema, Solr-Schema
  • Anfragesprachen: Elasticsearch Query DSL, Cypher, SQL, SPARQL, JSONPath, XPath
  • Metadatenstandards: MARC, MAB, LIDO, METS/MODS, Dublin Core, schema.org, Music Ontology, Activity Streams
  • Datenbankmanagementsysteme: Neo4j, OpenLink Virtuoso, MySQL, PostgreSQL
  • Webanwendungsentwicklung: HTTP-APIs, HTML, JavaScript, CSS
  • Protokolle: HTTP, OAI-PMH, SRU
  • Suchtechnologien: Elasticsearch, Solr
  • Datenanalyse: Kibana
  • Softwareentwicklungsumgebungen: IntelliJ IDEA, Eclipse IDE, Maven
  • Ontologiemodellierungsumgebungen: TopBraid Composer
  • Rahmenwerke: Luigi, RxPy, Jackson, Vavr, JUnit, RxJava, JAX-RS, Jersey, Guice, Guava, JPA, AngularJS, Jena, ARQ, Dozer, JAXB, Freemarker
  • Anwendungen: Linux-Kommandozeilenwerkzeuge, jq, metha, solrdump, esbulk, solrbulk, OpenRefine
  • Versionsverwaltungssysteme: Git, Mercurial, Subversion
  • Kontinuierliche Integration: Jenkins
  • Kollaborationssoftware: Confluence, Trello, Slack, Google Docs
  • Ticketverwaltung: Jira, Redmine
  • Diagrammsoftware: Lucidchart, draw.io, Gliffy, MS Visio
  • Gestaltungs- und Textsatzsoftware: Balsamiq Wireframes, Adobe Creative Suite (Photoshop, Illustrator, Indesign), Inkscape, Open Office, Libre Office, MS Office, LaTeX
  • Betriebssysteme: Linux (Ubuntu, Debian), Unix (FreeBSD), Windows

Bevorzugte und gern genutzte Fähigkeiten und Technologien

agil, lean, Aufgabenmanagement, Bedarfsanalyse, User-Story-Modelling, Diagrammgestaltung, Servant Leadership, Dokumentation, Wissensvermittlung, Proof-of-Concept-Implementierung, Wireframe-Gestaltung, Domänenmodellierung, Schnittstellendesign, User-Experience-Design, Wissensrepräsentation, Datenmodellierung/ Schemadesign, Informationsintegration, Informationsaggregation, ETL, Datenanalyse, Documentstores, Graphdatenbanken, Open Data, Funktionale Programmierung, Python, Scala, JSON, JSON-LD, N3, JSON-Schema, Elasticsearch Query DSL, Cypher, Neo4j, HTTP-APIs, Elasticsearch, Kibana, IntelliJ IDEA, Luigi, Vavr, jq, Git, Confluence, Trello, Slack, Google Docs, Jira, Lucidchart, Balsamiq Wireframes, Linux, Ubuntu, Englisch
Werte und Prinzipien
(welche ich lebe, welche mir bedeutend sind und welche ich mir in einer Arbeitsumgebung wünsche)
  • Werte: Transparenz, Offenheit, Toleranz, Ehrlichkeit, Respekt, Vertrauen, Verständnis, Wertschätzung, Anerkennung, Geduld, Ruhe, Augenhöhe, Rückhalt, Rücksicht, Empathie, Kooperation, Mut, Entschlossenheit, Gelassenheit, Demut, Verantwortung, Fokus, Konzentration, Flexibilität, Anpassungsfähigkeit, Glaubwürdigkeit, Kompromissbereitschaft, Hilfsbereitschaft, Eigenständigkeit, Nachhaltigkeit
  • Prinzipien: KISS-Prinzip, UNIX-Philosophie, Agiles Manifest, 30-Stunden-Arbeitswoche

Projekthistorie

07/2021 - 01/2022
Philosophical Engineer - Projekt „Prototypische Umsetzung einer OER-Recherche“ für Sächsische Landesbibliothek – Staats- und Universitätsbibliothek (SLUB), Dresden (ddoit - selbstständig)
Sächsische Landesbibliothek - Staats- und Universitätsbibliothek (SLUB), Dresden (250-500 Mitarbeiter)
Öffentlicher Dienst
Projekt „Prototypische Umsetzung einer OER-Recherche“ für Sächsische Landesbibliothek – Staats- und Universitätsbibliothek (SLUB), Dresden (im Rahmen meiner freiberuflichen, selbstständigen Tätigkeit ddoit - Thomas Gängler)
Wesentliches Mitwirken an der Realisierung des Projektes als Knowledge-Engineer, Business-Analyst und Softwareentwickler; Umsetzung der Verarbeitung der Datenquellen OERSI und OPAL für den Bibliothekskatalog der SLUB;
agil, lean, Bedarfsanalyse, Informationsintegration, Wissensrepräsentation, Datenanalyse, ETL, Open Data, Dokumentation, Softwareentwicklung, Confluence, Gitlab, JSON, CSV, Python, Suchmaschinentechnologien, Documentstores, Elasticsearch, Kibana, Solr, HTTP-APIs
  • Datenanalyse der Daten aus den Datenquellen OERSI und OPAL
  • Erstellung und Umsetzung eines Mappings von LRMI/ AMB auf das Schema des Bibliothekskataloges der SLUB (inkl. Tests)
  • Anreicherung der OER-Datensätze von OPAL durch Extraktion von Information aus den zugehörigen Webseiten dieser OPAL-Datensätze
  • Erstellung und Umsetzung eines Mappings der Datenquelle OPAL auf LRMI/ AMB
  • prototypische Erstellung diverser Konkordanzen für bestimmte Felder in den jeweiligen Mappings
  • Dokumentation der Verarbeitung der Datenquellen
  • Automatisierung der Verarbeitung der Datenquellen
  • Aufsetzen und Nutzung einer (virtuellen) Testumgebung
  • gemeinsame Abstimmung der jeweiligen Teilschritte mit dem Projektteam der SLUB
  • Rollen: Knowledge Engineer, Business Analyst, Data Analyst und Softwareentwickler
  • Fähigkeiten: Bedarfsanalyse, Informationsintegration, Wissensrepräsentation, Datenanalyse, ETL, Dokumentation, Softwareentwicklung, Proof-of-Concept-Implementierung
  • Technologien: Confluence, Git, Gitlab, Github, Open Data, LRMI, Allgemeines Metadatenprofil für Bildungsressourcen (AMB), JSON, CSV, JSON-LD, Elasticsearch, Elasticsearch Query DSL, painless, Kibana, Solr, Python, Luigi, RxPy, Beautiful Soup, pytest, tox, jq, HTTP-APIs, Ubuntu, Debian, PyCharm, esbulk, solrbulk, Linux-Kommandozeilenwerkzeuge, bash, Google Docs, Libre Office, VirtualBox, ssh, Slack

01/2021 - 05/2021
IT-Allrounder bei PIKOBYTES GmbH (Festanstellung; unbefristet)
PIKOBYTES GmbH (< 10 Mitarbeiter)
Internet und Informationstechnologie
IT-Allrounder, d.h., ein guter Mix aus Knowledge-Engineer, Business-Analyst, User-Experience-Designer, Aufgabenmanager und Softwareentwickler; Mitwirken an der Realisierung des Projektes Open Drone Portal (OpenDroP);
Bedarfsanalyse, Domänenmodellierung, Schemadesign, Informationsintegration, Wissensrepräsentation, ETL, Schnittstellendesign, User-Experience-Design, Open Data, Dokumentation, Softwareentwicklung, Confluence, Github, JSON, CSV, Python, Suchmaschinentechnologien, Documentstores, Elasticsearch, PostgreSQL, HTTP-APIs, Java
  • Primäre Rollen: Knowledge Engineer, Business Analyst, Aufgabenmanager, User Experience Designer, Data Analyst und Softwareentwickler
  • Mitwirken an der Realisierung des Projektes Open Drone Portal (OpenDroP)
    • Mitwirken am Aufgabenmanagement, inkl. Bedarfsanalyse
    • Mitwirken an der Entwicklung des Domänenmodells
    • Mitwirken an der Entwicklung des Zielschemas
    • gemeinsame Vorbereitung, Organisation, Leitung und Moderation von themenspezifischen Workshops mit Teammitgliedern bzw. an den jeweiligen Themen bzw. Aufgaben beteiligen Personen
    • Mapping diverser Datenquellen auf das Zielschema
    • Weiterentwicklung der HTTP-APIs des Backends der Anwendung
    • Rollen: Knowledge Engineer, Business Analyst, User Experience Designer, Aufgabenmanager, Softwareentwickler
    • Fähigkeiten: Bedarfsanalyse, Domänenmodellierung, Schemadesign, Informationsintegration, Wissensrepräsentation, ETL, Schnittstellendesign, User-Experience-Design, Dokumentation, Diagrammgestaltung, Softwareentwicklung, Proof-of-Concept-Implementierung, Funktionale Programmierung, Objektorientierte Programmierung
    • Technologien: Confluence, diagrams.net, Git, Github, Open Data, Open Imagery Network, JSON, EXIF, GDAL, HTTP-APIs, Elasticsearch, SQL, PostgreSQL, MySQL, Python, RxPy, Java, Maven, JAX-RS, Dropwizard, Jersey, Jackson, JDBI, SLF4J, JUnit, Jetty, NGINX, Keycloak, jq, Ubuntu, IntelliJ IDEA, MS Teams
  • Softwarepaket- bzw. Schnittstellenabhängigkeitsanalysen von Javaprogrammen
    • Rollen: Knowledge Engineer, Data Analyst, Softwareentwickler
    • Fähigkeiten: Schemadesign, Informationsintegration, Dokumentation, Softwareentwicklung, Objektorientierte Programmierung
    • Technologien: jdeprscan, jdeps, Confluence, jq, JSON, CSV, Python, Ubuntu, Git, Github, IntelliJ IDEA, Java, Maven, Tomcat
  • Vorbereitung, Organisation, Leitung und Moderation eines Workshops zur Demonstration und zum Erlernen von Confluence
    • Fähigkeiten: Wissensvermittlung, Dokumentation
    • Technologien: Confluence, MS Teams

08/2017 - 09/2019
Technical Lead bei Sächsische Landesbibliothek - Staats- und Universitätsbibliothek Dresden (SLUB), Dresden (Festanstellung; befristet)
Sächsische Landesbibliothek - Staats- und Universitätsbibliothek Dresden (SLUB), Dresden (250-500 Mitarbeiter)
Öffentlicher Dienst
Technical Lead im agilen und cross-funktionalen Team Datenmanagement; Analyse, Aufbau, Evaluation, Pflege und Dokumentation von Datenmanagementworkflows und -prozessen inkl. Weitervermittlung dieses Wissens;
Servant Leadership, agil, lean, Aufgabenmanagement, Bedarfsanalyse, User-Story-Modelling, User-Experience-Design, Informationsintegration, Informationsaggregation, Domänenmodellierung, Wissensrepräsentation, Datenanalyse, Schemadesign, ETL, Open Data, Dokumentation, Softwareentwicklung, Confluence, Jira, JSON, XML, CSV, Python, Suchmaschinentechnologien, Documentstores, Elasticsearch, Kibana, HTTP-APIs, Java
  • Primäre Rollen im Team: Knowledge Engineer, Business Analyst, Aufgabenmanager, Technical Lead, User Experience Designer, Data Analyst, “Mädchen für alles“ (Servant Leadership) und Softwareentwickler
  • Ansprechpartner für Datenmanagement- und Analyseherausforderungen:
    • im Team Datenmanagement der SLUB
    • in der SLUB – insbesondere für den SLUB-Katalog, oder, z.B., für das Kunsthistoriker-Webportal „arthistoricum.net“ und die Landeskundeplattform „Saxorum“
    • Beratung für das EFRE-Projekt „Linked Open Data“, an welchem die SLUB beteiligt ist
    • für den Kooperationspartner der SLUB im Bereich Datenmanagement: die Universitätsbibliothek Leipzig (im Rahmen der finc-Gemeinschaft)
    • Fähigkeiten: Bedarfsanalyse, User-Story-Modelling, Risikoanalyse, Aufwandsschätzung, Informationsintegration, Informationsaggregation, Datenanalyse, ETL, Wissensrepräsentation, Wissensvermittlung
    • Technologien (u.a.): Open Data, Linked Data, Semantic Web, JSON-LD, schema.org, Elasticsearch, Kibana, Confluence
  • Aufgabenmanagement und Organisation von Aufgaben innerhalb des Team Datenmanagements, d.h.,
    • gemeinsamer Aufbau und ständige, gemeinsame Weiterentwicklung der für das Team passenden Arbeitsweise, d.h., einer agilen Arbeitsweise dem Agilen Manifest folgend und angelehnt an SCRUM
    • Ticketverwaltung in Jira, inkl. Bedarfsanalyse und User-Story-Modelling bzw. Problem- und Lösungs(-ansatz-)beschreibung
    • Leiten der Sprint-Meetings vom Team Datenmanagement
    • Überblick über die aktuellen Aufgaben (Jira-Board: aktiver Sprint und Backlog)
    • Kommunikation mit den jeweiligen Auftraggebern der verschiedenen Aufgaben in der SLUB
    • Fehleranalyse von Datenmanagement- und Katalog-Tickets, inkl. entsprechender
    • Kommunikation nach Bedarf mit den Kooperationspartnern an der Universitätsbibliothek Leipzig, inkl.
      • Ticketarbeit im Ticketmanagementsystem des Kooperationspartners (Redmine)
      • wenn möglich, Umsetzung und Weitergabe von entsprechenden Änderungen und Anpassungen im jeweiligen Quellcoderepository (via Gitlab, Github)
    • Fähigkeiten: Bedarfsanalyse, Datenanalyse, User-Story-Modelling, Aufgabenmanagement, Wissensvermittlung, Dokumentation, Servant Leadership, Softwareentwicklung
    • Technologien: Jira, Confluence, Redmine, Python, Java, MARC, Solr, Elasticsearch, Kibana, Github, Gitlab
  • gemeinsamer Aufbau und Etablierung einer nutzbaren Dokumentation (inkl. Anleitungen, Hilfen, Glossar, usw.) im Intranetbereich des Team Datenmanagements
    • Fähigkeiten: Wissensvermittlung, Dokumentation, Diagrammgestaltung, Servant Leadership
    • Technologien: Confluence, Jira, draw.io
  • gemeinsame Vorbereitung, Organisation, Leitung und Moderation von themenspezifischen Workshops mit Teammitgliedern bzw. an den jeweiligen Themen bzw. Aufgaben beteiligen Personen aus der SLUB
    • Fähigkeiten: Bedarfsanalyse, Wissensvermittlung
  • gemeinsame Vorbereitung, Organisation, Leitung und Moderation von Videokonferenzen mit den Kooperationspartnern der Universitätsbibliothek Leipzig
    • Technologien: Google Hangouts
  • Mitwirken an der Präsentation des Datenmanagements bzw. des Team Datenmanagements mit seinem Zweck und seinen Aufgaben in der SLUB – in größerer Runde und für kleinere, interessierte Gruppen
    • Fähigkeiten: Wissensvermittlung, Dokumentation
    • Technologien: Google Slides, Confluence
  • Erarbeitung von (Entwicklungs-)Guidelines, z.B., zur Entwicklung von Kommandozeilenwerkzeugen
    • Fähigkeiten: User-Experience-Design
  • Proof-of-Concept-Implementierungen von Workflows und Technologien für das Datenmanagement, inkl. Evaluation und Vorstellung der Sachen im Team bzw. in entsprechender Runde von Interessierten aus der SLUB
    • Fähigkeiten: Proof-of-Concept-Implementierung, Bedarfsanalyse, Wissensvermittlung, Softwareentwicklung
  • gemeinsame Entwicklung und Etablierung einer Arbeitsumgebung für das Datenmanagement bzw. für (Sytem-)BibliothekarInnen mit Datenmanagementaufgaben (z.B. eine Ansammlung von nützlichen und hilfreichen Anwendungen bzw. Programmtypen)
    • Fähigkeiten: Servant Leadership
  • gemeinsame Entwicklung und Anwendung eines generischen Datenmanagementworkflows, d.h., (möglicher) Einzelschritte zur Verarbeitung einer Datenquelle in einen Suchindex (primär Solr) bzw. Documentstore (z.B. Elasticsearch), inkl.
    • ständigen gemeinsamen Weiterentwickelns dieses Workflows
    • "Hands-On"-Anleitungen im Intranet
    • "Hands-On"-Workshops zum gemeinsamen Erlernen/ Übertragen dieser Kenntnisse an weitere Personen im Team und Interessenten in der SLUB
    • Kennenlernens verschiedener Metadatenstandards zur Beschreibung bibliografischer Ressourcen, z.B., MARC, METS/MODS, LIDO, MAB, und Protokolle zur Datenübertragung, z.B., OAI-PHM, SRU
    • Fähigkeiten: Bedarfsanalyse, Informationsintegration, Datenanalyse, ETL, Servant Leadership, Wissensvermittlung, Dokumentation, Diagrammgestaltung
    • Technologien: Confluence, draw.io, MARC, METS/MODS, LIDO, MAB, OAI-PHM, SRU, Solr, Elasticsearch, JSON, XML, CSV, Open Data, JSON-LD, GND
  • gemeinsame Entwicklung und Etablierung von Werkzeugen, d.h., primär Kommandozeilenwerkzeugen, und anderen Empfehlungen/ “Best Practices“ zur Verarbeitung von Daten, z.B.,
    • Python als bevorzugte Programmiersprache
    • Luigi (Python-Bibliothek) als bevorzugtes Werkzeug zum Aufbau von Update-Routinen
    • line-delimited JSON als bevorzugtes Format zur Datenverarbeitung während der Prozessierung (inkl. Ergebnis)
    • Elasticsearch als bevorzugtes Werkzeug zur Speicherung, Analyse und Suche von Datensätzen bzw. Informationen
    • lose Kombination von Einzelschritten via Kommandozeile, d.h., "Pipes and Filters"
    • "Hands-On"-Anleitungen im Intranet
    • "Hands-On"-Workshops zum gemeinsamen Erlernen/ Übertragen dieser Kenntnisse an weitere Personen im Team und Interessenten in der SLUB
    • Fähigkeiten: Bedarfsanalyse, User-Experience-Design, Informationsintegration, ETL, Wissensvermittlung, Dokumentation, Wissensrepräsentation, Schnittstellendesign, Softwareentwicklung, Funktionale Programmierung, Objektorientierte Programmierung
    • Technologien (u.a.): Python, Elasticsearch, Solr, Linux-Kommandozeilenwerkzeuge, bash, Luigi, RxPy, Java, Commons CSV, Jackson, Vavr, SLF4J, logback, JUnit, jq, metha, solrdump, esbulk, solrbulk, OpenRefine, Catmandu, CSV, XML, JSON, cron, HTTP-APIs, MARC, OAI-PMH, SRU, Git, Github, Gitlab, Ubuntu, Slack, IntelliJ IDEA
  • gemeinsame Entwicklung und Etablierung von Datenanalysewerkzeugen und -prozessen (insbesondere Kibana und Elasticsearch), inkl.
    • "Hands-On"-Anleitungen im Intranet
    • "Hands-On"-Workshops zum gemeinsamen Erlernen/ Übertragen dieser Kenntnisse an weitere Personen im Team und Interessenten in der SLUB
    • Fähigkeiten: Datenanalyse, Wissensrepräsentation, Wissensvermittlung, Softwareentwicklung, Dokumentation
    • Technologien (u.a.): Elasticsearch, Kibana, Elasticsearch Query DSL, painless, JSON, XML, CSV, HTTP-APIs, XPath, jq, Python, Linux-Kommandozeilenwerkzeuge, Confluence, Libre Office, IntelliJ IDEA
  • gemeinsame Weiterentwicklung und Dokumentation eines Java-Kommandozeilenwerkzeuges zur Prozessierung von binären MARC-Quelldatensätzen auf linedelimited-JSON-Datensätze, welche dem Schema eines Solr-Suchindexes folgen
    • Fähigkeiten: Informationsintegration, Bedarfsanalyse, Softwareentwicklung, Funktionale Programmierung, Objektorientierte Programmierung, Wissensvermittlung, Dokumentation
    • Technologien: Java, Maven, marc4j, Javaslang, Jackson, SLF4J, logback, Junit, JSON, XML, IntelliJ IDEA, Git, Gitlab, Google Docs
  • gemeinsame Entwicklung bzw. Weiterentwicklung von Zielschemata:
    • primär JSON-Schemata bzw. Schemata für Solr-Suchindices, inkl. gemeinsamer Aufbau und Verbesserung der Dokumentation
    • gemeinsames Vorbereiten, Co-Organisation, Leitung und Moderation von Schema-Workshops zur Verbesserung der Schemata und ein besseres gemeinsames Verständnis des jeweiligen Schemas
    • Fähigkeiten: Wissensrepräsentation, Schemadesign, Wissensvermittlung, Dokumentation, Servant Leadership
    • Technologien: JSON-Schema, Solr-Schema, XML, Google Docs, Confluence, Git, Github, Gitlab
  • Betreuung, d.h., Aufsetzen, Wartung, Pflege und Anleitung zur Nutzung, von VMs für das Datenmanagement (pro Person bzw. Gruppe eine VM als Testumgebung) und zu gewissen Anteilen auch der Produktivserver
    • Fähigkeiten: Systemadministration, Wissensvermittlung, Dokumentation
    • Technologien: cssh, ssh, Ubuntu, VMWare, Linux-Kommandozeilenwerkzeuge, Git, Github, Gitlab, Ansible
  • Erarbeitung und Entwurf einer Vision, Architektur, Workflows für ein zukunftsweisendes Datenmanagement in einer Bibliothek
    • Fähigkeiten: Bedarfsanalyse, Wissensrepräsentation, Informationsintegration, Informationsaggregation, ETL, Diagrammgestaltung, Dokumentation
    • Technologien: Google Docs, Lucidchart, Suchmaschinentechnologien, Datenbanken, JSON
  • Betreuung von Teammitgliedern und Interessierten in der praktischen Anwendung der Datenmanagementplattform d:swarm
    • inkl. Fehleranalyse und Behebung
    • Fähigkeiten: Wissensvermittlung, Dokumentation, Bedarfsanalyse, Informationsintegration, ETL, Softwareentwicklung
    • Technologien (u.a.): d:swarm, ssh, bash, curl, Ubuntu, SQL, MySQL, JSON, XML, CSV, Java, Maven, RxJava, metafacture, JSONPath, Git, Github, Gitlab, Slack, IntelliJ IDEA

01/2016 - 07/2017
Knowledge-Engineer bei Sächsische Landesbibliothek - Staats- und Universitätsbibliothek Dresden (SLUB), Dresden (Festanstellung; befristet)
Sächsische Landesbibliothek - Staats- und Universitätsbibliothek Dresden (SLUB), Dresden (250-500 Mitarbeiter)
Öffentlicher Dienst
Weiterentwicklung von der quelloffenen Datenmanagementplattform d:swarm; Vorantreiben von Linked Open Data in der SLUB;
agil, lean, Bedarfsanalyse, User-Story-Modelling, User-Experience-Design, Wireframe-Gestaltung, Dokumentation, Wissensvermittlung, Informationsintegration, Domänenmodellierung, Schnittstellendesign, Wissensrepräsentation, ETL, Aufgabenmanagement, Softwareentwicklung, HTTP-APIs, JSON, XML, CSV, Open Data, RDF, Java, Graphdatenbanken, Documentstores, Confluence, Jira
  • Primäre Rollen: Knowledge Engineer, Business Analyst, User Experience Designer, Aufgabenmanager und Softwareentwickler
  • Weiterentwicklung der quelloffenen Datenmanagementplattform d:swarm (http://dswarm.org):
    • agile Arbeitsorganisation (dem Agilen Manifest folgend und angelehnt an SCRUM)
    • Gestaltung von Wireframes
    • Weiterentwicklung des Domänenmodells
    • Mitwirken an der Aktualisierung der Anwenderdokumentation
    • Mitwirken an der Aktualisierung der Entwicklerdokumentation
    • Mitwirken an der Neugestaltung und Pflege der Projektwebseite
    • Fehleranalyse und Behebung (inkl. Kommunikation mit den entsprechenden Fehlermeldenden)
    • Mitwirken am Aufgabenmanagement, inkl. Bedarfsanalyse und User-Story-Modelling bzw. Problem- und Lösungs(-ansatz-)beschreibung
    • Überblick über die aktuellen Aufgaben (Jira-Board: aktiver Sprint und Backlog)
    • Implementierung weiterer Bestandteile der Anwendung, z.B.,
      • Umfangreiche Erweiterung der Exportformate, insbesondere diverse JSON- und RDF-Serialisierungen
      • Ergänzung diverser Schemata von Standardformaten zur Beschreibung von bibliografischen Ressourcen
      • Ergänzung der Schemagenerierung auf Basis von JSON-Schemata
    • Rollen: Knowledge Engineer, Business Analyst, User Experience Designer, Technical Lead, Softwarearchitekt, Softwareentwickler, Aufgabenmanager, Product Owner, Community-Manager
    • Fähigkeiten: Aufgabenmanagement, Bedarfsanalyse, User-Story-Modelling, Diagrammgestaltung, Risikoanalyse, Aufwandsschätzung, Dokumentation, Wissensvermittlung, Proof-of-Concept-Implementierung, Wireframe-Gestaltung, Domänenmodellierung, Schnittstellendesign, User-Experience-Design, Wissensrepräsentation, Informationsintegration, ETL, Softwareentwicklung, Funktionale Programmierung, Objektorientierte Programmierung
    • Technologien (u.a.): Java, JavaScript, HTML, CSS, Maven, Neo4j, Cypher, SQL, MySQL, AngularJS, HTTP-APIs, JAX-RS, Jersey, Swagger, JPA, Eclipselink, JAXB, Jackson, Commons CSV, Guice, RxJava, Javaslang, metafacture, Jena, JUnit, SLF4J, logback, CSV, XML, XML-Schema, Solr-Schema, JSON-Schema, JSON, RDF, IntelliJ IDEA, Jira, Confluence, Balsamiq Wireframes, Gliffy, Jenkins, Git, Github, Slack, Tomcat, NGINX, Ubuntu
  • Anwerben und Betreuung von anderen, externen interessierten Einrichtungen für d:swarm
  • Vorbereitung, Organisation, Leitung und Moderation eines Workshops zur Demonstration und zum Erlernen von d:swarm
    • Fähigkeiten: Wissensvermittlung, Dokumentation, Systemadministration
    • Technologien: d:swarm, Google Docs, Google Drive, Virtualbox, Slack
  • Betreuung von d:swarm-Instanzen (VMs; d.h., Aufsetzen, Wartung, Pflege und Anleitung zur Nutzung):
    • für den internen Testbetrieb und für andere, externe interessierte Einrichtungen
    • Fähigkeiten: Systemadministration, Wissensvermittlung, Dokumentation
    • Technologien: Ubuntu, zsh, Jenkins, Slack
  • Entwicklung von Werkzeugen rund um den Workflow mit d:swarm (inkl. Dokumentation):
    • Fähigkeiten: Bedarfsanalyse, ETL, Softwareentwicklung, Funktionale Programmierung, Objektorientierte Programmierung, Wissensvermittlung, Dokumentation
    • Technologien (u.a.): Java, HTTP-APIs, Maven, RxJava, Javaslang, JUnit, SLF4J, logback, Scala, Ammonite, bash, Linux-Kommandozeilenwerkzeuge, JSON, XML, Elasticsearch, IntelliJ IDEA, Git, Github
  • Bereitstellung und Nutzung von Triplestores und Documentstores
    • u.a. CSV-Export von in einen Triplestore geladenen Daten
    • Fähigkeiten: Wissensrepräsentation, ETL, Softwareentwicklung
    • Technologien: Java, Open Data, Linked Data, Semantic Web, GND, Jena, ARQ, SPARQL, CSV, OpenLink Virtuoso, Elasticsearch, Docker
  • Erstellung und Durchführung von internen Umfragen und Workshops zum Thema HTTP-APIs
    • Technologien: Google Forms, Google Docs

01/2013 - 01/2016
Knowledge-Engineer bei Avantgarde Labs GmbH (Festanstellung; unbefristet)
Avantgarde Labs GmbH (10-50 Mitarbeiter)
Internet und Informationstechnologie
Praktische Lösungen für Datenverarbeitungsprozesse durch passende Anwendung von semantischen Technologien, z.B., Datenmodelle, welche über RDF hinausgehen - wie z.B. in der quelloffenen Datenmanagementplattform d:swarm angewendet;
Wissensrepräsentation, Informationsintegration, ETL, Domänenmodellierung, Schnittstellendesign, agil, lean, Aufgabenmanagement, Bedarfsanalyse, User-Story-Modelling, User-Experience-Design, Wireframe-Gestaltung, Softwareentwicklung, Dokumentation, HTTP-APIs, JSON, XML, CSV, Open Data, Java, Graphdatenbanken, Neo4j, Confluence, Jira
  • Konzeption, Gestaltung und Umsetzung der quelloffenen Datenmanagementplattform d:swarm (http://dswarm.org) in einem Team aus Domänenexperten, Designer und Entwickler:
    • agile Arbeitsorganisation (dem Agilen Manifest folgend und angelehnt an SCRUM)
    • Gestaltung von Wireframes
    • Entwurf des Domänenmodells (zur Beschreibung der Datenmanagementaufgaben)
    • Entwurf des generischen Datenmodells (für die Inhaltsdaten)
    • Mitwirken am Entwurf der Architektur der Anwendung
    • Gestaltung von Workflow- und Softwarearchitekturdiagrammen
    • Mitwirken an der Erstellung der Anwenderdokumentation
    • Mitwirken an der Erstellung der Entwicklerdokumentation
    • Mitwirken an der Erstellung der Projektwebseite
    • Vorstellung von d:swarm auf Konferenzen und anderen Treffen
    • Fehleranalyse und Behebung (inkl. Kommunikation mit den entsprechenden Fehlermeldenden)
    • Mitwirken am Aufgabenmanagement, inkl. Bedarfsanalyse und User-Story-Modelling bzw. Problem- und Lösungs(-ansatz-)beschreibung
    • Überblick über die aktuellen Aufgaben (Jira-Board: aktiver Sprint und Backlog)
    • Mitwirken an der Betreuung von anderen, externen interessierten Einrichtungen
    • Implementierung einzelner Bestandteile der Anwendung, z.B.,
      • Umsetzung und Anbindung des Domänenmodells mit Hilfe einer relationalen Datenbank
      • Umsetzung und Anbindung des generischen Datenmodells mit Hilfe einer Graphdatenbank über eine HTTP-API
      • Prototypische Implementierung eines Versionierungsalgorithmus zur Versionierung von flachen und hierarchischen Datensätzen auf Basis des generischen Datenmodells
      • Grundimplementierung der HTTP-API
      • Erweiterung der Bibliothek „metafacture“ um weitere Funktionen zur Datentransformation und -verarbeitung
      • Umsetzung der Schemagenerierung auf Basis von Solr-Schemata
    • Rollen: Knowledge Engineer, Business Analyst, User Experience Designer, Softwarearchitekt, Softwareentwickler, Aufgabenmanager, Community-Manager
    • Fähigkeiten: Aufgabenmanagement, Bedarfsanalyse, User-Story-Modelling, Diagrammgestaltung, Risikoanalyse, Aufwandsschätzung, Dokumentation, Wissensvermittlung, Proof-of-Concept-Implementierung, Wireframe-Gestaltung, Domänenmodellierung, Schnittstellendesign, User-Experience-Design, Wissensrepräsentation, Informationsintegration, ETL, Softwareentwicklung, Objektorientierte Programmierung
    • Technologien (u.a.): Java, JavaScript, HTML, CSS, Maven, Neo4j, Cypher, SQL, MySQL, AngularJS, HTTP-APIs, JAX-RS, Jersey, Swagger, JPA, Eclipselink, JAXB, Jackson, Guice, RxJava, metafacture, JUnit, SLF4J, XML-Schema, Solr-Schema, JSONPath, CSV, XML, JSON, RDF, IntelliJ IDEA, Jira, Confluence, Balsamiq Wireframes, Gliffy, Jenkins, Git, Github, Google Docs, MS Sway, Tomcat, NGINX, Ubuntu
  • Konzeption, Gestaltung und Umsetzung einer Weboberfläche zum einfachen Erstellen von CSV-Exports für einen großen Elektronik-Versandhändler in einem kleinen Team aus Entwicklern:
    • agile Arbeitsorganisation
    • wesentliches Mitwirken an der Erstellung des Pflichtenheftes bzw. Anforderungsbeschreibung
    • Gestaltung von Wireframes
    • Gestaltung von Softwarearchitekturdiagrammen
    • Entwurf des Domänenmodells
    • Entwurf des XML-Schemas zur Beschreibung des Exportprozesses
    • Implementierung einzelner Bestandteile der Anwendung, z.B.,
      • Einbindung und Abbildung des XML-Schemas auf das interne Datenmodell bzw. Objektmodell
      • Umsetzung und Anbindung des Domänenmodells mit Hilfe einer relationalen Datenbank
      • Generierung von Datenmanagementaufgaben (Talend Jobs)
    • Erstellung von wesentlichen Teilen der Anwenderdokumentation
    • Rollen: Knowledge Engineer, Business Analyst, User Experience Designer, Softwarearchitekt, Softwareentwickler
    • Fähigkeiten: ETL, Anforderungsbeschreibung, Diagrammgestaltung, Wireframe-Gestaltung, Wissensrepräsentation, Domänenmodellierung, Schemadesign, User-Experience-Design, Softwareentwicklung, Objektorientierte Programmierung, Dokumentation
    • Technologien (u.a.): Java, Maven, SQL, MySQL, Oracle, JPA, Hibernate, JAXB, XML, CSV, Dozer, Vaadin, Freemarker, Junit, HTTP-APIs, XML-Schema, JRuby, Talend, Eclipse IDE, Confluence, Balsamiq Wireframes, Jenkins, Mercurial, Gliffy, MS Visio, Open Office, Tomcat, Ubuntu
  • Bereitstellung und Nutzung von Triplestores und Graphdatenbanken, z.B.,
    • line-delimited JSON-Export von in einen Triplestore geladenen Daten
    • Proof-of-Concept-Implementierung einer Anwendung zum Betrachten von Fähigkeitsprofilen bzw. einer Wissensmatrix
    • Fähigkeiten: Wissensrepräsentation, ETL, Proof-of-Concept-Implementierung, Softwareentwicklung, Objektorientierte Programmierung
    • Technologien: Java, Open Data, Linked Data, Semantic Web, GND, RDF, HTTP-APIs, Jersey, Jackson, Jena, ARQ, SPARQL, JSON, OpenLink Virtuoso, Neo4j, Cypher, Docker
  • Erstellung von Vergleichen bzw. Übersichten zu verschiedenen Werkzeugtypen im Rahmen der Softwareentwicklung (inkl. Ausprobierens eines Testanwendungsfalles), z.B.,
    • Anwendungen zur Gestaltung von Wireframes und/oder Mockups
    • Anwendungen zur Beschreibung und zum Management von Bedürfnissen („Anforderungsmanagement“)
    • Anwendungen zum Modellieren von Softwareanwendungen
    • Anwendungen zum Modellieren von Domänenmodellen
    • Technologien: Google Docs, Meistertask
  • Gestaltung von Softwarearchitektur- und Workflowdiagrammen
    • Fähigkeiten: Bedarfsanalyse, Diagrammgestaltung
    • Technologien: Lucidchart
  • weitere genutzte Technologien: Slack, Jira, Ubuntu, schema.org, Linux-Kommandozeilenwerkzeuge

03/2012 - 12/2012
Datenarchitekt bei Hojoki GmbH (Festanstellung; unbefristet)
Hojoki GmbH (< 10 Mitarbeiter)
Internet und Informationstechnologie
Bewältigung von Informationsintegrationsherausforderungen in einer Online-Kollaborations- und Produktivitätsanwendung durch Verwendung von Semantic-Web-Technologien;
agil, lean, Informationsintegration, Informationsaggregation, Domänenmodellierung, User-Experience-Design, Softwareentwicklung, HTTP-APIs, JSON, E-Mail-HTML, RDF, RDFS, SPARQL, Triplestores, Java, Jena, ARQ
  • agile Arbeitsorganisation
  • Integration bzw. Einbindung verschiedener Dritt(-web-)anwendungen (via HTTPAPIs), z.B., Github, Trello, Yammer
  • Entwurf, Gestaltung und Umsetzung von Zusammenfassungs-E-Mails der einzelnen Nutzer
  • Weiterentwicklung und Dokumentation des in der Anwendung genutzten Datenmodells zur Beschreibung der einzelnen Aktivitäten
  • Rollen: Knowledge Engineer, User-Experience-Designer, Softwareentwickler
  • Fähigkeiten: Wissensrepräsentation, Informationsintegration, Informationsaggregation, ETL, Domänenmodellierung, User-Experience-Design, Informationsvisualisierung, Softwareentwicklung, Objektorientierte Programmierung, Dokumentation
  • Technologien (u.a.): Java, HTTP-APIs, Linked Data, Semantic Web, Triplestore, JSON, RDF, RDFS, SPARQL, Jena, ARQ, Guava, Lambdaj, Gson, Ning AsyncHTTPClient, HTML, CSS, SQL, PostgreSQL, Eclipse IDE, Lighthouse, Trello, Google Docs, Ubuntu, Subversion, TopBraid Composer, Activity Streams, Dublin Core, Jetty

11/2011 - 02/2012
Softwareentwickler bei webit! Gesellschaft für neue Medien mbH (Festanstellung; unbefristet)
webit! Gesellschaft für neue Medien mbH (50-250 Mitarbeiter)
Internet und Informationstechnologie
Konzeption und Entwicklung von Projekten mit Hilfe von .NET- und XML-Technologien;
Anforderungsbeschreibung, Domänenmodellierung, Schemadesign
  • Datenschnittstelle zur Auslieferung von Produktinformationen für einen großen Lebensmitteldiscounter:
    • wesentliches Mitwirken an der Erstellung des Pflichtenheftes bzw. Anforderungsbeschreibung
    • Entwurf des Domänenmodells
    • Entwurf und Dokumentation des XML-Schemas
    • Fähigkeiten: Anforderungsbeschreibung, Diagrammgestaltung, Wissensrepräsentation, Domänenmodellierung, Schemadesign, Dokumentation
    • Technologien: XML, XML-Schema, MS Office, MS Visio, UML, Ubuntu

07/2011 - 07/2011
Forschungsassistent bei Queen Mary Universität London (Contract; befristet)
Queen Mary Universität London (5000-10.000 Mitarbeiter)
Öffentlicher Dienst
Mitarbeit am LinkedBrainz-Projekt mit dem Ziel die MusicBrainz-Datenbank als Linked Data verfügbar zu machen; Abbildungsbeschreibung des MusicBrainz-NGS-Datenbankschemas in Semantic-Web-Ontologie-basierte Wissensrepräsentationen;
Informationsintegration, agil, Softwareentwicklung, Java, Open Data, Linked Data, D2RQ, RDF, SPARQL, SQL
  • Weiterentwicklung des bereits entwickelten Mappings
  • Implementierung von Integrationstests zur Validierung der Mappings
  • Fähigkeiten: Wissensrepräsentation, Informationsintegration, ETL, Softwareentwicklung, Objektorientierte Programmierung
  • Technologien (u.a.): Java, Open Data, Linked Data, Semantic Web, Music Ontology, JUnit, Maven, D2RQ, Jena, ARQ, RDF, SPARQL, SQL, PostgreSQL, Eclipse IDE, Git, Github, Ubuntu

06/2006 - 12/2008
Webentwickler (privat)
privat
Gestaltung, Entwicklung und Betreuung eines kleinen Onlineshops für einen kleinen Weinhandel mit Hilfe des LAMP-Stacks
  • Entwurf und Entwicklung des Onlineshops (inkl. Adminoberfläche)
  • Gestaltung von Vektorgrafiken
  • Gestaltung und Umsetzung von Webseitenlayouts
  • Fähigkeiten: Softwareentwicklung, Webentwicklung, Webseitengestaltung, Grafikdesign, Datenbankadministration
  • Technologien: PHP, SQL, MySQL, HTML, CSS, JavaScript, AJAX, JSON, Apache HTTP Server, Adobe Illustrator, Adobe Photoshop

02/2008 - 03/2008
Studentische Hilfskraft an der Fakultät Informatik, TU Dresden (befristet)
TU Dresden (5000-10.000 Mitarbeiter)
Öffentlicher Dienst
Mitwirken am Projekt K-IMM des Lehrstuhls für Multimediatechnik; Java-Programmierung mit OSGi und Eclipse (RCP, RAP, SWT, GEF, Equinox)
  • Fähigkeiten: Softwareentwicklung, Objektorientierte Programmierung
  • Technologien: Java, OSGi, Eclipse IDE, Eclipse RCP, Eclipse RAP, Eclipse SWT, Eclipse GEF, Eclipse Equinox, Subversion

Zeitliche und räumliche Verfügbarkeit

  • grundsätzlich möchte ich idealerweise im Wesentlichen von Dresden aus arbeiten können, d.h., Orte in einem Umkreis von ca. 100 km sind auch möglich, wie auch gelegentliche Reisen nach z.B. Leipzig, Berlin oder Erfurt
  • bei anderen Orten innerhalb von Deutschland bzw. der D-A-CH Region sind auch vereinzelte Vororttermine möglich (sie sollten sich dennoch im Rahmen halten bzw. auf ein Minimum reduziert sein)
  • die (primäre) Arbeit aus der Ferne ist bei Orten abseits von Dresden erwünscht

Kontaktformular

Kontaktinformationen