Ich begleite Unternehmen, Behörden und Kanzleien bei der sicheren, nachvollziehbaren und regelkonformen Entwicklung sowie bei der technischen Bewertung von KI-Systemen – ob in der Planungsphase, bei Audits oder in rechtlichen Auseinandersetzungen. Ich stehe Ihnen als technischer Sachverständiger zur Seite.
Meine Arbeit basiert auf langjähriger Erfahrung in der KI-Entwicklung und tiefem Verständnis für regulatorische und normative Vorgaben.
seit 08/2025
Analyse, Bewertung und Beratung von Unternehmen, Kanzleien und Behörden zu technischen Fragen der Regulatorik im KI-Bereich (AI Act, ISO 42001, etc.). Gutachtenerstellung zu technischen Fragestellungen bzgl. KI-Systeme.
seit 08/2025
Forschung und Entwicklung zu neuen Verfahren für unternehmensinterne KI-basierte Projekte und Weiterentwicklungen.
08/2022 – 07/2025
Leitung von Produktentwicklungen und Forschungsprojekten zur KI-Sicherheit (u. a. Thetis, EvEn FAIr), Entwicklung und Prüfung von KI-Algorithmen (LLM, bildbasiert), interne & externe Beratung zu KI-Risiken, GenAI & AI Act.
08/2024
Zertifizierung nach ISO/IEC 17024 mit Schwerpunkt auf der Erstellung von Gutachten und der Bewertung der Sicherheit von KI-Systemen.
07/2024 – 07/2025
Forschung zur Fairnessbewertung generativer KI-Modelle, Entwicklung technischer Anforderungen und innovativer Bewertungsmethoden.
01/2023 – 03/2024
Mitentwicklung der Norm zur Quantifizierung von Unsicherheiten im maschinellen Lernen – Fokus auf Kalibrierung und Bewertungsverfahren.
01/2023 – 07/2025
Entwicklung eines Tools zur KI-Sicherheitsanalyse in Vorbereitung auf den AI Act; konzipiert für Tech- und Legal-Zielgruppen.
04/2020 – 12/2022
Forschung zur Unsicherheitsbewertung in der Objektdetektion sowie zur Erklärbarkeit und Zuverlässigkeit von KI-Systemen.
2018 – 2020
Vertiefung in KI-Methoden und deren Anwendung in Forschung und Technik.
09/2013 – 09/2016
Duales Studium der Informatik/Informationstechnik mit Praxisphasen im DLR zur Integration in Forschungsprojekte der Antriebstechnik.
Ein Qualitätsmanagementsystem („QM-System“) besteht unabhängig von der EU KI-Verordnung bereits jetzt in den meisten Unternehmen. Anbieter von Hochrisiko-KI-Systemen werden zukünftig verpflichtet sein, die nach Art. 17 KI-VO geforderten Aspekte in ihre QM-Systeme zu integrieren. Vor allem wegen der geforderten Dokumentation und Information ergeben sich Synergieeffekte für die Datenschutz-Compliance. Eine technische Analyse bildet den Kern eines Toolings zur Unterstützung von QM-, Dokumentations- und Informationsprozessen.
Wir stellen den GdVAE vor – ein selbst-erklärbares Modell basierend auf einem CVAE mit integriertem GDA-Klassifikator und Gegenfaktischen Erklärungen. Die Methode erreicht Transparenz durch generative Klassifikation mit Prototypen und bietet konsistente CFs dank Regularisierung des latenten Raums.
Diese Spezifikation definiert Begriffe, Anforderungen und Empfehlungen zur Unsicherheitsquantifizierung in ML-Systemen. Sie ist anwendbar auf Forschung, Entwicklung und Einsatz von KI, jedoch nicht auf sicherheitskritische Schutzsysteme.
Wir untersuchen Unsicherheitskalibrierung bei Objekterkennung, führen GP-Rekalibrierung ein und bewerten multivariate Kalibrierung mit einem neuen Metrikansatz. Der vorgestellte Ansatz erzielt zuverlässige lokale Kalibrierung und ermöglicht verbesserte Unsicherheitsabschätzungen für Tracking-Systeme.
In der Dissertation werden semantische und räumliche Unsicherheiten in der Objekterkennung analysiert und neuartige Rekalibrierungsverfahren entwickelt. Diese verbessern die Kalibrierung und erhöhen die Sicherheit in nachgelagerten Anwendungen wie Objekt-Tracking.
Erweiterung klassischer Kalibrierungsverfahren für Objekterkennung und Segmentierung. Einführung der multivariaten Kalibrierung. Evaluation auf MS COCO und Cityscapes zeigt systematische Fehlkalibrierung und deren Korrekturpotenziale.
Umfassender Überblick über praktische Methoden zur Erkennung, Quantifizierung und Minderung von AI-Sicherheitsrisiken. Adressiert sowohl ML-Forscher als auch Safety Engineers mit breitem Themenspektrum.
Erweiterung bestehender Kalibrierungsverfahren für Detektionsmodelle zur Erkennung und Korrektur von Fehlkalibrierung. Relevanz für sicherheitskritische Fahrfunktionen betont.
Einführung des Konzepts der Bayesianischen Kalibrierung, das auch Unsicherheiten der Kalibrierungsmethoden selbst berücksichtigt. Ermöglicht verbesserte Detektion von Verteilungsshifts.
Post-hoc-Erklärbarkeit für Black-Box-Modelle mittels Knowledge Distillation. Kombination aus Konzept-Wahrscheinlichkeiten und erklärbaren Dichtefunktionen.
Framework zur Kalibrierung orts- und größenabhängiger Unsicherheiten bei Detektionsmodellen. Einführung neuer Kalibrierungsmetriken.
Implementierung eines Random-Forest-Klassifikators auf Embedded Devices zur Zustandsklassifikation industrieller Maschinen mit <1 ms Laufzeit.
Anwendung von Deep Learning zur Vorhersage vollständiger CFD-Strömungsfelder auf Basis von Fan-Designparametern. Erste Generalisierungsanalyse in der Turbomaschinenentwicklung.