Ihr Experte für KI-Systeme KI-Compliance

Dr. Fabian Küppers – zertifizierter KI-Sachverständiger

Ich begleite Unternehmen, Behörden und Kanzleien bei der sicheren, nachvollziehbaren und regelkonformen Entwicklung sowie bei der technischen Bewertung von KI-Systemen – ob in der Planungsphase, bei Audits oder in rechtlichen Auseinandersetzungen. Ich stehe Ihnen als technischer Sachverständiger zur Seite.

Meine Arbeit basiert auf langjähriger Erfahrung in der KI-Entwicklung und tiefem Verständnis für regulatorische und normative Vorgaben.

  • Zertifizierter Sachverständiger für Künstliche Intelligenz (ISO/IEC 17024)
  • Mitautor von KI-Normen (u. a. ISO/IEC TS 25223, DIN SPEC 92005:2024)
  • Promotion im Bereich KI-Sicherheit, Robustheit & Erklärbarkeit
  • Über 12 Jahre Erfahrung in der praktischen KI-Entwicklung (z. B. mit PyTorch, Tensorflow)
  • Vertiefte Kenntnisse der KI-Verordnung (AI Act) und ISO/IEC-Regulatorik
Dr. Fabian Küppers
Zertifizierter Sachverständiger

Meine Kompetenzen im Überblick

Technische Kompetenzen

  • Training/Adaption von Deep Learning Algorithmen
  • GenAI Implementierung insbesondere mit LLM-Architekturen & Stable Diffusion
  • Unsicherheitsbewertung und -kalibrierung von KI-Modellen
  • Robustheitsanalyse (bspw. Adversarial Attacks)
  • Erklärbarkeit von KI-Modellen - u. a. Heatmap-Methoden, Counterfactual Explanations, Feature Attribution
  • Machine Learning - u. a. Cluster-Analyse, Logistische Regression, Gaussian Processes, Random Forest
  • Mathematische bzw. statistische Modellierung von Problemstellungen
  • Probabilistic Programming
  • Azure & Google Cloud Computing
  • Senior Python Experte (>12 Jahre) insbesondere mit PyTorch, Tensorflow, Pyro, NumPy, SciPy, Scikit-Learn

Strategische Kompetenzen

  • Tiefes Fachwissen zu Anforderungen der KI-Verordnung
  • Tiefes Fachwissen & aktive Mitarbeit zur KI-Standardisierung (ISO 42001, ISO 25223, etc.)
  • Business Case Development & Bewertung zu KI-Technologien
  • Projektplanung, -koordinierung und -durchführung
  • Anforderungsanalyse zu KI und speziell zur KI-Sicherheit
  • Bedarfsanalyse zum Einsatz von KI-Systemen
  • Konzeption von KI-Systemen
  • Gutachtenerstellung zu KI-Systemen
Mehr zu meinen Leistungen
PyTorch
Tensorflow
Python
OpenAI
Gemini
Huggingface
Azure
Google Could
Pandas
Scikit-Learn
ISO
DIN
PyTorch
Tensorflow
Python
OpenAI
Gemini
Huggingface
Azure
Google Could
Pandas
Scikit-Learn
ISO
DIN
PyTorch
Tensorflow
Python
OpenAI
Gemini
Huggingface
Azure
Google Could
Pandas
Scikit-Learn
ISO
DIN
PyTorch
Tensorflow
Python
OpenAI
Gemini
Huggingface
Azure
Google Could
Pandas
Scikit-Learn
ISO
DIN
PyTorch
Tensorflow
Python
OpenAI
Gemini
Huggingface
Azure
Google Could
Pandas
Scikit-Learn
ISO
DIN
PyTorch
Tensorflow
Python
OpenAI
Gemini
Huggingface
Azure
Google Could
Pandas
Scikit-Learn
ISO
DIN
PyTorch
Tensorflow
Python
OpenAI
Gemini
Huggingface
Azure
Google Could
Pandas
Scikit-Learn
ISO
DIN
PyTorch
Tensorflow
Python
OpenAI
Gemini
Huggingface
Azure
Google Could
Pandas
Scikit-Learn
ISO
DIN
PyTorch
Tensorflow
Python
OpenAI
Gemini
Huggingface
Azure
Google Could
Pandas
Scikit-Learn
ISO
DIN

Mein Werdegang

  • Selbstständiger Sachverständiger für KI

    seit 08/2025

    Analyse, Bewertung und Beratung von Unternehmen, Kanzleien und Behörden zu technischen Fragen der Regulatorik im KI-Bereich (AI Act, ISO 42001, etc.). Gutachtenerstellung zu technischen Fragestellungen bzgl. KI-Systeme.

  • Data Scientist – DKV Mobility

    seit 08/2025

    Forschung und Entwicklung zu neuen Verfahren für unternehmensinterne KI-basierte Projekte und Weiterentwicklungen.

  • AI Safety Specialist & Team Lead – e:fs TechHub GmbH

    08/2022 – 07/2025

    Leitung von Produktentwicklungen und Forschungsprojekten zur KI-Sicherheit (u. a. Thetis, EvEn FAIr), Entwicklung und Prüfung von KI-Algorithmen (LLM, bildbasiert), interne & externe Beratung zu KI-Risiken, GenAI & AI Act.

  • Zertifizierung zum Sachverständiger für KI

    08/2024

    Zertifizierung nach ISO/IEC 17024 mit Schwerpunkt auf der Erstellung von Gutachten und der Bewertung der Sicherheit von KI-Systemen.

  • Projektleitung – EvEn FAIr

    07/2024 – 07/2025

    Forschung zur Fairnessbewertung generativer KI-Modelle, Entwicklung technischer Anforderungen und innovativer Bewertungsmethoden.

  • Co-Autor – DIN SPEC 92005:2024

    01/2023 – 03/2024

    Mitentwicklung der Norm zur Quantifizierung von Unsicherheiten im maschinellen Lernen – Fokus auf Kalibrierung und Bewertungsverfahren.

  • Technische Leitung – Thetis

    01/2023 – 07/2025

    Entwicklung eines Tools zur KI-Sicherheitsanalyse in Vorbereitung auf den AI Act; konzipiert für Tech- und Legal-Zielgruppen.

  • Promotion in Informatik – Bergische Universität Wuppertal

    04/2020 – 12/2022

    Forschung zur Unsicherheitsbewertung in der Objektdetektion sowie zur Erklärbarkeit und Zuverlässigkeit von KI-Systemen.

  • M. Sc. Informatik – Hochschule Ruhr West

    2018 – 2020

    Vertiefung in KI-Methoden und deren Anwendung in Forschung und Technik.

  • B. Eng. Informationstechnik – Duales Studium DLR & DHBW Mannheim

    09/2013 – 09/2016

    Duales Studium der Informatik/Informationstechnik mit Praxisphasen im DLR zur Integration in Forschungsprojekte der Antriebstechnik.

Zu meinen Leistungen

Meine bisherigen Projekte

Co-Author ISO/IEC TS 25223
Guidance und Anforderungen an die Unsicherheitsmodellierung von KI-Systemen

Der Entwurf zur ISO/IEC TS 25223 stellt den internationalen Nachfolger der nationalen DIN SPEC 92005:2024 dar, der Anforderungen zur Modellierung von prädiktiven Unsicherheiten von maschinellen Lernverfahren beschreibt. Bei der Erarbeitung dieser Norm stehen die Einbettung der neuen technischen Spezifikation in den internationalen Normungskontext sowie die Berücksichtigung des aktuellen Stands der Technik im Fokus. Ziel der Norm ist ein international einheitliches Rahmenwerk zur Empfehlung, wie prädiktive Unsicherheiten eines KI-Systems modelliert und vor allem bewertet werden können. Im Rahmen der Erarbeitung dieser Norm stehe ich als Experte für KI-Systeme mit speziellem Fokus der Unsicherheitsmodellierung und -bewertung mit meiner Fachexpertise zur Verfügung.

EvEn FAIr
Verzerrungen (Bias) in GenAI erkennen und korrigieren

Das Forschungsprojekt „EvEn FAIr“ verfolgt das Problem der Bewertung der Diskriminierungsfreiheit bzw. Fairness von generativen KI-Systemen. Hierbei wird dieses Problem nicht nur technisch, sondern zunächst ethisch gesellschaftlich betrachtet und analysiert. Diese Erkenntnisse werden in technische Anforderungen übersetzt, um so einen ganzheitlichen Ansatz der Fairnessbewertung von KI-Systemen zu ermöglichen. In diesem Rahmen wird ein technisches Verfahren entwickelt, welches anhand von potenziellen Korrelationen von verschiedenen geschützten Merkmalen (bspw. Geschlecht oder Herkunft) in den Ausgaben eines generativen KI-Modells eine Bewertung des Gesamtsystems vornimmt. Das Projekt wurde von mir als Projektleiter initiiert. Neben der Projektkoordniation arbeite ich aktiv an den Forschungsthemen mit.

Thetis
Automatisierte Analyse der KI-Sicherheit – e:fs TechHub GmbH, Gaimersheim

Mit der KI-Verordnung hat die Europäische Union im Jahr 2024 das weltweit erste gesetzliche Rahmenwerk zur Regulierung von KI-Systemen verabschiedet. Eine zentrale Bedeutung kommt hierbei der ausgiebigen Sicherheitsanalyse und -bewertung von KI-Systemen zu. Dies erfordert z. T. tiefes Fachwissen. Das Tool Thetis bündelt Methoden zur Untersuchung und Bewertung von KI-Systemen und bietet aufbereitete Reports und Ergebnisse sowohl für technisches Personal als auch für juristische Personen oder KI-Beauftragte. Bei diesem Projekt bin ich der Initiator sowie technischer Produktleiter, aber auch in der Planung des Business-Modells involviert.

Co-Author DIN SPEC 92005:2024
Quantifizierung von Unsicherheiten im Maschinellen Lernen

Moderne KI-Systeme geben in der Regel für jede Entscheidung ein Maß für die Unsicherheit an. Die DIN SPEC 92005:2024 spezifiziert allgemeine Richtlinien und Anforderungen für die Entwicklung und Anwendung von Methoden zur Quantifizierung der Unsicherheit beim maschinellen Lernen. Als Co-Autor dieser DIN SPEC war ich verantwortlich für die Erarbeitung des aktuellen Stands der Technik zu dem Thema Unsicherheitskalibrierung.

net:cal
Python-Paket zur Unsicherheitsbewertung von KI

Moderne KI-Algorithmen liefern für jede Schätzung eine Quantifizierung der Unsicherheit. Es ist jedoch ein bekanntes Problem, dass diese Unsicherheitsschätzung oft unzuverlässig ist und ein zu hohes Vertrauen anzeigt. Die Toolbox „net:cal“ ist ein Python-Paket für die Bewertung und Korrektur solcher Schätzungen. Die Toolbox ist das Ergebnis meiner Doktorarbeit. Mit derzeit 350 Sternen (Stand: 13.01.2025) bildet sie den aktuellen Stand der Technik in der Unsicherheitskalibrierung. Das Projekt ist online unter https://github.com/EFS-OpenSource/calibration-framework zu finden.

KI-Absicherung
Sicherheit von KI-basierten Fahrfunktionen im Straßenverkehr

KI Absicherung ist ein Projekt der KI Familie. Es wurde von der VDA Leitinitiative autonomes und vernetztes Fahren initiiert und entwickelt. Das Konsortium besteht aus 24 Projektpartnern und 4 externen Partnern aus der Automobilindustrie mit einem Gesamtbudget von 41 Millionen Euro. Der Fokus liegt auf der Entwicklung von Methoden und Maßnahmen zur Absicherung KI-basierter Fahrfunktionen sowie der Ableitung einer Sicherheitsargumentation. Damit soll die Sicherheit von KI-basierten Systemen im Straßenverkehr in Zukunft nachgewiesen und zertifiziert werden. Im Rahmen dieses Projekts habe ich als wissenschaftlicher Mitarbeiter aktiv an Algorithmen zur Unsicherheitsquantifizierung und -korrektur geforscht und das Projekt von universitärer Seite aus koordiniert.

Mehr zu meinen Leistungen

Meine Publikationen

Ein Qualitätsmanagementsystem („QM-System“) besteht unabhängig von der EU KI-Verordnung bereits jetzt in den meisten Unternehmen. Anbieter von Hochrisiko-KI-Systemen werden zukünftig verpflichtet sein, die nach Art. 17 KI-VO geforderten Aspekte in ihre QM-Systeme zu integrieren. Vor allem wegen der geforderten Dokumentation und Information ergeben sich Synergieeffekte für die Datenschutz-Compliance. Eine technische Analyse bildet den Kern eines Toolings zur Unterstützung von QM-, Dokumentations- und Informationsprozessen.

page.timeline.link-text

Wir stellen den GdVAE vor – ein selbst-erklärbares Modell basierend auf einem CVAE mit integriertem GDA-Klassifikator und Gegenfaktischen Erklärungen. Die Methode erreicht Transparenz durch generative Klassifikation mit Prototypen und bietet konsistente CFs dank Regularisierung des latenten Raums.

page.timeline.link-text

Diese Spezifikation definiert Begriffe, Anforderungen und Empfehlungen zur Unsicherheitsquantifizierung in ML-Systemen. Sie ist anwendbar auf Forschung, Entwicklung und Einsatz von KI, jedoch nicht auf sicherheitskritische Schutzsysteme.

page.timeline.link-text

Wir untersuchen Unsicherheitskalibrierung bei Objekterkennung, führen GP-Rekalibrierung ein und bewerten multivariate Kalibrierung mit einem neuen Metrikansatz. Der vorgestellte Ansatz erzielt zuverlässige lokale Kalibrierung und ermöglicht verbesserte Unsicherheitsabschätzungen für Tracking-Systeme.

page.timeline.link-text

In der Dissertation werden semantische und räumliche Unsicherheiten in der Objekterkennung analysiert und neuartige Rekalibrierungsverfahren entwickelt. Diese verbessern die Kalibrierung und erhöhen die Sicherheit in nachgelagerten Anwendungen wie Objekt-Tracking.

page.timeline.link-text

Erweiterung klassischer Kalibrierungsverfahren für Objekterkennung und Segmentierung. Einführung der multivariaten Kalibrierung. Evaluation auf MS COCO und Cityscapes zeigt systematische Fehlkalibrierung und deren Korrekturpotenziale.

page.timeline.link-text

Umfassender Überblick über praktische Methoden zur Erkennung, Quantifizierung und Minderung von AI-Sicherheitsrisiken. Adressiert sowohl ML-Forscher als auch Safety Engineers mit breitem Themenspektrum.

page.timeline.link-text

Erweiterung bestehender Kalibrierungsverfahren für Detektionsmodelle zur Erkennung und Korrektur von Fehlkalibrierung. Relevanz für sicherheitskritische Fahrfunktionen betont.

page.timeline.link-text

Einführung des Konzepts der Bayesianischen Kalibrierung, das auch Unsicherheiten der Kalibrierungsmethoden selbst berücksichtigt. Ermöglicht verbesserte Detektion von Verteilungsshifts.

page.timeline.link-text

Post-hoc-Erklärbarkeit für Black-Box-Modelle mittels Knowledge Distillation. Kombination aus Konzept-Wahrscheinlichkeiten und erklärbaren Dichtefunktionen.

page.timeline.link-text

Framework zur Kalibrierung orts- und größenabhängiger Unsicherheiten bei Detektionsmodellen. Einführung neuer Kalibrierungsmetriken.

page.timeline.link-text

Implementierung eines Random-Forest-Klassifikators auf Embedded Devices zur Zustandsklassifikation industrieller Maschinen mit <1 ms Laufzeit.

page.timeline.link-text

Anwendung von Deep Learning zur Vorhersage vollständiger CFD-Strömungsfelder auf Basis von Fan-Designparametern. Erste Generalisierungsanalyse in der Turbomaschinenentwicklung.

page.timeline.link-text

Mehr zu meinen Leistungen