Senior Manager · PwC Germany · HAW Hamburg Senior Manager · PwC Deutschland · HAW Hamburg

Quality assurance for the systems that decide. Qualitätssicherung für die Systeme, die entscheiden.

I am Dr. Sven Blankenburg — theoretical physicist working as an AI expert on the robustness, fairness and explainability of artificial intelligence in regulated industries. Ich bin Dr. Sven Blankenburg — theoretischer Physiker und KI-Experte mit Fokus auf Robustheit, Fairness und Erklärbarkeit künstlicher Intelligenz in regulierten Branchen.

role
Senior Manager, AI Quality AssuranceSenior Manager, KI-Qualitätssicherung
org
PricewaterhouseCoopers GmbH WPG · Berlin
teach
HAW Hamburg · Advanced Programming (Master)Advanced Programming (Master)
focus
Robustness · Explainability · LLM Auditing · EU AI ActRobustheit · Erklärbarkeit · LLM-Audit · EU AI Act
Dr. rer. nat. · Theoretical Physics · AI Quality Dr. rer. nat. · Theoretische Physik · KI-Qualität

Sven
Blankenburg
Sven
Blankenburg

Theoretical physicist working at the intersection of AI development, regulation and rigorous evaluation. Senior Manager at PwC Germany, lecturer at HAW Hamburg. Theoretischer Physiker an der Schnittstelle von KI-Entwicklung, Regulierung und rigoroser Evaluation. Senior Manager bei PwC Deutschland, Dozent an der HAW Hamburg.

sven@blankenburg-science:~ — bash
$ whoami
Dr. rer. nat. Sven Blankenburg
# theoretical physicist · AI quality engineer

$ cat role.txt
title     : Senior Manager, AI Quality Assurance
company   : PwC Germany — Berlin
teaching  : HAW Hamburg, Master Media Informatics
focus     : robustness · explainability · LLM auditing · EU AI Act

$ ls projects/
robustness-audit/   ai-act-compliance/   llm-doc-check/
neural-filters/     teaching-protos/     thesis-pipeline/

$ ./contact.sh --open
# contact.html ↗
$ _
01

RobustnessRobustheit

Quantifying when machine-learning systems silently fail — under perturbation, out-of-distribution input, or demographic shift. Quantifizieren, wann ML-Systeme leise versagen — unter Störung, OOD-Daten oder demografischer Verschiebung.

adversarial benchmarks drift
02

ExplainabilityErklärbarkeit

Making opaque models legible to auditors, regulators and end-users — including LLM-driven explanation pipelines. Undurchsichtige Modelle für Auditor:innen, Regulierung und Anwender:innen lesbar machen — einschließlich LLM-gestützter Erklärungspipelines.

xai llms audit
03

Regulatory AIRegulatorische KI

Translating the EU AI Act and sector requirements into practical engineering checks for insurance, banking and energy. EU AI Act und Branchenanforderungen in praxistaugliche Engineering-Prüfungen für Versicherung, Banking und Energie übersetzen.

eu-ai-act compliance documentation
04

Mathematical FoundationsMathematische Grundlagen

Formalising machine learning with advanced methods from theoretical physics — path integrals, perturbation theory, and stochastic dynamics — to understand why models behave as they do. Maschinelles Lernen mit fortgeschrittenen Methoden der theoretischen Physik formalisieren — Pfadintegrale, Störungstheorie und stochastische Dynamik — um zu verstehen, warum Modelle sich verhalten wie sie es tun.

path-integrals perturbation stochastic
Dr. Sven Blankenburg

Where rigorous physics meets the messy reality of production AI. Wo rigorose Physik auf die unordentliche Realität produktiver KI trifft.

Trained as a theoretical physicist (PhD summa cum laude, Humboldt University of Berlin), I spent my early career on stochastic models of single neurons — asking how a noisy nonlinear system can transmit specific information. Ausgebildet als theoretischer Physiker (Promotion summa cum laude, Humboldt-Universität zu Berlin) habe ich meine frühe Karriere stochastischen Modellen einzelner Neuronen gewidmet — der Frage, wie ein verrauschtes nichtlineares System bestimmte Information überträgt.

Today I lead AI quality assurance at PwC Germany, where the question is structurally similar: when can we trust the answer of a complex, partly-stochastic model — and how do we prove it to a regulator? Heute leite ich KI-Qualitätssicherung bei PwC Deutschland, wo sich strukturell die gleiche Frage stellt: Wann dürfen wir der Antwort eines komplexen, teils stochastischen Modells vertrauen — und wie weisen wir das einer Aufsichtsbehörde nach?

I publish at venues like IJCNN and ACII with my collaborators at HAW Hamburg, where I also teach a Master's module in Advanced Programming. Over a decade I've supervised 13+ Bachelor's, Master's and doctoral theses. Mit meinen Kolleg:innen an der HAW Hamburg veröffentliche ich u. a. auf IJCNN und ACII; dort lehre ich auch das Master-Modul Advanced Programming. Über ein Jahrzehnt habe ich 13+ Bachelor-, Master- und Doktorarbeiten betreut.

Earlier stations: software engineer at the German Aerospace Center's Space Operations Center (DLR/GSOC), research associate at Humboldt University. Frühere Stationen: Softwareentwickler im Raumflugkontrollzentrum des Deutschen Zentrums für Luft- und Raumfahrt (DLR/GSOC), wissenschaftlicher Mitarbeiter an der Humboldt-Universität.

paper IJCNN 2025

Bridging AI and Regulation: LLMs for Documentation Compliance Check

An LLM-based pipeline that audits AI documentation against regulatory checklists — first author with Q. Tran, J. Salg et al.

Eine LLM-basierte Pipeline, die KI-Dokumentation gegen regulatorische Checklisten prüft — Erstautor mit Q. Tran, J. Salg et al.

See all publicationsAlle Publikationen
teaching HAW Hamburg

Advanced Programming — Master Media Informatics

Co-taught with Prof. Dr. Larissa Putzar. Hands-on AI engineering, robustness probing, and student prototypes.

Gemeinsam mit Prof. Dr. Larissa Putzar gelehrt. Praktisches AI-Engineering, Robustness-Probing und studentische Prototypen.

Course detailsZum Kurs
paper PETRA 2025

Cross-Disciplinary Concept Borrowing — Robustness for Emotion Recognition

Critical revision of robustness analyses borrowed across NLP and affective computing.

Kritische Revision von Robustheits-Analysen, die zwischen NLP und Affective Computing entliehen werden.

Filter robustnessFilter Robustheit

Looking for a collaborator, reviewer or thesis advisor? Sie suchen Kooperation, Reviewer oder Betreuung?

I'm open to research partnerships on AI auditing, student theses on robustness or explainability, and speaking engagements on regulatory AI. Ich bin offen für Forschungskooperationen zu KI-Audit, Abschlussarbeiten zu Robustheit oder Erklärbarkeit und Vorträge zur regulatorischen KI.

Write meSchreiben Sie mir