Share
Beitragsbild zu Whitepaper von statworx und Juristin der Uni Gießen: Erklärbare KI als Basis für Vertrauen und Rechtssicherheit

Whitepaper von statworx und Juristin der Uni Gießen: Erklärbare KI als Basis für Vertrauen und Rechtssicherheit

23. Juli 2025

Mit dem EU AI Act rückt die rechtliche Verantwortung beim Einsatz von Künstlicher Intelligenz (KI) stärker denn je in den Mittelpunkt. Für Unternehmen bedeutet das: KI-Systeme müssen nicht nur leistungsfähig, sondern auch nachvollziehbar und transparent sein. In einem aktuellen Whitepaper zeigen das Frankfurter KI-Beratungsunternehmen statworx und Prof. Dr. Elena Dubovitskaya, Rechtswissenschaftlerin an der Justus-Liebig-Universität Gießen, welche zentrale Rolle Explainable AI (XAI) künftig für den rechtssicheren und vertrauenswürdigen Einsatz von KI spielen wird. Die Autoren machen deutlich: Nur wenn KI-Entscheidungen erklärbar sind, lassen sich regulatorische Anforderungen erfüllen – und das Vertrauen von Nutzenden und Öffentlichkeit gewinnen.

Transparente Entscheidungen, weniger Risiken, mehr Vertrauen

Ob DSGVO, Produkthaftung oder das kommende EU-KI-Gesetz – Unternehmen stehen vor der Herausforderung, KI-Systeme so zu gestalten, dass sie transparent, nachvollziehbar und rechtlich robust sind. Das Whitepaper zeigt, wie XAI diesen Anforderungen gerecht wird – und gleichzeitig einen strategischen Vorteil schafft: „Unternehmen, die heute in XAI investieren, sichern sich nicht nur Compliance, sondern auch Vertrauen bei Kunden und Partnern“, sagt Dr. Jonas Wacker, Data Scientist bei statworx und Co-Autor der Publikation.

Recht trifft Praxis: Drei Use Cases aus der Unternehmenswelt

Anhand konkreter Anwendungsbeispiele aus HR, Finance und Medizintechnik erläutert das Whitepaper, wie Unternehmen XAI gewinnbringend einsetzen können – etwa um Diskriminierung zu vermeiden, Entscheidungsprozesse auditierbar zu machen oder Haftungsrisiken zu minimieren. Prof. Dr. Elena Dubovitskaya, Expertin für europäisches KI-Recht, erklärt: „Anforderungen an die Erklärbarkeit von KI finden sich im Datenschutz-, Produktsicherheits- und Produkthaftungsrecht, aber auch im Gesellschaftsrecht. Wollen Entscheidungsträger im Unternehmen ihre Entscheidungen auf KI-Prognosen stützen, müssen sie die Prognose nachvollziehen können, sonst würden sie gegen ihre Sorgfaltspflicht verstoßen.“

Whitepaper-Inhalte im Überblick:

  • Was Explainable AI ist – und warum sie rechtlich relevant wird
  • Drei zentrale Use Cases zu Compliance, Nachvollziehbarkeit und Haftungsvermeidung
  • Praxisbeispiele aus regulierten Branchen wie HR, Finance und Medizintechnik
  • Der Mehrwert von XAI für Vertrauen, Akzeptanz und Produktsicherheit

Download und weitere Informationen:

Das vollständige Whitepaper steht ab sofort kostenfrei (unter Angabe personenbezogener Daten) auf der Website von statworx zur Verfügung: https://www.statworx.com/content-hub/whitepaper/xai-im-eu-recht


Folgen Sie uns auf X

Folgen Sie uns auf Bluesky