Share
Beitragsbild zu Finanzunternehmen auf dem Weg zur ethischen Nutzung Künstlicher Intelligenz

Finanzunternehmen auf dem Weg zur ethischen Nutzung Künstlicher Intelligenz

Angesichts des zunehmenden Einsatzes Künstlicher Intelligenz ist noch viel Luft nach oben

Im vergangenen März erzielte die Europäische Union eine politische Einigung über das weltweit erste umfassende Gesetz zur Künstlichen Intelligenz (KI) – den EU AI Act.  Diese Verordnung soll bis Mitte 2024 in Kraft treten und verpflichtet Anbieter und Betreiber von KI-Systemen mit hohem Risiko zu spezifischen Maßnahmen, wie Tests, Dokumentation, Transparenz und Meldepflichten. Auch Finanzunternehmen, welche KI-Technogien bereits einsetzen oder damit planen, müssen sicherstellen, dass die neuen Regularien erfüllt werden.

KI bietet der Finanzbranche zwar erhebliche Vorteile, wie personalisierte Kundenerfahrungen oder ein optimiertes Risikomanagement, birgt aber zugleich auch ethische Risiken. Dies wird besonders deutlich, wenn KI-Initiativen auf weitere Geschäftsbereiche ausgeweitet und neue Standards für die Entwicklung, den Einsatz und die Überwachung von KI-Modellen festgelegt werden. Denn mit der Expansion von KI in neue Geschäftsbereiche fehlen oft ausreichende Standards für verantwortungsvolle KI-Modelle. Das erhöht die potenzielle Tragweite von Fehlentscheidungen und ethischen Verstößen. Letztlich tragen aber Finanzunternehmen die Verantwortung, die ethischen Implikationen ihrer KI-Initiativen zu verstehen und proaktiv Maßnahmen zu ergreifen, um negative Auswirkungen zu vermeiden. 

Aktuelle Lage: Studie enthüllt Fortschritte und Herausforderungen

Eine Studie von FICO hat dazu aufschlussreiche Ergebnisse zutage gefördert. Die Untersuchung, die unter 100 führenden Persönlichkeiten aus dem Banken- und Finanzsektor durchgeführt wurde, befasste sich mit der Frage: Wie kann gewährleistet werden, dass KI ethisch angemessen, transparent und sicher zum Wohle der Kundinnen und Kunden eingesetzt wird?

Als eine mögliche Lösung wurde die Einrichtung eines Ethikrats genannt. 81 Prozent der befragten Unternehmen aus dem Finanzsektor gaben an, bereits einen solchen Ethikrat für den Einsatz von Künstlicher Intelligenz etabliert zu haben. Dies unterstreicht das Engagement der Branche für die ethische Nutzung dieser Technologie. Ein Gremium zu haben und sicherzustellen, dass die ethischen Anforderungen erfüllt werden, sind jedoch zwei verschiedene Ansätze. Oft fehlt es an der Durchsetzung eines Entwicklungsstandards für KI-Modelle und an entsprechenden Kontrollen.

Interpretierbare Modelle auf dem Weg zu vertrauenswürdiger KI

Um ethische Fragen im Bereich KI überhaupt adressieren zu können, darf KI-Technologie keine Blackbox bleiben. Ein Grundpfeiler der KI-Ethik ist die Interpretierbarkeit von Entscheidungen, die von KI-Systemen oder maschinellen Lernalgorithmen getroffen werden. Ohne Kenntnis der zugrundeliegenden Parameter und Entscheidungsfindungsprozesse ist es aber unmöglich, die ethische Dimension dieser Entscheidungen zu beurteilen. Hierbei entsteht ein Spannungsfeld: Soll die prognostische Effizienz oder die Nachvollziehbarkeit der Entscheidungsfindung priorisiert werden? Wie wird ein ausgewogenes Verhältnis zwischen Effizienz von KI-Systemen und der ethischen Vertretbarkeit ihrer Entscheidungen durch interpretierbare Architekturen gewährleistet?

Verantwortungsvolle KI erfordert Transparenz: Um Vertrauen in KI-Systeme aufzubauen, ist es notwendig, die Funktionsweise der zugrundeliegenden Algorithmen zu verstehen. Je transparenter der KI-Prozess gestaltet wird, desto größer ist die Akzeptanz und das Vertrauen der Nutzer. Viele Unternehmen haben jedoch Schwierigkeiten, die Entscheidungsfindung von KI-Modellen, insbesondere im Bereich des maschinellen Lernens, nachzuvollziehen. Dies liegt zum einen an der Auswahl der genutzten Algorithmen und zum anderen am Unvermögen, KI-Entscheidungen ausreichend zu erklären.

Finanzunternehmen sollten daher Legacy-Systeme mit unzureichender Erklärbarkeit ablösen und stattdessen auf interpretierbare KI-Modelle setzen. Diese Modelle ermöglichen es, die Zusammenhänge zwischen den Daten und den daraus resultierenden Entscheidungen zu verstehen. So können Unternehmen ihren Kunden die Funktionsweise der KI-Modelle erklären, Verzerrungen erkennen und vermeiden sowie sicherstellen, dass die Entscheidungen der KI-Systeme mit den ethischen und rechtlichen Rahmenbedingungen in Einklang stehen. Mit interpretierbaren Algorithmen für maschinelles Lernen entscheidet ein Finanzinstitut selbst, was im KI-Modell gelernt und genutzt werden darf. Inhalte, die als unfair, unangenehm oder unethisch angesehen werden, können entfernt werden. Das ist der Gegensatz zu maschinellem „Blackbox“-Lernen: Hier werden Erklärungen nur abgeleitet – und das oft auf falsche Weise.

Fokus auf kontinuierliche Interpretierbarkeit wichtig

Mit der zunehmenden Integration von KI-Technologien ist es für Führungskräfte in Finanzunternehmen von entscheidender Bedeutung, Lösungen zu priorisieren, die verantwortungsvoll und nachvollziehbar sind. So profitieren sowohl die Unternehmen selbst als auch ihre Kunden von KI. Gerade bei Informationen, die beispielsweise für die automatisierte Überprüfung und Abwicklung von Krediten, die Erkennung und Verhinderung von Betrugsfällen sowie die Optimierung des Handelns an Aktienmärkten nötig sind, ist Transparenz essenziell und könnte für automatisierte Prozesse demnächst Pflicht werden. Diese Transparenz muss zu jedem Zeitpunkt gegeben sein und immer wieder überprüft werden. Ein einmalig zuverlässiges KI-Modell reicht nicht aus: Es muss permanent überwacht und auf die richtige Weise kontrolliert werden, um ethisch einwandfreie Ergebnisse zu gewährleisten.

Unternehmen, die maschinelle Lernmodelle einsetzen, die Schlussfolgerungen ziehen, Muster erkennen und dann Vorhersagen treffen, müssen sicherstellen, dass diese Modelle auch weiterhin verantwortungsbewusst und ethisch einwandfrei sind – selbst wenn sich die zugrundeliegenden Daten ändern. Denn im Laufe der Zeit kann sich nicht nur die Gültigkeit der Vorhersagen, sondern auch die ethische Verwendung des Modells ändern, wenn die zugrundeliegenden Daten Veränderungen aufweisen. Wenn eine Organisation über Modelle verfügt, sind diese angemessen zu überwachen– dies sollte bei der Erstellung des Modells für seine Verwendung auch vertraglich festgelegt werden.

Doch die Realität sieht anders aus. In der Studie von FICO gab mehr als ein Drittel der befragten Unternehmen an, dass ihre Governance-Prozesse zur Überwachung und Anpassung von Modellen entweder „sehr ineffektiv“ oder „eher ineffektiv“ sind. Für 57 Prozent der Befragten war die fehlende Überwachung der Auswirkungen von KI-Modellen ein wesentliches Hindernis für die Einführung verantwortungsvoller KI. Es gibt hier folglich noch viel Verbesserungspotenzial.

KI als fester Bestandteil der Unternehmensstrategie im Trend 

Obwohl die Gefahren einer intransparenten KI vielen  bewusst sind, bremst dies die allgemeine Begeisterung für die Technologie kaum aus. Im Zuge der Weiterentwicklung von KI-Strategien weiten immer mehr Unternehmen ihre KI-Nutzung über Kompetenzzentren hinaus aus. Partnerschaften mit Cloud-Anbietern machen zudem zahlreiche KI-Funktionen für Unternehmen jeder Größe zugänglich. Die Argumente für weitere Investitionen und die Entwicklung von verantwortungsvollen KI-Initiativen im Finanzdienstleistungssektor sind vielversprechend: Daten- und KI-Experten erwarten, dass verantwortungsvolle KI zu neuen Umsatzchancen und effizienteren Compliance-Verfahren führen wird, die auch der zunehmenden KI-Regulierung gerecht werden.

Um von den Vorteilen der KI nachhaltig zu profitieren, sind jedoch folgende Maßnahmen erforderlich:

  • Entwicklung skalierbarer Standards für die Modellentwicklung

Um das Potenzial von KI langfristig voll auszuschöpfen, gilt es, skalierbare Standards für die Modellentwicklung festzulegen, die sich nahtlos in bestehende Geschäftsprozesse integrieren lassen. Diese Standards sollten nicht nur Genauigkeit und Leistung von KI-Modellen berücksichtigen, sondern auch Faktoren wie Interpretierbarkeit, Fairness und Robustheit. Durch die Einführung fester Modellentwicklungsstandards und anpassungsfähiger Leitlinien stellen Unternehmen sicher, dass ihre KI-Initiativen mit den sich entwickelnden Branchenanforderungen übereinstimmen und sich nahtlos in die verschiedenen Facetten ihres Geschäfts integrieren. Außerdem müssen Unternehmen durchsetzen, dass die KI-Entwickler die Standards einhalten.

  • Etablierung von Mechanismen zur Überwachung und Aufrechterhaltung ethischer KI-Modellstandards, beispielsweise durch Einsatz der Blockchain-Technologie

Die ethischen Bedenken in Bezug auf KI erfordern die Einführung von Mechanismen zur Überwachung und Aufrechterhaltung ethischer KI-Modellierungsstandards. Der Einsatz von Technologien wie Blockchain stellt die transparente und unveränderliche Aufzeichnung des Entscheidungsprozesses innerhalb von KI-Modellen sicher. Mit Blockchain-Technologie lässt sich der gesamte Lebenszyklus eines KI-Modells dezentralisiert und sicher aufzeichnen, einschließlich seiner Entwicklung, der Trainingsdaten und der anschließenden Feinabstimmung. Dies gewährleistet nicht nur Nachvollziehbarkeit und Verantwortlichkeit, sondern verhindert auch unbefugte Änderungen am Modell. Die Nutzung der Blockchain-Technologie für die transparente und unveränderliche Aufzeichnung des Entscheidungsprozesses in KI-Modellen stärkt das Vertrauen in die Technologie. Denn sie erhöht die Verantwortlichkeit der Entwickler und Betreiber und ermöglicht die Nachvollziehbarkeit und Prüfung von KI-Systemen. So wird sichergestellt, dass die Standards für Modellentwicklung, Governance und Regulierung eingehalten statt ignoriert werden. 

  • Investition in interpretierbare ML-Architekturen für mehr Verständlichkeit und Erklärbarkeit.

Um Vertrauen und Verständnis zu fördern, ist es unerlässlich, in interpretierbare Architekturen für maschinelles Lernen zu investieren. Sie priorisieren Transparenz und Erklärbarkeit in KI-Modellen und ermöglichen es, die Entscheidungsprozesse der Algorithmen nachzuvollziehen. Dies fördert das Vertrauen bei Nutzern und Kunden und erleichtert gleichzeitig die Einhaltung von Vorschriften sowie die ethische Überprüfung. Die Fokussierung auf Architekturen für interpretierbares maschinelles Lernen ist ein proaktiver Schritt zum Aufbau eines nachhaltigen und verantwortungsvollen KI-Ökosystems, in dem Stakeholder die Fähigkeiten der Technologie vertrauensvoll und unter ethischen Gesichtspunkten nutzen können.

Eine Kultur der ethischen KI aufbauen

Zweifelsohne trägt der Einsatz verantwortlicher KI dazu bei, beispielsweise die Kundenerfahrungen bei jedem einzelnen Schritt ihrer geschäftlichen Interaktionen zu optimieren. Die Liste der Echtzeitanwendungen von KI in der Praxis wird aber laufend umfangreicher. Gerade weil Finanzunternehmen bereits kreativ und effizient mit KI umgehen, müssen verantwortungsvolle KI-Praktiken eingeführt werden, um Vertrauen zu schaffen und die Einhaltung von Vorschriften zu gewährleisten – und zwar sowohl bei der Entwicklung als auch bei der Überwachung der eingesetzten Algorithmen.

Transparenz, Fairness, Datenschutz, Einhaltung von Vorschriften, ethische Entscheidungsrahmen und eine Kultur der ethischen KI sind integrale Bestandteile einer Unternehmensstrategie, wenn Künstliche Intelligenz eingesetzt wird. Durch die Bewältigung dieser Hürden profitieren Finanzinstitute von den Vorteilen der KI-Innovation und tragen zum Aufbau eines verantwortungsvolleren sowie vertrauenswürdigeren Finanzökosystems bei.

Autor:   Dr. Scott Zoldi, Chief Analytics Officer bei FICO

Bleiben Sie informiert!

  • Newsletter jeden 2. Dienstag im Monat
  • Inhalt: Webinare, Studien, Whitepaper
Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Klicken Sie auf den unteren Button, um den Inhalt von Google reCAPTCHA zu laden.

Inhalt laden

Bleiben Sie informiert!

  • Newsletter jeden 2. Dienstag im Monat
  • Inhalt: Webinare, Studien, Whitepaper
Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Klicken Sie auf den unteren Button, um den Inhalt von Google reCAPTCHA zu laden.

Inhalt laden