Share
Beitragsbild zu Künstliche Intelligenz und Datenethik: Vier Tipps, wie Unternehmen beides in Einklang bringen können

Künstliche Intelligenz und Datenethik: Vier Tipps, wie Unternehmen beides in Einklang bringen können

Algorithmen beeinflussen unser Leben: Sie personalisieren Empfehlungen für unseren Musik- und Fernsehkonsum, erkennen betrügerische Online-Bestellungen und entscheiden, wer zum Vorstellungsgespräch eingeladen wird. Der Einsatz von KI-Modellen hat in den letzten 20 Jahren rasant zugenommen und geht so weit, dass sie für Hypotheken, Finanzanwendungen und sogar für gezielte Werbung verwendet werden. Aber was können Unternehmen tun, um sicherzustellen, dass ihre KI-Projekte ethisch einwandfrei sind?

Ein Beispiel für diese potenzielle Voreingenommenheit wurde kürzlich beim Retail-Giganten Amazon sichtbar. Das Unternehmen entwickelte einen Prototyp-Algorithmus zur Bewertung von Bewerbungen künftiger Mitarbeiter. Die verwendeten Daten erfassten einen Zeitraum von zehn Jahren mit dem Zweck, die besten Bewerbungen auf der Grundlage früherer Leistungen von Arbeitnehmenden in ähnlichen Positionen zu ermitteln. So sollten schnell die besten Mitarbeiter:innen gefunden werden. In der Theorie gut, aber die Realität sah etwas anders aus. So hat der Algorithmus die Bewerbungen von Männern aufgewertet und die von Frauen abgewertet. Die Benachteiligung, die hier zum Tragen kam, war einfach: Frauen machen nur 17 Prozent der Angestellten in der deutschen Technologiebranche aus.

KI-Modelle sind so konzipiert, dass sie auf der Grundlage der Daten, mit denen sie gefüttert werden, Muster und Trends erkennen. In diesem Fall hat das KI-System aufgrund der statistischen Tatsache, dass weniger Frauen als Männer in bestimmten Positionen eingestellt wurden, das Muster hervorgehoben – die Abwertung von Bewerbungen mit dem Wort „Damen“ oder „Vorstandsmitglied des Damenschachclubs“. Das Entwicklungsteam setzte diese Bewertungskriterien zwar auf eine Verbotsliste, dies war jedoch immer noch keine Garantie dafür, dass der Algorithmus nicht andere Kriterien finden würde, mit denen er Männer bevorzugt, da das System mit einem fehlerhaften Datensatz gefüttert worden war. Aus diesem Grund beendete Amazon das Projekt.

Die allgemeine Qualität eines KI-Algorithmus hängt ausschließlich vom Faktor Mensch ab, der hinter diesem System steht – nicht nur von den Entwicklern, die für die Erstellung dieses Systems verantwortlich ist, sondern auch von der Qualität der Daten, mit denen das Programm gefüttert wird, um daraus entsprechende Erkenntnisse zu gewinnen. Im besten Fall kann KI als Erweiterung für menschliche Entscheidungen dienen. Allerdings kann sie im Zweifelsfall auch eine Vielzahl von Vorurteilen verstärken und damit erhebliche Herausforderungen mit sich bringen.

Die folgenden vier praktischen Tipps veranschaulichen, wo die zentralen Hürden für KI liegen und was Unternehmen tun können, um eine solide Grundlage für die künftige Arbeit mit künstlicher Intelligenz zu schaffen:

Sorgen Sie dafür, dass Ihre Daten sichtbar, strukturiert und zugänglich sind.

In der künstlichen Intelligenz folgt die Datenverwaltung immer noch drei verschiedenen Prozessen: Extrahieren, Transformieren und Laden (oder Extrahieren, Laden und Transformieren). Zwar haben sich Effizienz und Governance hinter diesen Prozessen im Laufe der Zeit angepasst, was oft zu einer nahezu in Echtzeit erfolgenden Verarbeitung führt, doch die Kernprinzipien des modernen Data Stacks bleiben bestehen.

Die Daten, die in KI- oder Machine Learning-Modelle eingespeist werden, müssen von angemessener Qualität, strukturiert und genau sein. Darüber hinaus muss diese Datenquelle so zugänglich sein, dass sie unter veränderten Governance- oder Datenschutzbestimmungen leicht geändert werden kann. In den vergangenen Jahren wurden die Daten aus verschiedenen Quellen in großen Mengen extrahiert. Diese Methode hatte nicht nur den Nachteil, dass sie unflexibel und nicht anpassungsfähig war, sondern führte auch dazu, dass die Datensätze schnell veraltet waren, wenn die Quelldaten aktualisiert wurden. Nach der Datenschutz-Grundverordnung (DSGVO) erfordern z. B. ein Antrag auf Auskunft und das Recht auf Löschung ein Maß an Datenflexibilität, das noch vor wenigen Jahren nicht üblich gewesen wäre.

Schaffen Sie gute Entscheidungsprozesse

Maschinelle Intelligenz soll die menschliche Mustererkennung und Problemlösung nachahmen – allerdings sind Menschen nun einmal nicht perfekt. Um Fehler im Endstadium des maschinellen Lernmodells zu vermeiden, sind transparente Governance und Prozesse auf fundamentaler Ebene erforderlich.

Das fehlende Glied ist ein unternehmensweiter Ansatz für transparente und erklärbare KI und ein Fokus auf die Datenverlauf, der von Datenarbeitern in der Abteilung über Data Engineers, Data-Science-Teams und ML-Ingenieuren bis hin zu Analytic-Ops-Experte:innen reicht. Unterstützt durch robuste Governance-Prozesse und Weiterbildungsinitiativen ist der menschliche Faktor die Kraft hinter der ethischen Datennutzung in der KI.

Ausschlaggebend ist die Fähigkeit, einseitige Datenquellen – sei es durch menschliche, statistische oder systembedingte Verzerrungen – zu identifizieren und abzuschwächen, bevor diese Daten zum Trainieren eines KI-Modells verwendet werden. Dies ist jedoch nur durch eine Kombination aus Zugänglichkeit zu Daten und Initiativen zur Schulung, Weiterbildung und Umschulung von Menschen in Bezug auf Datenkompetenz möglich. Um dieses Ziel zu erreichen, ist die Definition und Förderung einer „Fehlerkultur“ – in der Fehler als Bausteine für das Lernen angesehen werden – ein zentraler Aspekt. Robuste Daten, Analytik-Governance und Prozesse sollten für Unternehmen, die KI integrieren, als Werttreiber und nicht als Kostenstelle betrachtet werden. Die notwendige Überprüfung des Wertes, den diese Prozesse bringen, ergibt sich aus der Zeitersparnis, der rasanten Beschleunigung der Projektlaufzeiten und einem höheren Prozentsatz erfolgreicher Projekte auf mittlere bis lange Sicht.

Nutzen Sie synthetische Daten

Eine allgemeine statistische Regel besagt, dass die Ergebnisse umso aussagekräftiger sind, je größer die Stichprobe ist. Bei KI ist dies jedoch nicht unbedingt der Fall. Zu wenige Daten führen zwar zu leistungsschwächeren KI-Modellen, wobei es keine Obergrenze für die Menge an Trainingsdaten gibt, die verwendet werden kann – dennoch gibt es einen wirtschaftlichen „Sweetspot“, der zu berücksichtigen ist. Kurz gesagt ist dies der Punkt, an dem das Hinzufügen von mehr Daten zu einem Modell nicht mehr zu einer Effizienzsteigerung der Modell-Leistungen führt. Leider wird diese abnehmende Effizienz nicht durch einen geringeren Kostenfaktor widergespiegelt.

Analog zu dieser Kosten-Nutzen-Abwägung müssen Unternehmen auch berücksichtigen, dass die Verfügbarkeit der richtigen Daten ebenfalls einen Engpass darstellen kann. Während große Datensätze kontextabhängig üblich sind, sind große Datensätze, die repräsentativ, ethisch vertretbar und von hoher Qualität sind, eine weitaus seltenere – und wesentlich kostspieligere – Ressource. Hier bieten synthetische Daten eine praktische Alternative, die es Unternehmen ermöglicht, bestehende Datensätze zu skalieren und KI-Modelle mit statistisch signifikanten Daten zu trainieren.

Synthetische Daten sind ein programmatisch generierter Datensatz, der die statistischen Eigenschaften der zugrunde liegenden Originaldaten nachahmt. In der Praxis bedeutet dies, dass ein kleiner, ethisch vertretbarer und repräsentativer Datensatz skaliert und ausgewertet werden kann, ohne dass die statistische und demografische Aussage der ursprünglichen Datenpunkte verfälscht wird. Dies macht synthetische Daten nicht nur zu einer ethischen Alternative, sondern auch zu einem kostengünstigen Mittel für das Training von KI-Modellen.

Vorsicht vor unverständlicher KI

Zwei Kernelemente eines jeden KI-Modells sind Beobachtbarkeit und Erklärbarkeit. Nehmen wir zum Beispiel den Standard-Automotor: Während die meisten Menschen in der Lage sind, anhand der verschiedenen Lichter und Anzeigen auf dem Armaturenbrett zu erkennen, was mit dem Motor passiert, wird die zugrundeliegende Logik hinter der Live-Meldung „Motor überprüfen“ dem Fahrer selten vollständig erklärt. KI steht heute vor einer ähnlichen Herausforderung.

Zwar erhalten viele Arbeitnehmer die Rückmeldung, dass ein KI-Modell funktioniert, doch die meisten werden nicht über die richtigen Informationen verfügen, um zu wissen, wie es tatsächlich funktioniert. Erklärbare und überprüfbare Prozesse in Verbindung mit der Garantie, dass hochqualifizierte und übergreifend geschulte Mitarbeitende zum gesamten Prozess der KI-Modellgenerierung beitragen können, sind ein wichtiger Faktor, um diese KI-Voreingenommenheit zu vermeiden. Dieser durchgängige Ansatz für eine verifizierte Datenherkunft hängt von einer Vielzahl an Erfahrungen und einer höheren Wahrscheinlichkeit ab, verzerrte Datensätze oder verfälschte Ergebnisse zu identifizieren.

Ethische Datennutzung zahlt sich aus

Die Anwendungsmöglichkeiten von KI sind vielseitig – nicht nur in der Konsumwelt, sondern auch in den Bereichen Cybersicherheit, Logistik, Customer Experience, Finanzen und jedem anderen Sektor, in dem Entscheidungen auf der Grundlage von Daten getroffen werden müssen.

Um innovativ zu bleiben und den wahren Wert von KI hervorzuheben, brauchen Unternehmen einen Kulturwandel. Anstatt sich auf KI als ein mystisches System zur Erkenntnisgewinnung zu verlassen, das über jeden Verdacht erhaben ist, muss sie als das verstanden werden, was sie ist: ein Werkzeug. In diesem Sinne ist die Integration einer abteilungsübergreifenden Weiterbildungsinitiative zur Unterstützung von KI-Projekten – eine Initiative, die sich auf die Nutzung von auf Datenqualität basierenden, ethischen Erkenntnissen konzentriert – von zentraler Bedeutung, um den größten Nutzen aus KI-Systemen zu ziehen.

Genauso wie ein Automotor mit dem richtigen Treibstoff betankt werden muss, um richtig arbeiten zu können  – damit nicht die gefürchtete „Check-Motor“-Lampe aufleuchtet – muss auch die KI mit den korrekten Daten gefüttert werden. Mit den geeigneten Zutaten ermöglichen KI-gestützte Erkenntnisse und Entscheidungen ein schnelles Agieren und Reagieren auf Störungen oder Herausforderungen. Ohne diese Zutaten automatisieren Unternehmen jedoch nur schneller schlechte Entscheidungen.


Über den Autor:

David Sweenor ist Senior Director of Product Marketing bei Alteryx. Er blickt auf mehr als 20 Jahre Erfahrung im Bereich Analytik zurück, hat mehrere Bücher geschrieben, ist Mitautor verschiedener Patente und ist derzeit für zahlreiche globale Advanced-Analytics-Initiativen verantwortlich.

 

Bleiben Sie informiert!

  • Newsletter jeden 2. Dienstag im Monat
  • Inhalt: Webinare, Studien, Whitepaper
Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Klicken Sie auf den unteren Button, um den Inhalt von Google reCAPTCHA zu laden.

Inhalt laden

Bleiben Sie informiert!

  • Newsletter jeden 2. Dienstag im Monat
  • Inhalt: Webinare, Studien, Whitepaper
Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Klicken Sie auf den unteren Button, um den Inhalt von Google reCAPTCHA zu laden.

Inhalt laden