Studie der Universität Hohenheim: Wird Künstliche Intelligenz von sich umweltfreundlich verhaltenden Menschen trainiert, sind ihre Entscheidungen eher gemeinwohl-orientiert
26.08.2024
Werte und
Einstellungen von Menschen, die KI entwickeln und trainieren, beeinflussen wie künstliche Intelligenz in der Anwendung agiert. Das kann dazu führen, dass KI-Algorithmen Vorurteile wiedergeben und
diskriminierend wirken. Doch auch positive Werte können sich in den Entscheidungen von KI niederschlagen. Das zeigt eine Studie am Fachgebiet Nachhaltige Entwicklung und Wandel der Universität
Hohenheim in Stuttgart am Beispiel von Spamfilter-Algorithmen: Werden die Algorithmen von Menschen trainiert, die sich im Alltag eher umweltbewusst verhalten, sortieren sie Spendenaufrufe und
andere gut gemeinte E-Mails seltener aus.
Von Filmempfehlungen bis zu Entscheidungen im Personalwesen: In vielen Bereichen erhoffen sich die Anwender:innen von KI, dass die Systeme vor allem neutrale, von Meinungen unbeeinflusste
Entscheidungen treffen.
Häufig sei jedoch das Gegenteil der Fall, erklärt Prof. Dr. Siegmar Otto vom Fachgebiet Nachhaltige Entwicklung und Wandel der Universität Hohenheim: „Studien zeigen, dass solche Systeme häufig
nicht neutral arbeiten. Das heißt, dass sie voreingenommen sind und Stereotype reproduzieren. Das kann zum Beispiel daran liegen, dass die Trainingsdaten dieser Algorithmen die Welt nicht
vollständig neutral abbilden, sondern subjektive Verzerrungen aufweisen.“
Aus diesem Grund hätten KI-Systeme in der Vergangenheit diese subjektiven Verzerrungen übernommen oder verstärkt. Ein Beispiel ist die KI-gestützte Personalauswahl, bei der die Gefahr besteht,
dass der Algorithmus bestimmte Personengruppen aufgrund von Vorurteilen in den Trainingsdaten diskriminiert.
Daher sei entscheidend, wer die Systeme entwickle und trainiere: „Die persönlichen Werte und Ansichten dieser Personen haben Einfluss darauf, welche Daten als relevant angesehen werden und welche
Muster der Algorithmus erlernen soll“, erklärt der Psychologe.
„In unserer Forschung wollen wir das Problem aber nicht nur benennen, sondern stellten uns die Frage, wie wir zu einer Lösung beitragen können. Sprich: ob es möglich ist, den Algorithmen
erstrebenswerte Eigenschaften anzutrainieren“, erläutert Sarah Zabel, Doktorandin am Fachgebiet Nachhaltige Entwicklung und Wandel.
750 Testpersonen durften einfache KI-Systeme trainieren
Als KI-System für ihre Online-Studie simulierten Zabel und Prof. Dr. Otto die Entwicklung von intelligenten Spamfiltern und ließen sie von 750 Teilnehmenden trainieren. Dabei handelte es sich um
einen repräsentativen Querschnitt der deutschen Internet-Nutzer:innen.
„Spamfilter sind ein guter Gegenstand für solche Forschungsfragen, weil sie eine einfache Aufgabe haben: Sie kategorisieren E-Mails. Aber auch diese Systeme werden zunächst von Menschen
trainiert, die entscheiden welche Nachrichten als Spam gelten“, so Zabel.
Die Teilnehmenden erhielten deshalb jeweils acht E-Mails – darunter Nachrichten von Banken, Menschenrechts- und Umweltorganisationen – die sie als Spam oder Nicht-Spam kategorisieren
mussten.
„In einem zweiten Schritt haben wir erfasst, wie groß die soziale Veranlagung der Teilnehmenden ist.“, erläutert Zabel. Dazu nutzten wir zwei standardisierte Fragebögen. Ein Fragebogen enthielt
Fragen, der speziell das Umweltschutzverhalten abprüfte. Ein zweiter fragte weniger spezifisch nach generellen Verhaltensweisen, die dem Gemeinwohl dienten.“ Darunter waren z. B. Fragen, ob man
sparsam heize oder für humanitäre Zwecke spende.
Umweltmotivierte Menschen trainieren Spamfilter für mehr Gemeinwohl
Das Ergebnis: „Entgegen unserer Erwartung zeigte sich, dass die generelle Gemeinwohl-Orientierung, die Altruismus-Skala, die Effekte bei der Spam-Kategorisierung viel weniger gut als die
Umweltschutz-Skala vorhersagen konnte“, so Zabel.
„Interessant ist dementsprechend, dass Menschen mit einer größeren Umweltmotivation sowohl die E-Mails der Klimaschutzorganisationen als auch die der humanitären Organisationen seltener als Spam
einstuften“, erläutert Zabel.
Dies entspreche den Ergebnissen früherer Studien: Umweltmotivierte Personen seien häufig hilfsbereiter und verhielten sich prosozial: „Es ist also wahrscheinlicher, dass sich Menschen mit einer
größeren Umweltmotivation sowohl für den Schutz der Umwelt als auch für das Wohlergehen ihrer Mitmenschen einsetzen. Deshalb lassen diese Personen auch die E-Mails der humanitären Organisationen
durchgehen“, so Zabel.
„Letztendlich
kommen wir – auch in anderen neuen Studien – zu dem Schluss, dass Umweltschutzverhalten eine spezielle Variante von einer grundlegenden Prosozialität eines Menschen ist.“
Nachhaltigkeitsorientierte Algorithmen entwickeln
Laut Prof. Dr. Siegmar Otto sind die Ergebnisse der Studie auch relevant für andere Bereiche, in denen Algorithmen Entscheidungen treffen: „Die Studie verdeutlicht noch einmal, wie wichtig es
ist, die persönlichen Werte, der für die Entwicklung von KI verantwortlichen Menschen zu berücksichtigen.“
Die Ergebnisse seien auch eine Anregung dafür, Algorithmen zu entwickeln, die nachhaltig und sozial agieren: „Es ist möglich die Systeme so zu trainieren, dass sie soziale und ökologische
Entscheidungen für eine möglichst breite Bevölkerungsgruppe unterstützen“, so Prof. Dr. Otto.
Text: Moormann/Klebs
Weitere
Informationen
zur Studie: https://doi.org/10.1145/3613904.3642404
Autorin: Universität Hohenheim (Moormann/Klebs); zusammengestellt von Gert Holle