
Eine Studie der Bertelsmann Stiftung zeigt, was gesellschaftliche Organisationen beachten sollten.
Gütersloh (2mind) – Ein Chatbot für Menschen mit Essstörungen sollte keine Diättipps ausgeben und kein Chatbot sollte suizidale Gedanken Jugendlicher verstärken. Dennoch ist beides geschehen und zeigt beispielhaft: Der KI-Einsatz birgt Risiken für den einzelnen Menschen und für das Gemeinwohl. Welche Schwächen die in aktuellen KI-Tools verwendeten Basismodelle ausweisen, untersucht die Bertelsmann Stiftung in der aktuellen Studie „Auf Sand gebaut: Die versteckten Risiken generativer KI für das Gemeinwohl“.
Dass KI nicht immer neutral und objektiv funktioniert, hat auch damit zu tun, dass diese Modelle mit nicht sorgfältig zusammengestellten Daten trainiert werden. Daher kann der Bericht der Bertelsmann Stiftung als Warnung an gesellschaftliche Organisationen verstanden werden. Von der Stiftung selbst heißt es dazu: „Wenn Organisationen mit gesellschaftlicher Verantwortung durch ihren Einsatz von KI-Anwendungen verzerrte, fehler- und zweifelhafte Ergebnisse für ihre Arbeit nutzen, dann drohen sie das Vertrauen zu untergraben, auf das sie essenziell angewiesen sind.“
Zugleich zeigt die Studie, wie Basismodell besser entwickelt und betrieben werden könnten, nämlich indem sie Monokulturen in den Trainingsdaten vermeiden, auf Transparenz und Feedback setzen und sich dabei Bibliotheken zum Vorbild nehmen.
Im Projekt „reframe[Tech] – Algorithmen fürs Gemeinwohl“, mit dem sich die Bertelsmann Stiftung dafür einsetzt, dass Entwicklung und Einsatz digitaler Technologien stärker am Gemeinwohl ausgerichtet werden.