Expert*innen drängen auf eine komplexe Systemperspektive zur Bewertung von KI-Risiken
en-GBde-DEes-ESfr-FR

Expert*innen drängen auf eine komplexe Systemperspektive zur Bewertung von KI-Risiken

13/11/2024 TU Graz

Wenn es darum geht, die Potenziale und Risiken von KI zu verstehen, müssen die sozialen Zusammenhänge und deren komplexe Wechselwirkungen berücksichtigt werden, betonen Wissenschafter*innen in einem Perspective. Auch das öffentliche Engagement muss gefördert werden.

Künstliche Intelligenz dringt in immer mehr Aspekte unseres Lebens vor, was bei Expert*innen zunehmend Sorgen über die Gefahren hervorruft. Manche Risiken sind unmittelbar, andere zeigen sich erst nach Monaten oder sogar Jahren.

Ein kohärenter Ansatz zum Verständnis dieser Risiken fehlt aber noch weitgehend – darauf weisen Wissenschafter*innen im Journal Philosophical Transactions A der Royal Society hin. Sie fordern die Risiken aus der Perspektive komplexer Systeme zu betrachten, um die Gefahren besser einschätzen und damit auch eindämmen zu können – insbesondere angesichts langfristiger Unsicherheiten und komplexer Wechselwirkungen zwischen KI und Gesellschaft.

„Um die Risiken von KI zu verstehen, muss man das komplexe Zusammenspiel zwischen Technologie und Gesellschaft verstehen. Es geht darum, sich zurechtzufinden in miteinander verflochtenen, sich gemeinsam entwickelnden Systemen, die unsere Entscheidungen und unser Verhalten beeinflussen“, sagt Fariba Karimi, Mitautorin des Perspectives. Karimi leitet das Forschungsteam für Algorithmische Fairness am Complexity Science Hub (CSH) und ist Professorin für Social Data Science am Institute of Interactive Systems and Data Science der TU Graz.

„Wir sollten nicht nur darüber diskutieren, welche Technologien wie eingesetzt werden sollen, sondern auch, wie der soziale Kontext angepasst werden kann, um die positiven Möglichkeiten zu nutzen. Zudem sollten die Möglichkeiten und Risiken von KI in Debatten, beispielsweise über die Wirtschaftspolitik, einbezogen werden“, erklärt CSH-Wissenschafter Dániel Kondor, Erstautor der Studie.

Umfassende und langfristige Risiken

Derzeitige Konzepte zur Risikobewertung konzentrieren sich oft auf unmittelbare und spezifische Gefahren wie Vorurteile und Sicherheitsfragen, so die Autor*innen. „Diese Ansätze übersehen oft umfassendere und langfristige systemische Risiken, die sich aus dem weit verbreiteten Einsatz von KI-Technologien und ihrer Interaktion mit dem sozialen Kontext, in dem sie eingesetzt werden, ergeben könnten“, sagt Kondor.

„In unserem Artikel haben wir versucht, die kurzfristige mit der langfristigen Betrachtung der Auswirkungen dieser Technologien auf die Gesellschaft in Einklang zu bringen. Es geht darum, sowohl die unmittelbaren als auch die systemischen Folgen von KI zu erfassen“, fügt er hinzu.

Algorithmen in der Schule

Um die potenziellen Risiken von KI-Technologien zu veranschaulichen, bedienen sich die Wissenschafter*innen einer Fallstudie, die zeigt, wie in Großbritannien während der Covid-19-Pandemie ein Vorhersagealgorithmus für Schulprüfungen eingesetzt wurde. Diese neue Lösung sollte objektiver und damit gerechter sein [als die Lehrer*innen danach zu fragen, die Leistungen ihrer Schüler*innen vorherzusagen], da sie auf einer statistischen Analyse der Leistungen der Schüler*innen in den vergangenen Jahren beruhte, heißt es in der Studie.

Als der Algorithmus jedoch in der Praxis umgesetzt wurde, traten mehrere Probleme auf. „Sobald der Benotungsalgorithmus angewandt wurde, traten Ungleichheiten deutlich zutage“, berichtet Valerie Hafez, eine unabhängige Forscherin und Mitautorin der Studie. „Schüler*innen aus benachteiligten Bevölkerungsgruppen trugen die Hauptlast des vergeblichen Versuchs, der Noteninflation entgegenzuwirken, aber auch insgesamt erhielten 40 % der Schüler*innen schlechtere Noten, als sie es angemessenerweise erwarten hätten können.“

Hafez berichtet, dass viele Antworten im Konsultationsbericht darauf hindeuten, dass das von den Lehrkräften als signifikant empfundene Risiko – die langfristige Auswirkung einer schlechteren als der verdienten Benotung – sich von dem Risiko unterschied, das die Entwickler*innen des Algorithmus wahrnahmen. Letztere waren besorgt über die Noteninflation, den daraus resultierenden Druck auf das Hochschulsystem und das mangelnde Vertrauen in die tatsächlichen Fähigkeiten der Schüler*innen.

Die Skalierung und der Umfang

Dieser Fall zeigt mehrere wichtige Probleme auf, die sich beim Einsatz groß angelegter algorithmischer Lösungen ergeben, betonen die Wissenschafter*innen. „Eine Sache, auf die man unserer Meinung nach achten sollte, ist die Skalierung – und auch der Umfang. Denn Algorithmen lassen sich leicht von einem Anwendungsbereich auf nächsten übertragen, auch wenn diese Kontexte sehr unterschiedlich sein können. Der ursprüngliche Entstehungskontext verschwindet nicht einfach, er überlagert vielmehr die anderen Kontexte“, erklärt Hafez.

„Langfristige Risiken sind nicht die lineare Kombination von kurzfristigen Risiken. Sie können im Laufe der Zeit exponentiell ansteigen. Mit Computermodellen und Simulationen können wir jedoch praktische Erkenntnisse gewinnen, um diese dynamischen Risiken besser zu bewerten“, fügt Karimi hinzu.

Computergestützte Modelle – Und die Öffentlichkeit

Dies ist eine der von den Wissenschafter*innen vorgeschlagenen Richtungen für das Verständnis und die Bewertung der mit KI-Technologien verbundenen Risiken, sowohl kurz- als auch langfristig. „Computermodelle – wie jene, die die Auswirkungen der KI auf die Repräsentation von Minderheiten in sozialen Netzwerken bewerten – können zeigen, wie Vorurteile („Biases“) in KI-Systemen zu Rückkopplungsschleifen führen, die gesellschaftliche Ungleichheiten verstärken“, erklärt Kondor. Solche Modelle können zur Simulation potenzieller Risiken verwendet werden und bieten Einblicke, die mit herkömmlichen Bewertungsmethoden nur schwer zu gewinnen sind.

Darüber hinaus betonen die Autor*innen der Studie, wie wichtig es ist, Laien und Expert*innen aus verschiedenen Bereichen in den Prozess der Risikobewertung einzubeziehen. Kompetenzgruppen – kleine, heterogene Teams, die unterschiedliche Perspektiven vereinen – können ein wichtiges Instrument sein, um die demokratische Beteiligung zu fördern und sicherzustellen, dass die Risikobewertungen unter Mitwirkung der am stärksten von den KI-Technologien Betroffenen entstehen.

„Ein allgemeinere Herausforderung ist die Förderung der sozialen Resilienz, die dazu beitragen kann, Debatten und Entscheidungsprozesse rund um KI zu verbessern und mögliche Fallstricke zu vermeiden. Diese soziale Widerstandsfähigkeit kann von vielen Fragen abhängen, die mit KI wenig oder nur indirekt zu tun haben“, überlegt Kondor. Die Förderung partizipativer Formen der Entscheidungsfindung kann eine wichtige Komponente zur Erhöhung der Resilienz sein.

„Ich denke, wenn man anfängt, KI-Systeme als soziotechnisch zu betrachten, kann man die Menschen, die von den KI-Systemen betroffen sind, nicht von den 'technischen' Aspekten trennen. Wenn man sie vom KI-System trennt, nimmt man ihnen die Möglichkeit, die ihnen auferlegten Klassifizierungsinfrastrukturen mitzugestalten, und verweigert den Betroffenen die Macht, an der Gestaltung von Welten teilzuhaben, die auf ihre Bedürfnisse abgestimmt sind“, sagt Hafez, die als AI Policy Officer im österreichischen Bundeskanzleramt tätig ist. *

--

Die Studie „Complex systems perspective in assessing risks in A.I.“ von Dániel Kondor, Valerie Hafez, Sudhang Shankar, Rania Wazir und Fariba Karimi wurde in „Philosophical Transactions A“ veröffentlicht und ist online verfügbar: https://royalsocietypublishing.org/doi/10.1098/rsta.2024.0109

--

* Valerie Hafez ist Referentin im österreichischen Bundeskanzleramt, hat diese Forschung jedoch unabhängig durchgeführt. Die in dem Perspective geäußerten Ansichten spiegeln nicht notwendigerweise die Ansichten oder Positionen des Bundeskanzleramtes wider.

Die Studie „Complex systems perspective in assessing risks in A.I.“ von Dániel Kondor, Valerie Hafez, Sudhang Shankar, Rania Wazir und Fariba Karimi wurde in „Philosophical Transactions A“ veröffentlicht und ist online verfügbar: https://royalsocietypublishing.org/doi/10.1098/rsta.2024.0109
13/11/2024 TU Graz
Regions: Europe, Austria
Keywords: Applied science, Artificial Intelligence, Computing, Policy - applied science, Technology

Disclaimer: AlphaGalileo is not responsible for the accuracy of news releases posted to AlphaGalileo by contributing institutions or for the use of any information through the AlphaGalileo system.

Testimonials

For well over a decade, in my capacity as a researcher, broadcaster, and producer, I have relied heavily on Alphagalileo.
All of my work trips have been planned around stories that I've found on this site.
The under embargo section allows us to plan ahead and the news releases enable us to find key experts.
Going through the tailored daily updates is the best way to start the day. It's such a critical service for me and many of my colleagues.
Koula Bouloukos, Senior manager, Editorial & Production Underknown
We have used AlphaGalileo since its foundation but frankly we need it more than ever now to ensure our research news is heard across Europe, Asia and North America. As one of the UK’s leading research universities we want to continue to work with other outstanding researchers in Europe. AlphaGalileo helps us to continue to bring our research story to them and the rest of the world.
Peter Dunn, Director of Press and Media Relations at the University of Warwick
AlphaGalileo has helped us more than double our reach at SciDev.Net. The service has enabled our journalists around the world to reach the mainstream media with articles about the impact of science on people in low- and middle-income countries, leading to big increases in the number of SciDev.Net articles that have been republished.
Ben Deighton, SciDevNet

We Work Closely With...


  • BBC
  • The Times
  • National Geographic
  • The University of Edinburgh
  • University of Cambridge
  • iesResearch
Copyright 2024 by AlphaGalileo Terms Of Use Privacy Statement