Benedikt Lennartz und Shari Langner
Die Errungenschaften der Forschung im Bereich maschinellen Lernens und der künstlichen Intelligenz (KI oder im Englischen „artificial intelligence“, abgekürzt AI) sind spätestens seit den vielbeachteten Veröffentlichungen aktueller Bildgeneratoren wie DALL-E2 und Stable Diffusion oder dem Sprach- und Chatmodell ChatGPT in aller Munde. Neben den großen Hoffnungen, die schon seit langem im Hinblick auf die Potentiale dieser Technologie bestehen, hat auch die (zunächst) freie und kostenlose Verfügbarkeit dieser Programme zu einer starken Zunahme von Interesse und Kenntnis der Anwendungen geführt. Erwartungen an die Zukunft dieser Technologie reichen teils ins Unermessliche – die Idee von AGI „Artificial General Intelligence“ als eine Art Superintelligenz wird dabei sowohl mit Utopien als auch mit Dystopien verknüpft (eine Idee, die auch schon in diversen Geschichten und Medien, zum Beispiel in „2001: Odyssee im Weltraum“ oder den Terminator Filmen, aufgegriffen wurde).
In der Forschung zu künstlicher Intelligenz haben solche grundlegenden Fragen nach Entwicklungspotenzialen und ihrer Realisierung einen festen Platz. Dabei ist es in der Forschung mindestens umstritten, ob und falls ja, wann ein solches AGI System entstehen könnte. Dieser Artikel stellt sich jedoch akutere und aktuellere Fragen, die auch für die Nutzung von Systemen, die wir gegenwärtig beobachten können, relevant sind:
Die Fortschritte in der KI-Entwicklung der vergangenen Jahre beruhen zu großen Teilen auf Entwicklungen und Verbesserungen der Computerchips und anderer Komponenten, auf denen KI-Systeme trainiert werden. Dieser Prozess benötigt Ressourcen, zum Beispiel die notwendigen Mineralien, um die Chips herzustellen sowie Energie, um die Serverparks zu betreiben. Andererseits gibt es schon heute Beispiele dafür, wie Ressourcen, insbesondere Energie mit Hilfe dieser Algorithmen eingespart werden können. Dementsprechend ist es wichtig, sich genauer mit der Thematik auseinanderzusetzen.
Um die Auswirkungen, Chancen und Zielkonflikte für eine nachhaltige Entwicklung einschätzen zu können, ist zumindest ein rudimentäres Verständnis aktueller, auf maschinellem lernen basierender KI-Systeme hilfreich. Diese beruhen auf der Auswertung enorm großer Datensätze, in denen Muster erkannt werden. Die Datenanalyse kann sowohl angeleitet durch Menschen passieren (supervised), als auch komplett automatisiert (unsupervised). Aus diesen Auswertungen entstehen dann sogenannte neuronale Netze, die dem Zusammenspiel von Neuronen und Synapsen im menschlichen Gehirn nachempfunden sind. Basierend auf den Ausgangsdaten werden diese Netze solange trainiert, d.h. werden Werte, mit denen die Punkte im Netzwerk verbunden sind, solange verändert, bis das Ergebnis möglichst nah am gewünschten Ergebnis ist. Systeme, die wir als „künstliche Intelligenz“ bezeichnen, sind im Ergebnis also Algorithmen, die, basierend auf stochastischen Auswertungen großer Datenmengen, aus Inputs Ergebnisse berechnen, die Muster in den bestehenden Daten nachbilden.
KI in den Dimensionen der Nachhaltigkeit: Chancen und Risiken
Für die Analyse der Auswirkungen von KI auf eine nachhaltige Entwicklung hilft es, zwischen den Chancen, die der Technologie hierfür innewohnen (AI for sustainability) und den potentiellen negativen Auswirkungen der Entwicklung und Anwendung der Technologie (Sustainability of AI) zu unterscheiden (van Wynsberghe, 2019). Durch die Unterteilung wird klar, dass es sich um zwei unterschiedliche Herangehensweisen handelt: einerseits die Frage danach, wie die Algorithmen helfen können, die gesellschaftliche Transformation zu mehr Nachhaltigkeit voranzutreiben, zum Beispiel durch Effizienzgewinne, Modelle zur Klimasimulation und Datenanalyse; andererseits die Frage nach Zielkonflikten und Konsequenzen der Nutzung von AI, die zum Teil auch unbeabsichtigt nicht nachhaltige Prozesse und Verhaltensweisen verstärken oder verstetigen. Van Wynsberghe argumentiert, dass es für „Nachhaltige KI“ notwendig ist, beide Perspektiven zu verbinden und dass die aktuelle Forschung einen zu großen Fokus auf den Bereich AI for sustainability, also die positive Perspektive legt. – Die Grundsätzliche Unterteilung der Perspektiven AI for sustainability und Sustainability of AI kann jedoch nur ein Ausgangspunkt sein. Um einen Überblick über die Auswirkungen von KI auf eine nachhaltige Entwicklung zu ermöglichen, werden wir relevante Aspekte und Beispiele zusätzlich an der bekannten Unterteilung der Nachhaltigkeit in ökologische, ökonomische und soziale Dimensionen ausrichten.
KI und die ökologische Dimension der Nachhaltigkeit
In der ökologischen Dimension liegen sowohl zentrale Potentiale als auch Herausforderungen für die Nachhaltigkeitsrelevanz von KI. Ein sehr bekanntes Beispiel für die Nachhaltigkeitspotentiale von KI im Bereich der Energieeffizienz ist die Optimierung der Kühlung von Rechenzentren. Schon 2016 berichtete Deepmind, ein Google-Tochterunternehmen, dass die Nutzung von KI die Energiekosten eines Google-Rechenzentrums um bis zu 40% reduzieren konnte (Evans/Gao, 2016). Die Vielzahl der möglichen Einstellungen des Kühlsystems bietet eine gute Anwendungsumgebung für die Automatisierung. Dieses Beispiel zeigt also nicht nur Auswirkungen auf die ökologische Dimension, insofern die Optimierung des Energieverbrauchs zu einer weniger CO2-intensiven Geschäftstätigkeit beitragen kann, sondern auch auf die ökonomische Dimension.
Die Energienutzung ist gleichzeitig eine zentrale Herausforderung, der sich die Forschung im Bereich KI stellen muss. Strubell et al. berichteten 2019 in einem Paper, dass das Training eines großen Sprachmodells (NAS) 284t CO2-Äquivalente verursachte, was in etwa den Emissionen von 5 Autos über deren gesamte Lebenszeit entspricht. GPT-3, eine Vorstufe des Chatmodells ChatGPT, hat nach Schätzungen bereits deutlich mehr, nämlich 552t CO2-Äquivalente verursacht (Ludvigsen, 2022). Diese Zahlen müssen selbstverständlich im Kontext des Nutzens, den die jeweiligen Systeme erbringen, interpretiert werden.
Fortschritte in der Bildanalyse ermöglichen darüber hinaus bessere Datenerhebungen in der Umweltanalyse und können so zum Beispiel Verbesserungen in der Anpassung an veränderte klimatische Umstände ermöglichen. 2020 zeigte zum Beispiel eine automatisierte Bildanalyse von Satellitenbildern der Sahara, dass dort überraschend viele Bäume wuchsen (Fischer, 2020). Die Steuerung komplexer Systeme mit Hilfe von KI kann außerdem zu Fortschritten in Richtung dekarbonisierter Systeme, zum Beispiel im Bereich von Smart Cities, führen.
Neben der Energieintensität basieren das Training und die Nutzung von KI-Systemen auch auf physischen Grundlagen. Die notwendigen Datenzentren benötigen große Mengen an hochentwickelten Chips und weiterer Hardware. Diese Teile bestehen aus verschiedenen Stoffen und Mineralien, deren Abbau zur Umweltzerstörung beiträgt und die zum Teil unter schlechten Bedingungen abgebaut werden. Insbesondere Kobalt ist dafür bekannt, in irregulären Minen abgebaut zu werden. Der wachsende Bedarf dieser Stoffe, die für IT-Komponenten benötigt werden, verschärft diese ökologische und soziale Problematik.
KI und die soziale Dimension der Nachhaltigkeit
Forschung im Bereich der sozialen Nachhaltigkeit hat sich unter anderem damit beschäftigt, was soziale Nachhaltigkeit im Bereich der künstlichen Intelligenz bedeutet. Rohde et al. (2021, S. 29) definieren,
„dass die Würde des Menschen respektiert wird, keine Menschen ausgeschlossen, benachteiligt oder diskriminiert werden und die menschliche Autonomie und Handlungsfreiheit durch KI-Systeme nicht eingeschränkt werden darf“.
Diesen Ansprüchen werden aktuelle KI-Systeme oftmals nicht gerecht. Forscher*innen haben früh festgestellt, dass sich Verzerrungen in den zugrundeliegenden Daten auch in den darauf basierenden Algorithmen wiederfinden. So entstanden zum Beispiel Anwendungen, die Gesichter von nicht weißen Menschen schlechter erkannten oder die weibliche Bewerberinnen in der Auswahl benachteiligen (Najibi, 2020; Dastin, 2018).
Diese Beispiele zeigen, dass auch eine Auseinandersetzung mit den sozialen Auswirkungen von KI wichtig ist, um sicherzustellen, dass die Anwendung dieser Systeme soziale Ungleichheiten nicht vertieft. Auch die Entwicklung der KI-Systeme selbst basiert oftmals auf der Arbeit von Menschen im globalen Süden. Einerseits, um Datensätze zu sichten und zu systematisieren, aber auch, um die Ergebnisse von Systemen von ungewollten Ergebnissen wie zum Beispiel Rassismus oder Sexismus zu befreien. Immer wieder haben KI Systeme in der Vergangenheit Probleme mit „encoded bias“, also der Replikation von diskriminierenden Mustern aus den Ursprungstexten oder anhand von Interaktion „gelernten“ Mustern gezeigt. Die Auseinandersetzung mit und Verhinderung dieser Ergebnisse wurde zum Beispiel für ChatGPT an Unternehmen übertragen, welche die Aufgabe mit Hilfe von Angestellten in Ländern mit geringeren Durchschnittslöhnen übernommen haben (Wolfangel, 2023).
Fazit
Die Entwicklung neuer Algorithmen im Bereich der künstlichen Intelligenz schreitet aktuell sehr schnell und mit beeindruckenden technischen Ergebnissen voran. Mit der wachsenden Bedeutung dieser Entwicklung wird es auch zunehmend wichtiger, grundlegende Fragen zur Nachhaltigkeit der Technologie, insbesondere bezogen auf die ökologische und die soziale Dimension zu stellen. Der Begriff der „Nachhaltigen KI“ (Sustainable AI) versucht, sowohl die Potentiale als auch die Risiken der Technologie zu beachten. Nur, wenn beide Seiten beleuchtet werden, können aussagekräftige Ergebnisse generiert werden. Ein wichtiger Ansatz ist dabei, Transparenz über die Vorrausetzungen für KI zu schaffen, also die materiellen Bedarfe an Hardware und den Energieverbrauch während des Trainings und Betriebs der Algorithmen. Vinuesa et al. (2020) haben in einer Studie die Potentiale und Risiken von KI auf die Sustainable Development Goals umfassend untersucht und erklären, dass die Technologie auf 134 der Unterziele positive Auswirkungen haben kann, aber auch negative Auswirkungen auf 59 Ziele. Aus politischer Perspektive gilt es schließlich auch zu analysieren, wie die Regulierung dieser Technologie – in Anbetracht der positiven und negativen Auswirkungen – heute aussieht und ob sie den Anforderungen an eine nachhaltigere Gesellschaft gerecht wird.
Quellen
Bender, E.; Gebru, T.; McMillan-Major, A.; Shmitchell, S. (2021): On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery, New York, NY, USA, 610–623. https://doi.org/10.1145/3442188.3445922
Dastin, J. (2018): Amazon scraps secret AI recruiting tool that showed bias against women. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
Evans, R.; Gao, J. (2016): DeepMind AI Reduces Google Data Centre Cooling Bill by 40%. https://www.deepmind.com/blog/deepmind-ai-reduces-google-data-centre-cooling-bill-by-40
Fischer, L. (2022): KI findet unzählige Bäume in der Wüste. https://www.spektrum.de/news/ki-findet-unzaehlige-baeume-in-der-wueste/1782470
Ludvigsen, K. (2022): The Carbon Footprint of ChatGPT. https://towardsdatascience.com/the-carbon-footprint-of-chatgpt-66932314627d
Najibi, A. (2020): Racial Discrimination in Face Recognition Technology. https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-in-face-recognition-technology/L
Rhode, F.; Wagner, J.; Reinhard, Ph.; Petschow, U.; Meyer, A.; Voß, M.; Mollen, A. (2021): Nachhaltigkeitskriterien für künstliche Intelligenz. Entwicklung eines Kriterien- und Indikatorensets für die Nachhaltigkeitsbewertung von KI-Systemen entlang des Lebenszyklus. Schriftenreihe des IÖW 220/21, Berlin, Germany. https://www.ioew.de/fileadmin/user_upload/BILDER_und_Downloaddateien/Publikationen/2021/IOEW_SR_220_Nachhaltigkeitskriterien_fuer_Kuenstliche_Intelligenz.pdf
Strubell, E.; Ganesh, A.; McCallum, A. (2019): Energy and Policy Considerations for Deep Learning in NLP. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 3645–3650, Florence, Italy. Association for Computational Linguistics. https://aclanthology.org/P19-1355/
Van Wynsberghe, A. (2021): Sustainable AI: AI for sustainability and the sustainability of AI. AI Ethics 1, 213–218. https://doi.org/10.1007/s43681-021-00043-6
Vinuesa, R.; Azizpour, H.; Leite, I. et al. (2020): The role of artificial intelligence in achieving the Sustainable Development Goals. Nat Commun 11, 233. https://doi.org/10.1038/s41467-019-14108-y
Wolfangel, E. (2023): ChatGPT. Ausgebeutet, um die KI zu zähmen. https://www.zeit.de/digital/2023-01/chatgpt-ki-training-arbeitsbedingungen-kenia
Über die Autor*innen:
Benedikt Lennartz, M.A. ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Internationale Beziehungen und Nachhaltige Entwicklung sowie am Zentrum für Interdisziplinäre Nachhaltigkeitsforschung der Universität Münster. Seine Forschungsschwerpunkte sind Wirtschaft und Menschenrechte, Global Governance sowie KI und Nachhaltigkeit.
Shari Langner studiert Politikwissenschaft im Zwei-Fach-Bachelor an der Universität Münster und arbeitet als studentische Hilfskraft am Lehrstuhl für Internationale Beziehungen und Nachhaltige Entwicklung der Universität Münster. Sie interessiert sich besonders für nachhaltigen Konsum und Menschenrechte.
Beitragsbild:
Alexa Steinbrück / Better Images of AI / Explainable AI / CC-BY 4.0
1 Kommentar
[…] Intelligenz (KI) und Nachhaltigkeit zeigen Benedikt Lennartz und Shari Langner in ihrem ZIN Blogbeitrag […]