Nutzung menschlicher und maschineller Intelligenz für den Planeten
HeimHeim > Blog > Nutzung menschlicher und maschineller Intelligenz für den Planeten

Nutzung menschlicher und maschineller Intelligenz für den Planeten

Jun 18, 2024

npj Climate Action Band 2, Artikelnummer: 20 (2023) Diesen Artikel zitieren

1587 Zugriffe

101 Altmetrisch

Details zu den Metriken

Es wird erwartet, dass der anhaltende globale Wettlauf um größere und bessere Systeme der künstlichen Intelligenz (KI) tiefgreifende Auswirkungen auf Gesellschaft und Umwelt haben wird, indem er Arbeitsmärkte verändert, Geschäftsmodelle stört und neue Governance- und gesellschaftliche Wohlfahrtsstrukturen ermöglicht, die den globalen Konsens über Klimaschutzpfade beeinflussen können . Die aktuellen KI-Systeme werden jedoch auf voreingenommene Datensätze trainiert, die politische Behörden destabilisieren könnten, die Auswirkungen auf Klimaschutz- und Anpassungsentscheidungen haben, und die soziale Stabilität gefährden, was möglicherweise zu gesellschaftlichen Kippereignissen führen könnte. Daher ist die angemessene Gestaltung eines weniger voreingenommenen KI-Systems, das sowohl direkte als auch indirekte Auswirkungen auf Gesellschaften und planetarische Herausforderungen widerspiegelt, eine Frage von größter Bedeutung. In diesem Artikel gehen wir die Frage der datenzentrierten Wissensgenerierung für den Klimaschutz auf eine Weise an, die voreingenommene KI minimiert. Wir plädieren für die Notwendigkeit, eine weniger voreingenommene KI mit einem epistemischen Netz zu den Herausforderungen der Planetengesundheit in Einklang zu bringen, um vertrauenswürdigere Entscheidungen zu treffen. Eine Human-in-the-Loop-KI kann so konzipiert werden, dass sie auf drei Ziele ausgerichtet ist. Erstens kann es zu einem planetaren epistemischen Netz beitragen, das den Klimaschutz unterstützt. Zweitens kann es durch die Kenntnis sozialer Kippelemente unmittelbar Abhilfe- und Anpassungsmaßnahmen ermöglichen. Schließlich kann es die Datenungerechtigkeiten reduzieren, die mit KI-Vortrainingsdatensätzen verbunden sind.

Das Zeitalter der künstlichen Intelligenz (KI) hat begonnen und ist voller Chancen und Verantwortlichkeiten. Es ist noch nicht klar, wie KI oder maschinelle Intelligenz zur Bewältigung aktueller globaler Herausforderungen, einschließlich des Klimawandels, beitragen können.

Eine globale digitale Transformation würde ein beispielloses Maß an maschineller Intelligenz erfordern. Diese maschinelle Intelligenz nachhaltig zu gestalten und sie auf die gesundheitlichen Herausforderungen unseres Planeten abzustimmen, ist eine große Herausforderung für sich, angefangen bei der raschen Reduzierung der Treibhausgasemissionen im Zusammenhang mit dem Internet und derzeit kohlenstoffintensiven Rechenzentren1,2. In der Literatur werden verschiedene Möglichkeiten hervorgehoben, wie KI eine entscheidende Rolle bei der Bewältigung des Klimawandels spielen kann. Es kann innovative Lösungen bereitstellen, um die negativen Auswirkungen von Treibhausgasemissionen zu mildern, die Energieeffizienz zu steigern und eine nachhaltige Entwicklung zu fördern3 (wird später im Detail besprochen).

Die Bewältigung des Klimawandels durch KI ist aufgrund der enormen Anzahl von Variablen, die mit diesem komplexen System verbunden sind, äußerst schwierig. Beispielsweise sind Klimadatensätze sehr umfangreich und es nimmt viel Zeit in Anspruch, sie zu sammeln, zu analysieren und zu nutzen, um fundierte Entscheidungen zu treffen, die sich in Klimaschutzmaßnahmen umsetzen lassen. Durch den Einsatz von KI zur Berücksichtigung der sich ständig ändernden Faktoren des Klimawandels können wir fundiertere Vorhersagen über Umweltveränderungen erstellen und so früher Abhilfemaßnahmen ergreifen. Dies bleibt eine der vielversprechendsten Anwendungen von KI in der Klimaschutzplanung. Während Irrgang et al.4 jedoch das Potenzial von KI-Werkzeugen in der physikgetriebenen Modellierung von Erdsystemen zur Vorhersage des Klimawandels erläutern, betonen sie die Notwendigkeit, sich auf klare, physikalisch bedeutsame Forschungshypothesen, den geophysikalischen Determinismus der prozessbasierten Modellierung und Vorsicht zu verlassen menschliche Bewertung anhand domänenspezifischen Wissens, um eine aussagekräftige KI zu entwickeln, die die Herausforderungen der Klimawissenschaft mit klassischen Erdsystemmodellen bewältigen kann.

Darüber hinaus beginnt man gerade erst zu verstehen, welche konkreten Auswirkungen einige der aktuellen Maschinenintelligenz- und KI-Systeme im Zusammenhang mit Kryptowährungs-Mining, Cloud-Computing und groß angelegten Modellen für maschinelles Lernen haben, und die zunehmenden Auswirkungen der Digitalisierung auf den Verbrauch und die Ressourcengewinnung scheinen sich zu verstärken ein zunehmend beunruhigendes Problem sein. Infolgedessen scheint unser derzeitiger Weg der Digitalisierung ein zweischneidiges Schwert zu sein, das die Treibhausgasemissionen erhöhen und die allgemeine Gesundheit des Planeten verschlechtern könnte2.

Darüber hinaus ist der Einfluss der Digitalisierung auf die natürliche Umwelt und die sozialen Systeme unbekannt und erfordert in vielen Bereichen eine sorgfältige Gestaltung der öffentlichen Politik5. Das wünschenswerte Design eines rechenschaftspflichtigen maschinellen Intelligenzsystems, das sowohl direkte als auch indirekte Auswirkungen auf Gesellschaften und die Gesundheit des Planeten widerspiegelt, ist eine Frage von größter Bedeutung, die wir in diesem Artikel aus der Sicht des Design Thinking näher erläutern. Wir betonen die Notwendigkeit, ein epistemisches Netz planetarer Gesundheitsherausforderungen mit den Zielen einer weniger voreingenommenen Klimaschutz-KI in Einklang zu bringen, und die Entzerrung umfangreicher Pre-Training-Datensätze kann den ersten Weg ebnen. Die in diesem Dokument verwendeten Schlüsselkonzepte und Definitionen sind in Kasten 1 dargestellt.

Maschinelle Intelligenz ist das Ergebnis der Programmierung von Maschinen mit einigen Merkmalen menschlicher Intelligenz, wie Lernen, Problemlösung und Priorisierung, die oft durch maschinelles Lernen (ML) ermöglicht werden und es einer Maschine ermöglichen, komplexe Probleme zu lösen. ML ist eine Anwendung der KI, die auf deduktivem Denken basierend auf beobachteten Daten arbeitet und Berechnungen, Modelle und Algorithmen kombiniert, um nützliche Vorhersagen oder Entscheidungen zu treffen.

Echte maschinelle Intelligenzsysteme sollen erkennen, wenn sie Fehler gemacht haben, auf ähnliche Daten achten, die in der Zukunft zu einem ähnlichen Fehler führen könnten, und die Wiederholung von Fehlern vermeiden. Dadurch wird es Zugriff auf eine Vielzahl von ML-Methoden und Automatisierungstechniken haben und die Erreichung spezifischer Ziele intelligent priorisieren. Im gegenwärtigen technologischen Kontext wird maschinelle Intelligenz als eine fortgeschrittene Form des maschinellen Lernens mit der Hinzufügung von Priorisierung und Zielen definiert – ein Sprungbrett auf dem Weg zu echter künstlicher allgemeiner Intelligenz74,75.

Wir verwenden die Begriffe „Maschinelle Intelligenz“ und „KI“ synonym, um unser gegenwärtiges digitales Zeitalter darzustellen, das voraussichtlich tiefgreifende Auswirkungen auf Gesellschaft und Umwelt haben wird, indem es den Arbeitsmarkt, die Geschäftsmodelle, die Regierungsführung und die gesellschaftlichen Wohlfahrtsstrukturen verändert24. Ein umfassendes Verständnis gewünschter und unerwünschter dynamischer Effekte erfordert jedoch mehr Aufmerksamkeit, insbesondere da immer größere und bessere KI-Modelle entstehen.

Unter Digitalisierung versteht man die Integration digitaler Technologien in gesellschaftliche Strukturen und die Wirtschaft. Es gilt als das Rückgrat des neuen durch maschinelle Intelligenz – oder KI – gesteuerten Industriezeitalters, genannt Industrie 4.0 (und darüber hinaus). Nicht alle Formen der Digitalisierung sind positiv, und es gibt Hinweise darauf, dass digitale Geräte wie intelligente Messgeräte oder In-Home-Displays sowie digital vernetzte oder intelligente Häuser anfälliger für einen Anstieg des Energieverbrauchs und der CO2-Emissionen sowie für die Anfälligkeit für Hacker und Angriffe sein könnten Privatsphäre und Überwachungskapitalismus und noch höhere Raten häuslicher Gewalt und Missbrauch76,77,78,79.

Zu den Herausforderungen für die Gesundheit des Planeten6 zählen der Klimawandel, der Verlust der biologischen Vielfalt, Luftverschmutzung, Wasserverschmutzung, Landnutzungsänderungen und Nahrungsmittelsysteme.

Das epistemische Web wird von Jürgen Renn8 vorgestellt, wobei das gegenwärtige Internet (Web) zu einem Wissensuniversum wird, das dem menschlichen Wissen entspricht. Im Epistemic Web wird das Browsen durch die gezielte Zusammenführung von Dokumenten ersetzt. Alle Daten werden Metadaten sein und alle Dokumente werden Perspektiven in das Universum des Wissens sein. Indem das Epistemische Web stark erweiterte Links zwischen Dokumenten zulässt (eingehende und ausgehende Links, multidirektionale Links, transitive und intransitive Links, Links mit angehängten semantischen Bezeichnungen, Links mit bestimmten Verhaltensweisen), ermöglicht es Dokumenten, sich gegenseitig zu beschreiben. Daher ist die Digitalisierung aktueller Wissensspeicher unerlässlich; Wissen muss zugänglich, auffindbar und für die rekursive Produktion neuen Wissens verfügbar sein.

Human-in-the-Loop-KI versucht, das zu erreichen, was weder Menschen noch Maschinen allein schaffen können. Wenn eine Maschine ein Problem nicht lösen kann, muss der Mensch eingreifen. Durch dieses Vorgehen entsteht ein fortlaufender Feedback-Zyklus. Diese KI-Designstrategie wird zunehmend als eine Möglichkeit angesehen, eine weniger voreingenommene KI zu schaffen.

Soziale Wendepunkte (Social Tipping Points, STPs) sind Fälle, in denen es zu einer signifikanten und schnellen Veränderung der Einstellungen, Überzeugungen, Verhaltensweisen oder Werte einer gesamten Gesellschaft oder eines wesentlichen Teils davon kommt. Diese Wendepunkte können durch eine Vielzahl von Faktoren ausgelöst werden, wie zum Beispiel technologische Fortschritte, kulturelle Bewegungen, politische Ereignisse, wirtschaftliche Veränderungen oder Umweltkrisen7,29,80,81,82,83,84,85,86. Diese können zu transformativen Veränderungen gesellschaftlicher Normen, Macht und politischer Institutionen mit langfristigen Auswirkungen auf Einzelpersonen und Gesellschaften als Ganzes führen. Beispielsweise werden globale Klimastreiks als gesellschaftliche Ereignisse betrachtet81.

Diese Kipppunkte werden durch soziale Kippelemente (STEs) geprägt, zu denen das Energieerzeugungssystem, menschliche Siedlungen, das Finanzsystem, Normen und Werte, das Informationssystem und das Bildungssystem gehören.

Datengerechtigkeit wird als Fairness in der Art und Weise definiert, wie Menschen aufgrund ihrer Produktion digitaler Daten sichtbar gemacht, dargestellt und behandelt werden, was es notwendig macht, ethische Wege durch eine datenbasierte Welt zu bestimmen10.

Klimaschutz durch maschinelle Intelligenz muss bedeuten, Klimaschutz- und Anpassungsentscheidungen auf globaler Ebene zu unterstützen und gleichzeitig übermäßige Emissionen zu vermeiden. Allerdings weist die aktuelle Generation maschineller Intelligenzsysteme, die die Digitalisierung vorantreiben, Vorurteile und Probleme mit der Datengerechtigkeit auf, was sie für eine transparente Entscheidungsfindung weniger vertrauenswürdig macht. Für einen wirksamen Klimaschutz besteht daher Bedarf an einer weniger voreingenommenen und kollaborativen KI, die nicht im Wettbewerb mit den Menschen, sondern mit ihnen arbeitet, um solche dringenden gesundheitlichen Herausforderungen des Planeten anzugehen6,7 – wobei der Schwerpunkt auf dem Menschen liegt -Schleifen-KI. Verschiedene Menschen müssen ihre Perspektiven und ihr Wissen einbringen, um eine weniger voreingenommene KI zu entwickeln. Ein solches Wissenssystem könnte das darstellen, was Jürgen Renn8 ein „epistemisches Netz“ nennt.

In dieser Perspektive untersuchen wir die datenzentrierte Wissensgenerierung für den Klimaschutz im Kontext voreingenommener (oder weniger voreingenommener) KI. Zu diesem Zweck stellen wir uns die Koproduktion eines epistemischen Netzes planetarer Gesundheitsherausforderungen vor, das auf Renns Epistemologie8 basiert und sich auf soziale, semiotische und semantische Netzwerke stützt, um wünschenswerte maschinelle Intelligenz auszurichten, die die eng miteinander verflochtenen Dimensionen des gegenwärtigen menschlichen Wissens erfasst, das den aktuellen Stand beeinflusst Generation von Maschinenintelligenzmodellen (siehe Abb. 1). Einzelne oder kollektive Akteure bilden die Grundlage eines sozialen Netzwerks, in dem diese Akteure über Wissen verfügen und an der Produktion, dem Austausch, der Verbreitung oder der Aneignung von Wissen beteiligt sind. Der Prozess des sozialen und kommunikativen Austauschs manifestiert sich in Form von Traditionen, Regeln, Konventionen und Normen sowie in Form von Zwängen und Machtstrukturen, die Bindungen innerhalb sozialer Netzwerke stärken, schwächen, erleichtern oder behindern8. Diese bilden die Grundlage für die „Kontextualisierung“ globaler Herausforderungen, wobei beispielsweise aus lokalem Wissen und gesellschaftlichen Normen relevante Klimaschutz- und Anpassungsansätze abgeleitet werden können9. Die bestehenden Datenungerechtigkeiten stellen jedoch ein erhebliches Hindernis für die Verwirklichung umfassenderer Kenntnisse und Erfahrungen im Bereich Klimaschutz dar1,10,11,12.

Die erkenntnistheoretische Grundlage ergibt sich aus Lit. 8.

Das semiotische Netzwerk, das Bedeutung vermittelt, umfasst den gesamten materiellen Kontext der Handlung, einschließlich technologischer Artefakte, die auf der Grundlage des technologischen Wissens der Produzenten generiert werden8. Ein aktuelles Beispiel ist ChatGPT13 von OpenAI, das Milliarden von Textparametern aus Wikipedia und anderen Internetquellen als vorab trainierten Datensatz verwendet. Es produziert „neues Wissen“ in Form eines Dialogformats. Laut Renn8 sind semiotische Netzwerke historisch gesehen häufig der Ausgangspunkt für die Rekonstruktion anderer Aspekte des epistemischen Netzes. Dies prägt die Motivation dieses Artikels. Da immer bedeutendere und bessere KI-Modelle entstehen, können wir die verantwortliche maschinelle Intelligenz mit einem epistemischen Netz planetarer Gesundheitsherausforderungen in Einklang bringen.

Semantische Netzwerke müssen aus externen Darstellungen, beispielsweise geschriebenen Texten, rekonstruiert werden. Es nutzt die Tatsache, dass Konzepte Ausdrücke in der Sprache haben. Allerdings haben semantische Netzwerke keine Eins-zu-Eins-Beziehung zu Konzepten oder anderen kognitiven Bausteinen; Ein und derselbe Begriff kann unterschiedlichen Begriffen in der Sprache entsprechen, während derselbe Begriff unterschiedliche Begriffe darstellen kann8. Dies war die Grundlage vieler vorab trainierter großer Sprachmodelle (LLMs) für KI-Systeme, einschließlich grundlegender Modelle wie GPTs. Theoretisch plädiert Renn8 dafür, dass deduktiv organisierte semantische Netzwerke hochorganisierte Wissenssysteme bilden. Wir erweitern Renns Rahmen, um einen Weg für die gemeinsame Produktion einer weniger voreingenommenen maschinellen Intelligenz mit einem KI-gesteuerten epistemischen Netz planetarischer Herausforderungen durch Digitalisierungsmaßnahmen zu schaffen.

Auf der Grundlage der theoretischen Grundlage des epistemischen Netzes planetarer Gesundheitsherausforderungen verfolgen wir einen dekonstruktivistischen Ansatz, um zu analysieren, wie aktuelle vorab trainierte maschinelle Intelligenz die Beziehungen zwischen Digitalisierung, Gerechtigkeit, politischer Handlungsfähigkeit, gesellschaftlicher Stabilität und Klimaschutz beeinflusst. Dabei definieren wir zunächst den Anwendungsbereich aktueller maschineller Intelligenzsysteme im Klimaschutz, insbesondere in Bezug auf Eindämmung und Anpassung. Als Nächstes zeigen wir, dass für ein epistemisches Netz planetarischer Herausforderungen die Notwendigkeit besteht, Verantwortungsrisiken zu überwinden, die mit voreingenommenen KI-Systemen für Klimaschutzmaßnahmen verbunden sind (siehe Tabelle 1). An dieser Stelle wird die soziale Netzwerkdimension von Renns epistemischem Netz (siehe Abb. 1) als Grundlage für die kollektive Konsensbildung und gesellschaftliche Stabilität wichtig. Wir betonen, dass ein „Human-in-the-Loop“-KI-Design für ein solches epistemisches Web, das frei von voreingenommenen Datensätzen, voreingenommener Programmierung und voreingenommenen Algorithmen ist, von entscheidender Bedeutung ist (siehe Abb. 2). Schließlich legen wir Wert darauf, die Hindernisse für Diversität und Inklusion in der Community der maschinellen Intelligenz zu beseitigen, um fundierte und zuverlässige Trainingsdatensätze zu erstellen, die eine KI-gesteuerte epistemische Schleife von „Daten aus Wissen“ und „Wissen aus Daten“ aufrechterhalten können (siehe Abbildung 3). .

Soziale Strukturen und kollektive Intelligenz liefern epistemisches Wissen für Klimaschutz-KI (Quelle: Autoren).

Koproduzieren von Wissen für ein epistemisches Netz planetarischer Herausforderungen und weniger voreingenommener KI durch Nutzung gewünschter Datengerechtigkeitsmerkmale (Quelle: Autoren).

Derzeit befinden sich maschinelle Intelligenzsysteme für den Klimaschutz in einem frühen Entwicklungsstadium, und ihre Auswirkungen werden gerade erst verstanden, was zu Vorurteilen in ihrer gesamten Wertschöpfungskette führt und diese KI-Systeme für die Entscheidungsfindung im Klimaschutz weniger vertrauenswürdig macht14. Zieht man Rückschlüsse aus der Anwendung von KI in der Klimamodellierung (wie oben erläutert), können Verzerrungen die Genauigkeit, Zuverlässigkeit und Interpretierbarkeit von Vorhersagen beeinflussen, was Entscheidungen für Klimaschutz- und Anpassungsmaßnahmen erheblich beeinträchtigen kann. Wenn beispielsweise ein verzerrtes Klimamodell auf Daten trainiert wird, die bestimmte Regionen oder Zeiträume ausschließen, spiegeln die Vorhersagen möglicherweise nicht das gesamte Ausmaß des Klimawandels genau wider. Ebenso können solche Modelle bestimmte Variablen oder Faktoren unterrepräsentieren und ungenaue Schätzungen der Kohlenstoffemissionen bestimmter Branchen liefern, was zu einer Unterschätzung der tatsächlichen Auswirkungen dieser Variablen auf das Klima führt. Darüber hinaus können voreingenommene Klimamodelle die Klimaauswirkungen und die Ungleichheiten bei der Reaktion verschlimmern. Wenn KI-Modelle nur berücksichtigen, wie sich der Klimawandel auf eine kleine Anzahl von Regionen oder Bevölkerungsgruppen auswirken wird, können diese Regionen und Menschen unverhältnismäßig negative Auswirkungen haben.

Verzerrungen können durch überlappende Klassen wie voreingenommene Datenbanken, voreingenommene Algorithmen und voreingenommene Programmierung entstehen. Rich und Gureckis15 weisen beispielsweise auf drei Ursachen für Verzerrungen in gegenwärtigen Systemen der maschinellen Intelligenz hin: kleine und unvollständige Datensätze, Lernen aus den Ergebnissen unserer Entscheidungen sowie voreingenommene Schlussfolgerungs- und Bewertungsprozesse. Diese Verzerrungen verringern die Genauigkeit und Zuverlässigkeit vieler Maschinenintelligenzsysteme der aktuellen Generation für den Klimaschutz und machen sie weniger rechenschaftspflichtig, interpretierbar und erklärbar (eine umfassende Übersicht über Black-Box-Modelle finden Sie hier16). Forscher zu Fairness, Accountability und Transparency (FAccT) stellen fünf algorithmische Rechenschaftsrisiken17 vor, die sich aus solchen Vorurteilen ergeben können. Wir fassen diese Risiken im Hinblick auf die Gestaltung von Klimaschutz-KI zusammen (siehe Tabelle 1).

Während FAccT- und KI-Ethikforscher beginnen, die mögliche Rolle der KI bei der Milderung der oben genannten Verantwortungsprobleme beim Klimaschutz zu diskutieren3,14,18, bleiben die Wege zur Entwicklung einer weniger voreingenommenen KI für die Klimabewertung ungewiss. Ausgehend von der Untersuchung des epistemischen Netzes in Abb. 1 konzentrieren wir uns auf den Bedarf an qualitativ hochwertigen Trainingsdatensätzen, die die vielfältige, fundierte Realität menschlicher Perspektiven und Erfahrungen (epistemisches Wissen) mit möglichst wenig Verzerrungen darstellen, was bei der Erstellung äußerst wichtig ist KI ist weniger voreingenommen19,20. Außerdem ist diese Funktion der Darstellung der verschiedenen Arten menschlichen Wissens im System der maschinellen Intelligenz erforderlich, wenn diese Modelle bei der Entscheidungsfindung über den Umgang mit dem Klimawandel als einer Herausforderung für die Gesundheit des Planeten herangezogen werden sollen. Beispielsweise definieren und implementieren Gupta et al.21 die Gerechtigkeit des Erdsystems, um die physischen und sozialen Aspekte des Klimawandels zu verknüpfen und sicherzustellen, dass Maßnahmen zur Gesundheit des Planeten Schäden reduzieren, das Wohlbefinden verbessern und sowohl materielle als auch verfahrenstechnische Gerechtigkeit widerspiegeln.

Ein wünschenswertes Merkmal maschineller Intelligenz und KI-Systeme für den Klimaschutz ist daher die Einbettung epistemischen Wissens, die durch vielfältige und repräsentative Datensätze vor dem Training erreicht werden kann. Die Literatur zeigt jedoch, dass die Einbettung epistemischen Wissens nicht einfach ist, da selbst die fortschrittlichsten KI-Systeme der gegenwärtigen Generation transparenter, erklärbarer und interpretierbarer gemacht werden müssen22. Interpretierbarkeit bedeutet, dass Ursache und Wirkung in Modellen des maschinellen Lernens (ML) bestimmt werden können. Erklärbarkeit ist entscheidend, um die Blackbox von ML-Modellen zu durchdringen und zu verstehen, wie das Modell funktioniert16,23. Diese beiden Merkmale sind von entscheidender Bedeutung für die Reduzierung algorithmischer Rechenschaftsrisiken (siehe Tabelle 1) und machen die KI für die Entscheidungsfindung bei Klimaschutzmaßnahmen mit hohem Risiko sicherer23.

Ein weiteres erhebliches Hindernis ist die Notwendigkeit einer genaueren Quantifizierung der Unsicherheit in bestehenden KI-Systemen24. Dies führt dazu, dass viele maschinelle Intelligenzsysteme der aktuellen Generation übermütig werden und Fehler machen25. Daher sind in der aktuellen epistemischen Basis (wie dem World Wide Web) für maschinelle Intelligenz diese Einschränkungen und Vorurteile verankert, die sie für individuelle und kollektive Entscheidungen zum Klimaschutz weniger praktisch machen. Daher sind aktuelle KI-Systeme für direkte Anwendungen zur Eindämmung und Anpassung an den Klimawandel weniger nützlich.

Jüngste Fortschritte bei Human-in-the-Loop-Ansätzen für maschinelles Lernen unter Verwendung von Large-Language-Modellen (LLMs) zeigen einen Weg auf, epistemische Rückkopplungsschleifen in Black-Box-Modelle zu integrieren. Human-in-the-Loop-Modelle beziehen sich auf maschinelle Lernsysteme oder Algorithmen, die menschliche Interaktion und Eingaben einbeziehen, um ihre Genauigkeit zu verbessern. Ein aktuelles Beispiel ist ChatGPT13 von Open AI, das ein Human-in-the-Loop26-System verwendet. Bei ChatGPT interagiert das KI-System im Gespräch mit dem menschlichen Benutzer. Dieses Dialogformat ermöglicht es, Folgefragen zu beantworten, Fehler einzugestehen, falsche Prämissen anzufechten und unangemessene Anfragen abzulehnen13. Das maschinelle Intelligenzelement von ChatGPT besteht in seinem Modelltraining unter Verwendung von Reinforcement Learning from Human Feedback (RLHF)27, angetrieben durch den Proximal Policy Optimization (PPO)-Algorithmus.

Als Ausgangspunkt für die Konzeptualisierung eines epistemischen Netzes zeigen Creutzig et al.2 einen Zusammenhang zwischen Digitalisierung, Gerechtigkeit, politischer Handlungsfähigkeit, Klimawandel und Planetenstabilität auf. Es betont die direkten und indirekten Auswirkungen von KI auf den Klimaschutz. Zum Beispiel eine direkte Auswirkung wie der Energiebedarf für das Training großer Modelle für maschinelles Lernen in Rechenzentren. Indirekte Auswirkungen wie Anwendungen der maschinellen Intelligenz, die Treibhausgasemissionen und Umweltbelastungen reduzieren. Die Digitalisierung sozialer Netzwerke über Algorithmen (d. h. Social-Media-Plattformen) trägt maßgeblich zur Polarisierung (durch Fehlinformationen und Desinformationen)28 und zur politischen Meinungsbildung bei, die sich auf die soziale Gerechtigkeit innerhalb und zwischen Ländern auswirkt. Ein hohes Maß an Ungleichheit und Polarisierung verringert die Durchführbarkeit einvernehmlicher Klimaschutzmaßnahmen und führt zu irreversiblen Sozialkippszenarien. Sie sind somit indirekt relevant für die Gestaltung maschineller Intelligenz und deren Belohnungsmodelle.

Wir verbinden die epistemischen Interdependenzen der maschinellen Intelligenz mit politischer Handlungsfähigkeit und Demokratie, Gerechtigkeit und sozialen Trinkgeldelementen (wird im nächsten Abschnitt besprochen). Wir veranschaulichen eine epistemische Webbasis zur Definition wünschenswerter maschineller Intelligenz für die Digitalisierung, die soziale Gerechtigkeit ausgleicht, die politische Handlungsfähigkeit (und damit die Demokratie) stabilisiert und sicherstellt, dass Klimaschutz- und Anpassungsziele durch nachhaltige Klimaschutzmaßnahmen erreicht werden, wodurch möglicherweise irreversible soziale Kippen verhindert werden3,29 ,30. Die Digitalisierung soll es ermöglichen, kollektives Handeln (als Daten für Wissen) aus dem epistemischen Netz der planetaren Herausforderungen auf das Training der KI-Systeme zu übertragen. Dadurch wird die Wissensgenerierung aus den Daten ermöglicht. Dies wird das wahre Ausmaß eines Human-in-the-Loop-Systems für die Digitalisierung auf Planetenebene definieren.

Der Kontext der Human-in-the-Loop-KI gewinnt zunehmend an entscheidender Bedeutung, da es vorteilhaft ist, Vorurteile zu reduzieren, wenn eine vielfältige Gruppe von Menschen mit unterschiedlichen Identitäten, Hintergründen und Standpunkten unter Nutzung kollektiver Intelligenz31 am Entwurf maschineller Intelligenzsysteme26 beteiligt ist . Unter den besten Umständen führt die Nutzung einer solchen kollektiven Intelligenz für die Zusammenarbeit und Co-Kreation zwischen Mensch und Maschine zur Wissensgenerierung als epistemisches Netz.

Wir stellen diesen Designrahmen in Abb. 2 vor, der betont, dass das epistemische Netz fundiertes und vielfältiges Wissen über soziale Strukturen enthält, die entscheidende soziale Schlüsselelemente sind29. Im sozialen epistemischen Netzwerk (siehe Abb. 1) können KI-Systeme, die über ein solches epistemisches Netzwerk trainiert werden, dazu beitragen, Fehlinformationen zu reduzieren, Skepsis zu beseitigen und Vertrauen wiederherzustellen32. Dadurch wird die Stabilität gesellschaftspolitischer Institutionen sichergestellt, die für die Konsensfindung zum Klimaschutz von entscheidender Bedeutung sind.

Wenn wir uns ein KI-System für den Klimaschutz vorstellen, stellen wir fest, dass solche Systeme von der Notwendigkeit einer Reduzierung des Rechenschaftsrisikos (siehe Tabelle 2) angetrieben werden, die eine weniger voreingenommene KI liefert, gepaart mit dem Streben nach einer Digitalisierung auf globaler Ebene, die kollektive Klimaschutzmaßnahmen ermöglicht selbst wird durch das epistemische Netz beeinflusst. Dieses epistemische Netz schafft eine solidere Grundlage für kollektive Entscheidungsfindung und individuelles Handeln, Bemühungen, die eine wichtigere Rolle bei der Beschleunigung von Klimaschutz- und Anpassungsmaßnahmen spielen könnten, die dazu beitragen könnten, die Risiken eines irreversiblen sozialen Zusammenbruchs zu minimieren.

Die dringendste Herausforderung in diesem Zusammenhang ist der Bedarf an vielfältigeren und zuverlässigeren Datensätzen, um unterschiedliche und zuverlässige Algorithmen zu erstellen, die eine fundierte Realität abbilden, sowie eine bewusste Entscheidungsfindung auf der Grundlage dieser Algorithmen, was die aktuellen Debatten über die dringende Notwendigkeit von Datengerechtigkeit prägt und seine Agenturen10.

Beispielsweise haben Schramowski et al.33 gezeigt, dass große Sprachmodelle (LLMs) wie BERT, GPT-2 und GPT-3, die auf ungefilterten Textkorpora trainiert wurden, unter degeneriertem und voreingenommenem Verhalten leiden. Dennoch konnten die Autoren erfolgreich nachweisen, dass das vom Menschen korrigierte, vorab trainierte LLM die damit verbundenen Risiken einer toxischen Degeneration mindern kann. Sie verwendeten eine Fragebogenumfrage mit 117 Fragen, um ein Human-in-the-Loop-Design zu erstellen, um dem KI-System eine moralische Richtung zu geben, was richtig und was falsch ist. Diese Eigenschaft von KI-Systemen für den Klimaschutz ist entscheidend für die Gestaltung des epistemischen Netzes, das Wissensschichten sozialer Strukturen einbettet, die für soziale Wendepunkte entscheidend sind.

Ein solches interaktives Lernen von maschineller Intelligenz mit menschlicher Intelligenz ist wünschenswert, um KI-gesteuerte Klimaschutzmaßnahmen zu fördern. Diese Mensch-Maschine-Interaktivität ist der Kern rechenschaftspflichtiger KI-Systeme34, die über soziale, kulturelle und moralische Normen als kritische Datensätze sozialer Strukturen nachdenken können, um einen Konsens über Klimaschutz und Anpassung an den Klimawandel zu ermöglichen, der derzeit nicht existiert35. Ein Versuch wurde von Forbes et al.36 durch die Schaffung eines großen sozialen Korpora namens Social-Chem-101 unternommen. In ähnlicher Weise haben Colas et al.37 das Eintauchen autotelischer Agenten in reiche soziokulturelle Welten konzipiert, um KI-Systeme vertrauenswürdiger zu machen (autotelische Agenten sind intrinsisch motivierte Lernagenten, die lernen können, ihre eigenen Probleme darzustellen, zu generieren, auszuwählen und zu lösen).

Als aktuelle Fallstudie für generative KI zeigt Reinforcement Learning through Human Feedback (RLHF) in ChatGPT, dass menschliche Intelligenz mit maschineller Intelligenz integriert werden kann, um spezifische Belohnungsmodelle für das KI-System zu entwerfen. Dies kann genutzt werden, um die Vertrauenswürdigkeit maschineller Intelligenzsysteme durch einen menschenzentrierten Designansatz38 zur Feinabstimmung von RLHF zu verbessern, der fragt, was im aktuellen Megatrend der digitalen Transformation von Volkswirtschaften und Gesellschaften wünschenswert ist. Solche Anwendungen des Human-in-the-Loop-Designs bieten Möglichkeiten für die Kontextualisierung maschineller Intelligenz für verhaltensbezogene Klimaschutzmaßnahmen auf Systemebene, die soziale Kipppunkte (STPs, siehe Kasten 1) verhindern32. In Kasten 2 präsentieren wir eine theoretische Untersuchung der Daten, die soziale Strukturschichten von Social Tipping Elements (STEs) darstellen.

Es ist noch nicht bekannt, wie LLM-basierte Human-in-the-Loop-KI-Systeme wie ChatGPT den Klimaschutz und die Anpassung an den Klimawandel unterstützen können, insbesondere in den STEs. Ein aktuelles Beispiel ist die Gründung von ClimateBERT, bei dem Forscher mithilfe der IPCC-Berichte ein LLM verfeinerten, um das öffentliche Verständnis von Klimarisiken zu verbessern und Klimainformationen für die breitere Gemeinschaft zugänglicher zu machen39. Es ist jedoch Vorsicht geboten, um bestehende Vorurteile und Unsicherheiten beim Design und Betrieb der maschinellen Intelligenz zu beseitigen. Forscher von DeepMind haben beispielsweise kürzlich eine Taxonomie der Risiken vorgestellt, die von LLMs ausgehen, die zum Trainieren generativer KI40 verwendet werden, darunter: i) Diskriminierung, Hassrede und Ausgrenzung; ii) Informationsrisiken; iii) Fehlinformationen schaden; iv) böswillige Nutzung; v) die Interaktion zwischen Mensch und Computer schadet; und vi) ökologische und sozioökonomische Schäden. Ein Teil dieses Problems besteht darin, dass solche LLM-basierten KI-Systeme alles andere als vertrauenswürdige KI-Systeme sind, da ihre Interpretierbarkeit und Erklärbarkeit immer noch ausschließlich von ihren vorab trainierten Datensätzen aus Internetquellen wie Wikipedia, News und BookCorpus-Datenbanken abhängt. Dies trianguliert unseren Fokus auf die Notwendigkeit, uns an einem epistemischen Netz auszurichten, das verlässliches und vielfältiges menschliches Wissen und Perspektiven repräsentiert.

Anwendungsbereiche

Klimamodellierung

Das Wissen über Bräuche, Normen, Religion, politische Institutionen sowie die Identität von Einzelpersonen und Gruppen prägt den Konsens für Abhilfe- und Anpassungsmaßnahmen mithilfe von KI.

Energiemanagement

Reflektieren Sie menschliche Verhaltensmerkmale des Energieverbrauchs im großen Maßstab und seine Kontextualisierung mit den Dimensionen der Energiegerechtigkeit.

Erneuerbare Energie

Daten zu Produktions- und Nachfrageprognosen, Netzstabilität und Marktzuteilungen auf granularer und sozioökonomischer interaktiver Ebene.

Klimaanpassung

Die epistemische Wissensrepräsentation aus gefährdeten und marginalisierten Gemeinschaften verbessert die Vielfalt und Inklusivität von Datensätzen zu Klimaauswirkungen.

Kohlenstoffabscheidung

Sozioökonomische Daten zu den Auswirkungen des CO2-Ausgleichs auf lokaler, nationaler und regionaler Ebene.

Städte

Umfangreiche Verhaltensdatensätze zu städtischen Anpassungs- und Resilienzstrategien, die auf lokalem Wissen über Bräuche, Kultur und Normen basieren.

Kollektive Intelligenz

Informationen über die gesellschaftspolitischen Konsenstreiber für Klimaschutzmaßnahmen, einschließlich Gegenmechanismen für Des- und Fehlinformationen, Polarisierung zwischen Kulturen und Normen.

Die heutige KI ist bei der Entscheidungsfindung weniger vertrauenswürdig, insbesondere wenn es um Klimaschutz und Anpassungsbemühungen geht. In Tabelle 2 haben wir die mit solchen Systemen verbundenen Verantwortlichkeitsrisiken sowie die Notwendigkeit zusammengefasst, auf voreingenommene Programmierung, voreingenommene Algorithmen und voreingenommene Datensätze zu reagieren, um eine vertrauenswürdigere KI für den Klimaschutz zu schaffen. Im vorherigen Abschnitt haben wir beispielsweise betont, dass eine voreingenommene KI-gestützte Klimamodellierung zu ungenauen Prognosen und Folgenabschätzungen führen kann, die sich auf die Entscheidungsfindung auswirken. Um solche Verzerrungen zu korrigieren, benötigen die KI-Systeme „Menschen in der Schleife“, insbesondere um die Trainingsdaten in der Anfangsphase der Modellentwicklung zu erzeugen und in die Algorithmen einzuspeisen26. Dies erfordert ernsthafte Anstrengungen zur Einbettung von Datengerechtigkeit in die Datensätze vor dem Training.

In diesem Bereich argumentieren wir, dass ein Human-in-the-Loop-Design der Klimaschutz-KI von entscheidender Bedeutung ist, das die Vielfalt der Perspektiven und des Wissens von Ingenieuren, Sozialwissenschaftlern, Philosophen, Branchenpraktikern, politischen Entscheidungsträgern und der Öffentlichkeit berücksichtigt26. Beispielsweise ist das Konzept einer vertrauenswürdigen KI, die humanistisch, gerecht und ethisch ist, der Kern der Gestaltung eines wünschenswerten maschinellen Intelligenzsystems19. Wir erweitern dieses Argument für eine „Human-in-the-Loop“-Klimaschutz-KI.

Der Begriff des algorithmischen Vertrauens hängt jedoch vom Kontext ab (wie in Tabelle 2 dargestellt) und unterstreicht die Notwendigkeit, dass die ML/KI-Experten in Beziehung setzen, wie sich ihre Vertrauensmetriken auf das Vertrauen von Einzelpersonen und der Öffentlichkeit auswirken41,42. Dies macht fairnessbewusstes maschinelles Lernen (ML) zu einer schwierigen Herausforderung, da die Messparameter der Fairness im Hinblick auf Voreingenommenheit und damit verbundene Begriffe immer noch nicht klar verstanden sind. Beispielsweise hat Narayanan43 in der Literatur 21 Definitionen von Fairness identifiziert, die nicht unbedingt alle gleichzeitig erfasst werden können.

Zwei weit verbreitete Definitionen, die weithin in ML-Pipelines Eingang gefunden haben, sind die der individuellen Fairness, die besagt, dass Personen, die sich ähneln, ähnlich behandelt werden sollten, und die der Gruppengerechtigkeit, die besagt, dass demografische Gruppen im Großen und Ganzen ähnliche Entscheidungen erhalten sollten44. 45. Es ist wichtig zu verstehen, welche Annahmen in einem bestimmten Kontext angemessen sind, bevor faire Mechanismen (z. B. Kontextualisierung) entwickelt und eingesetzt werden. Ohne diese Arbeit könnten falsche Annahmen zu unfairen Mechanismen führen44,46.

Die Überbrückung einer solchen epistemischen Kluft im Zusammenhang mit der Bedeutung von Fairness ist von entscheidender Bedeutung, wenn KI-Systeme für den Klimaschutz Klimaschutz- und Anpassungsstrategien entwerfen und umsetzen sollen. FAccT-Wissenschaftler haben verschiedene Lösungen vorgeschlagen, um eine Teilmenge von Fairness-Vorstellungen zu etablieren41,42,47. Ein Ansatz, der für den Umfang unseres Papiers am relevantesten ist, besteht darin, die Verzerrung im Datensatz vor dem Training zu reduzieren, die als Debiasing-Daten bezeichnet wird und die Ziele der Datengerechtigkeit erfüllen kann10.

Ein entscheidender Schritt zur Entzerrung von Pre-Training-Datensätzen ist die Schaffung einer datenzentrierten KI, die nachvollziehbarere und kontextspezifischere Datensätze im Zusammenhang mit Klimaschutzmaßnahmen hervorhebt. In der FAccT-Literatur wird die Notwendigkeit „sozialer Transparenz“ betont, um KI-Systeme vertrauenswürdig zu machen, indem die erforderlichen Anstrengungen zum Aufbau organisatorischer und regulatorischer Ökosysteme für die Gewährleistung vertrauenswürdiger KI im öffentlichen Bereich (z. B. das MATCH-Modell) aufeinander abgestimmt werden48,49,50. Darüber hinaus zeigt die Literatur an der Schnittstelle von Sozialwissenschaft und Datenwissenschaft, dass eine Datengerechtigkeitsperspektive entscheidend dazu beiträgt, soziale Transparenz zu schaffen (die die Vertrauenswürdigkeit verbessert)10,11,12.

In Abb. 3 heben wir hervor, dass wir zur Entzerrung der vorab trainierten Datensätze einer Klimaschutz-KI einen sich selbst tragenden und interaktiven Mechanismus aus „Daten aus Wissen“ und „Wissen aus Daten“ schaffen müssen. Die „Daten“ müssen in diesem Fall vielschichtige Informationen über die Auswirkungen des Klimawandels, Abschwächungs- und Anpassungsstrategien im Anthropozän-Maßstab enthalten, die dann die erforderliche „Wissensbasis“ für angemessene und kontextualisierte Klimaschutzmaßnahmen zur Vermeidung irreversibler sozialer Folgen generieren können Trinkgeld, wie bereits erwähnt.

Hier synthetisieren wir die gewünschten Datengerechtigkeitsmerkmale einer weniger voreingenommenen Klimaschutz-KI, die das Wissen über gesellschaftliche Strukturschichten einbettet (siehe Abb. 2), indem sie bestehende soziale Gerechtigkeitsdimensionen von Instrumentalität (faire Enden), Verteilung (faire Zuteilung) nutzt Verfahren (faire Mittel), die den Anforderungen an Datenvielfalt und Inklusion durch Anerkennung, Eigentum, Struktur und Raum entsprechen, wie in Tabelle 3 dargestellt. Ein Beispiel hierfür ist ein Mangel an Datengerechtigkeit und deren Kontextualisierung in den meisten klimagefährdeten Regionen der Welt Es besteht ein erhebliches Risiko, eine voreingenommene KI zu trainieren, die bei Anwendungen zur Entscheidungsfindung praktisch halluzinieren kann. Wir erleben bereits halluzinatorische Ergebnisse mit ChatGPT.

In Tabelle 3 verbinden wir diese Merkmale mit den spezifischen Anforderungen einer weniger voreingenommenen Klimaschutz-KI, die in den Bereichen Klimamodellierung, Energiemanagement, Stadtplanung, Kohlenstoffabscheidung und -speicherung sowie kollektive Intelligenz Anwendung findet (wie in Kasten 2 dargestellt).

Forscher finden innovative Wege, um eine datenzentrierte Infrastruktur zu schaffen, um dieses Ziel zu unterstützen. Beispielsweise haben afrikanische KI-Forscher ein gemeinsames KI-Datensatz-Repository für ihren lokalen Kontext eingerichtet, COCO-Africa51. MasakhaNER stellt einen großen kuratierten Datensatz von zehn afrikanischen Sprachen mit Annotationen zu benannten Entitäten bereit52. Solche Initiativen befinden sich noch in einem sehr frühen Stadium und es bedarf weiterer Anstrengungen, um sie in den Mainstream zu integrieren, insbesondere im Hinblick auf die fünf Hebel zur Datengerechtigkeit.

Ohne Vielfalt und die Einbeziehung einer breiten Palette von Bevölkerungsgruppen besteht die Gefahr der Entwicklung voreingenommener Algorithmen20 und in der Folge eines voreingenommenen epistemischen Netzes. Darüber hinaus besteht das zusätzliche Risiko, dass der KI-Talentpool nicht ausgeschöpft wird und der breitere gesellschaftliche Nutzen bei der Lösung globaler Herausforderungen wie dem Klimawandel, wie oben erläutert, verpasst wird. Der Einsatz von KI für den Klimaschutz (Eindämmung und Anpassung) stellt eine besondere Herausforderung dar, da es sich um ein zweischneidiges Schwert handeln kann, das die Treibhausgasemissionen erhöhen und die allgemeine Gesundheit des Planeten verschlechtern kann, was wir aus der Perspektive eines gesellschaftlichen Wendepunkts diskutieren. Dieser Effekt ist auf eingebettete Vorurteile und Ungerechtigkeiten in den Trainingsdatensätzen zurückzuführen, die beim Entwurf heutiger generativer KI-Systeme verwendet werden.

Wir haben die Koproduktion eines epistemischen Netzes planetarischer Herausforderungen basierend auf Renns Erkenntnistheorie8 konzipiert, um wünschenswerte Maschinenintelligenz auszurichten, die die eng miteinander verflochtenen sozialen, semiotischen und semantischen Netzwerkdimensionen des gegenwärtigen menschlichen Wissens erfasst, die die vorab trainierten KI-Modelle der aktuellen Generation beeinflussen. Dieses epistemische Netz kann dazu beitragen, die mit maschinellem Lernen und KI-Modellen verbundenen Rechenschaftsrisiken17 zu reduzieren und gleichzeitig die algorithmusgesteuerte Polarisierung für Klimaschutzmaßnahmen zu korrigieren32, was zu einem kollektiven Konsens über Klimaanpassungs- und Klimaschutzmaßnahmen führt. Wir hatten vor, die jüngsten Fortschritte in der Human-in-the-Loop-KI durch politische Agenturen und demokratische Entscheidungsfindung zu nutzen2. Es müssen jedoch bestehende eingebettete Ungleichheiten im Zusammenhang mit Fairness, Ethik und Vorurteilen von KI-Systemen angegangen werden.

Das Gebot der Stunde besteht darin, auf digitale Ungleichheiten und Ungerechtigkeiten innerhalb der Gemeinschaft der maschinellen Intelligenz zu achten, insbesondere wenn KI als Instrument zur Bewältigung globaler Gesundheitsherausforderungen wie dem Klimawandel eingesetzt wird. Hier wird die Rolle der Sozialwissenschaften, der Philosophie und der Geisteswissenschaften noch wichtiger. Eine aktuelle Rezension der KI-Community53 befasste sich mit diesem Thema und konzentrierte sich dabei insbesondere auf akademische Datenwissenschaftsforscher. Die Überbrückung einer solchen Kluft und die Entzerrung von Datensätzen sollte eine Kernkomponente eines wünschenswerten, durch maschinelle Intelligenz gesteuerten Digitalisierungssystems sein. Andernfalls bleiben die vorab trainierten Datensätze voreingenommen und repräsentieren bestimmte Gruppen überrepräsentiert. Dies führt zu einer voreingenommenen Klimaschutz-KI.

Ebenso gibt es starke Hinweise auf strukturelle Ungleichheiten beim Klimaschutz (Eindämmung und Anpassung) zwischen und innerhalb von Ländern. Noch ausgeprägter ist es in gefährdeten und ressourcenbeschränkten Gemeinschaften im globalen Süden. Es wird geschätzt, dass solche Ungleichheiten, wenn sie anhalten, katastrophale Folgen haben und sich auf den Zusammenbruch der Gesellschaft und die Stabilität des Planeten auswirken, einschließlich der Nichterfüllung von Klimaschutzpfaden29.

Die bessere Abstimmung einer weniger voreingenommenen KI auf den Klimaschutz und die Berücksichtigung der Grenzen unseres Planeten schafft auch eine beispiellose Chance, gegen globale Ungerechtigkeiten vorzugehen und positive Gedanken zur Datengerechtigkeit in die aktuelle Welle der Digitalisierung einzubetten. Dazu gehört es sicherzustellen, dass die Vorteile der Digitalisierung bestehende Ungerechtigkeiten ausgleichen, dass gefährdete Gruppen stärker in die Festlegung von Standards und die Politikgestaltung einbezogen werden und dass insbesondere benachteiligte Gruppen Zugang zu offenen Daten haben. Es deutet auch darauf hin, dass sich der Besitz und die Nutzung von Daten auf die Zivilgesellschaft und die Gemeinschaften selbst (z. B. über Genossenschaften und Treuhandvereinbarungen), die aktive Beteiligung der Nutzer und die Förderung des Breitband-Internetzugangs als öffentliches Gut und nicht als private Ware ausweiten.

Da sich maschinelle Intelligenz zunehmend auf die Gesellschaft auswirkt, sind Diversität und Inklusion ein wachsendes Anliegen. Daher muss die gemeinsame Schaffung und Koproduktion von relevantem Wissen, Infrastruktur und Humanressourcen eine wünschenswerte Priorität beim Entwurf maschineller Intelligenz sein, die ein epistemisches Netz kollektiven Handelns zur Bewältigung der Herausforderungen unseres Planeten definiert.

Weitere Informationen zum Forschungsdesign finden Sie in der mit diesem Artikel verlinkten Nature Research Reporting Summary.

Sovacool, BK, Monyei, CG & Upham, P. Das Internet global nachhaltig machen: Technische und politische Optionen für verbessertes Energiemanagement, Governance und Community-Akzeptanz nordischer Rechenzentren. Erneuern. Aufrechterhalten. Energy Rev. 154, 111793 (2022).

Artikel Google Scholar

Creutzig, F. et al. Digitalisierung und Anthropozän. Annu. Rev. Environ. Ressource. 47, 479–509 (2022).

Artikel Google Scholar

Rolnick, D. et al. Den Klimawandel mit maschinellem Lernen bekämpfen. ACM-Computing. Überleben. 55, 1–96 (2022).

Artikel Google Scholar

Irrgang, C. et al. Auf dem Weg zur neuronalen Erdsystemmodellierung durch Integration künstlicher Intelligenz in die Erdsystemwissenschaft. Nat. Mach. Intel. 3, 667–674 (2021).

Artikel Google Scholar

Creutzig, F. et al. Nutzung der Digitalisierung für Nachhaltigkeit im Stadtverkehr. Globale Nachhaltigkeit. 2, e14 (2019).

Artikel Google Scholar

Whitmee, S. et al. Schutz der menschlichen Gesundheit im Anthropozän: Bericht der Rockefeller Foundation-Lancet Commission über die Gesundheit des Planeten. Lancet 386, 1973–2028 (2015).

Artikel Google Scholar

Ripple, WJ et al. Viele riskante Rückkopplungsschleifen verstärken die Notwendigkeit von Klimaschutzmaßnahmen. One Earth 6, 86–91 (2023).

Artikel Google Scholar

Renn, J. Die Evolution des Wissens. Princeton University Press, 2020. https://doi.org/10.1515/9780691185675.

Pörtner, H.-O. et al. Klimawandel 2022: Auswirkungen, Anpassung und Verwundbarkeit. Beitrag der Arbeitsgruppe II zum Sechsten Sachstandsbericht des Zwischenstaatlichen Ausschusses für Klimaänderungen. (2022).

Taylor, L. Was ist Datengerechtigkeit? Es geht darum, digitale Rechte und Freiheiten weltweit zu verbinden. Big Data Soc. 4, https://doi.org/10.1177/2053951717736335 (2017).

Heeks, R. & Renken, J. Datengerechtigkeit für Entwicklung: Was würde das bedeuten? Inf. Entwickler 34, 90–102 (2018).

Artikel Google Scholar

Heeks, R. & Shekhar, S. Datafizierung, Entwicklung und marginalisierte städtische Gemeinschaften: ein angewandter Rahmen für Datengerechtigkeit. Inf. Komm. Soc. 22, 992–1011 (2019).

Artikel Google Scholar

OpenAI. ChatGPT: Optimierung von Sprachmodellen für den Dialog. OpenAI https://openai.com/blog/chatgpt/ (2022).

Kaack, LH et al. Künstliche Intelligenz mit der Eindämmung des Klimawandels in Einklang bringen. Nat. Aufstieg. Chang. 12, 518–527 (2022).

Artikel Google Scholar

Rich, AS & Gureckis, TM Lehren für künstliche Intelligenz aus dem Studium der natürlichen Dummheit. Nat. Mach. Intel. 1, 174–180 (2019).

Artikel Google Scholar

Guidotti, R. et al. Ein Überblick über Methoden zur Erklärung von Black-Box-Modellen. ACM-Computing. Überleben. 51, 1–42 (2018).

Artikel Google Scholar

Wieringa, M. Was bei der Berücksichtigung von Algorithmen zu berücksichtigen ist: eine systematische Literaturrecherche zur Rechenschaftspflicht von Algorithmen. in Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency 1–18 https://doi.org/10.1145/3351095.3372833 (Association for Computing Machinery, 2020).

Leal Filho, W. et al. Einsatz künstlicher Intelligenz zur Anpassung an den Klimawandel. Technol. Vorhersage. Soc. Änderung 180, 121662 (2022).

Artikel Google Scholar

Liang, W. et al. Fortschritte, Herausforderungen und Chancen bei der Datenerstellung für vertrauenswürdige KI. Nat. Mach. Intel. 4, 669–677 (2022).

Artikel Google Scholar

Wongvibulsin, S. Bildungsstrategien zur Förderung von Vielfalt und Inklusion in der maschinellen Intelligenz. Nat. Mach. Intel. 1, 70–71 (2019).

Artikel Google Scholar

Gupta, J. et al. Gerechtigkeit im Erdsystem ist erforderlich, um die Grenzen des Erdsystems zu erkennen und innerhalb dieser zu leben. Nat. Sust. 1–9 https://doi.org/10.1038/s41893-023-01064-1 (2023).

Gunning, D. et al. XAI-Erklärbare künstliche Intelligenz. Wissenschaft. Roboter. 4, (2019).

Rudin, C. Hören Sie auf, Black-Box-Modelle für maschinelles Lernen für Entscheidungen mit hohem Risiko zu erklären, und verwenden Sie stattdessen interpretierbare Modelle. Nat. Mach. Intel. 1, 206–215 (2019).

Artikel Google Scholar

Bécue, A., Praça, I. & Gama, J. Künstliche Intelligenz, Cyber-Bedrohungen und Industrie 4.0: Herausforderungen und Chancen. Artif. Intel. Rev. 54, 3849–3886 (2021).

Artikel Google Scholar

Franzoni, V., Vallverdù, J. & Milani, A. Fehler, Vorurteile und Selbstüberschätzung bei der künstlichen emotionalen Modellierung. in IEEE/WIC/ACM International Conference on Web Intelligence – Companion Volume 86–90 https://doi.org/10.1145/3358695.3361749 (Association for Computing Machinery, 2019).

Mosqueira-Rey, E., Hernández-Pereira, E., Alonso-Ríos, D., Bobes-Bascarán, J. & Fernández-Leal, Á. Human-in-the-Loop-Maschinelles Lernen: ein Stand der Technik. Artif. Intel. Rev. https://doi.org/10.1007/s10462-022-10246-w (2022).

Christiano, P. et al. Tiefgreifendes Verstärkungslernen aus menschlichen Vorlieben. arXiv [stat.ML] (2017).

Hornsey, MJ & Lewandowsky, S. Ein Toolkit zum Verständnis und zur Bekämpfung von Klimaskepsis. Nat. Summen. Verhalten. 6, 1454–1464 (2022).

Artikel Google Scholar

Otto, IM et al. Soziale Kippdynamik zur Stabilisierung des Erdklimas bis 2050. Proc. Nat. Acad. Wissenschaft. 117, 2354–2365 (2020).

Artikel CAS Google Scholar

Beckage, B., Moore, FC & Lacasse, K. Einbeziehung menschlichen Verhaltens in die Modellierung des Erdsystems. Nat. Summen. Verhalten. 6, 1493–1502 (2022).

Artikel Google Scholar

Yang, VC & Sandberg, A. Kollektive Intelligenz als Infrastruktur zur Reduzierung umfassender globaler Katastrophenrisiken. arXiv [nlin.AO] (2022).

Debnath, R., van der Linden, S., Sovacool, BK & Alvarez, RM Erleichterung verhaltensbezogener Klimaschutzmaßnahmen auf Systemebene mithilfe computergestützter Sozialwissenschaften. Nat. Menschliches Verhalten. https://doi.org/10.1038/s41562-023-01527-7 (2023).

Schramowski, P., Turan, C., Andersen, N., Rothkopf, CA und Kersting, K. Große vorab trainierte Sprachmodelle enthalten menschenähnliche Vorurteile darüber, was richtig und was falsch ist. Nat. Mach. Intel. 4, 258–268 (2022).

Artikel Google Scholar

Donahue, K., Chouldechova, A. & Kenthapadi, K. Zusammenarbeit zwischen Mensch und Algorithmus: Komplementarität erreichen und Ungerechtigkeit vermeiden. im Jahr 2022 ACM-Konferenz zu Fairness, Rechenschaftspflicht und Transparenz 1639–1656. https://doi.org/10.1145/3531146.3533221 (Association for Computing Machinery, 2022).

Lepri, B., Oliver, N. & Pentland, A. Ethische Maschinen: Der menschenzentrierte Einsatz künstlicher Intelligenz. iScience 24, 102249 (2021).

Artikel Google Scholar

Forbes, M., Hwang, JD, Shwartz, V., Sap, M. & Choi, Y. Sozialchemie 101: Lernen, über soziale und moralische Normen nachzudenken. arXiv [cs.CL] (2020).

Colas, C., Karch, T., Moulin-Frier, C. & Oudeyer, P.-Y. Verinnerlichung von Sprache und Kultur für eine menschenähnliche autotelische KI. Nat. Mach. Intel. 4, 1068–1076 (2022).

Artikel Google Scholar

Verganti, R., Vendraminelli, L. & Iansiti, M. Innovation und Design im Zeitalter der künstlichen Intelligenz. J. Prod. Innov. Verwalten. 37, 212–227 (2020).

Artikel Google Scholar

Webersinke, N., Kraus, M., Bingler, JA & Leippold, M. ClimateBert: Ein vorab trainiertes Sprachmodell für klimabezogene Texte. arXiv [cs.CL] (2021).

Weidinger, L. et al. Taxonomie der von Sprachmodellen ausgehenden Risiken. im Jahr 2022 ACM Conference on Fairness, Accountability, and Transparency 214–229 https://doi.org/10.1145/3531146.3533088 (Association for Computing Machinery, 2022).

Toreini, E. et al. Die Beziehung zwischen Vertrauen in KI und vertrauenswürdigen Technologien für maschinelles Lernen. in Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency 272–283 https://doi.org/10.1145/3351095.3372834 (Association for Computing Machinery, 2020).

Birhane, A. et al. Die vergessenen Ränder der KI-Ethik. im Jahr 2022 ACM-Konferenz zu Fairness, Rechenschaftspflicht und Transparenz 948–958 https://doi.org/10.1145/3531146.3533157 (Association for Computing Machinery, 2022).

Narayanan, A. Translationales Tutorial: 21 Fairnessdefinitionen und ihre Politik. in Fairness, Rechenschaftspflicht und Transparenz (2018).

Friedler, SA, Scheidegger, C. & Venkatasubramanian, S. Die (Un-)Möglichkeit von Fairness: Unterschiedliche Wertesysteme erfordern unterschiedliche Mechanismen für faire Entscheidungsfindung. Komm. ACM 64, 136–143 (2021).

Artikel Google Scholar

Zafar, MB, Valera, I., Gomez-Rodriguez, M. & Gummadi, KP Fairnessbeschränkungen: ein flexibler Ansatz für eine faire Klassifizierung. J. Mach. Lernen. Res. 20, 1–42 (2019).

Google Scholar

Barocas, S., Hardt, M. & Narayanan, A. Fairness und maschinelles Lernen: Einschränkungen und Chancen. (fairmlbook.org, 2019).

Deng, WH et al. Erkunden, wie Praktiker des maschinellen Lernens Fairness-Toolkits verwenden (versuchen). im Jahr 2022 ACM Conference on Fairness, Accountability, and Transparency 473–484 https://doi.org/10.1145/3531146.3533113 (Association for Computing Machinery, 2022).

Liao, QV & Sundar, SS Entwerfen für verantwortungsvolles Vertrauen in KI-Systeme: Eine Kommunikationsperspektive. im Jahr 2022 ACM-Konferenz zu Fairness, Rechenschaftspflicht und Transparenz 1257–1268 https://doi.org/10.1145/3531146.3533182 (Association for Computing Machinery, 2022).

Knowles, B. & Richards, JT Die Sanktion der Autorität: Förderung des öffentlichen Vertrauens in KI. in Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency 262–271 https://doi.org/10.1145/3442188.3445890 (Association for Computing Machinery, 2021).

Ehsan, U., Liao, QV, Muller, M., Riedl, MO & Weisz, JD Erweiterung der Erklärbarkeit: Auf dem Weg zu sozialer Transparenz in KI-Systemen. in Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems https://doi.org/10.1145/3411764.3445188 1–19 (Association for Computing Machinery, 2021).

Dibia, V. cocoafrica: Ein Kurationstool und Datensatz gemeinsamer Objekte im Kontext Afrikas. (Github).

Adelani, DI et al. MasakhaNER: Benannte Entitätserkennung für afrikanische Sprachen. arXiv [cs.CL] (2021).

Greene, T., Martens, D. & Shmueli, G. Hindernisse für die akademische datenwissenschaftliche Forschung im neuen Bereich der algorithmischen Verhaltensmodifikation durch digitale Plattformen. Nat. Mach. Intel. 4, 323–330 (2022).

Artikel Google Scholar

Ravuri, S. et al. Gekonnte Niederschlagsvorhersage mithilfe tiefgehender generativer Radarmodelle. Natur 597, 672–677 (2021).

Artikel CAS Google Scholar

Ng, NYY, Gopalan, H., Raghavan, VSG & Ooi, CC Modellunabhängige hybride numerische Wettervorhersage und maschinelles Lernparadigma für Sonnenvorhersagen in den Tropen. arXiv [cs.LG] (2021).

Mithilfe von maschinellem Lernen Niederschlagsvorhersagen in hoher Auflösung erstellen. https://ai.googleblog.com/2020/01/using-machine-learning-to-nowcast.html?m=1.

Dwivedi, R. et al. Erklärbare KI (XAI): Kernideen, Techniken und Lösungen. ACM-Computing. Überleben. 55, 1–33 (2023).

Artikel Google Scholar

Cheong, S.-M., Sankaran, K. & Bastani, H. Künstliche Intelligenz zur Anpassung an den Klimawandel. WIREs Data-Mining-Wissen. Entdeckung. 12, e1459 (2022).

Artikel Google Scholar

Agrawal, S. et al. Maschinelles Lernen für Niederschlags-Nowcasting aus Radarbildern. arXiv [cs.CV] (2019).

Yan, Y. et al. Die Leistungsfähigkeit des maschinellen Lernens für die CO2-Abscheidung, -Nutzung und -Speicherung (CCUS) nutzen – ein aktueller Überblick. Energieumwelt. Wissenschaft. 14, 6122–6157 (2021).

Artikel CAS Google Scholar

Wagner, F. et al. Nutzen Sie erklärbares maschinelles Lernen, um zu verstehen, wie die Stadtform nachhaltige Mobilität beeinflusst. Transp. Res. Teil D: Trans. Umgebung. 111, 103442 (2022).

Artikel Google Scholar

Callaghan, M. et al. Auf maschinellem Lernen basierende Evidenz- und Zuordnungskartierung von 100.000 Klimafolgenstudien. Nat. Aufstieg. Chang. 11, 966–972 (2021).

Artikel Google Scholar

Alizadeh, T. Die Auswirkungen der Telekommunikationsinfrastruktur auf räumliche Gerechtigkeit: Der sozioökonomische Status der frühen Einführung des National Broadband Network in Australien. Int. J. Krit. Infrastruktur 11, 278–296 (2015).

Artikel Google Scholar

Delacroix, S. & Lawrence, ND Bottom-up-Daten-Trusts: Störung des „One-Size-Fits-All“-Ansatzes zur Datenverwaltung. Int. Datenprivat. Gesetz 9, 236–252 (2019).

Google Scholar

Komljenovic, J. Die Zukunft der Werte in der digitalisierten Hochschulbildung: Warum Datenschutz nicht unsere größte Sorge sein sollte. Hoch. Educ. 83, 119–135 (2022).

Artikel Google Scholar

Langley, P. & Leyshon, A. Plattformkapitalismus: die Vermittlung und Kapitalisierung der digitalen Wirtschaftszirkulation. Flosse. Soc. 3, 0 (2017).

Google Scholar

Mills, S. Wem gehört die Zukunft? Data Trusts, Data Commons und die Zukunft des Dateneigentums. https://doi.org/10.2139/ssrn.3437936 (2019)

Pick, JB & Nishida, T. Digitale Spaltungen in der Welt und ihren Regionen: Eine räumliche und multivariate Analyse der technologischen Nutzung. Technol. Vorhersage. Soc. Änderung 91, 1–17 (2015).

Artikel Google Scholar

Sareen, S., Saltelli, A. & Rommetveit, K. Ethik der Quantifizierung: Beleuchtung, Verschleierung und performative Legitimation. Palgrave Commun. 6, https://doi.org/10.1057/s41599-020-0396-5 (2020).

Savona, M. Der Wert von Daten: Auf dem Weg zu einem Rahmen für ihre Umverteilung. https://doi.org/10.2139/ssrn.3476668 (2019).

Brock, A., Sovacool, BK & Hook, A. Flüchtige Photovoltaik: grüne Industrialisierung, Opferzonen und die politische Ökologie der Solarenergie in Deutschland. Ann. Assoc. Bin. Geogr. 111, 1756–1778 (2021).

Google Scholar

Soja, EW Auf der Suche nach räumlicher Gerechtigkeit. (University of Minnesota Press, 2010).

Yenneti, K., Day, R. & Golubchikov, O. Räumliche Gerechtigkeit und die Landpolitik erneuerbarer Energien: Enteignung gefährdeter Gemeinden durch Solarenergie-Megaprojekte. Geoforum 76, 90–99 (2016).

Artikel Google Scholar

Everitt, T., Lea, G. & Hutter, M. AGI Safety Literature Review. arXiv [cs.AI] (2018).

Goertzel, B. Künstliche allgemeine Intelligenz: Konzept, Stand der Technik und Zukunftsaussichten. J. Artif. Gen. Intel. 5, 1–48 (2014).

Artikel Google Scholar

Sovacool, BK & Furszyfer Del Rio, DD Smart-Home-Technologien in Europa: Eine kritische Überprüfung von Konzepten, Vorteilen, Risiken und Richtlinien. Ren. Sust. Energy Rev. 120, 109663 (2020).

Artikel Google Scholar

Furszyfer Del Rio, DD, Sovacool, BK & Martiskainen, M. Kontrollierbar, beängstigend oder lustig? Erkundung der geschlechtsspezifischen Dynamik der Präferenzen für Smart-Home-Technologie im Vereinigten Königreich. Energieres. Soc. Wissenschaft. 77, 102105 (2021).

Artikel Google Scholar

Sovacool, B., Furszyfer-Del Rio, DD & Martiskainen, M. Kann Prosumieren gefährlich werden? Erforschung von Kontrollsystemen und häuslicher Gewalt in den Smart Homes der Zukunft. Grenzen der Energieforschung 9, (2021).

Furszyfer Del Rio, DD, Sovacool, BK & Griffiths, S. Kultur, Energie- und Klimanachhaltigkeit sowie Smart-Home-Technologien: Ein Vergleich mit gemischten Methoden aus vier Ländern. Energieklima. Änderung 2, 100035 (2021).

Artikel CAS Google Scholar

Milkoreit, M. Soziale Wendepunkte überall? – Muster und Risiken der Überbeanspruchung. Wiley Interdisziplinär. Rev. Clim. Änderung https://doi.org/10.1002/wcc.813 (2022).

Juhola, S. et al. Soziale Wendepunkte und Anpassungsgrenzen im Kontext systemischer Risiken: Konzepte, Modelle und Governance. Vorderseite. Aufstieg. 4, (2022).

Farmer, JD et al. Sensible Eingriffspunkte in der Post-Carbon-Transition. Wissenschaft 364, 132–134 (2019).

Artikel CAS Google Scholar

Lenton, TM et al. Kippelemente im Klimasystem der Erde. Proz. Natl. Acad. Wissenschaft. USA. 105, 1786–1793 (2008).

Artikel CAS Google Scholar

Milkoreit, M. et al. Wendepunkte für die Forschung zu sozial-ökologischen Systemen definieren – eine interdisziplinäre Literaturrecherche. Umgebung. Res. Lette. 13, 033005 (2018).

Artikel Google Scholar

Nyborg, K. et al. Soziale Normen als Lösungen. Wissenschaft 354, 42–43 (2016).

Artikel CAS Google Scholar

van Ginkel, KCH et al. Durch den Klimawandel verursachte sozioökonomische Wendepunkte: Überprüfung und Konsultation der Interessengruppen für politikrelevante Forschung. Umgebung. Res. Lette. 15, 023001 (2020).

Artikel Google Scholar

Referenzen herunterladen

RD dankt der Quadrature Climate Foundation (01-21-000149), dem Keynes Fund (JHVH) und der Google Cloud Climate Innovation Challenge (2022) für die Unterstützung. BKS dankt für die Unterstützung von UK Research and Innovation sowie dem JPI SOLSTICE 2020-Programm im Rahmen des Projekts „Responsive Organizing for Low Emission Societies (ROLES)“, Fördervereinbarung Nr. ES/V01403X/1. Die Autoren danken auch Professor Adrian Smith und Dr. Max Lacey-Barnacle von der University of Sussex für die Inspiration der Analyse zur Datengerechtigkeit.

Open-Access-Förderung ermöglicht und organisiert durch Projekt DEAL.

Cambridge Zero und Department of Computer Science and Technology, University of Cambridge, Cambridge, CB3 0FD, Vereinigtes Königreich

Ramit Debnath und Emily Shuckburgh

Abteilung für Geistes- und Sozialwissenschaften, California Institute of Technology, Pasadena, CA, 91125, USA

Ramit Debnath

Mercator Research Institute on Global Commons and Climate Change, Berlin, 10829, Deutschland

Felix Creutzig

Technische Universität Berlin, Berlin, 10827, Deutschland

Felix Creutzig

Zentrum für Energietechnologien, Abteilung für Geschäftsentwicklung und Technologie, Universität Aarhus, Aarhus, Dänemark

Benjamin K. Sovacool

Wissenschaftspolitische Forschungseinheit, University of Sussex Business School, Brighton, Vereinigtes Königreich

Benjamin K. Sovacool

Institut für globale Nachhaltigkeit, Abteilung für Erde und Umwelt, Boston University, Boston, MA, USA

Benjamin K. Sovacool

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

RD und FC konzipierten die Studie. Alle Autoren haben an der Ausarbeitung und Bearbeitung des Manuskripts mitgewirkt.

Korrespondenz mit Felix Creutzig.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Debnath, R., Creutzig, F., Sovacool, BK et al. Nutzung menschlicher und maschineller Intelligenz für Klimaschutzmaßnahmen auf globaler Ebene. npj Clim. Aktion 2, 20 (2023). https://doi.org/10.1038/s44168-023-00056-3

Zitat herunterladen

Eingegangen: 17. Januar 2023

Angenommen: 24. Juli 2023

Veröffentlicht: 17. August 2023

DOI: https://doi.org/10.1038/s44168-023-00056-3

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt