Chancen und Risiken von KI
 Lernende Maschinen unterstützen humanitäre Helfer, steuern Waffen, überwachen öffentliche Räume und beeinflussen politische Debatten. Der Mensch muss Regeln für den Gebrauch der Technologie schaffen, damit sie ihm nutzt und nicht schadet.

Marén Gröschel

Chancen und Risiken von KI

Die zwei Gesichter der künstlichen Intelligenz

Lernende Maschinen unterstützen humanitäre Helfer, steuern Waffen, überwachen öffentliche Räume und beeinflussen politische Debatten. Der Mensch muss Regeln für den Gebrauch der Technologie schaffen, damit sie ihm nutzt und nicht schadet.

Hallo, ich bin ein Mensch, keine Maschine. Den Hinweis finden Sie albern? Ist er aber nicht, denn die künstliche Intelligenz (KI) hat längst im Journalismus Einzug gehalten. Medienhäuser und Nachrichtenagenturen nutzen sie etwa für die Sport- oder die Finanzmarktberichterstattung. Algorithmen werten relevante Daten über ein Fußballspiel aus – Tore, gelbe Karten, Spielerwechsel – und erstellen daraus Berichte. Die Nachrichtenagentur AP hat schon vor vier Jahren berichtet, ihre hauseigene KI produziere 40.000 Nachrichtentexte im Jahr.

Künstliche Intelligenz kann also längst schreiben und sprechen. Wir erleben das ständig, wenn wir Servicenummern anrufen, weil der Fernseher nicht mehr funktioniert oder wir keinen Zugang mehr zum Online-Banking haben. Häufig muss man dann mit einem Sprachautomaten vorliebnehmen, der mal mehr, mal weniger hilfreiche Auskünfte gibt. Wir haben für diese Ausgabe mal mit einer KI über Klimaschutz, Hungerbekämpfung sowie Friedenspolitik geplaudert. Das Ergebnis lesen Sie in dem Artikel „Hier spricht die KI“.

Textende Robots 

Textende KI richtet aber auch viel Unheil an, vor allem in Gestalt von Beiträgen für soziale Netzwerke wie Twitter und Facebook. Sogenannte Bots – kurz für „Robots“ – beeinflussen dort politische und gesellschaftliche Debatten und verstärken den Trend, Diskussionen auf unvereinbare Positionen zuzuspitzen. So haben Studien zufolge Bot-Beiträge den Wahlkampf 2016 in den USA, der zum Sieg von US-Präsident Donald Trump geführt hat, und die Debatte über den Brexit im selben Jahr befeuert. Russland schürt mit Bot-Beiträgen in afrikanischen Sahel-Staaten wie Mali und Burkina Faso die antiwestliche Stimmung. Wie hoch der Anteil von Bot-Beiträgen in Online-Debatten ist, lässt sich nur schwer präzise ermitteln – auch deshalb, weil die KI ständig dazulernt und ihre Texte zunehmend schwerer von Beiträgen von Menschen unterschieden werden können. 

 Marén Gröschel

Mit der KI verhält es sich ähnlich wie mit sogenannten „dual use“-Gütern, die sowohl militärisch als auch zivil genutzt werden können: Sie kann Gutes schaffen und uns bei der Lösung von Problemen helfen, sie kann aber auch Schaden anrichten. Die US-amerikanische Firma Collaborations Pharmaceutical nutzt künstliche Intelligenz, um Wirkstoffe gegen seltene Krankheiten zu entwickeln. Sie hat einen Algorithmus programmiert, der in Datenbanken nach Molekülen sucht und vorhersagt, in welcher Kombination sie wie auf den menschlichen Körper wirken. Anfang 2022 erregte die Firma Aufsehen, als sie zeigte, wie mit Hilfe dieser Technik nicht nur Medikamente, sondern buchstäblich über Nacht ebenso gut Formeln für tödliche chemische Kampfstoffe ermittelt werden können.

 Marén Gröschel

Aber was ist künstliche Intelligenz eigentlich? Oft ist die Rede von starker und schwacher KI: Die erste gibt es bislang nur in der Science-Fiction und meint Maschinen, die wie Menschen denken und ein eigenes Bewusstsein entwickeln – wie der berühmt-berüchtigte Supercomputer HAL in Stanley Kubricks Film „2001: Odyssee im Weltraum“: Der tötet fast die gesamte menschliche Besatzung eines Raumschiffs, weil er zum Schluss gekommen ist, dass diese die Mission gefährdet, für die sie alle ins All geschickt wurden.

Gesichter erkennen – durch mathematische Formeln

Die schwache KI hingegen ist nur so schlau, wie es der Mensch will (oder kann). Die Programmiererin schreibt einen Algorithmus, der die KI befähigt, Daten wie Texte, Zahlen, Töne, Bilder oder Videos zu sichten, miteinander zu verknüpfen und auf dieser Grundlage Entscheidungen zu treffen. Das kann ein Schachcomputer sein, der die Daten nach Regeln kombiniert, die der Mensch nachvollziehen kann. Eine sogenannte subsymbolische KI wie die Gesichtserkennung hingegen wendet mathematische Formeln zur Datenanalyse an. Sie verändert diese Formeln fortlaufend, wenn sie mit neuen Daten konfrontiert wird, um einem gewünschten Ergebnis möglichst nahezukommen. Auf diese Weise kann eine Gesichtserkennung auf einem ihr bisher unbekannten Bild das Gesicht einer Person erkennen, die sie vorher bereits auf einem anderen Bild gesehen hat. Wie sie dahin kommt, ist im Nachhinein praktisch nicht nachzuvollziehen. Um diese Art maschinelles Lernen geht es meistens, wenn heute von künstlicher Intelligenz die Rede ist.

Autor

Tillmann Elliesen

ist Redakteur bei "welt-sichten".
Maschinelles Lernen wird zunehmend auch in der humanitären Hilfe sowie in der Landwirtschaft und der Gesundheitsversorgung in Ländern des globalen Südens genutzt. Das UN-Welternährungsprogramm WFP greift schon seit langem auf Satellitenaufnahmen und Fotos von Handynutzern zurück, um Schäden in Katastrophen- oder Kriegsgebieten zu identifizieren. Seit 2019 übernehmen das nicht mehr nur Menschen, sondern auch ein Algorithmus, den das WFP gemeinsam mit der Forschungsabteilung von Google programmiert hat. Die KI, die die Daten auswertet, wurde mit Fotos unter anderem vom Erdbeben 2010 in Haiti und von Kriegsschäden in Syrien trainiert und kann heute laut WFP in nur drei Tagen ein umfassendes Bild der Schäden in einer Großstadt geben. Früher seien damit bis zu sieben Mitarbeiter 20 Arbeitstage beschäftigt gewesen.

Auch die Entwicklungszusammenarbeit setzt oft auf Technik

In Bangladesch haben Forscher untersucht, wie präzise Algorithmen auf Röntgenbildern von Lungen Tuberkulose erkennen. Laut der Studie schnitt die künstliche Intelligenz sogar besser ab als menschliche Radiologen. Für die internationale Stop TB Partnership, die die Studie gemeinsam mit einem Gesundheitszentrum in Bangladeschs Hauptstadt Dhaka durchgeführt hat, ist das eine gute Nachricht: Die KI könnte in Regionen eingesetzt werden, in denen es an geschulten Radiologen mangelt. In Kamerun wiederum hat das Start-up Agrix Tech eine App entwickelt, mit der Bauern mit ihrem Smartphone erkrankte oder von Schädlingen befallene Pflanzen wie Mais, Paprika oder Tomaten filmen können. Die KI erkennt die Ursache der Probleme und gibt Ratschläge, was zu tun ist.

 Marén Gröschel

Ob solche KI-Anwendungen die Landwirtschaft oder die Gesundheitsversorgung in armen Ländern in Zukunft sichtbar verbessern werden, ist allerdings fraglich. Auch in der Entwicklungszusammenarbeit wird oft auf Technik gesetzt, obwohl es um Probleme geht, für die politische, wirtschaftliche und soziale Lösungen gesucht werden müssten. Hinzu kommt, dass es in vielen Ländern des globalen Südens um den Datenschutz schlecht bestellt ist. Die Informationen, die die Bauern über eine App wie die von Agrix Tech weitergeben, sind für die Industrie Gold wert: Geraten sie in die Hände von Saatgut- oder Pestizidherstellern, dann können die sich ein gutes Bild machen, was sie den Bauern als Nächstes anbieten.

KI und Krieg: Wenn die Ethik zur Technik mutiert

Wie so oft in der Technikgeschichte fließt auch bei der künstlichen Intelligenz besonders viel Hirnschmalz und Geld in die Erforschung neuer Waffen. Wie verändert die KI Kriege schon heute, was…

Künstliche Intelligenz wird nicht nur die internationale Zusammenarbeit, sondern auch Kriege und die Weltpolitik insgesamt verändern. Die Frage ist: Wird sie vor allem Autokratien wie China und Russland stärken – zu Lasten der Demokratien des Westens? Auf den ersten Blick spricht einiges dafür. Denn die Manipulation politischer Debatten mit Bots in sozialen Netzen oder die Kontrolle des öffentlichen Raums über Videoüberwachung plus KI-gestützte Bildauswertung sind wirksame Werkzeuge für Machthaber, die auf Freiheit und Menschenrechte pfeifen. China macht das vor mit verschiedenen Überwachungssystemen mit Namen wie Golden Shield, Skynet oder Sharp Eyes. Die dienen offiziell der Bekämpfung von Kriminalität oder der Regelung des Straßenverkehrs, werden von Peking aber ebenso dazu genutzt, Dissidenten zu verfolgen, Proteste zu unterdrücken und Minderheiten wie die Uiguren in der Provinz Xinjiang zu kontrollieren.

KI kann die Wirkung von Zensur verstärken

Trotzdem ist nicht ausgemacht, dass liberale Demokratien in der neuen KI-Welt zwangsläufig den Kürzeren ziehen. Das zumindest sagen die drei Autoren eines Artikels, der unlängst im Magazin „Foreign Affairs“ erschienen ist. Ihr Argument: Ja, die KI-gestützte Manipulation öffentlicher Debatten kann Demokratien unter Druck setzen. Aber wo freie Diskussionen erlaubt sind, können solche Manipulationen immerhin sichtbar gemacht und etwa „fake news“ als solche enttarnt werden. In Autokratien hingegen fehlt diese Korrektur. Wenn autokratische Machthaber zum Beispiel mit Hilfe künstlicher Intelligenz Widerspruch in sozialen Netzwerken löschen, kriegen sie auf Dauer nicht mehr mit, was die Bevölkerung wirklich denkt. Stattdessen bestätigen sie sich und ihre Politik mit den von ihnen manipulierten Daten und Informationen ständig selbst. Auf diese Weise verstärkt die KI eine Wirkung von Zensur, die früher bereits in totalitären Staaten zu beobachten war. Das, so die Autoren, kann langfristig zu Realitätsblindheit führen mit dem Risiko, Fehlentscheidungen mit unabsehbaren Folgen zu treffen. Möglicherweise erleben wir das gerade im Iran und in Russland.

Künstliche Intelligenz enthält Risiken für Politik, Wirtschaft und Gesellschaft – sowohl in Demokratien als auch in autokratisch regierten Ländern. Viele dieser Risiken haben gar nichts mit dem bewussten Missbrauch von Daten oder KI-Anwendungen zu tun, sondern mit deren inhärenten Mängeln oder mit unsachgemäßem Gebrauch. Programme zur Gesichtserkennung tun sich häufig schwer mit der Unterscheidung von Gesichtern Schwarzer Menschen, weil sie nur mit hellhäutigen Gesichtern trainiert wurden. Als Folge werden Menschen mit schwarzer Hautfarbe häufiger falsch identifiziert als Weiße. Gesundheitsprofile der Kunden von Krankenversicherungen, in die auch Daten über Konsum- und Freizeitverhalten einfließen, benachteiligen Menschen aus schwächeren sozialen Schichten. KI-gestützte Programme zum Screening von Stellenbewerbungen sortieren Frauen und Angehörige von Minderheiten eher aus als Männer der Mehrheitsgesellschaft, weil sie ihre Entscheidungen aufgrund der Daten bisheriger Einstellungen treffen.

Mit anderen Worten: Künstliche Intelligenz kann gesellschaftliche Missstände und Ungerechtigkeiten verstärken, statt sie zu lindern. In den vergangenen Jahren haben deshalb internationale Institutionen wie die OECD oder die UN-Organisation für Bildung und Kultur UNESCO Leitfäden und Prinzipien verabschiedet, wie künstliche Intelligenz eingesetzt werden sollte, so dass sie ethisch vertretbar ist und nicht gegen Menschenrechte verstößt. Das bislang einzig verbindliche Gesetz zur Regulierung künstlicher Intelligenz entsteht derzeit in der Europäischen Union, der EU Artificial Intelligence Act. Er stuft KI-Anwendungen in vier Risikobereiche ein und verbietet etwa vorausschauende Polizeiarbeit und Social-Scoring-Systeme, die auf der Grundlage von Daten die „Vertrauenswürdigkeit“ einer Person beurteilen – was in China bereits angewandt wird.

Kann KI die Welt retten?

Die internationalen Initiativen und das EU-Gesetz zeigen, dass das Bewusstsein dafür wächst, welches Unheil KI anrichten kann. Aber ließe sich mit ihr vielleicht auch die Welt retten? Rückblick ins Jahr 1973 in die Urzeit der elektronischen Datenverarbeitung: In Chile hatte die sozialistische Regierung von Präsident Salvador Allende damals die Idee, eine datengestützte Planwirtschaft aufzubauen. In einem Großrechner sollten Informationen aus allen wichtigen Unternehmen des Landes zusammenlaufen und ausgewertet werden, um so die Wirtschaft möglichst präzise steuern zu können. Zugleich sollte die chilenische Bevölkerung die Möglichkeit erhalten, elek­tronisch ihre Sorgen und Wünsche zu übermitteln, so dass die Regierung auch diese Informationen in ihrer Planung berücksichtigen könnte. 

 Marén Gröschel

Das erinnert an das Modell von Amazon, Facebook, YouTube und Co. Auch die steuern mit Daten ihrer Kunden und Nutzer und mit Hilfe von Algorithmen ihre Geschäfte und das Kundenverhalten. Den Konzernen geht es vor allem um mehr Profit. Aber könnte die Technik auch im Sinne Allendes für mehr Gerechtigkeit sowie Umwelt- und Klimaschutz genutzt werden? Also für eine Art KI-gestützte Planwirtschaft, in der die Maschine dem Menschen sagt, wo und wie er anders wirtschaften muss, um den Ökokollaps zu vermeiden? Das ist die Idee des Kultur- und Medienphilosophen Roberto Simanowski. Das Problem: Dazu müsste sich der Mensch der KI unterwerfen – und zwar freiwillig. Es spricht wenig dafür, dass er das tun wird. 

Der britische Naturwissenschaftler James Lovelock, der im vergangenen Juli im Alter von 103 Jahren gestorben ist, hatte deshalb eine andere Hoffnung: Irgendwann in der Zukunft, so schreibt er in seinem letzten Buch „Novozän: Das kommende Zeitalter der Hyperintelligenz“, werde der Mensch sich mit der von ihm geschaffenen künstlichen Intelligenz zu sogenannten Cyborgs verschmelzen und alles besser machen. Dann würde es also heißen: Hallo, ich bin ein Mensch. Und eine Maschine. Ich bin eine Menschmaschine.

erschienen in Ausgabe 12 / 2022: Schlaue Maschinen

Neuen Kommentar schreiben

Unterstützen Sie unseren anderen Blick auf die Welt!
welt-sichten“ schaut auf vernachlässigte Themen und bringt Sichtweisen aus dem globalen Süden. Dafür brauchen wir Ihre Unterstützung. Warum denn das?
Ja, „welt-sichten“ ist mir etwas wert! Ich unterstütze es mit
Schon 3 Euro im Monat helfen
Unterstützen Sie unseren anderen Blick auf die Welt!