capulcu https://capulcu.blackblogs.org keep the future unwritten Tue, 22 Oct 2024 19:04:35 +0000 de-DE hourly 1 https://wordpress.org/?v=5.7.1 https://capulcu.blackblogs.org/wp-content/uploads/sites/54/2016/03/cropped-pengi-small-32x32.png capulcu https://capulcu.blackblogs.org 32 32 “Ist das schon kaputt?” – Eine vorläufige Einordnung des Angriffs auf das Tor-Netzwerk https://capulcu.blackblogs.org/2024/10/22/ist-das-schon-kaputt-eine-vorlaeufige-einordnung-des-angriffs-auf-das-tor-netzwerk/ Tue, 22 Oct 2024 18:47:46 +0000 https://capulcu.blackblogs.org/?p=1082 von capulcu & friends

Mitte September wurde durch Recherchen des öffentlich-rechtlichen Rundfunks (Panorama und STRG_F) bekannt, dass das BKA und die Generalstaatsanwaltschaft Frankfurt a.M. erfolgreich einen Deanonymisierungsangriff im Tor-Netzwerk durchgeführt haben. Sie konnten so den Betreiber der Pädoplattform Boystown identifizieren und festnehmen. Dazu betrieben sie eigene Tor-Knoten und überwachten Teile des Netzwerks über mehrere Jahre und Ländergrenzen hinweg. Der Angriff wirft die Frage auf, ob Tor und Tails noch sicher sind. In diesem Text wagen wir den Versuch einer vorläufigen Auswertung auf Basis der spärlichen öffentlich zugänglichen technischen Informationen und geben einige Handlungsempfehlungen zur sichereren Verwendung von Tor. Denn Tor bleibt das beste verfügbare Werkzeug, um die eigene Identität im Internet zu verschleiern. Wer sich nur für die praktischen Folgen und nicht für die technischen Details des Angriffs interessiert, kann ab dem Abschnitt, „Gesundheit des Tor-Netzwerks“ anfangen zu lesen.

Wie funktioniert Tor?

Bevor wir auf die technischen Details des Angriff eingehen, fassen wir kurz zusammen, wie Tor funktioniert.1 Tor kann sowohl eingesetzt werden, um staatliche Zensur zu umgehen als auch um die eigene Identität bzw. den Aufenthaltsort im Internet zu verbergen. Für diesen Text interessiert uns nur der Einsatz von Tor als Werkzeug zur Anonymisierung im Internet.

Betrachten wir zunächst den Fall, dass wir anonym eine Webseite abrufen wollen, z.B. radikal.news. Dazu benutzen wir den Tor Browser. Einen Überblick über die folgende Beschreibung einer Tor-Verbindung liefert Abbildung 1. Nach Eingabe der Adresse wählt die Tor Software aus den etwa 8000 Servern des Tor-Netzwerks,2 auch Knoten oder relays genannt, drei zufällige aus. Zunächst wird eine verschlüsselte Verbindung zum ersten Knoten, dem Guard, aufgebaut, dann von dort zum Mittelknoten und vorn dort weiter zum Exit-Knoten. Erst der Exit-Knoten löst den Domainnamen radikal.news in eine IP-Adresse auf und baut eine Verbindung zum Webserver an dieser Adresse auf. Dabei verschlüsselt der Tor Client (in diesem Fall der Tor Browser) die Anfrage an radikal.news je Tor-Knoten einmal. Jeder Knoten auf dem Weg zum Ziel entfernt eine Verschlüsselungsschicht – daher auch das Bild der geschälten Zwiebel. Durch dieses Prinzip wird erreicht, dass keiner der Knoten des Tor-Netzwerks ausreichende Informationen hat, um uns, den Client, mit dem Webserver zu verknüpfen. Der Guard-Knoten sieht nur, dass wir uns mit dem Tor-Netzwerk verbinden und welchen Mittelknoten wir verwenden. Der Exit-Knoten sieht zwar, dass eine Anfrage an radikal.news zugestellt wird, aber er sieht nur, dass er sie von irgendeinem Mittelknoten weitergeleitet wurde und nicht woher sie stammt. Der Mittelknoten sieht nur den Guard und den Exit-Knoten. Er weiß gar nicht, wessen Kommunikation er weiterleitet. An dieser Stelle sei erwähnt, dass es sehr wichtig ist Transportverschlüsselung3 zu verwenden, um zu verhindern, dass der Exit-Knoten alle Kommunikation mit dem Zielserver im Klartext mitlesen kann.4

Abbildung 1: Die Abbildung zeigt, wie der Client sich über drei Tor-Knoten mit dem Server verbindet. Dabei entfernt jeder Knoten eine Verschlüsselungsschicht, so dass sie jeweils nur ihre Nachbarn kennen. Quelle: https://en.wikipedia.org/wiki/File:Tor_Circuit_Diagram.svg

 Mit diesem Verfahren wird technisch sichergestellt, dass der Internetprovider lediglich sieht, dass wir uns mit Tor verbinden und der Webserver andererseits lediglich sieht, dass ein beliebiger Tor-Nutzer eine Anfrage schickt – jedenfalls gilt das solange wir nichts tun, das uns identifiziert, etwa uns in einen nicht-anonymen Account einzuloggen. Tor ist also so designt, dass es sowohl vor Angriffen schützt, die darauf abzielen herauszufinden, wer etwas macht, als auch was eine bereits verdächtige Person macht. Die Sicherheitsgarantien gelten allerdings nicht gegenüber einem globalen Angreifer. Das bedeutet, wenn ein Angreifer in der Lage ist, sowohl an meinem zufällig gewählten Guard-Knoten als auch am Exit-Knoten die ein- und ausgehenden Pakete zu überwachen. Dann kann er die an den Webserver gesendete Anfrage mit hoher Wahrscheinlichkeit mir zuordnen. Tor hat nicht den Anspruch gegen solche globalen Angreifer zu schützen, da dies große Verzögerungen (Latenzen) in der Kommunikation mit sich bringen würde.5

Um es auf Dauer, d.h. über viele Verbindungen hinweg unwahrscheinlicher zu machen, dass ein Guard-Knoten ausgewählt wird, der von einem Angreifer betrieben wird, wählt Tor nicht bei jeder Verbindung einen neuen Guard, sondern verwendet einen einmal ausgewählten Guard-Knoten über einen zufälligen Zeitraum von mehreren Wochen.6 Dadurch wird es für einen Angreifer, der nur einen kleinen Teil des Netzwerks überwachen kann, sehr lange dauern bis ein für einen Angriff geeigneter Guard-Knoten ausgewählt wird. Dieser Schutzmechanismus wird für den hier diskutierten Angriff noch relevant. Dazu später mehr.

Was sind Onion Services?

Der nun öffentlich gewordene Angriff richtete sich gegen einen Onion Service. Neben der schon beschriebenen Anonymisierung des Clients ermöglicht es Tor, selber anonym Dienste als sogenannte Onion Services anzubieten, beispielsweise einen Webserver zu betreiben, ohne dass die Besucher:innen der Webseite erfahren, wo der Server steht bzw. wer ihn betreibt. Einen Überblick über eine aufgebaute Verbindung zwischen Client und Onion Service bietet Abbildung 2. Der Onion Service hält dauerhaft Verbindungen zu einem oder mehreren als Introduction Points (IP)7 bezeichneten Tor-Knoten aufrecht.8 Die ausgewählten IPs veröffentlicht der Onion Service als Onion Service Descriptor in den Hidden Service Directories (HSDirs), einer über das Netzwerk verteilten Datenstruktur, sodass (nur) diejenigen, die die Onion-Adresse kennen, abfragen können, über welche IPs sie den Service erreichen.9 Wenn der Tor-Client sich mit dem Onion Service verbinden möchte, wählt er zunächst einen weiteren Knoten aus, den sogenannten Rendezvous Point (RP) und baut eine Verbindung dorthin auf. Anschließend baut er eine Verbindung zu einem IP auf und teilt dem Onion Service darüber verschlüsselt die Adresse des RP mit. Daraufhin verbindet sich auch der Onion Service mit dem RP und Client und Onion Service können über den RP kommunizieren, ohne den Standort des jeweiligen Gegenübers zu kennen.

Abbildung 2: Die Abbildung zeigt, wie sich der Client mit dem Onion Service verbindet. Beide Seiten bauen dazu einen Circuit zu dem vom Client gewählten RP auf. Für den ersten Teil des Verbindungsaufbaus über den IP funktioniert dies analog. In dem Fall wäre der IP der Knoten rechts von dem der hier als RP bezeichnet ist. Quelle (von uns bearbeitet): https://en.wikipedia.org/wiki/File:Tor_Circuit_Diagram.svg

Der Deanonymisierungsangriff mittels Traffic Analysis

Reporter von Panorama und STRG_F haben recherchiert,10 dass das BKA und die Generalstaatsanwaltschaft Frankfurt am Main in den Ermittlungen gegen die Pädoplattform Boystown11 (ein Onion Service) mehrere Timing Analysen, auch Traffic Analysis genannt, erfolgreich durchführten. Diese Art von Angriff ist möglich, da Tor ein Anonymisierungsnetzwerk mit niedriger Latenz ist. Dadurch können Sequenzen gesendeter Pakete (z.B. nach Anzahl, zeitlichen Abständen, Umfang des Datenverkehrs etc.), die an verschiedenen Punkten im Netzwerk korrelieren, mit einfachen statistischen Mitteln verknüpft werden. Um den Angriff erfolgreich durchzuführen, betrieben die Behörden über Jahre eigene Tor-Knoten und überwachten bestehende Knoten über mehrere Monate hinweg. Zudem kooperierte das BKA mindestens mit niederländischen Behörden in der Überwachung des Tor-Netzwerks. Deutschland und die Niederlande sind die beiden Länder, in denen mit Abstand die meisten Tor Server betrieben werden.12 Daher kann bei einer Kooperation der Behörden dieser Länder zumindest theoretisch ein signifikanter Teil des Netzwerks überwacht werden. Mittels des Betriebs eigener Knoten und der oben genannten Traffic Analysis gelang es den Behörden mindestens viermal den Guard-Knoten von Verdächtigen aufzudecken. Dieser sogenannte Guard-Discovery-Angriff war der erste Schritt in der Deanonymisierung des Onion Services: Er lieferte die IP-Adresse des Guard-Knotens und damit den Ansatzpunkt für weitere Angriffe auf die Anonymität des Onion Service selbst.

Die erfolgreiche Deanonymisierung gelang, weil die Behörden einen langen Atem bewiesen und mehrere sehr schwer zu bewerkstelligende Teil-Angriffe miteinander verknüpften. Nach allem, was wir wissen, lassen sich als grober Überblick mindestens die folgenden Schritte herauskristallisieren: 13

    1. Identifikation des Angriffsziels (Onion-Adresse)14

    2. Betrieb eigener15 bzw. Überwachung existierender Tor-Knoten

    3. Guard-Discovery-Angriff mittels Timing Analyse

    4. Eingrenzung der IP-Adresse des Ziels auf das Telefónica-Netz

    5. IP-Catching durch Telefónica

Wir wollen nun einige dieser Schritte detaillierter beleuchten. Laut dem Tor Project basierte der konkrete Angriff darauf, dass der Verdächtige den seit 2017 nicht mehr weiterentwickelten Messenger Ricochet verwendete.16 Immer wenn der Messenger online ist, erstellt er einen Onion Service, über den Nachrichten ausgetauscht werden können.17 Die Adresse des Onion Services ist zugleich die Nutzer:innen-ID. Sie bleibt daher dauerhaft gleich und es ist anhand des Onion Service Descriptor in Echtzeit ersichtlich, wann die Betreiber:in online ist. Die Behörden nutzten bei dem Angriff auf Ricochet aus, dass es möglich ist, beliebig viele Nachrichten, beliebiger Größe an den Onion Service zu schicken. Dabei erstellt der Onion Service jedes mal eine neue Verbindung zu einem RP. Es ist also nur eine Frage der Zeit, bis ein vom Angreifer kontrollierter Mittelknoten gewählt und damit auch die IP-Adresse des Guard-Knoten bekannt wird. Da der Angreifer den Datenfluss kontrolliert, d.h. selbst bestimmt, wann er Nachrichten sendet, kann er sehr leicht einen verdeckten Kanal innerhalb des Torprotokolls oder einen Seitenkanal ausnutzen, z.B. über Verzögerungen der einzelnen Pakete, die zu einer Nachricht gehören. So lässt sich am vom Angreifer kontrollierten Mittelknoten feststellen, dass es sich tatsächlich um die gesuchte Verbindung zum Onion Service handelt.18

Nachdem der Guard-Knoten identifiziert war, ordnete das Amtsgericht Frankfurt a.M. am 17. Dezember 2020 an, dass Telefónica alle 43 Millionen Kund:innen für drei Monate überwachen sollte, um herauszufinden, welche davon sich mit dem identifizierten Guard-Knoten verbinden.19 Bereits nach wenigen Tagen konnten die Behörden den Betreiber von Boystown auf diese Weise identifizieren. Unklar bleibt, woher die Ermittler:innen wussten, dass der Verdächtige Telefónica-Kunde ist. Angeblich erhielt das BKA einen Tipp von einer ausländischen Behörde. Doch auch dann lässt sich nur spekulieren, woher die Eingrenzung auf Telefónica stammt. Wahrscheinlich ist, dass die Behörden nach der erfolgreichen Aufdeckung des Guard-Knotens weitere Netzwerkanalysen durchgeführt haben, durch die sie zwar nicht direkt die IP-Adresse des Onion Services, aber zumindest das Autonome System (AS)20 ableiten konnten. Dieses Vorgehe wurde möglich, weil erstens der Guard-Knoten bereits bekannt war und zweitens die Angreifer (wie oben beschrieben) selbst bestimmen konnten, wann Daten in Form von Chatnachrichten zwischen dem Guard-Knoten und dem Onion Service gesendet wurden. Denkbar wären solche Analysen auf aggregierten Flussdaten zwischen AS’s etwa mit dem Protokoll Netflow, das auf den meisten Internetroutern läuft und zu deren Monitoring entwickelt worden ist. Forschungen21 zeigen, dass es unter Umständen schon reichen kann, auf die Netflow Records normaler Internetrouter zuzugreifen, die sich in der Nähre des bekannten Guard-Knoten befinden, um den Kreis der Verdächtigen etwa auf ein AS einzugrenzen. Bis zur Veröffentlichung weiterer Details bleiben solche Überlegungen jedoch spekulativ.

Fest steht, dass zur Deanonymisierung des Onion Services eine ganze Reihe anspruchsvoller, aufwendiger und langwieriger Angriffe verknüpft werden musste. Wir müssen davon ausgehen, dass die internationale Kooperation der Behörden und die technischen Fähigkeiten in den vier Jahren seit diesem Angriff nicht abgenommen haben.22 Vermutlich ist es auch kein Zufall, dass der erste öffentlich bekannt gewordene Fall dieser Art Ermittlungen gegen eine Pädoplattform betrifft – dürfte die gesellschaftliche Akzeptanz gegenüber weitreichenden Überwachungsmaßnahmen wie bei Telefónica hier am größten sein.23

Wie reagiert das Tor Project?

Das Tor Project ist die Organisation, die sich um die Entwicklung der Tor Software, die Betreuung der Community und die Überwachung der Gesundheit des Netzwerks kümmert – wobei die letzten beiden Punkte auch maßgeblich durch andere Organisationen mitgetragen werden. In einem Blogpost24 hat sich das Tor Project zu den Angriffen geäußert und insbesondere mehr Informationen erbeten, um den Angriff im Detail besser verstehen zu können und mögliche Gegenmaßnahmen ergreifen zu können. Außerdem weist die Organisation darauf hin, dass der Angriff gegen den seit vielen Jahren nicht mehr weiterentwickelten Tor-basierten Messenger Ricochet u.a. deswegen möglich wahr, weil inzwischen ausgerollte Verbesserungen bei der Auswahl der Knoten einer Verbindung nicht verwendet wurden. Konkret handelt es sich dabei um die Erweiterung Vanguards, die sogenannte Guard-Discovery-Angriffe vor allem dadurch erschweren soll, dass nicht nur der Eintrittsknoten über einen längeren Zeitraum beibehalten wird, sondern auch die verschiedenen Ebenen der Mittelknoten. Durch diese Veränderung wird es für einen Angreifer wesentlich unwahrscheinlicher und damit aufwendiger, den Mittelknoten nach dem Guard zu kontrollieren und so den Guard-Knoten aufzuspüren.25 Allerdings sollte an dieser Stelle auch erwähnt werden, dass die Vanguards-Erweiterung zwar 2018 als Add-On veröffentlicht, jedoch erst 2022 in der Lite-Variante in C-Tor implementiert wurde. 2020 hätte es also noch manueller Zusatzschritte bedurft, um Vanguards zu nutzen.

Das Tor Project schätzt den Angriff so ein, dass er nur gegen Onion Services durchgeführt werden konnte, insbesondere weil nur hier der Angreifer in der Lage ist, Tor dazu zu zwingen, neue Verbindungen aufzubauen. Verbindungen von einem Client seien demnach weiterhin sicher. Allerdings zeigt aus unserer Sicht die prinzipielle Machbarkeit eines solches Angriffs, dass – ausreichende Motivation der Geheimdienste und Ermittlungsbehörden vorausgesetzt – in Zukunft möglicherweise vergleichbare Angriffe auch gegen Tor-Clients erfolgreich durchgeführt werden könnten. Außerdem gibt es insbesondere bei aktiviertem Javascript oder Anwendungen, bei denen über einen längeren Zeitraum Daten fließen, wie Instant Messaging auch für Clients eine erhöhte Anfälligkeit gegenüber Guard-Discovery-Angriffen bzw. den darauf folgenden Angriffsschritten.26

Gesundheit des Tor-Netzwerks

Das Neuartige an dem Angriff auf die Tor-Anonymisierung ist, dass nun offenbar erstmals bestätigt ein theoretisch schon immer für möglich gehaltener Angriff von Ermittlungsbehörden praktisch erfolgreich durchgeführt worden ist. Um dies zu erreichen, wurden bedeutende Teile des Tor-Netzwerks überwacht oder gleich selbst von den Behörden betrieben. Es stellt sich also die Frage, ist das Tor-Netzwerk noch gesund oder kontrollieren die Ermittlungsbehörden in den USA und der EU schon so weite Teile, dass wir sie als globalen Angreifer betrachten müssen?

Diese Frage lässt sich nicht ohne Weiteres beantworten. Denn prinzipiell ist es möglich Tor-Knoten anonym zu betreiben. Auch wissen wir derzeit noch relativ wenig darüber, welchen Umfang die Kooperation der Behörden unterschiedlicher Jurisdiktionen tatsächlich hat. Geschieht dies nur bei großen Pädoplattformen oder ist es längst gängige Ermittlungspraxis? Sicher ist jedoch, dass das Tor-Netzwerk nicht divers genug aufgestellt ist. Ein Großteil der existierenden Knoten befindet sich in wenigen EU-Staaten und den USA. Außerdem stehen die Tor-Knoten in verhältnismäßig wenig Rechenzentren, d.h. sie befinden sich in wenigen AS’s und ihr Traffic geht durch die gleichen Internet Exchange Points (IXPs)27.28

Die Zeit der Ermittlungen gegen Boystown fällt zusammen mit dem bisher größten bekannt gewordenen Betrieb von Tor-Knoten durch einen bösartigen Akteur: KAX17.29 Es ist möglich, aber nicht gesichert, dass diese Knoten u.a. für die oben geschilderten Angriffe genutzt wurden. Auch wenn die Absichten von KAX17 letztlich nicht bekannt sind, erwähnen wir den Fall. Denn er zeigt exemplarisch, wie anfällig, das Tor-Netzwerk gegenüber motivierten Angreifern mit großen Ressourcen, also z.B. staatlichen Stellen ist. Diese sind in der Lage, so große Teile des Netzwerks über ländere Zeit hinweg selbst zu betreiben, dass Angriffe, wie die oben beschriebenen, überhaupt erst möglich werden. KAX17 betrieb mindestens von 2017 bis November 2021 zahlreiche Knoten in allen Position (Guard-, Mittel-, Exit-Knoten) im Tor-Netzwerk trotz mehrfacher Versuche die bösartigen Knoten zu entfernen. Die Knoten wurden schließlich im November 2021 entfernt. Allerdings ist es für Tor ein praktisch kaum lösbares Problem, bösartige Knoten rechtzeitig zu entdecken und entfernen. Ein paar Zahlen zum Ausmaß von KAX17:

    • Zeitweise wurden über 900 Knoten in über 50 verschiedenen AS’s betrieben mit 155Gbit/s Bandbreite.

    • Die Wahrscheinlichkeit einen KAX17-Knoten als Guard auszuwählen betrug maximal 16%.

    • Die Wahrscheinlichkeit einen KAX17-Knoten als Mittelknoten auszuwählen betrug maximal 35%.

    • Die Wahrscheinlichkeit einen KAX17-Knoten als Exit-Knoten auszuwählen betrug maximal 5%.

    • KAX17 versuchte in Diskussionen aktiv Einfluss darauf zu nehmen, bösartige Knoten nicht aus dem Netzwerk zu entfernen.

Die Tatsache, dass so wenige Exit-Knoten betrieben wurden und so viele Mittelknoten deutet darauf hin, dass ein Ziel von KAX17 Deanoymisierungsangriffe gegen Onion Services gewesen sein könnten.

Soll ich Tor weiter nutzen?

Nach all dem stellt sich die Frage: Soll ich Tor (weiter) nutzen und wie viel Vertrauen kann ich in die Anonymisierung durch Tor setzen? Eine pauschale Antwort ist schwierig, da es darauf ankommt, wozu genau Tor genutzt wird und gegen welche Angreifer:innen ich mich schützen möchte. Dennoch hier ein paar allgemeine Überlegungen:

    • Es ist immer besser offline zu machen, was möglich ist.

    • Tor ist das beste Werkzeug, das wir haben. Es ist auf jeden Fall besser, online Tor zu verwenden als keine Werkzeuge zur Anonymisierung oder etwa VPNs, die neben zusätzlichen Problemen ebenfalls durch die beschriebenen Angriffe verwundbar sind.

    • Einen Onion Service über mehr als einen Monat zu betreiben, ist nicht empfehlenswert, wenn davon auszugehen ist, dass Repressionsorgane großen Aufwand betreiben werden, um diesen zu deanonymisieren. Das betrifft auch die dauerhafte Wiederverwendung etwa von OnionShare-Adressen.30

    • Wenn ihr trotz der Risiken einen anonymen Onion Service betreiben möchtet, der nicht öffentlich bekannt sein muss, gebt die Adresse nur auf sicheren Kanälen weiter. Damit erschwert ihr es Ermittlungsbehörden, den Onion Service überhaupt zu finden und ihnen fehlt der Ansatzpunkt für den hier beschriebenen Angriff.

    • Es ist nach allem, was wir bisher wissen, weiterhin relativ sicher den Tor-Client zu benutzen. Es ist auch sicherer Onion Services aufzurufen als die normalen Domainnamen, da die Daten in diesem Fall das Tor-Netzwerk gar nicht verlassen und die Kommunikation mit Onion Services immer authentifiziert und verschlüsselt ist.

    • In den Einstellungen des Tor Browsers sollte eine möglichst hohe Sicherheitsstufe gewählt werden und Javascript deaktiviert sein, wenn es nicht unbedingt benötigt wird.

    • Tor ist insbesondere dann unsicher, wenn sowohl der genutzte Dienst als auch der genutzte Internetzugang oder die Nutzer:in selbst bereits überwacht werden,31 d.h. wenn ich im überwachten Netzwerk im örtlichen Autonomen Zentrum mein Bekennerschreiben, bei einer ebenfalls überwachten Seite veröffentliche, stehen die Chancen für die Behörden nicht schlecht, dass sie das zuordnen können. Dann stellt sich nur noch die Frage, ob sie wissen, wer zu diesem Zeitpunkt im AZ war und möglicherweise dafür verantwortlich ist. Hier wird klassische Polizeiarbeit vermutlich recht erfolgreich sein.

    • Für kritische Recherchen und Veröffentlichungen empfiehlt es sich, wechselnde Orte zu verwenden, die nicht schon durch vorherige Aktivitäten verbrannt sind. Dabei sollte man natürlich nicht beobachtet werden. Letzteres ist in Zeiten immer weitgehender Videoüberwachung (mit Gesichtserkennung) zunehmend schwieriger. Ein solches Vorgehen bietet aber auf jeden Fall einen Schutz gegenüber dem nun von Telefónica durchgeführten IP-Catching.

    • Für kritische Recherchen und Veröffentlichungen aus öffentlichen Netzen empfiehlt es sich, randomisierte MAC-Adressen zu verwenden und sicher zu gehen, dass kein Fingerprinting der WLAN-Karte möglich ist. Dies ist am Einfachsten zu erreichen, indem Tails in Kombination mit einem externen WLAN-Adapter verwendet wird, der anschließend sicher entsorgt wird.32

Wir hoffen bald noch weitere praktische Maßnahmen empfehlen zu können und werden uns auch noch einmal genauer mit Tails beschäftigen, da dort keine persistenten Guard-Knoten verwendet werden. Das soll heißen: ggf. kommt noch ein weiterer Text zu dem Thema.

Welche strategischen Konsequenzen ziehen wir?

Die in Kooperation von Behörden aus mehreren Staaten erfolgreich durchgeführte Deanonymisierung eines Onion Services wirft strategische Fragen auf, die über den sicheren Einsatz von Tor und Tails als Werkzeuge der digitalen Selbstverteidigung hinaus weisen. Wir stehen in unserer Diskussion erst am Anfang, möchten aber schon jetzt einige unserer Fragen teilen:

    • Lohnt es sich das Tor-Netzwerk (als Teil autonomer Politik) zu stärken, weil es so wesentlich ist für die eigene Handlungsfähigkeit oder ist das eine Verschwendung von Ressourcen und damit eine Aufgabe, die bürgerliche Organisationen wie Reporter ohne Grenzen mit großem Spendenaufkommen besser erledigen können?

    • Wie ist es wirklich bestellt um den Zustand des Tor-Netzwerks? Wie viele Knoten werden von Angreifern betrieben oder komplett überwacht und wie lange dauert es, bis wir davon erfahren? Wie schwierig sind Deanonymisierungsangriffe überhaupt noch in Zeiten internationaler Kooperation der Repressionsbehörden aus den Ländern, in denen die meisten Tor-Knoten stehen?

    • Macht es mittelfristig Sinn eine grundlegende technische Überarbeitung/ Erweiterung des Tor-Protokolls anzustreben? Wie sinnvoll wäre es etwa einen dauerhaften Cover-Traffic zu erzeugen oder Multipathing zu nutzen? Wie sinnvoll wäre es höhere Latenzen in Kauf zu nehmen, und in Richtung Mix-Netzwerke zu gehen, d.h. zufällige Verzögerungen bei der Weiterleitung der Datenpakete innerhalb des Netzwerks einzuführen, um Traffic Analysis zu erschweren?

    • Welche politischen Konsequenzen hätte es, wenn Tor derart unsicher ist/wird, dass wir es trotz aller Zusatzmaßnahmen nicht mehr vertreten können, es für kritische Aktivitäten zu verwenden. Können wir dann überhaupt noch anonym im Internet unterwegs sein? Welche Konsequenzen hätte es für die Bewegung, wenn das nicht mehr ginge? Müssen wir jetzt damit anfangen uns auf einen solchen Fall vorzubereiten? Wie können wir wieder unabhängiger werden vom Internet bzw. vom «anonymen» Internet?

___

Endnoten

1 Wer genauer erfahren möchte, wie Tor funktioniert und was bei der Verwendung zu beachten ist, sollte einen Blick in unsere Tails-Broschüre werfen: https://capulcu.blackblogs.org/neue-texte/bandi/

2 https://metrics.torproject.org/networksize.html

3 Transportverschlüsselung meint hier, dass die Kommunikation zwischen dem Tor Browser und dem Webserver unabhängig von Tor verschlüsselt ist. Der Tor Browser verwendet standardmäßig Transportverschlüsselung mittels HTTPS (im Unterschied zu HTTP, wo die Daten für den Exit-Knoten les- und veränderbar wären).

4 Der Vollständigkeit halber: auf dem Weg zurück zum Client kehrt sich das Prinzip um, d.h. die Antwort des Webservers wird von jedem Knoten einmal zusätzlich verschlüsselt und erst der Client entfernt beim Erhalt der Nachricht alle drei Verschlüsselungsschichten.

5 https://svn-archive.torproject.org/svn/projects/design-paper/tor-design.html

6 Bei Verwendung von Tor in Tails trifft dies nicht zu, da Tails den Zustand von Tor mit jedem Neustart verwirft. Die Tails-Entwickler:innen sind sich bewusst, dass die fehlende Verwendung von persistenten Guard-Knoten die Anfälligkeit gegenüber Deanonymisierungsangriffen wie dem hier diskutierten erhöht. Die Verwendung von persistenten Guard-Knoten hat jedoch insbesondere bei Verwendung von Tails an unterschiedlichen Orten auch Nachteile, da sie ein Tracking anhand der IP-Adresse der Guard-Knoten ermöglichen kann. Vgl. https://gitlab.tails.boum.org/tails/blueprints/-/wikis/persistent_Tor_state/

7 Wir kürzen Introduction Point mit IP ab und Internet Protokoll Adresse mit IP-Adresse.

8 Mit Verbindungen sind hier und im Folgenden sogenannte Tor-Circuits gemeint, also keine direkten Verbindungen, sondern eine wie oben beschriebene mehrfach verschlüsselte Verbindung über mindestens drei Knoten.

9 An dieser Stelle gibt es gravierende Unterschiede zwischen v2 und v3 Onion Services. V2 Onion Services sind veraltet und inzwischen abgeschaltet. Wir verzichten auf eine detaillierte Erörterung der Unterschiede.

10 https://www.ndr.de/fernsehen/sendungen/panorama/aktuell/Anonymisierungsdienst-Tor-angreifbar-Snowden-Effekt-verpufft,tor192.html und https://www.tagesschau.de/investigativ/panorama/tor-netzwerk-100.html

11 Boystown war eine der größten Darknet-Pädoplattformen aller Zeiten mit zeitweise 400.000 Nutzer:innen.

12 https://metrics.torproject.org/bubbles.html#country

13 Die Schritte 2-4 sind als direkte Angriffe gegen Tor und nicht unabhängig voneinander zu betrachten. Schritt 3 wäre ohne 2 z.B. so nicht möglich gewesen.

14 Es ist unklar, ob dies durch klassische Polizeiarbeit gelang oder durch einen weiteren Angriff gegen v2 Onion Services: onion address harvesting. Möglicherweise gelang es den Ermittler:innen auch die Community zu infiltrieren und so Zugang zu den Chats zu erhalten. Das uns nicht bekannt.

15 Dies wird auch als Sybil attack bezeichnet.

16 https://blog.torproject.org/tor-is-still-safe/

17 Ricochet verwendete noch die inzwischen abgeschalteten v2 Onion Services. Diese können von den HSDirs gefunden werden. Es ist unklar, woher die Behörden die Adresse dieses Onion Services hatten, z.B. ob diese durch klassische Ermittlungsarbeit zu erfahren war oder ob auch HSDirs betrieben haben, um den verdächtigen Service zu finden.

18 Prinzipiell lässt sich ein vergleichbarer Angriff auch gegen Echtzeitanwendungen fahren, die nicht auf einem Onion Service basieren (z.B. ein über Tor anonymisierter Jabber-Chat). Allerdings werden hier nicht beliebig schnell neue Verbindungen (Circuits) vom Tor-Client erstellt und der Angriff würde erheblich länger benötigen, bis ein bösartiger Mittelknoten ausgewählt wird.

19 https://www.tagesschau.de/investigativ/panorama/telefonueberwachung-telefonica–bka-ermittlungen-paedokriminelle-100.html

20 Das Internet ist kein flaches Netzwerk, sondern setzt sich aus vielen Teilnetzwerken, den AS’s zusammen. Diese werden jeweils von unterschiedlichen Anbieter:innen selbständig betrieben.

21 Vgl. https://murdoch.is/papers/pet07ixanalysis.pdf, https://mice.cs.columbia.edu/getTechreport.php?techreportID=1545&format=pdf, https://ieeexplore.ieee.org/document/9408011, https://spec.torproject.org/proposals/344-protocol-info-leaks.html

22 Während des Schreibens dieses Artikels wurde eine weitere große Pädoplattform im Darknet deanonymisiert: https://www1.wdr.de/nachrichten/ruhrgebiet/erfolgreicher-schlag-gegen-kindesmissbrauch-100.html

23 Ob das angeordnete “IP-Catching” zur Ermittlung der IP-Adresse des Verdächtigen rechtmäßig war, wurde aufgrund seines Geständnisses im Prozess nicht festgestellt und ist zumindest fragwürdig.

24 https://blog.torproject.org/tor-is-still-safe/

25 https://blog.torproject.org/announcing-vanguards-for-arti/

26 Vgl. https://petsymposium.org/popets/2022/popets-2022-0026.pdf

27 IXPs werden die Schnittstellen genannt, an denen viele unterschiedliche AS’s (z.B. Internet Provider) ihre Daten austauschen. Daher sind IXPs für eine weitflächige Überwachung des Datenverkehrs besonders prädestiniert. Der weltweit größte IXP befindet sich in Frankfurt a.M..

28 https://metrics.torproject.org/bubbles.html#as

29 https://nusenu.medium.com/is-kax17-performing-de-anonymization-attacks-against-tor-users-42e566defce8

30 Vgl. die Empfehlungen, wann Full Vanguards verwendet werden sollte: https://spec.torproject.org/vanguards-spec/full-vanguards.html

32 Eine ausführliche Besprechung des Trackings von Geräten und mögliche Schutzmaßnahmen dagegen finden sich in „Deanonymisierung eures WLAN-Adapters trotz Tails?“, Autonomes Blättchen, Nr. 49, https://autonomesblaettchen.blackblogs.org/wp-content/uploads/sites/1263/2022/06/nr49web.pdf

]]>
Der kommende KI-Winter https://capulcu.blackblogs.org/2024/09/11/der-kommende-ki-winter/ Wed, 11 Sep 2024 17:44:52 +0000 https://capulcu.blackblogs.org/?p=1078 Continue reading Der kommende KI-Winter ]]> Veranstaltungsreihe:

16.10.24 Winterthur | 17.10.24 Basel | 18.10.24 Bern

Große Sprachmodelle wie ChatGPT haben Millionen von Menschen beeindruckt und dazu bewegt, mit ihnen Texte, Bilder und Videos zu erzeugen. Und das obwohl die Ergebnisse vielfach nur oberflächlich überzeugen. Mittlerweile ‚droht‘ der Hype um diese Form von Künstlicher Intelligenz (KI) abzukühlen. Die Branche kann den selbst geweckten Erwartungen, dass hier etwas erwächst, dass schon bald ‚intelligenter‘ als wir sein wird, nicht gerecht werden. Wir blicken hinter die Kulissen und ergründen warum maschinelles Lernen auf die Rolle eines statistischen Papageis beschränkt bleibt und differenziertes Denken weiterhin unser Job sein wird.

Das Ringen um die technologische Vorherrschaft auf diesem Sektor geht trotz Ernüchterung unvermittelt weiter. Es ist ideologisch, ökonomisch und sogar militärisch insbesondere in der sich zuspitzenden USA-China-Krise um eine neue multipolare Weltordnung zu bedeutsam. Die Produktion von Höchstleistungschips für das aufwändige KI-Training sowie der Betrieb dieser Modelle in neuen Rechenzentren schlucken hunderte von Milliarden und sind verantwortlich für eine exzessive Verschwendung von Strom, Wasser, Metallen und seltenen Erden. Die Ökobilanz der Tech-Riesen verschlechtert sich durch den Ausbau von KI-Anwendungen drastisch – die vor wenigen Jahren selbstgesteckten Ziele von Google, Microsoft und Co, schon bald ‚klimaneutral‘ zu operieren, werden nun um Jahrzehnte nach hinten geschoben!

Wir diskutieren die komplexen Krisen-Auswirkungen der KI und fragen, an welchen Punkten es möglich sein könnte, der zerstörerischen Tech-Transformation nicht mehr nur zuzuschauen, sondern politisch einzugreifen.

]]>
Chipproduktion in der Multikrise https://capulcu.blackblogs.org/2024/05/25/chipproduktion-in-der-multikrise/ Sat, 25 May 2024 20:01:33 +0000 https://capulcu.blackblogs.org/?p=1025 Continue reading Chipproduktion in der Multikrise ]]> Die materielle Seite künstlicher Intelligenz

Von capulcu

Einleitung

Der Hype um sogenannte „künstliche Intelligenz“ (KI) erscheint uns in den meisten Debatten in rein virtueller Gestalt; als Versprechen einer quasi voraussetzungsfreien Automatisierung nahezu aller Lebensbereiche durch eine tiefgreifende Neugestaltung von Mensch-Maschine-Interaktionen auf der Basis menschlicher Sprache. Die politisch-ökonomischen Konsequenzen dieses technologischen Sprungs, insbesondere die Verstärkung gesellschaftlicher Ungleichheit und Abhängigkeit von einem technokratischen Oligopol (= die wenigen Hüter:innen der großen Sprachmodelle) haben wir bereits in Die Goldgräber der Künstlichen Intelligenz diskutiert.

Eine politisch relevante Verengung breiter Diskurse durch eine Überhöhung des Mainstreams gepaart mit einer zu erwartenden Rechtsverschiebung haben wir in ChatGPT als Hegemonieverstärker untersucht. Die Wechselwirkung sozialer Medien mit Sprachgeneratoren wie ChatGPT reduziert nachweislich diskursive Diversität und fördert gesellschaftliche Fragmentierung.

In diesem Text soll es bewusst um die materielle Seite künstlicher Intelligenz im Kontext mehrfach verschränkter Krisen gehen – insbesondere die ökologische Krise in Verbindung mit der Krise neuer Kriege um eine multipolare Weltordnung. Unser erster Text Klima – das grüne Vehikel der KI-Offensive hat das Thema bereits angerissen. Die KI entpuppt sich hinsichtlich der Klimazerstörung als Brandbeschleuniger und nicht, wie vielfach herbeifantasiert, als zentrales Lösungswerkzeug eines für den Menschen zu komplexen Optimierungsproblems.

Der massive Ausbau von KI-Rechenzentren frisst nicht nur beim Training und im Betrieb der großen Sprachmodelle enorm viel Energie (ein einziger Trainingsdurchlauf des aktuellen Sprachmodells GPT-4 kostet 64 Millionen Dollar Strom). Die Entwicklung und Produktion der Chips verschlingt Unmengen an Energie und Wasser – zudem werden seltene Metalle wie Germanium und Gallium benötigt, deren Extraktion massive Umweltschäden verursacht. Die meiste Computerhardware hat daher den Großteil ihrer klimaschädlichen Wirkung bereits entfaltet bevor sie das erste Mal eingeschaltet wird1. Zum energieintensiven Betrieb der Rechenzentren (aufaddierter Stromverbrauch der Prozessoren + deren aktive Kühlung) trägt danach die Entsorgung der mitunter gerade mal zwei Jahre genutzten Höchstleistungs-Hardware ebenfalls zum enormen ökologischen Fußabdruck bei.

Die USA und die EU nehmen derzeit viel Geld und andere Mittel in die Hand, um wieder eine „heimische“ Halbleiterindustrie aufzubauen – mit dem Ziel, die krisenbehaftete, technologische Vorherrschaft gegenüber dem erklärten „Systemrivalen“ China abzusichern. Dabei wird insbesondere die Künstliche Intelligenz als Schlüsseltechnologie ausgemacht: eine Technologie, die ohne die modernsten Mikrochips – designt von Nvidia im Silicon Valley/ USA und hergestellt von TSMC in Taiwan mit weltweit einzigartigen Belichtungsmaschinen von ASML aus Eindhoven/ Niederlande – nicht denkbar wäre. China hat indes wirtschaftlich und technologisch einen beispiellos rasanten Aufstieg hingelegt – bisher, ohne dass ein Ende in Sicht ist, auch wenn sich das chinesische Wirtschaftswachstum in den letzten Jahren etwas verlangsamt hat. In einigen Kernbereichen wie Elektromobilität, Hochgeschwindigkeitszügen, erneuerbare Energien und 5G lassen chinesische Unternehmen ihre westliche Konkurrenz inzwischen hinter sich. Sollte keine der Seiten ihre Interessen mit anderen Mitteln durchsetzen können, droht aus dem sich aktuell zuspitzenden Handelskrieg ein heißer Krieg zu werden. Das wirft die praktische Frage auf, ob und wie sich Krieg und eine weitere Militarisierung der Gesellschaft aufhalten lassen.

Chips sind seit ihren Anfängen eine wichtige Militärtechnologie. Wir deuten die geplanten Chipfabriken auch als Teil der notwendigen wirtschaftlichen Entflechtung zur Kriegsvorbereitung. Diese nun auch hierzulande entstehenden Chipfabriken (z.B. Intel in Magdeburg bzw. TSMC und Infineon in Dresden) sind daher Punkte, an denen Widerstand ansetzen kann und sollte, um in der derzeitigen multiplen Krise eine linke Kritik sowohl an fortschreitender ökologischer Zerstörung als auch an einer Normalisierung der Kriegslogik zu formulieren. Die Chipindustrie ist zugleich hochspezialisiert und global integriert: ganze Lieferketten hängen daher von den Produkten und dem Wissen einzelner Unternehmen und Standorte ab.

Dieser Text versteht sich als Einladung zur Debatte an herrschaftskritisch, ökologisch und antimilitaristisch Bewegte. Wir wünschen uns eine Diskussion und Praxis, die der weiteren Militarisierung und Umweltzerstörung entgegentritt. Lasst uns jetzt aus dieser Zukunft ausbrechen – Keep the future unwritten!

Chipboom mit ökologischen Konsequenzen

Der „Chiphersteller“ Nvidia ist aktuell einer der größten Profiteure des KI-Booms. Bei den Highend-Grafikchips wird die Produktion der Nachfrage längst nicht mehr gerecht. Seit ChatGPT Ende 2022 veröffentlicht wurde, hat sich der Wert des Unternehmens auf über zwei Billionen Dollar rund versechsfacht – und das, obwohl Nvidia selbst keine Chips produziert, sondern sie lediglich entwirft und in Auftrag gibt. Nvidia designt spezielle, für das maschinelle Lernen sogenannter künstlich-neuronaler Netze entworfene Hochleistungschips, die einfache Rechenoperationen im Parallelbetrieb vieler zusammengeschalteter „Prozessorkerne“ besonders effektiv abarbeiten können.

Nach einer in den 1960er Jahren aufgestellten (und immer noch gültigen), empirischen Vorhersage („Mooresches Gesetz“) verdoppelt sich über die Weiterentwicklung lithografischer Methoden bei der Chipproduktion die Zahl der Schaltkreise auf gleicher Fläche spätestens alle 2 Jahre. Das kommt in etwa einer Verdopplung der Leistungsfähigkeit der Chips gleich. Dadurch ergibt sich ein quasi-zyklischer Austausch von Computer-Hardware durch neuere, leistungsfähigere Hardware in vielen Anwendungsbereichen.

Dieser stetige Ersatz produziert massive Umweltschäden. Insbesondere in einer von Technokrat:innen avisierten Welt stetig steigender Verdatung und Vernetzung, in der alles mit allem kommunizieren soll (Smartifizierung über 5G-Netze / Industrie 4.0), steigt dieser (zyklische Ersatz-)Produktionsaufwand an Computerchips massiv an.

Zudem steigt das Ausmaß ökologischer Zerstörung für die Produktion eines einzelnen Chips mit zunehmender Leistungsdichte: Es dauert drei bis vier Monate, bis eine Siliziumscheibe (Wafer) die verschiedenen Stufen der Verarbeitung zum fertigen Produkt durchlaufen hat. Die Wafer werden in einer wachsenden Anzahl von Prozessschritten aufwändig bearbeitet, in denen mikroskopisch kleine Schichten aufgetragen, Muster eingebrannt und nicht benötigte Teile in vollautomatischen Verfahren abgekratzt werden. Die Spülung mit riesigen Mengen an Reinstwasser ist wichtiger Bestandteil dieser Prozedur.

Gehen wir von einem gleichgroßen Stück einer Siliziumscheibe für einen Computerchip aus, so benötigt die modernste 2nm-Prozesstechnologie zur Herstellung erheblich mehr Strom- (x3,5) und Reinstwasser (x2,3) gegenüber der älteren 28nm-Technologie. Der Ausstoß an Treibhausgasen (in CO2-Äquivalenten) steigt um das 2,5-fache (je Computerchip).2

Für den taiwanische Chiphersteller TSMC, den größten Auftragsfertiger der Welt, der unter anderem auch Apple beliefert, bedeutet das aktuell: TSMC ist für sechs Prozent des Stromverbrauchs in Taiwan verantwortlich. Die Ökobilanz ist katastrophal, denn Taiwans Strom speist sich fast zur Hälfte aus schmutziger Kohlekraft. Um die Wafer mit Reinstwasser zu reinigen, verbraucht das Unternehmen pro Tag 150 Millionen Liter Wasser. Und das obwohl Taiwan seit Jahren unter Trinkwasserknappheit leidet. Ausbleibende Regenfälle und Trockenperioden haben die Pegel der Wasserreservoire empfindlich sinken lassen. In einigen Städten Taiwans mussten bereits das Trinkwasser rationiert und der Wasserdruck reduziert werden, damit die globalen Lieferketten der wichtigen Halbleiter nicht gestört werden. Die Regierung lässt im ganzen Land nach Brunnen bohren und versucht wütende Reisbauern mit Kompensationszahlungen ruhigzustellen.3

In einem Papier vom Oktober 2020 haben Forscher der Harvard University4 öffentlich zugängliche Nachhaltigkeitsberichte von Unternehmen wie TSMC, Intel und Apple verwendet, um zu zeigen, wie mit der zunehmenden Verbreitung von Computern auch deren Umweltschädigungen zunehmen. Es wird erwartet, dass bis 2030 bis zu 20% des weltweiten Energiebedarfs auf die Informations- und Computertechnologie entfallen werden, wobei die Hardware für einen größeren Teil dieses ökologischen Fußabdrucks verantwortlich ist als der Betrieb eines Systems, so die Forscher: „Der größte Teil des Kohlenstoffausstoßes entfällt auf die Chip-Herstellung, nicht auf die Hardware-Nutzung und den Energieverbrauch“.

Das Ergebnis ist, dass die fortschrittlichsten Chiphersteller schon heute einen größeren CO2-Fußabdruck haben als einige traditionell umweltschädliche Branchen, wie etwa die Automobilindustrie. Aus den Unternehmensangaben geht beispielsweise hervor, dass die Fabriken von Intel bereits 2019 mehr als dreimal so viel Wasser verbrauchten wie die Anlagen des Automobilherstellers General Motors und mehr als doppelt so viel als gefährlich eingestufte Abfälle erzeugten.

Halbleiter sind die materielle Seite des informationstechnologischen Angriffs

Das Konzept des technologischen Angriffs dient uns dazu, Technologiekritik als Herrschafts- und Gesellschaftskritik zu entwickeln. Um zu verstehen, warum wir Innovationen und technischen ›Fortschritt‹ als Angriff charakterisieren,

„müssen wir uns klar machen, dass gerade die kapitalistischen Innovationstheoretiker:innen und -strateg:innen Innovation als umfassende Offensive konzipieren, als umfassenden Schock. Ein Schock, der auf die Zerstörung und Reorganisation nicht nur der Arbeit zielt, sondern der gesamten Gesellschaft in allen ihren Bereichen, von Arbeit über Verkehr, Familie, bis hin schließlich zu Erziehung und Kultur. Sie sehen Innovationen nicht schlicht als ›Erfindungen‹. Sie konzipieren sie als Einsatz von Basistechnologien, die das Potential zu umfassenden Zerstörungen oder auch »disruptions« und reorganisatorischen Unterwerfungen und Zurichtungen haben.“5

Der informationstechnologische Angriff, auf den wir uns hier beziehen, ist nicht der erste Innovationsangriff:

„So dienten in der sogenannten »industriellen Revolution« neue Maschinen (Dampfmaschine, automatische Webstühle etc.) dazu, nicht nur überkommene Arbeitsformen und darauf fußende Lebensgewohnheiten zu zerstören, sondern vielmehr die gesamte Bevölkerung ›aufzumischen‹. […] [Eine] darauf folgende Gewaltwelle wurde um die Elektro- und chemische Industrie gestartet. Sie war eng verbunden mit den Formen der Verhaltensdisziplinierung und mentalen Zurichtung durch Taylorismus und Fordismus. Ihr materieller Kern lag im Angriff der Technologie des elektrisch betriebenen Fließbands und seiner Utopie auf die ganze Gesellschaft. Als sein zentraler ›Erfinder‹ oder ›Innovator‹ nannte der Amerikaner Frederick Taylor selbst sein System ausdrücklich »Krieg« gegen die Autonomie der Arbeiter:innen (zumeist migrantische Bauernarbeiter:innen) und ihre unregulierten Lebensformen.“6

Informationstechnologie als Herrschaftstechnik

Weltweit stellen Informationstechnologien heute eine zentrale Säule in der Stabilisierung und Durchsetzung von kapitalistischer Herrschaft dar – sowohl zivil als auch militärisch/polizeilich. Ubiquitous Computing (zur allgegenwärtigen Erfassung und Verfügbarmachung sämtlicher Alltagsdaten z.B. über das Smartphone) und eine Künstliche Intelligente Modellierung dieser Daten (z.B. zur Verhaltensvorhersage) vor allem mit Techniken des Maschinellen Lernens sind erst durch die enormen Steigerungen der Speicher- und Rechenkapazitäten von Mikrochips in den letzten beiden Jahrzehnten ermöglicht worden.

Die wirtschaftliche Produktivität hängt längst von der Qualität und Verfügbarkeit von IT-Anwendungen und deren Hardware ab, gerade dort wo Arbeitskraft teuer ist. Die Automobilindustrie in Deutschland bekam dies während der Coronapandemie zu spüren, als die Produktion vorübergehend stillstand, da die benötigten Chips bzw. einfache Mikroelektronik aus Fernost nicht verfügbar war.

Das Repertoire an letztlich auf Informationstechnologien und der dafür benötigten Rechenleistung beruhenden Regierungstechniken, auch bekannt als „Digitalisierung“, ist dabei durchaus vielfältig. Nudging etwa scheint gut zum (post-)demokratischen Selbstverständnis der EU zu passen. Schließlich erlaubt es diese Technik mit hoher Wahrscheinlichkeit, erwünschtes Verhalten zu erzeugen. Ein anderes Beispiel sind die Sozialkreditsysteme, auf die die chinesische Regierung setzt und die einen hohen Druck zu sozial konformen Verhalten auf die Individuen ausüben. Diese unterschiedlichen, sich ergänzenden Herrschaftstechniken, führen zu einer tiefgreifenden Transformation der Gesellschaften. Sie sind daher ein Angriff auf das Leben und die Arbeit der Menschen. Die Regierungen beider – angeblich vollkommen unterschiedlicher politischer Systeme – erkennen die sich aus der Entwicklung der digitalen Technologien ergebenden Möglichkeiten und fördern deren Durchsetzung. Eine zentrale Wirkung des technologischen Angriffs ist die schöpferische Zerstörung (Schumpeter) existierender Sozialstrukturen und Formen der Gesellschaftlichkeit. Diese hat zwei wichtige Zwecke. Zum einen werden durch den Angriff immer neue Bereiche menschlichen Lebens im Sinne einer ursprünglichen Akkumulation für das Kapital in Wert gesetzt. Zum anderen ermöglicht der technologische Angriff die (näherungsweise) Vorhersage und Steuerung sozialen Verhaltens. Er zielt also darauf ab, eine prädiktive Kontrollgesellschaft herzustellen.

Computerchips sind eine entscheidende Ressource der Kriegsindustrie

Bereits kurz nach der Machtübernahme 1933 begannen die Nazis damit, die deutsche Wirtschaft auf den Krieg vorzubereiten. Der Anteil der Rüstungskosten am BIP stieg von 1933 bis 1938 von 1% auf 20%. Zu den getroffenen Maßnahmen gehörte auch der Bau von Stahlwerken, die hoch unwirtschaftlich waren, da sie mit billigem (z.B. sowjetischen) Stahl auf dem Weltmarkt nicht konkurrieren konnten. Der NS-Staat subventionierte die Industrie massiv und rechtfertigte dies mit der Notwendigkeit wirtschaftlicher „Autarkie“. Heute werden von jenen, die ihre nationale Wirtschaft „unabhängig“ von ausländischen Waren und somit bereit für den Krieg machen wollen, nicht mehr in erster Linie Stahl-, Aluminium- oder Kautschukwerke subventioniert, sondern vor allem Chipfabriken und Energiekonzerne. Die spätestens seit Beginn des Kriegs in der Ukraine massiv gestiegenen Rüstungsausgaben vieler Staaten gepaart mit dem Streben nach wirtschaftlicher „Unabhängigkeit“ in Schlüsselindustrien wie der Halbleiterfertigung und der Energieversorgung sowie die gleichzeitig stattfindende ideologische Aufrüstung („Russland ruinieren“) dienen einem gemeinsamen Ziel: „kriegstüchtig werden.“ So jedenfalls nannte es der deutsche Kriegsminister. Wenn dieses vorläufige Ziel erst einmal erreicht ist, wird es nur noch ein kleiner Schritt sein, auch tatsächlich Krieg zu führen. Russland hat zuletzt gezeigt, wie schnell das gehen kann.

Computerchips sind seit ihren Anfängen eine wichtige Militärtechnologie. Ausgangspunkt in der Entwicklung der ersten Computer war der zweite Weltkrieg. Die ersten Jahrzehnte waren stark von Investitionen und Anforderungen der Militärs geprägt. Obwohl seit den 1970er Jahren durch die Verbreitung von PCs, Laptops und schließlich von mobilen Geräten im zivile Bereich eine immer umfassendere Digitalgesellschaft aufgebaut wurde, ist der Einsatz für militärische Ziele weiterhin ein relevanter Motor der Halbleiterentwicklung. In riesigen Forschungs- und Entwicklungsprojekten wurden über Jahrzehnte militärisch-relevante Computertechnologien gefördert.

Schon lange werden selbst konventionelle Waffen wie Raketen, Bomben etc. mit Chips ausgestattet. Angeblich musste Russland im Ukrainekrieg wegen der Knappheit an Mikrochips diese zur Umgehung von Exportverboten aus weißer Ware (Waschmaschinen, etc.) ausbauen und in die eigenen Waffensystem einbauen.7 Mit zunehmender Vernetzung und Autonomie der Waffensysteme wird die Leistungsfähigkeit der IT-Systeme und damit auch die Verfügbarkeit von Mikrochips, die die nötige Rechenleistung bereitstellen, immer wesentlicher über die militärische Stärke entscheiden. Immer mehr KI-Anwendungen halten Einzug in militärische IT-Systeme: Chatbots á la Chat-GPT werden implementiert in Battle Managment Systeme (z.B. »AIP for Defense« von Palantir Inc.8) sowie in Simulationssysteme zur Entwicklung komplexer Entscheidungsverfahren bspw. bei der Abwehr gegnerischer Drohnenangriffe (z.B. »Ghostplay« vom Zentrum für Digitalisierungs- und Technologieforschung der Bundeswehr9) oder für Propagandazwecke und gezielten Desinformationskampagnen mit Hilfe von KI-generierten Fake-Bildern und -Texten. Nicht erst seit die Firma OpenAI im Januar 2024 die Zivilklausel zur Nutzung von ChatGPT gestrichen hat, sind die großen Sprachmodelle zum Dual Use (zivil+militärisch) geworden.

Modernste Halbleiter im Zentrum des Kampfes um technologische Vorherrschaft zwischen den USA und China

Im März 2023 verkündete die niederländische Regierung neue Restriktionen für die Ausfuhr von lithographischen Maschinen, also den Belichtungsmaschinen, die zentral für die Herstellung immer leistungsfähigerer Chips sind – auf Druck der US-Regierung. Seitdem wurden die Exportbeschränkungen immer weiter verschärft. Die Maschinen des mit knapp 90% Marktanteil größten Produzenten von Fertigungsanlagen für Chips, ASML, können seitdem nur noch mit Sondergenehmigung nach China exportiert werden. Ziel dieser Maßnahme ist es, es China zu erschweren, eine eigene (Hochleistungs-)Chipproduktion aufzubauen. China ist bereits jetzt der größte Chipproduzent der Welt bei veralteten Fertigungstechnologien ab 80nm und hat somit eine durchaus relevante eigene Industrie in diesem Sektor. Allerdings ist diese nicht in der Lage, die entscheidenden Hochleistungschips zu produzieren, welche etwa für moderne Server, Laptops, Smartphones und Grafikkarten benötigt werden. Insbesondere bei Halbleitern in Fertigungstechnologien unter 14nm liegt der Marktanteil des taiwanesischen Konzerns TSMC bei über 90%, wenngleich in den letzten Monaten immer wieder entscheidende Durchbrüche durch chinesische Unternehmen vermeldet wurden.10 Auch insgesamt produziert TSMC deutlich mehr als die Hälfte aller Chips weltweit. Die Auslagerung der Halbleiterfertigung aus den kapitalistischen Zentren nach Taiwan auf die andere Seite des Pazifik war Teil der neoliberalen Globalisierung und der damit einhergehenden Deindustrialisierung in vielen der Zentren selbst.

Insgesamt lässt sich für die Halbleiterindustrie festhalten, dass es einen hohen Spezialisierungsgrad gibt und (globale) Lieferketten an vielen Stellen von einzelnen Unternehmen oder Werken abhängen. Das bereits erwähnte niederländische Unternehmen ASML ist weltweit als einziges Unternehmen in der Lage, die modernsten Fertigungsanlagen zu bauen und warten. ASML selbst ist dafür auf die Produkte hochspezialisierter Zulieferern angewiesen. Der zur Belichtung der Wafer eingesetzte Hochleistungslaser wurde von dem Maschinenbau-Unternehmen Trumpf mit Sitz in Ditzingen entwickelt. Das Spiegelsystem, mit dem diese Laser ins Ziel gesteuert werden, stammt von der Firma Zeiss aus Oberkochen. Auch Zeiss rühmt sich damit, dass 80% aller weltweit hergestellten Mikrochips mit den eigenen optischen Systemen produziert werden.11 Doch damit nicht genug – in der Halbleiterfertigung selbst werden Hunderte von Chemikalien benötigt. Auch diese können teilweise nur von wenigen Unternehmen hergestellt werden. In Deutschland sind BASF und Merck zu nennen. Und – man ahnt es schon – auch von Merck wird behauptet, dass die hergestellten Chemikalien in beinahe jedem Mikrochip der Welt enthalten sind. Wegen ihrer Bedeutung für die Halbleiterfertigung diskutierte die Bundesregierung im April 2023 Ausfuhrbeschränkungen für die in Deutschland hergestellten Chemikalien nach China.12

China wiederum reagierte im August 2023 mit einer Exportbeschränkung von Gallium und Germanium in die EU. Diese Rohstoffe sind essentiell für die Herstellung von Mikrochips. China ist der weltgrößte Produzent der Mineralien Gallium und Germanium. Die EU bezieht 71 beziehungsweise 45 Prozent davon aus China. Mit Hochdruck versucht die EU samt ihres wichtigsten, westlichen Verbündeten, den USA, eine eigene Rohstoffbasis aufzubauen.

Der Wirschaftskrieg macht keinen Halt vor Verlusten der nationalen Unternehmen

Die Initiativen und Investitionsprogramme der USA, Chinas und inzwischen auch der EU, in der Halbleiterfertigung unabhängiger von Taiwan zu werden, sind nicht neu, sondern datieren mindestens bis in die Mitte der 2010er Jahre zurück. Dahinter steckt die Erkenntnis, dass Mikrochips nicht einfach ein beliebiges Industrieprodukt sind, sondern eine „Schlüsseltechnologie“ darstellen, wie es sich derzeit insbesondere in der Debatte um die Exportverbote für Nvidia-Chips zum Training von KI zeigt.13 Unter „unabhängiger werden,“ „de-coupling“ oder – wie die EU es nennt – „de-risking“ verstehen die Regierungen dieser Länder vor allem, dass ihre Fähigkeit, kapitalistische Gewinne zu erwirtschaften, bzw. ihre Fähigkeit, Krieg zu führen, nicht durch andere Staaten eingeschränkt werden darf. Es kann dabei keineswegs die Rede von einer einseitigen Sanktions- bzw. Protektionspolitik westlicher Staaten sein. Denn auch China ergreift harte Maßnahmen, um im „Chipkrieg“ Boden gutzumachen. So verbot die chinesische Regierung großen Unternehmen im eigenen Land, (Speicher-)chips beim US-Konzern Micron Technology zu kaufen. Diese Chips können in China selbst gefertigt werden – auch wenn der Markt in diesem Segment derzeit (noch) durch andere dominiert wird.

Alle wesentlichen Softwaretools zum Chipdesign gehören westlichen Firmen. China hat weniger als ein Prozent Marktanteil beim globalen Chipdesign. Die Belichtungsanlagen für Hochleistungschips können nur durch den niederländischen Konzern ASML hergestellt werden. Chinesische Firmen hingegen sind nur in stark veralteten Fertigungstechnologien konkurrenzfähig auf dem Weltmarkt. Derzeit existiert im Chipsektor also durchaus noch ein gewisser Vorsprung der USA vor China, doch er schmilzt rapide. Die USA und die EU sind außerdem ebenso „abhängig“ von der Fertigung in Taiwan wie China. Die angreifbaren Lieferketten mit Chips aus taiwanesischer Produktion stellen angesichts der wirtschaftlichen und militärischen Bedeutung aus Sicht der Regierungen ein enormes Risiko dar. Zumal sich keiner der Staaten sicher sein kann, diese Lieferketten notfalls durch militärische Drohungen und letztlich Krieg aufrecht erhalten zu können. Diese Ausgangslage lässt hoffen, dass das Risiko eines Krieges auf allen Seiten als zu hoch eingeschätzt wird. Denn die US-Regierung will mit allen Mitteln verhindern, dass China weiter aufholt, sowohl in Bezug auf das nötige Know-how etwa im Chipdesign als auch die vorhandenen Fertigungskapazitäten. Die chinesische Regierung ihrerseits hat sich mit ihrem Programm Made in China 2025 das Ziel gesetzt, bis 2049 weltweit führende Produktionsmacht zu werden. In China geht man also davon aus, dass die eigene Wirtschaft von der „regelbasierten Weltordnung“ stärker profitieren kann, als diejenigen, die seit ihrer Durchsetzung nach dem zweiten Weltkrieg die vornehmlichen Nutznießer:innen waren.

Die punktuelle Abkehr vom Freihandel in den USA und der EU ist die Bestätigung, dass diese Einschätzung auch dort geteilt wird. Das neoliberale Dogma der vergangenen Jahrzehnte wird vor dem Hintergrund des erfolgreichen chinesischen Staatsinterventionismus auch in diesen Ländern zunehmend in Frage gestellt. Um ihre globale Machtpositionen aufrechtzuerhalten, ist die US-Regierung willens, sogar großen Tech-Konzernen wirtschaftlichen Schaden zuzufügen. Apple ist beispielsweise wenig begeistert von der wirtschaftlichen Protektionspolitik der USA gegenüber China. Schließlich werden die Geräte des Konzerns dort zusammengesetzt, auch wenn sie in Kalifornien designt werden und die benötigten Chips nur in Taiwan von TSMC in ausreichender Qualität und Quantität gefertigt werden können. Anders als Unternehmen wie Google, die gerade im Bereich der Künstlichen Intelligenz chinesische Unternehmen auch als Konkurrenten fürchten müssen, hat Apple von der globalisierten Arbeitsteilung mit China vor allem profitiert und würde diese Geschäfte gerne fortsetzen.

China ist vom „Entwicklungsland“ zum „Systemrivalen“ aufgestiegen

Die Regierungen in den EU-Staaten und den USA haben in China den ersten ernstzunehmenden „Systemrivalen“ seit dem Zerfall der Sowjetunion erkannt. Denn sie sehen, dass die Volksrepublik auf dem Weg ist, möglicherweise die größte Volkswirtschaft der Welt zu werden und dabei bereits jetzt auch in Teilen des Hightech-Sektors führende westliche Unternehmen hinter sich lässt. So ist Huawei das Unternehmen, dass 2020 weltweit die meisten Patente angemeldet hat. Von diesem Unternehmen kommt ein Großteil der weltweit verbauten Netzwerktechnik, etwa für 5G. Auch in anderen Kernbereichen wie künstlicher Intelligenz sind die meisten wissenschaftlichen Veröffentlichungen inzwischen chinesischer Herkunft (obgleich die Qualität dieser Veröffentlichungen umstritten ist).

Naiv betrachtet mag es paradox erscheinen, dass die westlichen Staaten China als Rivalen oder Konkurrenten bekämpfen. Schließlich hat China sich doch innerhalb der „regelbasierten Weltordnung“ durch eine geschickte Wirtschaftspolitik und Öffnung für den kapitalistischen Weltmarkt von einem der ärmsten „Entwicklungsländer“ zur – gemessen am BIP – zweitstärksten Ökonomie der Welt entwickelt. Dass China dazu in der Lage war, ist ein Sonderfall, der in dieser Form offensichtlich nie vorgesehen war, von jenen, die „Entwicklung“ durch wirtschaftliche und politische Öffnung versprachen, dabei aber lediglich an den Zugriff auf Rohstoffe und Absatzmärkte dachten. Für die wirtschaftliche Entwicklung setzte die Kommunistische Partei Chinas (KPCh) unter Deng Xiaoping stark auf ausländische Investitionen. Allerdings wurde das westliche Kapital nicht bedingungslos ins Land gelassen. Die ausländischen Unternehmen mussten für ihre Investitionen Joint Ventures mit chinesischen Unternehmen eingehen. Außerdem waren ein Technologietransfer nach China sowie lokale chinesische Zulieferer Voraussetzung für die Investitionen und nur produktive Investitionen (z.B. der Bau von Produktionsanlagen) keine rein finanziellen Investitionen (z.B. Anteilskäufe bestehender Unternehmen) waren zulässig. Hinzu kam eine sehr restriktive Währungs- und Kreditpolitik. Mit dieser Strategie ist es in China gelungen, eigene konkurrenzfähige Unternehmen entstehen zu lassen. Dass die KPCh in der Lage war, diese Bedingungen gegenüber dem kapitalistischen Ausland auszuhandeln, hängt damit zusammen, dass es in China sowohl ein riesiges Reservoir billiger Arbeitskräfte als auch den entsprechenden Absatzmarkt gab. Die Größe des Landes hat den Standort für ausländisches Kapital so attraktiv gemacht, dass die Regierungen industrialisierter Staaten Kompromisse eingingen, die andere Staaten nicht erreichen konnten.

Die Erwartung der USA und führenden EU-Länder, dass mit der Öffnung des Marktes auch eine politische Öffnung einhergehen würde, hat sich nur in rudimentären Ansätzen erfüllt, beispielsweise der Schaffung eines Rechtsstaats als Voraussetzung für Kapitalinvestitionen. Viele der anderswo erfolgreich angewendeten Machttechniken des wirtschaftlichen Abhängigmachens (Sanktionen, Verschuldung, Unternehmensübernahmen etc.), sowie der zivil-gesellschaftlichen Einflussnahme (beispielsweise durch die Förderung von NGO-Netzwerken, Journalist:innen und Aktivist:innen) waren in China von außen effektiv kaum anwendbar. Das ist kein Zufall, sondern der Tatsache geschuldet, dass die KPCh sich der Risiken äußerer Einflussnahme bei der Öffnung des Landes sehr bewusst war. Begreifen wir die wirtschaftliche Öffnung als Strategiewechsel der chinesischen Eliten nach Maos Tod, so wird deutlich, dass die Kontinuität zum sozialistischen China nach Außen im Nationalismus und nach Innen im Paternalismus der KPCh liegt. China zu einem Land von Weltgeltung zu machen, war schon unter Mao das erklärte Ziel (noch vor dem Sozialismus). Dieses Ziel lässt sich in der real existierenden Welt effektiver mit kapitalistischen Mitteln verfolgen als mit sozialistischen. Dass die Entwicklung der Volksrepublik zu einem Staat auf Augenhöhe (sowohl wirtschaftlich als auch politisch) von den bisherigen Platzhirschen nicht ohne weiteres geduldet wird, zeigt sich an den immer lauter werdenden Feindschaftserklärungen in der hiesigen medialen Berichterstattung. Und das, obwohl eine derartige wirtschaftliche Entwicklung nach Maßstäben der europäischen und der US-Regierung ‚Vorbild‘ für viele andere Länder sein könnte. Anders als die Regierungen parlamentarischer Demokratien kann die KPCh nicht nur den Ablauf einer Legislaturperiode planen, sondern langfristige Strategien verfolgen, wie z.B. die der Neuen Seidenstraße.

Framing Chinas als autoritärer Unrechtsstaat

Zweifelsohne ist China ein autoritärer Unrechtsstaat – jedoch versuchen sowohl die USA als auch die EU aus einer wirtschaftlichen und politischen Konkurrenz zu China eine betont moralische Konkurrenz zu konstruieren, die China als autoritären Willkürstaat einem ‚demokratischen Westen‘ gegenüberstellt. Dies zeigt sich etwa an der Berichterstattung über die Proteste in Hongkong, „die Taiwanfrage“ und die Unterdrückung der Uighur:innen. Es gibt gute Gründe, das Vorgehen der chinesischen Regierungen zu kritisieren. Sie verfolgen in erster Linie nationale Interessen und die Absicherung ihrer eigenen Herrschaft. Die – übrigens von westlichen Staaten selten kritisierte – Einführung des Kapitalismus etwa wurde gänzlich autoritär über die Köpfe der Menschen in China hinweg durchgesetzt und ist sicherlich einer der Hauptgründe, warum es dort heute so viele gesellschaftliche Gegensätze und damit einhergehend Proteste, Streiks usw. gibt.14 In diesen sozialen Auseinandersetzungen und Arbeitskämpfen zeigt sich übrigens auch, dass sich das hierzulande oft gezeichnete Bild der konfuzianistisch-konformistischen Chines:in nicht aufrecht erhalten lässt. In der Beurteilung der Niederschlagung dieser Proteste wird in der hiesigen Berichterstattung offensichtlich mit unterschiedlichem Maß gemessen. In der Region Xinjiang beispielsweise haben mehrere islamistische Anschläge gegen Han-Chines:innen stattgefunden mit teils hunderten Toten. Wie haben demokratische Staaten auf Vergleichbares reagiert? Die USA beispielsweise haben nach dem 11. September 2001 gleich mehrere Angriffskriege mit Hunterttausenden Toten geführt. Dieses Vorgehen sollten sich US-Außenminister:innen zum Maßstab machen, wenn sie China für die Menschenrechtsverletzungen an den Uighur:innen in Xinjiang kritisieren. Aus emanzipatorischer Sicht gibt es keinen Grund, für eine der Seiten Partei zu ergreifen.

Ein anderes Beispiel für die unterkomplexe Betrachtung in den hiesigen Medien ist Taiwan. Die vor dem chinesischen Festland gelegene Insel, ist nicht nur wegen der ansässigen Halbleiterindustrie von Bedeutung, sondern auch wegen ihrer geographischen Lage wichtig als Marine- und Luftwaffenstützpunkt zur Kontrolle der Straße von Taiwan, einer der meistbefahrenen Handelsrouten der Welt. Auf diese Insel haben sich nach der Niederlage im Bürgerkrieg 1949 die Kuomintang zurückgezogen. Bis in die 80er/90er Jahre regierten sie dort in Einparteiendiktatur, wobei sie als Verbündete der USA gegen das kommunistische China auch entsprechende Waffenlieferungen erhielten (und auch schon vor ihrer Flucht nach Taiwan erhalten hatten). In den 70er und 80er Jahren wollten die USA, China aus dem sozialistischen Block lösen. Um diese Öffnung und diplomatische Beziehungen mit der Volksrepublik zu erreichen, schlossen sie drei Verträge, die die Ein-China-Politik anerkannten und auch den Rückzug eigener Truppen sowie ein Ende ihrer Waffenlieferungen an Taiwan vereinbarten. An letzteres haben sich die US-Regierungen eigentlich nie gehalten. Der demokratische Präsident „Yes we can“-Obama genehmigte sogar 14 Mrd. US-Dollar an Waffenlieferungen für Taiwan. Seine Nachfolger Trump und Biden setzten diese Politik fort.

Auch die Bundesrepublik unterstützt formal die Ein-China-Politik unter Deng Xiaopings Leitsatz „Ein Land, zwei Systeme,“ womit auf Hongkong und Macau Bezug genommen wird. Wenn die deutsche Außenministerin also sagt: „Wir akzeptieren nicht, wenn das internationale Recht gebrochen wird und ein größerer Nachbar völkerrechtswidrig seinen kleineren Nachbarn überfällt – und das gilt natürlich auch für China.“ Dann kann die Rede von den zwei Nachbarn durchaus als Revision der Ein-China-Politik gelten. Schließlich besagt das Ein-China-Prinzip, dass es sich nicht um Nachbarn, sondern ein einziges Land handelt. Es ist müßig, sich über das Ein-China-Prinzip zu streiten, geht es hier doch mitnichten um soziale Fragen oder die Selbstbestimmung der Menschen, sondern die territorialen Herrschaftsansprüche von Staaten und ihren Regierungen. Der Satz ist dennoch bemerkenswert. Denn er setzt den Rahmen für eine mögliche zukünftige militärische Eskalation des Konflikts mit der Volksrepublik, um damit die Legitimität einer wie auch immer gearteten Kriegsbeteiligung vorzubereiten. Beim Krieg in der Ukraine waren vergleichbare Rechtfertigungen zur Mobilisierung der eigenen Bevölkerung so erfolgreich, dass selbst vermeintliche Antimilitarist:innen und Anarchist:innen reihenweise auf Kriegskurs gingen.

Die Beschwörung des fundamentalen Gegensatzes von Demokratie und Autokratie, wie sie etwa vom US-Präsidenten zu hören ist, sollte vor dem Hintergrund der erklärten Systemrivalität verstanden werden. Während die parlamentarischen Demokratien immer neue autoritäre Elemente in ihre eigenen Herrschaftstechniken integrieren, zeigen sie zugleich mit dem Finger auf Staaten, wie den Iran, Russland oder China als das autoritäre Andere. Mit vergleichbar „undemokratischen“ Staaten wie Saudi Arabien oder der Türkei haben sie dagegen weniger Probleme. Für diese Entscheidungsträger:innen besteht kein Widerspruch darin, einerseits anzuprangern, dass in Russland das Demonstrieren mit einem leeren Plakat zur Verhaftung führt, selbst aber die Versammlungsfreiheit durch Polizeigesetze einzuschränken, den Ausbau staatlicher Überwachungsbefugnisse zu betreiben und ein grausames EU-Grenzregime durchzusetzen. Mit dieser Kritik sollen nicht alle Unterschiede eingeebnet werden, aber eine gewisse Skepsis gegenüber dem hierzulande von Politik und Medien gezeichneten Gut-Böse-Schema ist durchaus angebracht.

Was sind die Gründe dafür, das die genannten Zustände in dem einen Fall scharf kritisiert und in dem anderen Fall geflissentlich übergangen werden. Die identitäre Konstruktion des Kampfes eines „demokratischen Westens“ gegen einen „autoritären Osten“ weist erhebliche strukturelle Ähnlichkeiten zu altbekannten nationalistischen Diskursen zur Mobilisierung der eigenen Bevölkerung für den Krieg auf und wird der Komplexität der realen Machtverhältnisse nicht gerecht. Nationalistische Diskurse sind nicht verschwunden, sie werden jedoch innerhalb des Lagers des progressiven Kapitals (Stichworte: „Zeitenwende“, „the great reset“, „green new deal“ und „Bidenomics“) durch modernisierte Diskursen ergänzt und überlagert. Beide Diskurse bleiben auch innerhalb des „demokratischen Westens“ nicht absolut durchgesetzt, sondern umkämpft, wie Trump, AfD aber auch Christian Lindner zeigen. Diese Diskurse sind keineswegs neu. Ganz im Gegenteil – sie waren schon für die ersten bürgerlichen Revolutionen eine entscheidende Legitimationsgrundlage.

Fazit

Es gibt gute Gründe gibt, Widerstand gegen den Bau neuer Chipfabriken zu leisten. Denn die dort produzierten Halbleiter sind die stoffliche Basis eines technologischen Angriffs, der immer mehr Bereiche unserer Leben kapitalistisch in Wert setzt und auf eine patriarchale Optimierungs- und Kontrollgesellschaft abzielt. Gefühlsregungen werden erfasst und gelenkt, um unsere Leben zugunsten der Interessen seiner technokratischen Antreiber:innen zu optimieren. Wir bleiben dabei alleine und isoliert zurück. Unser Wunsch nach sozialer Gemeinschaft kann durch die digitale Interaktion am Bildschirm in ‚sozialen Netzwerken‘ nicht erfüllt, sondern lediglich unterdrückt werden. „Teile und herrsche“ ist keine neue Herrschaftstechnik, aber sie findet in der sozialen Atomisierung der digitalisierten Gesellschaft eine neue Qualität. Fürsorge, Gemeinschaft, Empathie und Körperlichkeit, verlieren an Bedeutung. Das Patriarchat in Verkörperung des deutschen Kriegsministers und der ‚feministischen‘ Außenministerin, möchte den ‚technologisch-ökonomisch autarkeren‘ Zustand der „Kriegstüchtigkeit“ wiederherstellen.

Dies zu verhindern, erfordert unmissverständliche Zeichen, dass wir eben kein Teil einer ‚geschlossenen Heimatfront‘ sind und die Konfrontationspolitik gegenüber China im Kampf um die technologische Vorherrschaft im Bereich der Halbleiter- und Informationstechnologien nicht ohne Widerstand durchzusetzen ist. Die Geschichte sozialer Bewegungen zeigt, dass sich gerade auf der materiellen Seite viele Möglichkeiten ergeben, Widerstand gegen (neue) Technologien als Herrschaftstechniken zu leisten.

Neue Halbleiterfabriken und der durch sie materiell eingelöste KI-Hype tragen nicht zur Lösung der Klimakrise bei. Im Gegenteil, sie verbrauchen enorme Mengen an Ressourcen. Es ist sogar besonders unsinnig, Halbleiter in Europa zu produzieren, wenn die weiterverarbeitenden Betriebe, in denen etwa unsere Smartphones zusammengebaut werden, wegen der Lohnkosten weiterhin in Ostasien liegen. Die Klimakrise lässt sich nicht durch KI oder andere technologische Entwicklungen auflösen, sondern es bedarf tiefgreifender sozialer Veränderungen. Diese Veränderungen wir könnten sie als soziale Revolution bezeichnen werden durch eine geistige Mobilmachung für die nächsten Kriege um technologische Vorherrschaft verhindert statt befördert.

Wir wünschen uns Widerrrede, Ergänzungen, Zustimmung, Weiterdenken und eine politische Praxis!

1 Das gilt übrigens auch für Standardkomponenten wie Laptops und Smartphones.

2 The environmental footprint of logic CMOS technologies, IMEC Studie, M.Bardon, B. Parvais (2020),

https://www.imec-int.com/en/articles/environmental-footprint-logic-cmos-technologies

3 https://taz.de/Oekologischer-Fussabdruck-von-KI/!5946576/

4U. Gupta et. al. (2020), Chasing Carbon: The Elusive Environmental Footprint of Computing, http://arxiv.org/pdf/2011.02839

5 IT – Der technologische Angriff des 21. Jahrhunderts“ in DISRUPT, https://capulcu.blackblogs.org/wp-content/uploads/sites/54/2018/10/Disrupt2018-11web.pdf

6 Ebda.

7 https://www.forbes.com/sites/erictegler/2023/01/20/is-russia-really-buying-home-appliances-to-harvest-computer-chips-for-ukraine-bound-weapons-systems/

8 „AIP for Defense“, Palantir, https://www.palantir.com/platforms/aip/defense/ .

9 „Ghostplay“, dtec.bw, https://www.ghostplay.ai/ .

10 https://www.ecns.cn/news/sci-tech/2023-11-29/detail-ihcvixpi0428703.shtml und https://www.reuters.com/technology/huaweis-new-chip-breakthrough-likely-trigger-closer-us-scrutiny-analysts-2023-09-05/

11https://www.handelsblatt.com/unternehmen/industrie/industrie-chipherstellung-eine-frage-der-chemie/24995018.html

12 https://archive.is/https://www.bloomberg.com/news/articles/2023-04-27/berlin-erwagt-exportbeschrankung-von-chip-chemikalien-nach-china

13 https://www.reuters.com/technology/how-us-will-cut-off-china-more-ai-chips-2023-10-17/

14 https://www.akweb.de/bewegung/daniel-fuchs-es-braucht-eine-linke-china-perspektive/

]]>
ChatGPT als Hegemonieverstärker https://capulcu.blackblogs.org/2023/11/17/chatgpt-als-hegemonieverstaerker/ Fri, 17 Nov 2023 15:11:23 +0000 https://capulcu.blackblogs.org/?p=959 EN: ChatGPT AS HEGEMONY BOOSTER
IT: ChatGPT COME STRUMENTO PROMOTORE DELL’ EGEMONIA

Eine Gesellschaft mit unechten Menschen, die wir nicht von echten unterscheiden können, wird bald gar keine Gesellschaft mehr sein.1 (Emily Bender, Computerlinguistin)

Die Künstliche Intelligenz (KI) erlebt aktuell ihren iPhone-Moment. ChatGPT hat einen beispiellosen Hype um künstliche Intelligenz ausgelöst. Innerhalb von zwei Monaten haben mehr als 100 Millionen Menschen weltweit die neue Technik ausprobiert.

Sprachmodelle – keine Wissensmodelle

Der Chatbot2 ChatGPT basiert auf einem sogenannten großen Sprachmodell, das wir uns wie einen sehr großen Schaltkreis mit (im aktuellen Fall von GPT-4) einer Billion justierbarer Parameter vorstellen können. Ein Sprachmodell beginnt als unbeschriebenes Blatt und wird mit mehreren Billionen Wörtern Text trainiert. Die Funktionsweise eines solchen Modells ist, das nächste Wort in einer Folge von Wörtern aus dem ‚Erlernten‘ zu erraten. Die Bedeutung von Worten ist für ein Sprachmodell lediglich die statistische Erfassung des Kontexts, in dem sie auftauchen.

Dieses Imitieren von Text-‚Verständnis’ bzw. ‚Wissen‘ über die Berechnung von Wahrscheinlichkeiten für das Auftauchen einzelner Wörter innerhalb von komplexen Wortmustern klappt teilweise verblüffend gut. Das Generieren von Inhalt ohne jegliches semantisches Verständnis hat natürlich den Nachteil, dass auch sehr viel Unsinn (im engeren Sinn) produziert wird. ChatGPT erzeugt mit dieser Taktik der Nachahmung von Trainingstexten beispielsweise wissenschaftlich anmutende Abhandlungen, inklusive ‚frei erfundener‘ Referenzen, die strukturell stimmig aussehen, aber nicht existieren. ChatGPT ‚erfindet‘ Dinge und produziert dadurch massenweise Fake-Inhalte – das liegt daran, dass es sich um ein statistisches Sprachmodell und nicht um ein wissensbasiertes Modell handelt.

Es ist daher für ein Restmaß an ‚Faktizität‘ im Internet wenig förderlich, dass Google und Microsoft die neuesten Versionen ihrer Suchmaschinen mit den jeweiligen Sprachmodellen ChatGPT bzw. Bard koppeln. Denn eines kann Künstliche Intelligenz in Form von Sprachmodellen noch weniger als jede aggregierte themenbasierte Internetsuche: Fakten prüfen. Da Sprachmodelle lediglich Wahrscheinlichkeiten von für sie bedeutungslosen Sprachformen berechnen, ist ein Faktencheck neuen ‚Wissens‘ (über die Trainingsdaten hinaus) ein blinder Fleck: Sprachmodelle leiden unter einem Phänomen, das Programmierer:innen „Halluzinieren“ nennen3. Sie sind darauf programmiert, (fast) immer eine Antwort zu geben, die auf der Ebene von ‚sich nahe stehenden‘ Wortgruppen eine hinreichend hohe Wahrscheinlichkeit haben, um für die Nutzer:in (nachträglich) Sinn zu ergeben. ChatGPT ist daher konzeptionell eine Fake-Maschine zur Produktion von plausibel erscheinenden, aber nicht notwendigerweise faktenbasierten Inhalten und damit hervorragend geeignet für die Verbreitung von Mis- oder gar Desinformation.

Damit verstärkt sich ein Effekt, der bereits durch das algorithmische Ranking bei den sozialen Medien erkennbar wurde. Nicht-faktengebundene Inhalte können so weit selbstverstärkend im individuellen Nachrichtenstrom ‚nach oben‘ gespült werden, dass Meinungsbilder verzerrt werden. Und damit ist die zentrale These dieses Textes:

ChatGPT ermöglicht das (automatisierte und voraussetzungslose) Produzieren von post-faktischen Inhalten, die im Wechselspiel mit der algorithmischen Reichweitensteuerung sozialer Medien und den Ranking-Algorithmen der Suchmaschinen statistisches Gewicht erlangen. Die Rückkopplung der so generierten Inhalte sozialer Medien in den Trainingsdatensatz der nächsten Generation von Sprachmodellen ermöglicht sogar eine Dominanz synthetischer Inhalte im Netz.

‚Kannibalismus‘ und Zensur bei wachsendem Anteil KI-generierter Inhalte

Eine derartige Dominanz hat messbare Konsequenzen. Die Größe von Sprachmodellen nimmt zu und damit auch der Bedarf an Trainingsmaterial für das maschinelle Lernen. Immer mehr synthetische Inhalte werden zum Training herangezogen, denn je mehr Inhalte KIs wie ChatGPT oder Google Bard produzieren, desto häufiger werden sie ihre eigenen Inhalte in ihren Datensatz aufnehmen. Das geschieht beim sogenannten Datenschürfen, bei dem automatisierte Programme nahezu alles an Daten aufsaugen, was frei im Internet verfügbar ist. Google bedient sich zudem bei den eigenen Anwendungen wie Gmail, in Speicherdiensten wie Google Drive oder Google Docs.

Durch das Wiederverdauen selbst generierter Inhalte entsteht eine „selbstverzehrende“ Rückkopplungsschleife, die einer nachweisbaren Störung unterliegt, der sogenannten Model Autophagy Disorder (MAD)4: Die Fehler zum Beispiel von Bild-Generatoren verstärken sich rekursiv zu regelrechten Artefakten und sorgen für eine abnehmende Datenqualität. Siehe dazu die Abbildung künstlich erzeugter Gesichter bei deren Wiederverwendung als Trainingsmaterial in der nächsten Generation (t=3) bzw. in übernächster Generation (t=5), usw. Noch wesentlicher ist eine massiv schrumpfende Diversität der Inhalte im Netz bei zu geringer Beimischung neuer, nicht-synthetischer Inhalte. Ähnliches lässt sich bei der Text-Erzeugung durch ChatGPT beobachten.

Bereits im April 2023 (kurz nach Freischaltung des kostenfreien Schnittstelle zur Nutzung von ChatGPT) hat NewsGuard rund 50 Nachrichten- und Informationsseiten in sieben Sprachen identifiziert, die fast vollständig von KI-Sprachmodellen generiert werden.5 Diese Webseiten produzieren eine Vielzahl von rein synthetischen Artikeln zu verschiedenen Themen, darunter Politik, Gesundheit, Unterhaltung, Finanzen und Technologie. Damit scheinen sich die Befürchtungen von Medienwissenschaftler:innen zu bestätigen: Zur Erzeugung von Werbeeinnahmen und / oder zur Debattenbeeinflussung verbreiten algorithmisch generierte Nachrichtenseiten KI-generierte Inhalte von fiktiven Verfasser:innen. Den meisten Leser:innen stehen keine Möglichkeiten zur Verfügung, diese Artikel als synthetisch zu identifizieren.6

Von Produktrezensionen über Rezeptsammlungen bis hin zu Blogbeiträgen, Pressemitteilungen, Bildern und Videos – die menschliche Urheberschaft von Online-Texten ist auf dem besten Weg, von der Norm zur Ausnahme zu werden. Pessimistische Prognosen sagen bis zum Ende dieses Jahrzehnts einen Anteil von bis zu 90% KI-generierter Inhalte im Internet voraus.7 Schon jetzt tauchen diese KI-generierten Texte in den Ergebnislisten der Suchmaschinen auf. Eingreifen will Google erst bei „Inhalten mit dem Hauptzweck, das Ranking in den Suchergebnissen zu manipulieren“.8

Wie sollen wir mit der Datenexplosion umgehen, die diese KIs nun verursachen werden? Wie verändert sich eine Öffentlichkeit, die so unkompliziert mit Mis- und Desinformation geflutet werden kann? Bei steigendem Anteil können derartige synthetische Inhalte den ‚Nutzen‘ des Internet drastisch reduzieren: Wer kämpft sich durch einen (noch viel) größeren Berg an quasi-sinnloser Information – ohne Bezug zur Lebensrealität menschlicher Autor:innen? Lässt sich feststellen, ob ein Text, ein Bild, eine Audio- oder eine Videosequenz durch eine KI generiert bzw. gefälscht wurde? Schon bieten Software-Hersteller Werkzeuge zur Detektion von KI-generierten Inhalten an – selbstverständlich ebenfalls auf der Basis einer künstlich-intelligenten Mustererkennung. Menschlich verfasste Texte sollen sich über statistische Abweichungen von den Wahrscheinlichkeitsmustern der verwendeten Wortgruppierungen der KI-Sprachmodelle unterscheiden lassen. Dies sind jedoch statistische Differenzen, deren Erkennung im Einzelfall damit hochgradig fehleranfällig ist.

Im Falle einer Dominanz von synthetischen Inhalten wird die Mehrheit der Nutzer:innen von Kommunikationsplattformen nach automatisierter Löschung rufen, da ein ‚unbereinigter‘ Nachrichtenstrom für sie zu viel und zu schwer erkennbaren ‚Unsinn‘ enthält. Damit ergibt sich eine Lizenz zum (immanent politischen) Löschen bzw. zur Unsichtbarmachung von Inhalten im Netz. Den Architekt:innen der nun anzupassenden Social Media-Algorithmen und den Datenaufbereiter:innen für Training und Output der großen Sprachmodelle kommt dann eine nicht hinnehmbare Macht innerhalb der politischen Öffentlichkeit zu:

Eine KI-basierte Bewältigung des Problems synthetischer Inhalte im Netz ist ein politisches Desaster für die historische Entwicklung des Internet, welches vorgab, die Demokratisierung der Wissenszugänge und des Informationsaustauschs voranzutreiben.

Die Machtkonzentration auf ein kleines Oligopol ist umso größer, als die Privatisierung von Sprachtechnologien massiv voranschreitet. Als die Chef-Entwicklerin von ChatGPT Mira Murati 2018 bei OpenAI startete, war das Unternehmen noch als gemeinnütziges Forschungsinstitut konzipiert: Es ging darum, „sicherzustellen, dass künstliche allgemeine Intelligenz der ganzen Menschheit zugutekommt“. 2019 folgte, wie gewöhnlich bei angehenden Einhörnern, die als offene Entwickler:innen-Projekte gestartet sind, die Abkehr vom Non-Profit-Modell. Die mächtigsten KI-Unternehmen halten ihre Forschung unter Verschluss. Das soll verhindern, dass die Konkurrenz von der eigenen Arbeit profitiert. Der Wettlauf um immer umfangreichere Modelle hat schon jetzt dazu geführt, dass nur noch wenige Firmen im Rennen verbleiben werden – neben dem GPT-Entwickler Open AI und seiner Microsoft-Nähe sind das Google, Facebook, xAI (neue Firma von Elon Musk), Amazon und mit Einschränkung9 chinesische Anbieter wie Baidu. Kleinere, nichtkommerzielle Unternehmen und Universitäten spielen dann so gut wie keine Rolle mehr. Der ökonomische Hintergrund dieser drastisch ausgedünnten Forschungslandschaft: Das Training der Sprachmodelle ist eine Ressourcen-intensive Angelegenheit, welches eine massive Rechenleistung und damit einen beträchtlichen Energieaufwand erfordert. Ein einziger Trainingslauf für das derzeit größte Sprachmodell GPT-4 kostet aktuell 63 Millionen Dollar. 10

Auf der Überholspur ins Zeitalter von Deepfakes

Analog zur (Text-zu-)Texterzeugung per ChatGPT nutzen Programm wie Midjourney oder Stablediffusion einen ebenfalls auf maschinellem Lernen basierenden (Text-zu-)Bildgenerator, um aus einer textförmigen Bildbeschreibung synthetische Bilder zu erzeugen. Die so erstellten Fake-Bilder einer fiktiven Festnahme von Donald Trump und eines im Rapper-Style verfremdeten Papstes galten dem Feuilleton zu Anfang des Jahres weltweit als ikonische Zeugnisse einer ‚neuen Fake-Ära‘ des Internet. Dabei waren beide lediglich gut gemachte, aber harmlose Bildfälschungen. Andere Formen der sprachmodellbasierten Mis- und Desinformation sind von weit größerer Tragweite.

Auf der Code Conference 2016 äußerte sich Elon Musk wie folgt zu den Fähigkeiten seines Tesla-Autopiloten: „Ein Model S und Model X können zum jetzigen Zeitpunkt mit größerer Sicherheit autonom fahren als ein Mensch. Und das bereits jetzt.“11 Elon Musks Anwält:innen behaupteten nun im April 2023 zur Abwehr einer Schadensersatzklage vor Gericht, das Video des Konferenzbeitrags, in dem Musk diese juristische folgenreiche Behauptung aufstellte, sei ein Deepfake.12

Bereits ein Jahr zuvor argumentierten zwei Angeklagte, die wegen der Kapitolerstürmung im Januar 2021 vor Gericht standen, das Video, welches sie im Kapitol zeige, könne von einer Künstlichen Intelligenz erstellt oder manipuliert worden sein. Täuschung und vorgetäuschte Täuschung gab es schon immer. Diese Debatte hatten wir bereits bei der Popularisierung der Bildbearbeitungssoftware Photoshop. Neu ist, dass es keiner handwerklichen Fertigkeiten bedarf und die für alle zugängliche, quasi-instantane Manipulierbarkeit auch Video- und Audio-Sequenzen betrifft.

Das Hauptproblem ist, dass wir nicht mehr wissen, was Wahrheit ist“ (Margaret Mitchell, ehemalige Google-Mitarbeiterin und jetzige Chefethikerin des KI-Startups Hugging Face).

„Das ist genau das, worüber wir uns Sorgen gemacht haben: Wenn wir in das Zeitalter der Deepfakes eintreten, kann jeder die Realität leugnen“, so Hany Farid, ein Experte für digitale Forensik und Professor an der University of California, Berkeley. „Das ist die klassische Lügendividende13.“ Eine skeptische Öffentlichkeit wird dazu gebracht, die Echtheit von echten Text-, Audio,- und Videodokumenten anzuzweifeln.

Angesichts der beachtlichen Geschwindigkeit, mit der ChatGPT neue Nutzer:innen gewinnt, bedeutet dies einen enormen zukünftigen Schub für das Postfaktische, dessen Hauptwirkungsweise nicht darin besteht, dass selbstkonsistente Parallelwelten von Falscherzählungen für sich ‚Wahrheit‘ im Sinne einer Faktizität reklamieren, sondern dass sie die Frage „Was ist wahr und was ist falsch?“ (zumindest in Teilen des öffentlichen Diskursraums) für unwichtig erklären.

Große Sprachmodelle sind geradezu das Ideal des Bullshitters, wie der Philosoph Harry Frankfurt, Autor von On Bullshit, den Begriff definierte. Bullshitter, so Frankfurt, sind schlimmer als Lügner. Ihnen ist es egal, ob etwas wahr oder falsch ist. Sie interessieren sich nur für die rhetorische Kraft einer Erzählung. Beide Aspekte, das Ignorieren der Frage nach wahr oder falsch, als auch deren aktive Dekonstruktion haben das Potential, Gewissheiten über das Funktionieren von Gesellschaft zu zerlegen. Selbstorganisiertes politisches Engagement von unten droht zu einem Blindflug entlang falscher Annahmen zu werden. Die darauf folgende Ernüchterung befördert den Rückzug ins Private – ein durchaus gewünschter und geförderter Aspekt14. Politisch profitieren können von einem hohen Anteil an Misinformation rechte Kräfte, denen an einer gesellschaftlichen Destabilisierung durch wachsende Polarisierung gelegen ist. Steve Bannon (ehemalige Berater von Donald Trump), bezeichnete die Medien immer wieder als Feind, den es niederzuringen gelte. Dazu müsse man „das [mediale] Feld mit Scheiße fluten“. Je stärker die Akzeptanz verbreiteter Information von ihrem Wahrheitsgehalt entkoppelt ist, desto leichter lässt sich dann auch manipulative Desinformation verbreiten. Falschnachrichten sind meist überraschend und erzeugen deutlich mehr Aufmerksamkeit. Bewusst adressierte Affekte wie Empörung, Angst und Hass erzeugen bei der Leser:in nachweislich mehr Aktivität und halten die Nutzer:innen damit länger in sozialen Netzwerken als etwa Freude, Zuversicht und Zuneigung. Dieses Muster wird von der algorithmischen Reichweitensteuerung sozialer Medien erkannt und rückkoppelnd als Trend verstärkt. Über diese statistische Gewichtsverzerrung bevorzugt rechter Beiträge innerhalb politischer Debatten ist z.B. auf Twitter eine deutliche Rechtsverschiebung zu verzeichnen – und das bereits weit vor der Übernahme durch Elon Musk und dessen Neuausrichtung des Algorithmus.15 Der Siegeszug des Trumpismus nach 2016 ist ein gut untersuchtes Beispiel derartig kontaminierter Diskursräume.

Bedenklicher Reduktionismus

Suchmaschinen wie Bing oder Google haben begonnen, ihre KI-Sprachmodelle GPT-4 bzw. PaLM zur zusammenfassenden Weiterverarbeitung gefundener Suchergebnisse zu implementieren. Damit wird die (per Ranking-Algorithmus vorsortierte, aber immerhin noch vorhandene) bisherige Auswahl von Suchergebnissen reduziert auf ein leicht konsumierbares Ergebnis auswählbaren Umfangs. Eine enorme Vereinfachung zugunsten einer beträchtlichen Zeitersparnis bei der Internetsuche, aber zulasten einer Vielfalt möglicher (kontroverser) Ergebnisse.

Wer erste Nutzungserfahrungen mit ChatGPT gesammelt hat, wird bei vielen Text-Antworten auf Wissensfragen zu kontroversen Themen eine vermeintliche Ausgewogenheit feststellen. Einer detailliert dargestellten Mehrheitsmeinung wird ein Zusatz angehängt, dass es dazu durchaus anderslautende Interpretationen gibt. Politische Widersprüche, die in den (sich widersprechenden) Suchergebnissen noch bestanden, werden nun mit einer durch das Sprachmodell vordefinierten Diversitätstiefe aufgelöst. Dadurch ergibt sich ein politisch bedenklicher Reduktionismus, der wohlgemerkt auf einem Sprachmodell(!) basiert – also nicht wissensbasiert ist, sondern mangels Verständnis von Begriffsbedeutungen rein statistisch bestimmt ist.

Diese ‚kritischen’ Anmerkungen werden zukünftig zur sogenannten Medienkompetenz gezählt werden und bedeutungslos (wie alles in der Welt der Sprachmodelle) verhallen. Wer klickt noch in schier endlosen Suchergebnislisten herum, wenn die Suche bei Google oder Bing das ‚Wichtigste‘ für uns zusammenfasst?16

Vergangenheit in die Zukunft projiziert

ChatGPT ist ein stochastischer Papagei, der (willkürlich) Sequenzen sprachlicher Formen zusammenfügt, die er in seinen umfangreichen Trainingsdaten beobachtet hat, und zwar auf der Grundlage probabilistischer Informationen darüber, wie sie kombiniert werden, aber ohne jeglichen Bezug zu deren Bedeutung. Ein solcher Papagei reproduziert und verstärkt dabei nicht nur den Bias von verzerrten Trainingsdaten, sondern auch hegemoniale Weltanschauungen dieser Trainingsdaten. Gesellschaftliche Verhältnisse aus der Vergangenheit der Trainingsdaten werden in die Zukunft verstetigt. Die den Sprachmodellen immanente Rekombination statistisch dominanter Wissenseinträge der Trainingsdaten wirkt die Verhältnisse konservierend und stabilisierend – ein sogenannter value lock, das Einrasten von Werten im Sinne einer politischen Stagnation droht.17

Die Bedingungen einer solchen Hegemonieverstärkung werden leider nur marginal gesellschaftlich (mit-)bestimmt. Das komplexe System aus Trainingsdatenaufbereitung, Parameterjustierung des Sprachmodells und nachträglicher Zensur des Outputs (allesamt unter der Kontrolle profitorientierter Privatunternehmen) bestimmen das Gewicht von neuen Wissenseinträgen. Damit liegt die hohe Hürde einer ausreichenden statistischen Relevanz emanzipatorischer Debattenbeiträge außerhalb einer demokratisch verfassten, gesellschaftlichen Mitbestimmung. Angesichts eines deutlichen politischen Drifts nach rechts maßgeblicher Technokrat:innen des KI-Geschäftsmodells (wie Sam Altman, Elon Musk, Peter Thiel, …) sind das keine hinnehmbaren Voraussetzungen für eine gesellschaftlich progressive Entwicklung.

Diversitätsverlust und Rechtsdrift

Die intrinsische Hegemonieverstärkung großer Sprachmodelle über ein selbstverstärkendes Wiederverdauen des eigenen Outputs als Input für das nächste Training des Modells bedeutet einen Verlust an Meinungsvielfalt (siehe Abbildung links+Mitte).

Zusätzlich führt die zuvor erwähnte Bevorzugung (in Reichweite und Verbreitungsgeschwindigkeit) verschwörerischer und (rechts-)populistischer Inhalte in den sozialen Medien zu einer politisch rechts gerichteten Verzerrung in den Trainingsdaten der nächsten Generation von Sprachmodellen. Dadurch erwarten wir in der Überlagerung beider Effekte einen rechtslastigen Diversitätsverlust (Abbildung rechts).

Eine solche Deformation öffentlicher Diskursräume über die Wechselwirkung großer Sprachmodelle mit den sozialen Medien zugunsten einer a) hegemonial-konservativen Meinungseinfalt und b) einer zentralen Machtposition eines Technologie-Oligopols, welches die Verzerrung algorithmisch codiert, muss aus der Sicht einer progressiven Position als Rückschritt und als politische Sackgasse zurückgewiesen werden. Die Unzulänglichkeit der sich neu ergebenden Informationsinfrastruktur bestehend aus großen Sprachmodellen + Social MediaPlattformen + Suchalgorithmen wird sich wohl kaum durch eine gesellschaftlich legitimierte, besser ausbalancierte Inhalte-Moderation abfedern lassen.

Ein emanzipatorischer Zugang zu einer grundlegenden Technologiekritik darf nicht auf der Ebene kosmetischer Korrekturen einer zahnlosen „Technikfolgenabschätzung“ verharren. Anstatt große Sprachmodelle unkritisch als unausweichlichen technologischen Fortschritt hinzunehmen, sollten wir die Frage aufwerfen, ob, und nicht wie, wir diese Technologien überhaupt gesellschaftlich akzeptieren sollten. Die langfristigen gesellschaftlichen Folgen dieser Modelle innerhalb einer dominanten KI-Empfehlungs- und Entscheidungs-Assistenz insbesondere für den Prozess der politischen Willensbildung, tauchen in einer nun allseits geforderten technischen Sicherheitsforschung von KI-Systemen als ‚schwer zu quantifizieren‘ gar nicht auf.18

Wir sollten unsere Haltung in Bezug auf die politische Schadwirkung KI-basierter Sprachmodelle ausrichten an unserer Haltung gegenüber KI-basierten, autonomen Waffensystemen: Warum sollte eine Gesellschaft einen derart rückwärts gewandten technologischen ‚Fortschritt‘ hinnehmen?

„Marx sagt, die Revolutionen sind die Lokomotive der Weltgeschichte. Aber vielleicht ist dem gänzlich anders. Vielleicht sind die Revolutionen der Griff des in diesem Zuge reisenden Menschengeschlechts nach der Notbremse.“19 (Walter Benjamin)

1https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html

2Ein Computerprogramm, welches möglichst menschenähnlich kommuniziert.

3Die Psychologie spricht genauer von „Konfabulationen“.

4Alemohammad et al., Self-Consuming Generative Models Go MAD, 2023, https://arxiv.org/abs/2307.01850

5https://www.newsguardtech.com/de/special-reports/newsbots-vermehrt-ai-generierte-nachrichten-webseiten/

6https://www.theguardian.com/books/2023/sep/20/amazon-restricts-authors-from-self-publishing-more-than-three-books-a-day-after-ai-concerns

7https://www.youtube.com/watch?v=DgYCcdwGwrE

8https://developers.google.com/search/blog/2023/02/google-search-and-ai-content?hl=de

9Die weitreichende Zensur von Trainingsdaten und Output chinesischer Sprachmodelle stellen wegen der damit verengten Datenbasis ein großen Wettbewerbsnachteil dar. Eine weitere Hürde ist die Hardware. US-Regulierungen verhindern den Export der neuesten KI-Chips von Nvidia u.a. nach China. Diese Chips sind (derzeit) entscheidend für die Entwicklung und Verbesserung von KI-Modellen.

10https://the-decoder.de/leaks-zeigen-gpt-4-architektur-datensaetze-kosten-und-mehr/

11https://www.vox.com/2016/6/6/11840936/elon-musk-tesla-spacex-mars-full-video-code

12https://www.theguardian.com/technology/2023/apr/27/elon-musks-statements-could-be-deepfakes-tesla-defence-lawyers-tell-court

13Die „Lügendividende“ ist ein Begriff, den Robert Chesney und Danielle Citron 2018 in einer Veröffentlichung Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, prägten. Darin beschrieben sie die Herausforderungen, die Deepfakes für die Privatsphäre, die Demokratie und die nationale Sicherheit darstellen. Der zentrale Gedanke darin ist, dass die Allgemeinheit sich bewusst wird, wie einfach es ist, Audio- und Videomaterial zu fälschen, und dass diese Skepsis als Waffe einsetzbar ist: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954

14Beispielhaft steht hierfür die Politik von Vladislav Surkov, Spindoktor Putins. https://www.nytimes.com/2014/12/12/opinion/russias-ideology-there-is-no-truth.html

15Aral, S. (2018): The spread of true and false news, Science 359,1146-1151(2018), https://www.science.org/doi/10.1126/science.aap9559

16Amazons Spracherkennungs- und -steuerungssoftware Alexa befördert ebenfalls diesen Reduktionismus, da sich niemand von Alexa eine längere Liste von Sucheinträgen vorlesen lassen möchte. Wegen der oft wenig hilfreichen Sprachausgabe eines weit oben gelisteten Treffers ist die Googlesuche über Alexa allerdings weit weniger beliebt.

17Bender et al: On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (2021) https://dl.acm.org/doi/pdf/10.1145/3442188.3445922

18Siehe dazu: Nudging – die politische Dimension psychotechnologischer Assistenz, DISS-Journal#43 (2022) http://www.diss-duisburg.de/2022/08/nudging-die-politische-dimension-psychotechnologischer-assistenz/

19Walter Benjamin: MS 1100. In: Ders.: Gesammelte Schriften. I, hg. v. R. Tiedemann und H. Schweppenhäuser, Frankfurt am Main: Suhrkamp 1974, 1232.

]]>
Die Goldgräber der Künstlichen Intelligenz https://capulcu.blackblogs.org/2023/10/20/die-goldgraeber-der-kuenstlichen-intelligenz/ Fri, 20 Oct 2023 11:38:10 +0000 https://capulcu.blackblogs.org/?p=945 Continue reading Die Goldgräber der Künstlichen Intelligenz ]]> Zweiter Teil unserer kritischen Textreihe zu KI.

Ende Mai 2023 wird ein kurzes Statement1 veröffentlicht, welches vor der Auslöschung der Menschheit durch Künstliche Intelligenz warnt. Unter das Statement haben Koryphäen der KI-Forschung, CEOs von KI-Unternehmen wie OpenAI und weitere prominente Figuren des Tech-Sektors ihre Unterschrift gesetzt. Diese apokalyptische Warnung reiht sich ein in eine ganze Serie gleichartiger Aussagen2 von Personen und Institutionen aus dem genannten Dunstkreis. Eric Schmidt, Ex-CEO von Google und jetzt Regierungsberater, warnt vor Tausenden von Toten. Sam Altman, CEO von OpenAI, der Entwicklungsfirma von ChatGPT, fleht die US-Regierung an, Regulatorien für die Branche zu erlassen.3

Es ist schon etwas verwunderlich, dass ausgerechnet diejenigen vor einer Technologie warnen, die sie selbst mit Macht und viel Geld auf den heutigen Stand gebracht haben. Sie erscheinen wie Goethes Zauberlehrling, der die Geister, die er rief, nicht mehr unter Kontrolle hat. Nichts könnte falscher sein.

Spätestens mit der Veröffentlichung von ChatGPT hat KI den Mainstream erreicht und genießt die volle Aufmerksamkeit der Medien. Die Leistung dieser Software scheint eine Schwelle überschritten zu haben. KI wird jetzt nicht mehr als belächelnswerter netter Versuch wahrgenommen oder als beachtenswerte Leistung in einer nerdigen kleinen Nische, sondern ist in ihre Gegenteil gekippt; eine Technologie, die auf dem besten Wege sei, die Menschheit in Sachen Intelligenz zu überflügeln. Das geht soweit, dass ein an der Entwicklung beteiligter Ingenieur bei Google nicht von der Behauptung abzubringen war, dass “seine” KI ein Bewusstsein entwickelt hat. Google war das augenscheinlich so unangenehm, dass die Kündigung folgte.

ChatGPT als textgenerierende KI und andere bildgenerierende KIs (z.B. Midjourney) sind Schaufensterprodukte der Branche. Ohne sie hätte die teils enthusiastische, teils beunruhigte Reaktion der Öffentlichkeit auf KI nicht stattgefunden. AlphaGo, eine KI, die den amtierenden Weltmeister im Spiel Go wiederholt geschlagen hat, hatte dazu noch nicht ausgereicht. Die apokalyptischen Warnungen aus der KI-Szene greifen genau diese Stimmung auf. Ihre Dystopie einer übermächtigen Technologie, die die Menschheit ausrottet, betont im Wesentlichen eines: die Mächtigkeit dieser Technologie. Das apokalyptische Flair dient als Ablenkung, um von den maßlosen Übertreibungen abzulenken, und obendrein als warnender Insider, die Reputation eines kritischen und reflektierten Bewusstseins mit in die Waagschale zu werfen – CEOs, die besorgt sind um das Wohl der Menschheit. Dabei geht es mitnichten um eine Warnung und schon gar nicht um das Wohl der Menschheit, sondern um eine spezifische Verkaufsargumentation: Sei dabei, bediene dich dieser übermenschlichen Macht, investiere jetzt oder schließe zumindest ein Premium-Abo ab!

Die Goldgräberstimmung ist mit Händen zu greifen. Der Ruf nach einer Regulierung dieser Technologie durch Regierungen mag verwirren, ist aber folgerichtig. Regulierungen sind nicht zwangsläufig schädlich für die Branche, im Gegenteil: Sie ebnen das Spielfeld, schaffen Übersichtlichkeit, Planbarkeit und Investitionssicherheit. Sie können benutzt werden, um dem Einstieg von Nachzüglern in den Markt (z.B. China) Barrieren in den Weg zu legen. Außerdem wären Regulierungen eh gekommen, aus Sicht der Branche ist es deshalb vorteilhaft, hier die Initiative zu übernehmen.

Es gibt noch einen weiteren Aspekt: den Regulierungsbehörden fehlt das nötige Fachwissen. Das gilt allerdings für praktische alle Technologien, deren Einsatz reguliert wird – das Fachwissen muss von außen hinzugezogen werden. Besonders im Falle von KI ist dieses Fachwissen allerdings stark konzentriert, die Entwicklung wird im Wesentlichen von den Forschungsabteilungen der großen Konzerne voran getrieben. Das Fachwissen für die Regulierung kommt also ausgerechnet aus der Branche, die reguliert werden soll, die Interessenskonflikte sind vorprogrammiert. Für die Tech-Konzerne beste Startbedingungen, um eine Quasi-Selbstregulierung im eigenen Sinne durchzudrücken. Dieses Muster ist übrigens nicht neu, sondern lässt sich in vielen vergleichbaren Vorgängen wieder finden – und das nicht nur in den USA. Was vielleicht nicht neu, aber diesmal besonders auffällig ist, ist die Dringlichkeit, mit der das Anliegen vorgebracht wird.

Ein Schlaglicht darauf wirf Sam Altmans Kritik an den KI-Regulierungen der EU. Nach intensiver Lobbyarbeit ist es OpenAI und Google gelungen, „Allzweck“-KI-Anwendungen wie etwa ChatGPT aus der Kategorie der Hochrisiko-Technologien heraus zu bekommen, die mit strengen Auflagen belegt ist. Statt dessen wurde für diese Fälle eine neue Kategorie der „Foundation Models“ mit aufgeweichten Auflagen geschaffen.4 Regulierungen sind für Herrn Altman nur solange OK, wie sie nicht geschäftsschädigend sind.

Ein Seiteneffekt der suggerierten Dringlichkeit ist die Erzeugung eines Eindrucks, dass jetzt etwas Neues aufgetaucht sei. KI blickt aber auf eine Jahrzehnte alte Geschichte. AlphaGo wurde schon genannt. KI-basierte Gesichtserkennung zum Beispiel bei Zugangssystemen, aber auch in Überwachungskameras, wie etwa am Berliner Südkreuz mit notorischer Schwäche, Menschen mit nicht-weißer Hautfarbe zu erkennen. Auch Betrugserkennungssysteme basieren auf KI und haben dort für eine Reihe von desaströsen Skandalen gesorgt – erinnert sei hier beispielsweise an die Toeslagenaffaire5 in den Niederlanden. Unternehmen wie Clearview AI oder PimEye haben mit Porträtfotos aus dem Internet Bilddatenbanken aufgebaut, die sich mit Hilfe von KI durchsuchen lassen – ein Schnappschuss einer Person kann schon ausreichen, um Name, Arbeitgeber oder Adresse herauszufinden6 – Stalkerware, nicht nur für Repressionsbehörden. Eine ausführlichere Liste lässt sich in unserem Text „KI zur Programmatischen Ungleichbehandlung“ finden7. Ein solches Erbe im Gepäck verdüstert die Akzeptanz.

Das Gold, welches die Goldgräber der Tech-Branche zu finden hoffen, ist die Automatisierungsdividende. KI verspricht, Vorgänge automatisieren zu können, die sich bislang erfolgreich entzogen haben. In einer Studie8 über die Auswirkungen der KI schätzt GoldmanSachs, dass 66% aller Arbeitsplätze in den USA betroffen sein werden. Dort könnten 25-50% der anfallenden Aufgaben von KI übernommen werden. Andere Studien9 kommen zu ähnlichen Zahlen. Es ist die Aussicht auf diese Produktivitätssteigerung, die die oben genannten Aktivitäten anspornt.

Ende des 19ten, Anfang des 20ten Jahrhunderts entwickelte und popularisierte Frederick Taylor u.a. eine Methode, die später als „Wissenschaftliches Management“ oder besser „Taylorismus“ bekannt wurde. Erklärtes Ziel dieser Methode war es, die Arbeit zu effektivieren, mehr Leistung aus jede*r Arbeiter*in rauszupressen. Dazu wurden Arbeitsabläufe minutiös dokumentiert, analysiert und optimiert, um sie dann in neu zusammengesetzter Form in den Produktionsprozess zurückzubringen, mit der klaren Absicht, „ineffiziente“, tradierte Abläufe und Arbeitsformen zu ersetzen. Aus Facharbeiter*innen wurden austauschbare Massenarbeiter*innen, Anhängsel der Maschinen, die ab sofort den Arbeitstakt vorgaben.

Zentraler Baustein dieser Methode war ein Wissenstransfer von den Facharbeiter*innen in die Ingenieursetage. So war es möglich, dieses Wissen einzusetzen, ohne von den Menschen, von denen das Wissen stammte, abhängig zu sein. Der Transfer war im Kern ein Transfer der Verfügungsgewalt über dieses Wissen. Die Folge war eine Entmachtung der Facharbeiter*innen im Produktionsprozess, eine Dequalifizierung der Arbeit und damit eine Verschlechterung der Verhandlungsbedingungen, wenn es z.B. um Lohnforderungen oder Arbeitsschutz ging. Ein vergleichbarer Transfer findet beim Training einer KI statt.

Der Taylorismus treibt sein Unwesen seit mehr als hundert Jahren und Computer sind auch nicht erst gestern erfunden worden. Damit Abläufe aus der „analogen“ Welt in einem Computer repräsentiert und ausgeführt werden können, müssen sie formalisiert werden: in einen Satz von detaillierten Regeln bzw. Anweisungen übersetzt werden, ganz ähnlich wie auch im „wissenschaftlichen Management“. Das funktioniert je nach betrachtetem Ablauf bzw. Problemstellung unterschiedlich gut. In vielen Fällen bleibt ein „Rest“, der sich einer Formalisierung entzieht, das Ergebnis passt dann nur unvollkommen auf die Problemstellung. In anderen Fällen ist es schon schwierig zu benennen, wie überhaupt an die Formalisierung einer Problemstellung herangegangen werden kann.

Formalisierung lässt sich begreifen als eine Art notwendiger Übersetzungsschritt, der eine Aufgabenstellung „computergängig“ macht – ein Schritt, der von Menschen geleistet wird. Für die KIs der aktuellen Generation wird erst gar nicht versucht, eine Aufgabenstellung zu formalisieren. Statt dessen wird die KI in einem trial-and-error-Prozess unter enormen Aufwand an die Aufgabenstellung heran trainiert. Der Schritt, der die Aufgabenstellung computergängig macht, wird also vom Computer selbst ausgeführt. Die Trainingsdaten werden so häufig „durchgekaut“10, bis die KI zufriedenstellend plausibel die in den Trainingsdaten enthaltenen Eigenschaften nachahmen bzw. wiedererkennen kann.

Beim Training entsteht eine Art stochastisches Extrakt der Trainingsdaten, ein Tensor aus Billionen von Zahlen, der sich im Hauptspeicher der KI ausbildet. Welche Aspekte der Trainingsdaten extrahiert werden, hängt von der Gestaltung des Trainings, der Topologie der KI, der Aufbereitung der rohen Trainingsdaten und weiteren begleitenden Maßnahmen ab. Entscheidend ist, dass im Tensor die notwendigen Informationen für das plausible Nachahmen bzw. Wiedererkennen landen – im allerweitesten Sinne also das „Wissen“. Wie auch immer dieser Wissenstransfer in den Tensor beurteilt werden mag – schließlich ist Nachahmen etwas anderes als Verstehen –, er erlaubt eine „Reproduktion“, ohne auf die Menschen zurückgreifen zu müssen, von denen das Wissen stammt. Wie schon beim Taylorismus findet ein Transfer von Verfügungsgewalt statt. Dieser Transfer ist das Fundament der Automatisierungsdividende.

Auch die in klassischer Programmierung verwendete Formalisierung implementiert einen Transfer der Verfügungsgewalt, allerdings wird dieser von Menschen in Hand- oder besser Kopfarbeit gemacht und ist deshalb nur schlecht zu skalieren. KI verspricht, diesen Formalisierungsschritt zu überspringen und den Transfer selbst in einen automatisierbaren und damit skalierbaren Prozess zu verwandeln – und das ist der qualitative Sprung in der Enteignung von „Wissen“.

Das Umschiffen der Formalisierung zur Übertragung einer Aufgabenstellung auf Computer erlaubt es zwar, neue Anwendungsgebiete zu erschließen, kommt aber mit einigen Nachteilen daher. Formalisierung setzt voraus, dass ein Problem bis ins Detail verstanden wurde – dass dabei Fehler passieren und Missverständnisse ausdetailliert werden, ist dazu kein Widerspruch. Das Ergebnis lässt sich überprüfen, mit einigem Aufwand ist es sogar möglich, einen mathematikartigen Beweis zu führen.

Bei KI ersetzt das Training das Verständnis, letztendlich ist das Training ein Schuss ins Blaue. Die Begeisterung vieler Ingenieur*innen von ChatGPT und anderen KIs reflektiert deren Überraschung, wie gut dieser Schuss gelungen scheint.

Dem Extrakt der Trainingsdaten ist nicht anzusehen, was genau extrahiert wurde – was genau die KI „gelernt“ hat. Dementsprechend sind die Ausgaben, die eine KI produziert, fehlerbehaftet. Das Einsatzgebiet für KIs zielt auf Anwendungen, bei denen entweder Fehler „tolerierbar“ sind oder sie in Konkurrenz zu menschlicher Arbeit treten, die ebenfalls fehlerbehaftet ist. Oder sie tritt in Konkurrenz zu im weitesten Sinne kreativen Tätigkeiten, die nicht binär richtig oder falsch, sondern besser oder schlechter sind. Letztendlich findet hier eine ökonomische Abwägung über Kosten und Nutzen statt, deren Ergebnis einzig vom (positiven) Einfluss auf das Geschäftsergebnis abhängen wird.

Das Ergebnis ist überaus zynisch: Wenn ein System zur Aufdeckung von Sozialhilfebetrug Fehler macht und die Falschen beschuldigt (und in Folge die Unterstützungszahlungen verweigert), dann trifft es Menschen, die sich nur schlecht wehren können. Selbst wenn KIs fachlich schlechte Ergebnisse liefern, bauen sie (oder genauer diejenigen, die die KI einsetzen) einen Konkurrenzdruck auf Arbeiter*innen und Angestellte auf, der Folgen z.B. bei Tarifverhandlungen haben kann. Einen Eindruck davon liefert die Antwort von Netflix auf den Streik von Schauspieler*innen und Autor*innen in Hollywood, die u.a. eine „Zweitverwertung“ ihrer Leistungen durch KI-„generierte“ (besser: kopierte) Inhalte verhindern wollen: Netflix schreibt eine gut bezahlte Stelle für einen „KI Produkt Manager“ aus, für „alle Bereiche“, was genau diese Zweitverwertung beinhaltet.11

Wie schon der Taylorismus, wird die KI zu einer Verschiebung gesellschaftlicher Macht „nach oben“ führen, gefolgt und verstärkt durch eine entsprechende Reichtumsumverteilung in die gleiche Richtung. KI wirkt wie ein Verstärker gesellschaftlicher Ungleichheit. Der enorme Ressourcenaufwand, den die KI-Technologie verlangt – Trainingsdaten, Energie, Wasser und leistungsfähige Hardware – lässt an einer „Demokratisierung“ dieser Technologie zweifeln. Einen eigenen Web- oder Mailserver im Internet zu betreiben ist vielleicht nicht trivial, aber durchaus von normalsterblichen Individuen leistbar. Für KI gilt das auf absehbare Zeit nicht, sie wird Werkzeug der Mächtigen bleiben.

Selbst, wenn sich in einem utopischen Szenario ein gesellschaftlich sinnvoller Einsatz denken ließe – die jetzige gesellschaftliche Realität besteht praktisch vollständig aus Anwendungen zu Lasten der großen Mehrheit der Menschen und reflektiert damit die aktuelle gesellschaftliche Machtverteilung.

Es muss also – in bester luddistischer Tradition – gefragt werden, wer KI für welchen Zweck einsetzt und ob die Resultate gesellschaftlich und ökologisch erstrebenswert sind. Diese Frage kann klar verneint werden.

1https://www.safe.ai/statement-on-ai-risk

2https://futureoflife.org/open-letter/pause-giant-ai-experiments/ https://www.cold-takes.com/ai-could-defeat-all-of-us-combined/

3https://www.c-span.org/video/?528117-1/openai-ceo-testifies-artificial-intelligence

4https://time.com/6288245/openai-eu-lobbying-ai-act/

5https://www.amnesty.org/en/latest/news/2021/10/xenophobic-machines-dutch-child-benefit-scandal/

6https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html

7https://capulcu.blackblogs.org/wp-content/uploads/sites/54/2020/06/DIVERGE-small.pdf – ab Seite 33

8https://www.key4biz.it/wp-content/uploads/2023/03/Global-Economics-Analyst_-The-Potentially-Large-Effects-of-Artificial-Intelligence-on-Economic-Growth-Briggs_Kodnani.pdf

9https://arxiv.org/abs/2303.10130

10Eine lesbare Einführung in die Funktionsweise von KIs vom Typ ChatGPT und was genau mit „durchkauen“ gemeint ist: https://arstechnica.com/science/2023/07/a-jargon-free-explanation-of-how-ai-large-language-models-work/

11https://theintercept.com/2023/07/25/strike-hollywood-ai-disney-netflix/

PDF zum Download: https://capulcu.blackblogs.org/wp-content/uploads/sites/54/2023/10/KI-Goldgraeber.pdf

]]>
Klima: Das grüne Vehikel für die KI-Offensive https://capulcu.blackblogs.org/2023/10/16/klima-das-gruene-vehikel-fuer-die-ki-offensive/ Mon, 16 Oct 2023 21:46:38 +0000 https://capulcu.blackblogs.org/?p=939 Continue reading Klima: Das grüne Vehikel für die KI-Offensive ]]>
Die KI versteht. Warum wir nicht?“ – Die Mobilisierung von Fridays for Future Hamburg zum Klimastreik am 15.09.2023 unterstellt dem KI-basierten Bildgenerator den Klimawandel besser zu durchschauen als die Menschen.

Künstliche Intelligenz ist derzeit in aller Munde – auch in der Klimabewegung. Warum das problematisch ist, lest ihr im ersten Teil unserer kritischen Textreihe zu KI.

Als Microsoft-CEO Satya Nadella im Februar die neue KI-gestützte Version der Suchmaschine Bing vorstellte, beschwor er mit dem „dreiköpfigen Monster aus Inflation, Rezession und Energiekrise“ das ganz große Bedrohungsszenario herauf. Natürlich nur, um direkt im Anschluss zu verkünden, dass die technische Lösung der genannten Probleme greifbar nahe sei. Es überrascht nicht, dass ein Unternehmen wie Microsoft danach „strebt, Technologie einzusetzen, um die großen Herausforderungen, die sich Menschen, Organisationen und Staaten stellen, zu bewältigen,“ wie Nadella die Ziele des Konzerns formulierte.1 Schließlich geht es dem Konzern bei der öffentlichkeitswirksamen KI-Offensive u.a. darum, endlich wieder Marktanteile im Google-dominierten Suchmaschinenmarkt zu gewinnen.

Erstaunlicher als die PR-Darstellung Microsofts ist, dass auch weite Teile der Grünen und der (professionalisierten) Klimabewegung diese Vision übernommen haben. Der massive Ausbau des Einsatzes von Technologie und insbesondere von sogenannter Künstlicher Intelligenz wird als große Chance, wenn nicht gar Notwendigkeit, im Kampf gegen die menschengemachte Klimakrise wahrgenommen. Kein Tag vergeht, ohne dass nicht eine neue Technologie als „die“ Lösung für das Klimaproblem präsentiert wird. Sollte die Vision des umfassenden Einsatzes von KI zur Lösung politisch-sozialer Probleme Realität werden, käme es zu tiefgreifenden sozialen Umwälzungen im Sinne der leistungsfähigen, progressiven bürgerlichen und inzwischen oft grünen Eliten. Im diesem Artikel wollen wir uns genauer mit der grünen Technologie-Gläubigkeit befassen. Leitend für unsere Überlegungen ist die Frage, welche Folgen für individuelle und kollektive Selbstbestimmung von der Bekämpfung des Klimawandels mittel Künstlicher Intelligenz zu erwarten sind.

Die Hoffnung auf technische Lösungen

Die Initiative, einen informationstechnologischen Vorstoß in die Weiterentwicklung des Kapitalismus einzubringen, reicht weit zurück. Die Idee entstand jedoch – anders als man meinen könnte – zunächst nicht in Konzernzentralen wie der von Microsoft, sondern in der US-amerikanischen Gegenkultur der 60er Jahre. Die aktuellen grünen Vorstellungen eines sich selbst regulierenden Klimaschutzes und einer mittels Rückkopplungsschleifen von Informationsströmen optimierten Gesellschaft knüpfen an die Utopien der damaligen Alternativbewegung an.2 Diese Vorstellungen münden heute in dem Vorstoß, Klimapolitik und KI in einem technopolitischen Komplex neuer Art zum Kern eines totalisierenden Durchbruchs in eine neue Ära des Kapitalismus zu machen.

Bei der Heinrich-Böll-Stiftung läuft dieser Ansatz unter der Reflexion und Offenheit betonenden Überschrift: „KI & Klimawandel – Hype oder Chance?“ Die Heinrich-Böll-Stiftung ist, mehr als jede andere politische Stiftung anderer Parteien, das Strategie- und Diskursorgan (zur Meinungsbildung und Stimmungstest) der Grünen. Klimapolitik erscheint dabei sowohl als Vehikel des technologischen Durchbruchs, als auch als Vehikel zur Verdrängung alternativer politischer Ansätze (des radikalen Klimaschutzes und der gesellschaftlichen Veränderung) und weist den IT-Technologien ein Monopol in der Klimapolitik zu. Auch Ralf Fücks, einer der Gründer:innen des grünen Thinktanks Zentrum Liberale Moderne und ehemaliger Leiter der Heinrich-Böll-Stiftung, schwärmt von einer leuchtenden Zukunft dank technologischer Innovation:

Aus dem Wettlauf gegen den Klimawandel […] kann eine neue ökonomische Dynamik entstehen, eine lange Welle umweltfreundlichen Wachstums. Ihre Treiber sind Künstliche Intelligenz und die kybernetische Steuerung von Produktion und Logistik, Wasserstoff und synthetische Kraftstoffe, E-Mobilität und Batterietechnik, nachwachsende Werkstoffe, Bionik und das weite Feld der Biotechnologie mit ertragreicheren, robusteren Nutzpflanzen und Lebensmitteln aus Zellkulturen.“

Von dem Literaturwissenschaftler Roberto Simanowski wird diese Haltung so zusammengefasst:

Die Hoffnung, dass die Technik uns rechtzeitig aus dem Desaster, auf das wir zusteuern, errettet, indem sie, gepaart mit ‚nachhaltigem‘ Konsum, ein ‚grünes‘ Wirtschaftswachstum ermöglicht, ist […] nur Ausrede dafür, am Status quo nichts Wesentliches ändern zu müssen. KI in ihrer schwachen Form ist erklärter Ausdruck dieser Hoffnung, sich mit Technik, statt einer Kehrtwende, vor den Folgen der bisher entwickelten Technik schützen zu können; durch den effizienten Einsatz von Wärme mittels intelligenter Thermostate, die Optimierung von Verkehrslenkung in der intelligenten Stadt oder die CO2-Rückbindung aus der Atmosphäre in den Boden.“3

Die Hoffnung auf Technik ist demnach ein solutionistischer Ansatz, d.h. das sozial erzeugte Problem des Klimawandels wird in technische Ersatzprobleme, z.B. den enormen Verbrauch von fossiler Energie übersetzt, die dann mittels KI gelöst bzw. weg-optimiert werden können.4

Technozän statt Anthropozän?

Technokrat:innen und Solutionist:innen sehen in der (derzeitigen) politischen Unfähigkeit, einen klimagerechten Richtungswechsel auch nur einzuleiten, die Bestätigung dafür, dass ‚der Mensch‘ nicht in der Lage sei, a) über seine eigenen Bedürfnisse hinaus und b) über das unmittelbare Hier und Jetzt hinaus rationale Entscheidungen im Sinne eines (globalen) Gemeinwohls zu treffen. Als quasi naturgesetzlich soll diese Einsicht in die ‚menschliche Unfähigkeit‘ den Weg für eine Künstliche Intelligenz ebnen. Sie könne die Klimakrise weit besser als der Mensch lösen, weil sie viel besser Daten prozessieren und komplexe, klimarelevante Zusammenhänge detektieren kann.

Mensch könnte zynisch anmerken, eine KI (ausgestattet mit weitgehender Entscheidungsbefugnis) könne kaum eine noch schlechtere Klimapolitik machen als die derzeitige Politik. Doch anders, als es James Lovelock, eine der intellektuellen Referenzen von Teilen der Ökologiebewegung in seinem Buch Novozän – Das kommende Zeitalter der Hyperintelligenz analysiert, stehen wir schon lange nicht mehr vor einem Wissens- sondern vor einem Willensproblem. Der politische Wechsel vom Fokus des Individuums in seiner Jetzt-Zeitigkeit hin zu einer Gesellschaft, welche die zukunftsfähige Gemeinschaft radikal in den Mittelpunkt stellt, lässt sich nicht per Entscheidungs-Überantwortung an eine künstliche Intelligenz abkürzen. Der Grund dafür liegt weniger im technischen Problem einer niemals ausgewogenen Datenbasis, die zum Training selbstlernender Algorithmen der KI herangezogen wird, und damit zu einer unbrauchbaren Verstärkung dieser Datenvorurteile durch die KI führt. Der Grund liegt vielmehr in der konzeptionellen Unzulänglichkeit des Maschinenlernens, eine brauchbare Notion von Gemeinwohl abzubilden.

Eine semantisch ahnungslose KI, die lediglich Mustererkennung und -optimierung statistischer Gewichte betreibt, hat keine Idee von dem, was ein Gemeinwohl sein könnte und wie es sich sinnvoll dynamisch weiterentwickeln lässt, egal wie beeindruckend ‚menschenähnlich‘ selbstlernende Sprachmodelle à la ChatGPT Problemlösungsstrategien bereits jetzt imitieren. Schlimmer noch – das Konzept der Optimierung auf der Basis bestehender Daten schreibt unweigerlich Vergangenes (herrschaftsstabilisierend) in die Zukunft fort. Damit entpuppt sich eine entmündigende KI als Empfehlungs- und Entscheidungsassistent zur Lösung der ökologischen Krise als sozio-technologische Sackgasse – sie ist als (techno-)revolutionäres Hilfsinstrument untauglich. Ihre Attraktivität speist sich lediglich aus einer doppelten Verantwortungsabgabe erstens für die Mehrheit der Menschen, die sich nicht mehr mit dem von ihnen verursachten Klimawandel befassen müssen, da eine KI ohnehin bessere Lösungen findet als sie selbst, und zweitens für die Entscheidungsträger:innen, die den politischen Charakter wegweisender gesellschaftlicher Entscheidungen verschleiern und ihre eigene Verantwortung der Öffentlichkeit gegenüber auf die KI abwälzen können, um so ggf. auch unpopuläre Maßnahmen durchsetzen zu können.

Grüne KI als Akzeptanzbeschaffung für soziale Umwälzungen

Es ist festzustellen, dass die Hoffnung auf Technik in der grünen Vision nicht lediglich als bewahrend im Sinne der „Verwaltung einer bereits etablierten Ordnung“ zu charakterisieren ist, sondern die Verheißung der KI gegenüber denjenigen, die über ihren Einsatz bestimmen, gerade darin besteht, die geltenden Regeln bis in die letzten Verästlungen des sozialen Gefüges durchsetzen zu können. Eine solche Optimierung der Durchsetzung sozialer Ordnung mittels KI-getriebener Automatisierung – auch wenn diese den progressiven Zielen im Geiste des Klimaschutzes folgt – ist mehr als nur eine Erfassung immer weiterer Bereiche menschlichen Lebens im Sinne quantitativer Expansion. Sie bildet die Grundlage für eine tiefgreifende qualitative Transformation sozialer Beziehungen. Die Politik eines kombinierten klimapolitisch/technologischen Durchbruchs kann daher als total, oder besser „totalisierend“ bezeichnet werden in dem Sinne, wie es vor hundert Jahren die Kombination von Taylorismus/Fordismus und Durchsetzung von Ersparnissen und durchaus, wie in den USA, ökologischen Zielsetzungen gewesen ist. Totalisierend ist die grüne KI-Offensive auch deswegen, weil sie im Sinne einer gesamtgesellschaftlichen Veränderung bis in die Mentalitäten der Menschen hinein wirkt und wirken soll.

Das lässt sich aus der Schrift der Heinrich-Böll-Stiftung „Smarte Technologie gegen den Klimawandel, 15 Fakten über künstliche Intelligenz“ bis ins Einzelne ablesen.5 Sie stellt den Aufriss eines umfassenden gesellschaftspolitischen Projekts dar. Hier wird der klimapolitische/technologische Einsatz auf den Gebieten von Ressourcenverbrauch, Industrie 4.0, Verkehr und Mobilität, Landwirtschaft, Waldwirtschaft, Artenverwaltung durchgespielt. Eindeutig mit der Tendenz der Ausweitung auf weitere gesellschaftliche Bereiche. Herausheben möchten wir hier Folgendes: Eine Politik unbedingter Vermeidung der Katastrophe wird gar nicht erst verfolgt, es geht um „gesellschaftliche Anpassung“ (S.8). Kapitalismuskritische Gesichtspunkte tauchen ebenfalls nicht mehr auf, wenn es heißt „Energiemarkt nachvollziehbar machen“ (S. 14). Die Propaganda einer „Präzisionslandwirtschaft“ unter Einsatz von KI steht in frappanter Analogie zu der stalinistischen Strategie eines totalisierenden Zugriffs, die gesamte Landwirtschaft bis ins Letzte in eine fordistische/tayloristische Maschine zu transformieren, mit den bekannten katastrophalen Ergebnissen, wie Josephson sie als „Brute-Force-Technologie“ beschrieben hat. Die totalisierende Tendenz zu einer neuen klimapolitisch-technologischen Expertokratie ist derart hermetisch, dass alternative politische Formen der Klimapolitik und des Verhältnisses zu den neuen Technologien gar nicht mehr auftauchen. Klima- und KI-Politik nehmen die Form eines geschlossenen Systems an, das Spielräume für autonome Prozesse nicht mehr zulässt. Kritik? „Um Vertrauen in die KI zu schaffen, müssen wir uns auch mit ihren möglichen negativen Folgen auseinandersetzen“ (S.32).6

Mit ihrer betont reflektierten Herangehensweise an das Thema sind die Grünen nicht alleine. Immerhin hat das Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU) schon 2021, also noch vor der grünen Regierungsbeteiligung, auf Bundesebene ein „Fünf-Punkte-Programm ‚Künstliche Intelligenz für Umwelt und Klima‘“ ins Leben gerufen. Darin geht es vor allem um die Schaffung sogenannter KI-Leuchttürme, „Projekten also mit Strahlkraft für den Umweltschutz.“7 Und auch im BMU gibt man sich gern kritisch: „Denn es gibt ökologische Schattenseiten, die wir in den Blick nehmen müssen: Die Milliarden von Berechnungen auf Hochleistungsprozessoren, die den KI-Systemen ihre beeindruckenden Fähigkeiten verleihen, verschlingen viel Energie,“ heißt es im zugehörigen Factsheet, nur um einen Absatz weiter davon zu träumen, „eine starke Marke ‚Sustainable AI made in Europe’“ zum eigenen Wettbewerbsvorteil zu machen.

Zusammen mit den Bundesministerien für Arbeit und Soziales sowie für Familie, Frauen, Senioren und Jugend hat das BMU auch das Forschungsprojekt „Civic Coding ‒ Innovationsnetz KI für das Gemeinwohl“ gefördert. Darin legt die Bundesregierung einen international einzigartigen Fokus auf „gemeinwohlorientierte“ KI-Entwicklung, wobei einer der Schwerpunkte mit der „KI-Ideenwerkstatt“ auch hier auf Umweltzielen liegt.8 Die faktisch genannten Projekte sind dann allerdings meist eher mickrige Leuchttürme. Da werden hier mal ein paar Bienenstöcke mit Sensoren ausgestattet, um dem Bienensterben auf den Grund zu gehen, und dort mal der Bewässerungsbedarf von Stadtbäumen prognostiziert. Es drängt sich der wenig überraschende Eindruck auf, dass komplexere Probleme von einer automatisierten Lösung durch KI weit entfernt sind und es eher darum geht, den Diskurs über diese Technologien von Seiten des Ministeriums aktiv mitzugestalten.

Klimakiller KI

Die Bundesregierung gibt den KI-Leuchttürmen nicht ohne Grund einen kritisch-reflektierenden Anstrich. Denn es ist keineswegs ausgemacht, dass KI Teil der Lösung und nicht Teil des Problems ist. Schließlich ist der Ressourcen- und Energieverbrauch des maschinellen Lernens enorm. So schätzt etwa Facebook die beim Training des eigenen Sprachmodells LlaMA verbrauchte Energie auf 2638 MWh.9 Zur Einordnung: Ein modernes Windrad, das etwa 3500 Haushalte mit Energie versorgen kann, muss über drei Monate laufen, um eine solche Menge an Energie zu produzieren.10 Während Facebook in Aussicht stellt, dass nach dem einmaligen Trainingsprozess der Energieverbrauch relativ gering ausfalle und u.U. schon eine einzelne GPU ausreichen könne, um die trainierte KI zu betreiben, muss hier festgestellt werden, dass zumindest durch den geplanten massenhaften Einsatz der KI ein enormer Energiebedarf zu erwarten ist – von anderen versteckten Energiekosten wie der Herstellung der nötigen Hardware einmal gänzlich abgesehen.

Schon heute wird geschätzt, dass etwa 12 Prozent des weltweiten Strombedarfs in digitale Geräte fließen. Tendenz steigend.11 Eine einzelne Google-Anfrage – wohlgemerkt ohne Verwendung KI-basierter Chat-Assistenten – verbraucht etwa 0,3 Wh – soviel Energie, wie benötigt wird, um eine energiesparende LED für drei Minuten zu betreiben. Eine Chat-GPT3-Anfrage, die mittels bereits trainierter KI beantwortet wird, verbraucht dagegen schon 1,3 Wh, also mehr als das 4-fache – wobei das besonders energieintensive Training hier nicht beachtet wird.12 Diese Zahlen sind natürlich lediglich Schätzungen und der reale Energieverbrauch dürfte um ein Vielfaches höher liegen.13 Schließlich wird nicht nur der Strom zum Betreiben der Rechenzentren verbraucht, sondern auch Produktion und Transport der Hardware sowie Entwickler:innen und ihre Ausstattung verbrauchen Energie, die in den genannten Schätzungen oftmals nicht einbezogen wird.

Angesichts des enormen Energieverbrauchs digitaler Technologien ist Skepsis angebracht, wenn diese als Mittel zur Senkung des Energieverbrauchs angepriesen werden. Die Bundesregierung scheint sich jedoch das Ziel gesetzt zu haben, diese Zweifel zu zerstreuen. Daher befinden sich unter den erwähnten KI-Leuchttürmen auch einige Projekte mit dem Zweck, den Ressourcenverbrauch der KI selbst zu optimieren bzw. ihn transparenter zu machen. Ein solcher Leuchtturm ist das Projekt NADIKI an der Universität Stuttgart, das sich zum Ziel setzt, den realen Energie- und Ressourcenverbrauch von KI über eine Software-Schnittstelle bereitzustellen. In der Pressemeldung zum Förderbescheid heißt es:

„Für eine nachhaltige KI-Nutzung ist es daher wichtig, vorhandene Infrastruktur bestmöglich zu nutzen, um den Bau neuer Rechenzentren, Server oder Netzwerkequipment zu reduzieren oder zu vermeiden. Gleichzeitig sollten KI-Systeme optimal ausgelastet sowie der Ressourcenverbrauch erfasst und offengelegt werden.“14

Damit ist der Rahmen der kritischen Auseinandersetzung über die ökologischen Folgen abgesteckt. Eine ergebnisoffene Hinterfragung, ob KI – und sei es lediglich aus ökologischer Sicht – überhaupt eingesetzt werden sollte, steht nicht im Fokus. Zu klären ist lediglich noch, wie ihr Einsatz „nachhaltig“ gestaltet werden kann – oder anders ausgedrückt: Der Einsatz von KI wird zu einem Optimierungsproblem zweiter Ordnung. Eines ist auch ohne die Ergebnisse der Stuttgarter Forscher:innen sicher – zunächst steigt der Energiebedarf durch den Einsatz maschinellen Lernens. Die hohen Fixkosten, die im Training von KI-Modellen stecken, führen dazu, dass ein effizienter Einsatz nur dann denkbar ist, wenn das Modell anschließend im großen Stil angewendet wird. KI-Modelle kommen daher zur Lösung spezialisierter (Klima-)Probleme, bei denen kein groß angelegter Einsatz zu erwarten ist, kaum in Frage.

Es gibt noch einen weiteren Grund, den Energiespar-Versprechungen grüner KI gegenüber skeptisch zu sein: den sogenannten Rebound-Effekt. Dieser besagt, dass Effizienzsteigerungen beim Energieverbrauch nicht dazu führen, dass der Verbrauch insgesamt sinkt, sondern lediglich dazu, dass die Kosten sinken und die überschüssige, nicht mehr benötigte Energie stattdessen an anderer Stelle verbraucht wird.15 Ein einfaches Beispiel: die Senkung des Kraftstoffverbrauchs moderner PKW hat nicht dazu geführt, dass weniger Kraftstoffe verbraucht werden, sondern dazu, dass erstens mehr Auto gefahren wird, weil es sich mehr Menschen leisten können, und zweitens größere Autos wie SUVs produziert werden, die wiederum einen sehr hohen Kraftstoffverbrauch haben und ohne die Effizienzsteigerungen gar nicht denkbar gewesen wären. Eine Optimierung der bestehenden Wirtschaftsbereiche wird nicht zu einer realen Senkung des Energieverbrauchs führen. Unter diesen Voraussetzungen wiederum erscheinen auch die Effizienzsteigerungen durch grüne KI wenig geeignet, einen wesentlichen Beitrag für die Bekämpfung des Klimawandels zu leisten. Dennoch setzen viele Liberale, wie der Wirtschaftshistoriker Adam Tooze, angesichts des Widerstands der politischen und wirtschaftlichen Eliten gegen grundlegende soziale Veränderungen – mal mehr, mal weniger zähneknirschend – vor allem auf technische Lösungen.16 Das wirft die Frage auf: Wie kann es gelingen, eine Debatte über ein Ansetzen an den polit-ökonomischen Ursachen des Klimawandels zu führen, die nicht durch den Verweis auf bevorstehende technische Lösungen schon im Ansatz abgewürgt wird?

Progressiv, aber nicht emanzipatorisch

In ihrer taz-Kolumne kritisiert Charlotte Wiedemann die Grünen scharf für das „nicht ergründete Ausmaß europäischer Gewaltgläubigkeit im Ukrainekrieg,“ das die Grünen in Deutschland mit ihrer „feministischen Außenpolitik“ wie keine andere politische Kraft vorantreiben.17 Sie präzisiert:

„Heute sind die Grünen indes eine Kraft der Disziplinierung, der Einhegung geworden, der Betäubung und Verbravung des Denkens. Während sich andere verzweifelt ans Pflaster kleben, sind die Grünen mit den herrschenden Verhältnissen verleimt.“

Und tatsächlich – nicht nur die grüne Position im Ukrainekrieg, sondern auch der Einsatz von KI zur Bekämpfung des Klimawandels sind Symptom einer fatalen Idee, wie sie typisch ist für postdemokratische Gesellschaften: die Durchsetzung progressiver Politik bei gleichzeitiger Aufgabe emanzipatorischer Ansprüche. Sozial bzw. ökologisch progressiv ist diese Politik deswegen, weil der Klimawandel gestoppt werden muss, um die katastrophalen Folgen insbesondere für arme Menschen und die Natur zu verhindern. Die Grünen möchten – in Teilen – die Bekämpfung des Klimawandels auf die Umsetzung algorithmisch errechneter Maßnahmen reduzieren. Eine gesellschaftliche Auseinandersetzung über die konkreten Ziele und daraus folgenden Maßnahmen ist da lediglich Beiwerk. Der Verweis auf technologische Lösungen hat somit gerade den Zweck, eine solche Debatte über tiefgreifende Änderungen an den ursächlichen gesellschaftlichen Machtverhältnissen von vornherein abzuschmettern. Anders als der oben zitierte Adam Tooze bedauern es die meisten Grünen daher nicht, mangels politischer Mehrheiten fast ausschließlich auf technische Lösungen zu setzen. Im Gegenteil: Die kybernetische Gesellschaft soll uns als grüne Utopie verkauft werden, obwohl sie doch eigentlich vor allem mehr vom Bestehenden enthält. Immerhin erkennen weite Teile der Klimabewegung, dass diese grüne Haltung einen Frontalangriff auf all jene bedeutet, die an der zapatistischen Parole „Eine andere Welt ist möglich“ festhalten wollen. Am deutlichsten wurde dieser Dissens zwischen grüner Parteispitze und Klimabewegung Anfang des Jahres am breiten Widerstand der Bewegung gegen die von den Grünen ausgehandelte Räumung des Dorfes Lützerath.18

Auch wenn die Grünen nicht – wie es im Sinne emanzipatorischer Politik wäre – die gemeinsame und offene Aushandlung von Maßnahmen gegen den Klimawandel betreiben, so bleiben sie auf einem liberalen Weg und unterscheiden sich (noch) von einem autoritären Weg, wie er etwa in China gegangen wird. Für diese spezifische Haltung, die zwar formal die liberalen Grundfreiheiten hochhält, gleichzeitig den Fokus aber gänzlich auf die Effektivität der Umsetzung politischer Ziele verschiebt, hat Colin Crouch den Begriff der Postdemokratie geprägt.19 Der schon erwähnte Ralf Fücks vom Zentrum Liberale Moderne grenzt sich dementsprechend scharf von einem dezidiert autoritären Projekt ab, indem er typisch neoliberale Argumentationsmuster mit der Idee nationaler Wettbewerbsfähigkeit kombiniert:

„Wer Freiheit und Ökologie in Einklang bringen will, muss vor allem auf Innovation setzen und den Wettbewerb um die besten Lösungen fördern. Dafür braucht es einen ökologischen Ordnungsrahmen, der die Dynamik der Marktwirtschaft in eine ökologische Richtung lenkt. Auch eine marktwirtschaftliche Klimapolitik kommt nicht ohne Gebote und Verbote aus. Sie sind aber nicht der Königsweg für die Bewältigung der ökologischen Krise. Eine Top-Down-Steuerung durch engmaschige staatliche Vorgaben kann niemals die Innovationskraft der Marktwirtschaft ersetzen, die das Wissen und die Eigeninitiative von Abermillionen Produzenten und Konsumenten bündelt.“20

Und die Klimabewegung?

Progressiv, aber nicht emanzipatorisch – mit einer solchen Haltung ist die grüne Parteispitze nicht allein. Vielmehr spiegelt sich hier eine größere gesellschaftliche Entwicklung wider. Nicht von ungefähr gilt mit der Letzten Generation eine Kraft als die medial meist beachtete politische Bewegung in Deutschland 2023, die ihr Desinteresse an den Werten von Aufklärung und der Tradition (linker) Befreiungskämpfe offen kundtut. Carla Rochel, ein Mitglied des sogenannten Strategieteams der Letzten Generation, macht emanzipatorischer Politik eine unmissverständliche Absage zugunsten der vermeintlichen real-politischen Durchsetzung der eigenen Ziele: „Wir tun alles für eine gute Feedback-Kultur, aber wir haben leider bei anderen Organisationen gesehen, dass Basisdemokratie zu viel Zeit braucht, die wir nicht haben.“21 In der Praxis bedeutet dies, dass das Strategieteam, also eine handvoll Leute, plant und die sogenannten „Bienen“ bloß auf ihren Einsatzbefehl warten, der ihnen mitteilt, wann und wo sie sich auf die Straße zu kleben haben. Nicht unwahrscheinlich, dass eine solche Haltung der Gruppe noch auf die Füße fallen wird. Wenn sich nämlich herausstellen sollte, dass das Aktions-Know-how nicht breit genug verteilt ist, um trotz staatlicher Repression gegen die Gruppe auf Dauer weiterzumachen und flexibel auf politische Veränderungen zu reagieren, könnten auch die Vorteile dezentraler Organisationsformen wieder in Erinnerung geraten.

Es gibt jedoch auch andere Ansätze innerhalb der Klimabewegung, die mehr Hoffnung machen, weil sie sich der grünen Einhegung des Denkens nicht kampflos fügen wollen. Zu nennen sind da neben dem bereits erwähnten Widerstand gegen den Kohletagebau (in Lützerath) auch die Proteste in Sainte Soline, Frankreich, gegen die sogenannten Mega-Bassins, riesige künstliche Seen, mit dem Zweck, die industrielle Landwirtschaft in Zeiten sich häufender Dürren mit Wasser zu versorgen.22 Oder auch viele kleinere Aktionen, wie sie auf dem Blog https://switchoff.noblogs.org/ dokumentiert werden. In dem dort veröffentlichten Aktionsaufruf heißt es explizit:

Wenn uns die Illusion verkauft wird, der Klimawandel wäre technologisch zu stoppen, dann liegt dem das Vertrauen zugrunde, die Machthabenden müssten nur die richtigen Schritte unternehmen, die richtigen Maßnahmen ergreifen, um diese Welt zu retten.
 Zum einen haben sie überhaupt kein Interesse an einem Ende des Expansionskapitalismus, der ihre Machtposition sichert. Und zum anderen ist die technologische Reform mit den neuen Abhängigkeiten, die sie produziert, ebenfalls zum Scheitern verurteilt.“

Fragt sich, ob eine solche Haltung in Klima- und linker Bewegung noch mehrheitsfähig ist, oder ob der technologische Angriff auf die Aufgabe emanzipatorischer Politik schon zu weit vorangeschritten ist.

1https://news.microsoft.com/wp-content/uploads/prod/2023/02/Reinventing-search-with-a-new-AI-powered-Bing-and-Edge-1.pdf

2Vgl. https://jacobin.de/artikel/techno-okologie-astrid-zimmermann-klimawandel-blockchain-terra0-web3-whole-earth-catalogue-buckminster-fuller-solutionismus-design-thinking/

3Roberto Simanowski. 2020. Der Todesalgorithmus. Das Dilemma der künstlichen Intelligenz. S. 112.

4Zur Diskussion des Solutionismus vgl. Redaktionskollektiv Capulcu. KI zur programmatischen Ungleichbehandlung, In: Redaktionskollektiv Capulcu. 2020. Diverge – Abweichendes vom rückschrittlichen „Fortschritt“.

5https://www.boell.de/sites/default/files/2022-04/BoellFakten_Smarte_Technologie_gegen_den_Klimawandel_15_Fakten_ueber_Kuenstliche_Intelligenz.pdf

6Vgl. Redaktionskollektiv Capulcu. IT – Der technologische Angriff des 21. Jahrhunderts. In: Redaktionskollektiv Capulcu. 2017s. Disrupt – Widerstand gegen den technologischen Angriff.

7https://www.bmuv.de/fileadmin/Daten_BMU/Download_PDF/Digitalisierung/factsheet_ki_bf.pdf

8https://www.civic-coding.de/angebote/publikationen

9Hugo Touvron et al. 2023. LLaMA: Open and Efficient Foundation Language Models.

10https://www.ndr.de/nachrichten/info/Watt-Das-leisten-die-Anlagen-im-Vergleich,watt250.html

11https://www.deutschlandfunk.de/stromverbrauch-digitalisierung-internet-bitcoin-rechenzentren-abwaerme-100.html

12Vgl. https://medium.com/@zodhyatech/how-much-energy-does-chatgpt-consume-4cba1a7aef85

13Für einen Überblick über die Problematik der korrekten Erfassung des Energieverbrauchs von KI und den aktuellen Stand der Forschung s. https://www.theguardian.com/technology/2023/aug/01/techscape-environment-cost-ai-artificial-intelligence

14https://www.uni-stuttgart.de/universitaet/aktuelles/meldungen/Foerderbescheid-fuer-KI-Leuchtturmprojekt-NADIKI/

15Vgl. https://www.umweltbundesamt.de/themen/abfall-ressourcen/oekonomische-rechtliche-aspekte-der/rebound-effekte

16Vgl. https://nymag.com/intelligencer/2021/05/adam-tooze-on-climate-politics-after-covid.html und https://www.youtube.com/watch?v=w4Y9SomH9Nc

17https://taz.de/Die-Entwicklung-der-Gruenen/!5940274/

18Vgl. https://www.tagesschau.de/inland/innenpolitik/gruene-luetzerath-107.html

19Colin Crouch. 2008. Postdemokratie.

20https://libmod.de/aufbruch-statt-abbruch-mit-gruenem-wachstum-aus-der-klimakrise/

21https://taz.de/Wer-ist-die-Letzte-Generation/!5898641/

22https://tumulte.org/2023/03/articles/berichte-aus-sant-soline/

-> Aufsatz als pdf

]]>
Going Viral — Organisierung in Zeiten von Corona https://capulcu.blackblogs.org/2020/10/28/going-viral-organisierung-in-zeiten-von-corona/ Tue, 27 Oct 2020 23:00:00 +0000 https://capulcu.blackblogs.org/?p=932 Continue reading Going Viral — Organisierung in Zeiten von Corona ]]>

Wir befinden uns mitten in einer neuen Welle von Covid-19-Infektionen und mit ihr zeichnen sich erneute massive Einschränkungen von Bewegungs- und Versammlungsfreiheit ab. Die Folgen der Kontaktsperren für linksradikale Politik und Strukturen haben wir im Frühjahr am eigenen Leib erleben dürfen. Damit sich das nicht wiederholt, möchten wir zu einem
reflektierten, kritischen und daraus folgernd auch widerständigen Umgang mit den verordneten Maßnahmen in Bezug auf politische Aktivitäten aufrufen! (…)

–> Flyer als pdf

]]>
Band V – DIVERGE! https://capulcu.blackblogs.org/2020/06/01/band-v-diverge/ Mon, 01 Jun 2020 20:38:00 +0000 https://capulcu.blackblogs.org/?p=920 ]]> Die „freiwillige“ Corona-App https://capulcu.blackblogs.org/2020/04/05/die-freiwillige-corona-app/ Sun, 05 Apr 2020 14:53:00 +0000 https://capulcu.blackblogs.org/?p=930 Continue reading Die „freiwillige“ Corona-App ]]>

Die Bundesregierung setzt für eine schrittweise Rücknahme der Corona-Kontaktbeschränkungen auf eine breite Akzeptanz für die nach Ostern herunterladbare App zur nachträglichen Kontaktrekonstruktion Infizierter. Die (berechtigte) Angst vor dem Virus wird benutzt, um einem Großteil der Bevölkerung „freiwillig“ ein autoritär hochwirksames Werkzeug zu verabreichen.

Wir kritisieren in diesem Artikel die technische Konstruktion der App, aber auch ihre sozial-technokratischen Konsequenzen. Selbst wenn das Protokollieren von Kontakten vollständig pseudonym erfolgen würde, müssen wir dringend vor dieser App warnen. In dem Moment, wo (sogar anonyme) Verhaltensdaten flächendeckend anfallen, sind die prädiktiven Modelle, die damit trainiert werden, dazu in der Lage, ganze Populationen in Risikogruppen einzuteilen und algorithmisch zu verwalten. Hinzu kommt, dass ein simples Software-Update die App in ein wirksames Tool zur individuellen Zugangsbeschränkung verwandelt. Daher unser klares Nein zur Corona-App!

–> Aufsatz als pdf
–> english version (pdf)
–> version francaise (pdf)

]]>
Die Corona-Krise — Gewöhnung an das Regiertwerden im Ausnahmezustand https://capulcu.blackblogs.org/2020/03/22/die-corona-krise-gewoehnung-an-das-regiertwerden-im-ausnahmezustand/ Sun, 22 Mar 2020 01:50:00 +0000 https://capulcu.blackblogs.org/?p=928 Continue reading Die Corona-Krise — Gewöhnung an das Regiertwerden im Ausnahmezustand ]]> Der Ausnahmezustand ist das neue Normal. Die derzeitigen gesellschaftlichen Einschränkungen bis hin zu vollständig außer Kraft gesetzten Grund-, Bürger- und Menschenrechten, in der Absicht einer (unbestritten notwendigen) Verlangsamung der Ausbreitung des Coronavirus überschlagen sich. Beinahe täglich werden weiter gehende Vorschläge diskutiert und per Allgemeinverfügung umgesetzt. Wir sind uns daher bewusst, dass unser heutiges Augenmerk (22.3.20) auf aktuell besonders weit greifende Maßnahmen in wenigen Wochen in ein neues Koordinatensystem von Akzeptanz bzw. Empörung einsortiert werden wird. Die Geschwindigkeit dieser Koordinatenneusetzung könnte ein geeignetes Maß für die Transition vom Antiterror- zum epidemischen Ausnahmezustand sein. Darin erfährt der „Gefährder“ eine qualitative Neuinterpretation. 

–> Aufsatz als pdf

]]>