keine – capulcu https://capulcu.blackblogs.org keep the future unwritten Tue, 22 Oct 2024 19:04:35 +0000 de-DE hourly 1 https://wordpress.org/?v=5.7.1 https://capulcu.blackblogs.org/wp-content/uploads/sites/54/2016/03/cropped-pengi-small-32x32.png keine – capulcu https://capulcu.blackblogs.org 32 32 “Ist das schon kaputt?” – Eine vorläufige Einordnung des Angriffs auf das Tor-Netzwerk https://capulcu.blackblogs.org/2024/10/22/ist-das-schon-kaputt-eine-vorlaeufige-einordnung-des-angriffs-auf-das-tor-netzwerk/ Tue, 22 Oct 2024 18:47:46 +0000 https://capulcu.blackblogs.org/?p=1082 von capulcu & friends

Mitte September wurde durch Recherchen des öffentlich-rechtlichen Rundfunks (Panorama und STRG_F) bekannt, dass das BKA und die Generalstaatsanwaltschaft Frankfurt a.M. erfolgreich einen Deanonymisierungsangriff im Tor-Netzwerk durchgeführt haben. Sie konnten so den Betreiber der Pädoplattform Boystown identifizieren und festnehmen. Dazu betrieben sie eigene Tor-Knoten und überwachten Teile des Netzwerks über mehrere Jahre und Ländergrenzen hinweg. Der Angriff wirft die Frage auf, ob Tor und Tails noch sicher sind. In diesem Text wagen wir den Versuch einer vorläufigen Auswertung auf Basis der spärlichen öffentlich zugänglichen technischen Informationen und geben einige Handlungsempfehlungen zur sichereren Verwendung von Tor. Denn Tor bleibt das beste verfügbare Werkzeug, um die eigene Identität im Internet zu verschleiern. Wer sich nur für die praktischen Folgen und nicht für die technischen Details des Angriffs interessiert, kann ab dem Abschnitt, „Gesundheit des Tor-Netzwerks“ anfangen zu lesen.

Wie funktioniert Tor?

Bevor wir auf die technischen Details des Angriff eingehen, fassen wir kurz zusammen, wie Tor funktioniert.1 Tor kann sowohl eingesetzt werden, um staatliche Zensur zu umgehen als auch um die eigene Identität bzw. den Aufenthaltsort im Internet zu verbergen. Für diesen Text interessiert uns nur der Einsatz von Tor als Werkzeug zur Anonymisierung im Internet.

Betrachten wir zunächst den Fall, dass wir anonym eine Webseite abrufen wollen, z.B. radikal.news. Dazu benutzen wir den Tor Browser. Einen Überblick über die folgende Beschreibung einer Tor-Verbindung liefert Abbildung 1. Nach Eingabe der Adresse wählt die Tor Software aus den etwa 8000 Servern des Tor-Netzwerks,2 auch Knoten oder relays genannt, drei zufällige aus. Zunächst wird eine verschlüsselte Verbindung zum ersten Knoten, dem Guard, aufgebaut, dann von dort zum Mittelknoten und vorn dort weiter zum Exit-Knoten. Erst der Exit-Knoten löst den Domainnamen radikal.news in eine IP-Adresse auf und baut eine Verbindung zum Webserver an dieser Adresse auf. Dabei verschlüsselt der Tor Client (in diesem Fall der Tor Browser) die Anfrage an radikal.news je Tor-Knoten einmal. Jeder Knoten auf dem Weg zum Ziel entfernt eine Verschlüsselungsschicht – daher auch das Bild der geschälten Zwiebel. Durch dieses Prinzip wird erreicht, dass keiner der Knoten des Tor-Netzwerks ausreichende Informationen hat, um uns, den Client, mit dem Webserver zu verknüpfen. Der Guard-Knoten sieht nur, dass wir uns mit dem Tor-Netzwerk verbinden und welchen Mittelknoten wir verwenden. Der Exit-Knoten sieht zwar, dass eine Anfrage an radikal.news zugestellt wird, aber er sieht nur, dass er sie von irgendeinem Mittelknoten weitergeleitet wurde und nicht woher sie stammt. Der Mittelknoten sieht nur den Guard und den Exit-Knoten. Er weiß gar nicht, wessen Kommunikation er weiterleitet. An dieser Stelle sei erwähnt, dass es sehr wichtig ist Transportverschlüsselung3 zu verwenden, um zu verhindern, dass der Exit-Knoten alle Kommunikation mit dem Zielserver im Klartext mitlesen kann.4

Abbildung 1: Die Abbildung zeigt, wie der Client sich über drei Tor-Knoten mit dem Server verbindet. Dabei entfernt jeder Knoten eine Verschlüsselungsschicht, so dass sie jeweils nur ihre Nachbarn kennen. Quelle: https://en.wikipedia.org/wiki/File:Tor_Circuit_Diagram.svg

 Mit diesem Verfahren wird technisch sichergestellt, dass der Internetprovider lediglich sieht, dass wir uns mit Tor verbinden und der Webserver andererseits lediglich sieht, dass ein beliebiger Tor-Nutzer eine Anfrage schickt – jedenfalls gilt das solange wir nichts tun, das uns identifiziert, etwa uns in einen nicht-anonymen Account einzuloggen. Tor ist also so designt, dass es sowohl vor Angriffen schützt, die darauf abzielen herauszufinden, wer etwas macht, als auch was eine bereits verdächtige Person macht. Die Sicherheitsgarantien gelten allerdings nicht gegenüber einem globalen Angreifer. Das bedeutet, wenn ein Angreifer in der Lage ist, sowohl an meinem zufällig gewählten Guard-Knoten als auch am Exit-Knoten die ein- und ausgehenden Pakete zu überwachen. Dann kann er die an den Webserver gesendete Anfrage mit hoher Wahrscheinlichkeit mir zuordnen. Tor hat nicht den Anspruch gegen solche globalen Angreifer zu schützen, da dies große Verzögerungen (Latenzen) in der Kommunikation mit sich bringen würde.5

Um es auf Dauer, d.h. über viele Verbindungen hinweg unwahrscheinlicher zu machen, dass ein Guard-Knoten ausgewählt wird, der von einem Angreifer betrieben wird, wählt Tor nicht bei jeder Verbindung einen neuen Guard, sondern verwendet einen einmal ausgewählten Guard-Knoten über einen zufälligen Zeitraum von mehreren Wochen.6 Dadurch wird es für einen Angreifer, der nur einen kleinen Teil des Netzwerks überwachen kann, sehr lange dauern bis ein für einen Angriff geeigneter Guard-Knoten ausgewählt wird. Dieser Schutzmechanismus wird für den hier diskutierten Angriff noch relevant. Dazu später mehr.

Was sind Onion Services?

Der nun öffentlich gewordene Angriff richtete sich gegen einen Onion Service. Neben der schon beschriebenen Anonymisierung des Clients ermöglicht es Tor, selber anonym Dienste als sogenannte Onion Services anzubieten, beispielsweise einen Webserver zu betreiben, ohne dass die Besucher:innen der Webseite erfahren, wo der Server steht bzw. wer ihn betreibt. Einen Überblick über eine aufgebaute Verbindung zwischen Client und Onion Service bietet Abbildung 2. Der Onion Service hält dauerhaft Verbindungen zu einem oder mehreren als Introduction Points (IP)7 bezeichneten Tor-Knoten aufrecht.8 Die ausgewählten IPs veröffentlicht der Onion Service als Onion Service Descriptor in den Hidden Service Directories (HSDirs), einer über das Netzwerk verteilten Datenstruktur, sodass (nur) diejenigen, die die Onion-Adresse kennen, abfragen können, über welche IPs sie den Service erreichen.9 Wenn der Tor-Client sich mit dem Onion Service verbinden möchte, wählt er zunächst einen weiteren Knoten aus, den sogenannten Rendezvous Point (RP) und baut eine Verbindung dorthin auf. Anschließend baut er eine Verbindung zu einem IP auf und teilt dem Onion Service darüber verschlüsselt die Adresse des RP mit. Daraufhin verbindet sich auch der Onion Service mit dem RP und Client und Onion Service können über den RP kommunizieren, ohne den Standort des jeweiligen Gegenübers zu kennen.

Abbildung 2: Die Abbildung zeigt, wie sich der Client mit dem Onion Service verbindet. Beide Seiten bauen dazu einen Circuit zu dem vom Client gewählten RP auf. Für den ersten Teil des Verbindungsaufbaus über den IP funktioniert dies analog. In dem Fall wäre der IP der Knoten rechts von dem der hier als RP bezeichnet ist. Quelle (von uns bearbeitet): https://en.wikipedia.org/wiki/File:Tor_Circuit_Diagram.svg

Der Deanonymisierungsangriff mittels Traffic Analysis

Reporter von Panorama und STRG_F haben recherchiert,10 dass das BKA und die Generalstaatsanwaltschaft Frankfurt am Main in den Ermittlungen gegen die Pädoplattform Boystown11 (ein Onion Service) mehrere Timing Analysen, auch Traffic Analysis genannt, erfolgreich durchführten. Diese Art von Angriff ist möglich, da Tor ein Anonymisierungsnetzwerk mit niedriger Latenz ist. Dadurch können Sequenzen gesendeter Pakete (z.B. nach Anzahl, zeitlichen Abständen, Umfang des Datenverkehrs etc.), die an verschiedenen Punkten im Netzwerk korrelieren, mit einfachen statistischen Mitteln verknüpft werden. Um den Angriff erfolgreich durchzuführen, betrieben die Behörden über Jahre eigene Tor-Knoten und überwachten bestehende Knoten über mehrere Monate hinweg. Zudem kooperierte das BKA mindestens mit niederländischen Behörden in der Überwachung des Tor-Netzwerks. Deutschland und die Niederlande sind die beiden Länder, in denen mit Abstand die meisten Tor Server betrieben werden.12 Daher kann bei einer Kooperation der Behörden dieser Länder zumindest theoretisch ein signifikanter Teil des Netzwerks überwacht werden. Mittels des Betriebs eigener Knoten und der oben genannten Traffic Analysis gelang es den Behörden mindestens viermal den Guard-Knoten von Verdächtigen aufzudecken. Dieser sogenannte Guard-Discovery-Angriff war der erste Schritt in der Deanonymisierung des Onion Services: Er lieferte die IP-Adresse des Guard-Knotens und damit den Ansatzpunkt für weitere Angriffe auf die Anonymität des Onion Service selbst.

Die erfolgreiche Deanonymisierung gelang, weil die Behörden einen langen Atem bewiesen und mehrere sehr schwer zu bewerkstelligende Teil-Angriffe miteinander verknüpften. Nach allem, was wir wissen, lassen sich als grober Überblick mindestens die folgenden Schritte herauskristallisieren: 13

    1. Identifikation des Angriffsziels (Onion-Adresse)14

    2. Betrieb eigener15 bzw. Überwachung existierender Tor-Knoten

    3. Guard-Discovery-Angriff mittels Timing Analyse

    4. Eingrenzung der IP-Adresse des Ziels auf das Telefónica-Netz

    5. IP-Catching durch Telefónica

Wir wollen nun einige dieser Schritte detaillierter beleuchten. Laut dem Tor Project basierte der konkrete Angriff darauf, dass der Verdächtige den seit 2017 nicht mehr weiterentwickelten Messenger Ricochet verwendete.16 Immer wenn der Messenger online ist, erstellt er einen Onion Service, über den Nachrichten ausgetauscht werden können.17 Die Adresse des Onion Services ist zugleich die Nutzer:innen-ID. Sie bleibt daher dauerhaft gleich und es ist anhand des Onion Service Descriptor in Echtzeit ersichtlich, wann die Betreiber:in online ist. Die Behörden nutzten bei dem Angriff auf Ricochet aus, dass es möglich ist, beliebig viele Nachrichten, beliebiger Größe an den Onion Service zu schicken. Dabei erstellt der Onion Service jedes mal eine neue Verbindung zu einem RP. Es ist also nur eine Frage der Zeit, bis ein vom Angreifer kontrollierter Mittelknoten gewählt und damit auch die IP-Adresse des Guard-Knoten bekannt wird. Da der Angreifer den Datenfluss kontrolliert, d.h. selbst bestimmt, wann er Nachrichten sendet, kann er sehr leicht einen verdeckten Kanal innerhalb des Torprotokolls oder einen Seitenkanal ausnutzen, z.B. über Verzögerungen der einzelnen Pakete, die zu einer Nachricht gehören. So lässt sich am vom Angreifer kontrollierten Mittelknoten feststellen, dass es sich tatsächlich um die gesuchte Verbindung zum Onion Service handelt.18

Nachdem der Guard-Knoten identifiziert war, ordnete das Amtsgericht Frankfurt a.M. am 17. Dezember 2020 an, dass Telefónica alle 43 Millionen Kund:innen für drei Monate überwachen sollte, um herauszufinden, welche davon sich mit dem identifizierten Guard-Knoten verbinden.19 Bereits nach wenigen Tagen konnten die Behörden den Betreiber von Boystown auf diese Weise identifizieren. Unklar bleibt, woher die Ermittler:innen wussten, dass der Verdächtige Telefónica-Kunde ist. Angeblich erhielt das BKA einen Tipp von einer ausländischen Behörde. Doch auch dann lässt sich nur spekulieren, woher die Eingrenzung auf Telefónica stammt. Wahrscheinlich ist, dass die Behörden nach der erfolgreichen Aufdeckung des Guard-Knotens weitere Netzwerkanalysen durchgeführt haben, durch die sie zwar nicht direkt die IP-Adresse des Onion Services, aber zumindest das Autonome System (AS)20 ableiten konnten. Dieses Vorgehe wurde möglich, weil erstens der Guard-Knoten bereits bekannt war und zweitens die Angreifer (wie oben beschrieben) selbst bestimmen konnten, wann Daten in Form von Chatnachrichten zwischen dem Guard-Knoten und dem Onion Service gesendet wurden. Denkbar wären solche Analysen auf aggregierten Flussdaten zwischen AS’s etwa mit dem Protokoll Netflow, das auf den meisten Internetroutern läuft und zu deren Monitoring entwickelt worden ist. Forschungen21 zeigen, dass es unter Umständen schon reichen kann, auf die Netflow Records normaler Internetrouter zuzugreifen, die sich in der Nähre des bekannten Guard-Knoten befinden, um den Kreis der Verdächtigen etwa auf ein AS einzugrenzen. Bis zur Veröffentlichung weiterer Details bleiben solche Überlegungen jedoch spekulativ.

Fest steht, dass zur Deanonymisierung des Onion Services eine ganze Reihe anspruchsvoller, aufwendiger und langwieriger Angriffe verknüpft werden musste. Wir müssen davon ausgehen, dass die internationale Kooperation der Behörden und die technischen Fähigkeiten in den vier Jahren seit diesem Angriff nicht abgenommen haben.22 Vermutlich ist es auch kein Zufall, dass der erste öffentlich bekannt gewordene Fall dieser Art Ermittlungen gegen eine Pädoplattform betrifft – dürfte die gesellschaftliche Akzeptanz gegenüber weitreichenden Überwachungsmaßnahmen wie bei Telefónica hier am größten sein.23

Wie reagiert das Tor Project?

Das Tor Project ist die Organisation, die sich um die Entwicklung der Tor Software, die Betreuung der Community und die Überwachung der Gesundheit des Netzwerks kümmert – wobei die letzten beiden Punkte auch maßgeblich durch andere Organisationen mitgetragen werden. In einem Blogpost24 hat sich das Tor Project zu den Angriffen geäußert und insbesondere mehr Informationen erbeten, um den Angriff im Detail besser verstehen zu können und mögliche Gegenmaßnahmen ergreifen zu können. Außerdem weist die Organisation darauf hin, dass der Angriff gegen den seit vielen Jahren nicht mehr weiterentwickelten Tor-basierten Messenger Ricochet u.a. deswegen möglich wahr, weil inzwischen ausgerollte Verbesserungen bei der Auswahl der Knoten einer Verbindung nicht verwendet wurden. Konkret handelt es sich dabei um die Erweiterung Vanguards, die sogenannte Guard-Discovery-Angriffe vor allem dadurch erschweren soll, dass nicht nur der Eintrittsknoten über einen längeren Zeitraum beibehalten wird, sondern auch die verschiedenen Ebenen der Mittelknoten. Durch diese Veränderung wird es für einen Angreifer wesentlich unwahrscheinlicher und damit aufwendiger, den Mittelknoten nach dem Guard zu kontrollieren und so den Guard-Knoten aufzuspüren.25 Allerdings sollte an dieser Stelle auch erwähnt werden, dass die Vanguards-Erweiterung zwar 2018 als Add-On veröffentlicht, jedoch erst 2022 in der Lite-Variante in C-Tor implementiert wurde. 2020 hätte es also noch manueller Zusatzschritte bedurft, um Vanguards zu nutzen.

Das Tor Project schätzt den Angriff so ein, dass er nur gegen Onion Services durchgeführt werden konnte, insbesondere weil nur hier der Angreifer in der Lage ist, Tor dazu zu zwingen, neue Verbindungen aufzubauen. Verbindungen von einem Client seien demnach weiterhin sicher. Allerdings zeigt aus unserer Sicht die prinzipielle Machbarkeit eines solches Angriffs, dass – ausreichende Motivation der Geheimdienste und Ermittlungsbehörden vorausgesetzt – in Zukunft möglicherweise vergleichbare Angriffe auch gegen Tor-Clients erfolgreich durchgeführt werden könnten. Außerdem gibt es insbesondere bei aktiviertem Javascript oder Anwendungen, bei denen über einen längeren Zeitraum Daten fließen, wie Instant Messaging auch für Clients eine erhöhte Anfälligkeit gegenüber Guard-Discovery-Angriffen bzw. den darauf folgenden Angriffsschritten.26

Gesundheit des Tor-Netzwerks

Das Neuartige an dem Angriff auf die Tor-Anonymisierung ist, dass nun offenbar erstmals bestätigt ein theoretisch schon immer für möglich gehaltener Angriff von Ermittlungsbehörden praktisch erfolgreich durchgeführt worden ist. Um dies zu erreichen, wurden bedeutende Teile des Tor-Netzwerks überwacht oder gleich selbst von den Behörden betrieben. Es stellt sich also die Frage, ist das Tor-Netzwerk noch gesund oder kontrollieren die Ermittlungsbehörden in den USA und der EU schon so weite Teile, dass wir sie als globalen Angreifer betrachten müssen?

Diese Frage lässt sich nicht ohne Weiteres beantworten. Denn prinzipiell ist es möglich Tor-Knoten anonym zu betreiben. Auch wissen wir derzeit noch relativ wenig darüber, welchen Umfang die Kooperation der Behörden unterschiedlicher Jurisdiktionen tatsächlich hat. Geschieht dies nur bei großen Pädoplattformen oder ist es längst gängige Ermittlungspraxis? Sicher ist jedoch, dass das Tor-Netzwerk nicht divers genug aufgestellt ist. Ein Großteil der existierenden Knoten befindet sich in wenigen EU-Staaten und den USA. Außerdem stehen die Tor-Knoten in verhältnismäßig wenig Rechenzentren, d.h. sie befinden sich in wenigen AS’s und ihr Traffic geht durch die gleichen Internet Exchange Points (IXPs)27.28

Die Zeit der Ermittlungen gegen Boystown fällt zusammen mit dem bisher größten bekannt gewordenen Betrieb von Tor-Knoten durch einen bösartigen Akteur: KAX17.29 Es ist möglich, aber nicht gesichert, dass diese Knoten u.a. für die oben geschilderten Angriffe genutzt wurden. Auch wenn die Absichten von KAX17 letztlich nicht bekannt sind, erwähnen wir den Fall. Denn er zeigt exemplarisch, wie anfällig, das Tor-Netzwerk gegenüber motivierten Angreifern mit großen Ressourcen, also z.B. staatlichen Stellen ist. Diese sind in der Lage, so große Teile des Netzwerks über ländere Zeit hinweg selbst zu betreiben, dass Angriffe, wie die oben beschriebenen, überhaupt erst möglich werden. KAX17 betrieb mindestens von 2017 bis November 2021 zahlreiche Knoten in allen Position (Guard-, Mittel-, Exit-Knoten) im Tor-Netzwerk trotz mehrfacher Versuche die bösartigen Knoten zu entfernen. Die Knoten wurden schließlich im November 2021 entfernt. Allerdings ist es für Tor ein praktisch kaum lösbares Problem, bösartige Knoten rechtzeitig zu entdecken und entfernen. Ein paar Zahlen zum Ausmaß von KAX17:

    • Zeitweise wurden über 900 Knoten in über 50 verschiedenen AS’s betrieben mit 155Gbit/s Bandbreite.

    • Die Wahrscheinlichkeit einen KAX17-Knoten als Guard auszuwählen betrug maximal 16%.

    • Die Wahrscheinlichkeit einen KAX17-Knoten als Mittelknoten auszuwählen betrug maximal 35%.

    • Die Wahrscheinlichkeit einen KAX17-Knoten als Exit-Knoten auszuwählen betrug maximal 5%.

    • KAX17 versuchte in Diskussionen aktiv Einfluss darauf zu nehmen, bösartige Knoten nicht aus dem Netzwerk zu entfernen.

Die Tatsache, dass so wenige Exit-Knoten betrieben wurden und so viele Mittelknoten deutet darauf hin, dass ein Ziel von KAX17 Deanoymisierungsangriffe gegen Onion Services gewesen sein könnten.

Soll ich Tor weiter nutzen?

Nach all dem stellt sich die Frage: Soll ich Tor (weiter) nutzen und wie viel Vertrauen kann ich in die Anonymisierung durch Tor setzen? Eine pauschale Antwort ist schwierig, da es darauf ankommt, wozu genau Tor genutzt wird und gegen welche Angreifer:innen ich mich schützen möchte. Dennoch hier ein paar allgemeine Überlegungen:

    • Es ist immer besser offline zu machen, was möglich ist.

    • Tor ist das beste Werkzeug, das wir haben. Es ist auf jeden Fall besser, online Tor zu verwenden als keine Werkzeuge zur Anonymisierung oder etwa VPNs, die neben zusätzlichen Problemen ebenfalls durch die beschriebenen Angriffe verwundbar sind.

    • Einen Onion Service über mehr als einen Monat zu betreiben, ist nicht empfehlenswert, wenn davon auszugehen ist, dass Repressionsorgane großen Aufwand betreiben werden, um diesen zu deanonymisieren. Das betrifft auch die dauerhafte Wiederverwendung etwa von OnionShare-Adressen.30

    • Wenn ihr trotz der Risiken einen anonymen Onion Service betreiben möchtet, der nicht öffentlich bekannt sein muss, gebt die Adresse nur auf sicheren Kanälen weiter. Damit erschwert ihr es Ermittlungsbehörden, den Onion Service überhaupt zu finden und ihnen fehlt der Ansatzpunkt für den hier beschriebenen Angriff.

    • Es ist nach allem, was wir bisher wissen, weiterhin relativ sicher den Tor-Client zu benutzen. Es ist auch sicherer Onion Services aufzurufen als die normalen Domainnamen, da die Daten in diesem Fall das Tor-Netzwerk gar nicht verlassen und die Kommunikation mit Onion Services immer authentifiziert und verschlüsselt ist.

    • In den Einstellungen des Tor Browsers sollte eine möglichst hohe Sicherheitsstufe gewählt werden und Javascript deaktiviert sein, wenn es nicht unbedingt benötigt wird.

    • Tor ist insbesondere dann unsicher, wenn sowohl der genutzte Dienst als auch der genutzte Internetzugang oder die Nutzer:in selbst bereits überwacht werden,31 d.h. wenn ich im überwachten Netzwerk im örtlichen Autonomen Zentrum mein Bekennerschreiben, bei einer ebenfalls überwachten Seite veröffentliche, stehen die Chancen für die Behörden nicht schlecht, dass sie das zuordnen können. Dann stellt sich nur noch die Frage, ob sie wissen, wer zu diesem Zeitpunkt im AZ war und möglicherweise dafür verantwortlich ist. Hier wird klassische Polizeiarbeit vermutlich recht erfolgreich sein.

    • Für kritische Recherchen und Veröffentlichungen empfiehlt es sich, wechselnde Orte zu verwenden, die nicht schon durch vorherige Aktivitäten verbrannt sind. Dabei sollte man natürlich nicht beobachtet werden. Letzteres ist in Zeiten immer weitgehender Videoüberwachung (mit Gesichtserkennung) zunehmend schwieriger. Ein solches Vorgehen bietet aber auf jeden Fall einen Schutz gegenüber dem nun von Telefónica durchgeführten IP-Catching.

    • Für kritische Recherchen und Veröffentlichungen aus öffentlichen Netzen empfiehlt es sich, randomisierte MAC-Adressen zu verwenden und sicher zu gehen, dass kein Fingerprinting der WLAN-Karte möglich ist. Dies ist am Einfachsten zu erreichen, indem Tails in Kombination mit einem externen WLAN-Adapter verwendet wird, der anschließend sicher entsorgt wird.32

Wir hoffen bald noch weitere praktische Maßnahmen empfehlen zu können und werden uns auch noch einmal genauer mit Tails beschäftigen, da dort keine persistenten Guard-Knoten verwendet werden. Das soll heißen: ggf. kommt noch ein weiterer Text zu dem Thema.

Welche strategischen Konsequenzen ziehen wir?

Die in Kooperation von Behörden aus mehreren Staaten erfolgreich durchgeführte Deanonymisierung eines Onion Services wirft strategische Fragen auf, die über den sicheren Einsatz von Tor und Tails als Werkzeuge der digitalen Selbstverteidigung hinaus weisen. Wir stehen in unserer Diskussion erst am Anfang, möchten aber schon jetzt einige unserer Fragen teilen:

    • Lohnt es sich das Tor-Netzwerk (als Teil autonomer Politik) zu stärken, weil es so wesentlich ist für die eigene Handlungsfähigkeit oder ist das eine Verschwendung von Ressourcen und damit eine Aufgabe, die bürgerliche Organisationen wie Reporter ohne Grenzen mit großem Spendenaufkommen besser erledigen können?

    • Wie ist es wirklich bestellt um den Zustand des Tor-Netzwerks? Wie viele Knoten werden von Angreifern betrieben oder komplett überwacht und wie lange dauert es, bis wir davon erfahren? Wie schwierig sind Deanonymisierungsangriffe überhaupt noch in Zeiten internationaler Kooperation der Repressionsbehörden aus den Ländern, in denen die meisten Tor-Knoten stehen?

    • Macht es mittelfristig Sinn eine grundlegende technische Überarbeitung/ Erweiterung des Tor-Protokolls anzustreben? Wie sinnvoll wäre es etwa einen dauerhaften Cover-Traffic zu erzeugen oder Multipathing zu nutzen? Wie sinnvoll wäre es höhere Latenzen in Kauf zu nehmen, und in Richtung Mix-Netzwerke zu gehen, d.h. zufällige Verzögerungen bei der Weiterleitung der Datenpakete innerhalb des Netzwerks einzuführen, um Traffic Analysis zu erschweren?

    • Welche politischen Konsequenzen hätte es, wenn Tor derart unsicher ist/wird, dass wir es trotz aller Zusatzmaßnahmen nicht mehr vertreten können, es für kritische Aktivitäten zu verwenden. Können wir dann überhaupt noch anonym im Internet unterwegs sein? Welche Konsequenzen hätte es für die Bewegung, wenn das nicht mehr ginge? Müssen wir jetzt damit anfangen uns auf einen solchen Fall vorzubereiten? Wie können wir wieder unabhängiger werden vom Internet bzw. vom «anonymen» Internet?

___

Endnoten

1 Wer genauer erfahren möchte, wie Tor funktioniert und was bei der Verwendung zu beachten ist, sollte einen Blick in unsere Tails-Broschüre werfen: https://capulcu.blackblogs.org/neue-texte/bandi/

2 https://metrics.torproject.org/networksize.html

3 Transportverschlüsselung meint hier, dass die Kommunikation zwischen dem Tor Browser und dem Webserver unabhängig von Tor verschlüsselt ist. Der Tor Browser verwendet standardmäßig Transportverschlüsselung mittels HTTPS (im Unterschied zu HTTP, wo die Daten für den Exit-Knoten les- und veränderbar wären).

4 Der Vollständigkeit halber: auf dem Weg zurück zum Client kehrt sich das Prinzip um, d.h. die Antwort des Webservers wird von jedem Knoten einmal zusätzlich verschlüsselt und erst der Client entfernt beim Erhalt der Nachricht alle drei Verschlüsselungsschichten.

5 https://svn-archive.torproject.org/svn/projects/design-paper/tor-design.html

6 Bei Verwendung von Tor in Tails trifft dies nicht zu, da Tails den Zustand von Tor mit jedem Neustart verwirft. Die Tails-Entwickler:innen sind sich bewusst, dass die fehlende Verwendung von persistenten Guard-Knoten die Anfälligkeit gegenüber Deanonymisierungsangriffen wie dem hier diskutierten erhöht. Die Verwendung von persistenten Guard-Knoten hat jedoch insbesondere bei Verwendung von Tails an unterschiedlichen Orten auch Nachteile, da sie ein Tracking anhand der IP-Adresse der Guard-Knoten ermöglichen kann. Vgl. https://gitlab.tails.boum.org/tails/blueprints/-/wikis/persistent_Tor_state/

7 Wir kürzen Introduction Point mit IP ab und Internet Protokoll Adresse mit IP-Adresse.

8 Mit Verbindungen sind hier und im Folgenden sogenannte Tor-Circuits gemeint, also keine direkten Verbindungen, sondern eine wie oben beschriebene mehrfach verschlüsselte Verbindung über mindestens drei Knoten.

9 An dieser Stelle gibt es gravierende Unterschiede zwischen v2 und v3 Onion Services. V2 Onion Services sind veraltet und inzwischen abgeschaltet. Wir verzichten auf eine detaillierte Erörterung der Unterschiede.

10 https://www.ndr.de/fernsehen/sendungen/panorama/aktuell/Anonymisierungsdienst-Tor-angreifbar-Snowden-Effekt-verpufft,tor192.html und https://www.tagesschau.de/investigativ/panorama/tor-netzwerk-100.html

11 Boystown war eine der größten Darknet-Pädoplattformen aller Zeiten mit zeitweise 400.000 Nutzer:innen.

12 https://metrics.torproject.org/bubbles.html#country

13 Die Schritte 2-4 sind als direkte Angriffe gegen Tor und nicht unabhängig voneinander zu betrachten. Schritt 3 wäre ohne 2 z.B. so nicht möglich gewesen.

14 Es ist unklar, ob dies durch klassische Polizeiarbeit gelang oder durch einen weiteren Angriff gegen v2 Onion Services: onion address harvesting. Möglicherweise gelang es den Ermittler:innen auch die Community zu infiltrieren und so Zugang zu den Chats zu erhalten. Das uns nicht bekannt.

15 Dies wird auch als Sybil attack bezeichnet.

16 https://blog.torproject.org/tor-is-still-safe/

17 Ricochet verwendete noch die inzwischen abgeschalteten v2 Onion Services. Diese können von den HSDirs gefunden werden. Es ist unklar, woher die Behörden die Adresse dieses Onion Services hatten, z.B. ob diese durch klassische Ermittlungsarbeit zu erfahren war oder ob auch HSDirs betrieben haben, um den verdächtigen Service zu finden.

18 Prinzipiell lässt sich ein vergleichbarer Angriff auch gegen Echtzeitanwendungen fahren, die nicht auf einem Onion Service basieren (z.B. ein über Tor anonymisierter Jabber-Chat). Allerdings werden hier nicht beliebig schnell neue Verbindungen (Circuits) vom Tor-Client erstellt und der Angriff würde erheblich länger benötigen, bis ein bösartiger Mittelknoten ausgewählt wird.

19 https://www.tagesschau.de/investigativ/panorama/telefonueberwachung-telefonica–bka-ermittlungen-paedokriminelle-100.html

20 Das Internet ist kein flaches Netzwerk, sondern setzt sich aus vielen Teilnetzwerken, den AS’s zusammen. Diese werden jeweils von unterschiedlichen Anbieter:innen selbständig betrieben.

21 Vgl. https://murdoch.is/papers/pet07ixanalysis.pdf, https://mice.cs.columbia.edu/getTechreport.php?techreportID=1545&format=pdf, https://ieeexplore.ieee.org/document/9408011, https://spec.torproject.org/proposals/344-protocol-info-leaks.html

22 Während des Schreibens dieses Artikels wurde eine weitere große Pädoplattform im Darknet deanonymisiert: https://www1.wdr.de/nachrichten/ruhrgebiet/erfolgreicher-schlag-gegen-kindesmissbrauch-100.html

23 Ob das angeordnete “IP-Catching” zur Ermittlung der IP-Adresse des Verdächtigen rechtmäßig war, wurde aufgrund seines Geständnisses im Prozess nicht festgestellt und ist zumindest fragwürdig.

24 https://blog.torproject.org/tor-is-still-safe/

25 https://blog.torproject.org/announcing-vanguards-for-arti/

26 Vgl. https://petsymposium.org/popets/2022/popets-2022-0026.pdf

27 IXPs werden die Schnittstellen genannt, an denen viele unterschiedliche AS’s (z.B. Internet Provider) ihre Daten austauschen. Daher sind IXPs für eine weitflächige Überwachung des Datenverkehrs besonders prädestiniert. Der weltweit größte IXP befindet sich in Frankfurt a.M..

28 https://metrics.torproject.org/bubbles.html#as

29 https://nusenu.medium.com/is-kax17-performing-de-anonymization-attacks-against-tor-users-42e566defce8

30 Vgl. die Empfehlungen, wann Full Vanguards verwendet werden sollte: https://spec.torproject.org/vanguards-spec/full-vanguards.html

32 Eine ausführliche Besprechung des Trackings von Geräten und mögliche Schutzmaßnahmen dagegen finden sich in „Deanonymisierung eures WLAN-Adapters trotz Tails?“, Autonomes Blättchen, Nr. 49, https://autonomesblaettchen.blackblogs.org/wp-content/uploads/sites/1263/2022/06/nr49web.pdf

]]>
Der kommende KI-Winter https://capulcu.blackblogs.org/2024/09/11/der-kommende-ki-winter/ Wed, 11 Sep 2024 17:44:52 +0000 https://capulcu.blackblogs.org/?p=1078 Continue reading Der kommende KI-Winter ]]> Veranstaltungsreihe:

16.10.24 Winterthur | 17.10.24 Basel | 18.10.24 Bern

Große Sprachmodelle wie ChatGPT haben Millionen von Menschen beeindruckt und dazu bewegt, mit ihnen Texte, Bilder und Videos zu erzeugen. Und das obwohl die Ergebnisse vielfach nur oberflächlich überzeugen. Mittlerweile ‚droht‘ der Hype um diese Form von Künstlicher Intelligenz (KI) abzukühlen. Die Branche kann den selbst geweckten Erwartungen, dass hier etwas erwächst, dass schon bald ‚intelligenter‘ als wir sein wird, nicht gerecht werden. Wir blicken hinter die Kulissen und ergründen warum maschinelles Lernen auf die Rolle eines statistischen Papageis beschränkt bleibt und differenziertes Denken weiterhin unser Job sein wird.

Das Ringen um die technologische Vorherrschaft auf diesem Sektor geht trotz Ernüchterung unvermittelt weiter. Es ist ideologisch, ökonomisch und sogar militärisch insbesondere in der sich zuspitzenden USA-China-Krise um eine neue multipolare Weltordnung zu bedeutsam. Die Produktion von Höchstleistungschips für das aufwändige KI-Training sowie der Betrieb dieser Modelle in neuen Rechenzentren schlucken hunderte von Milliarden und sind verantwortlich für eine exzessive Verschwendung von Strom, Wasser, Metallen und seltenen Erden. Die Ökobilanz der Tech-Riesen verschlechtert sich durch den Ausbau von KI-Anwendungen drastisch – die vor wenigen Jahren selbstgesteckten Ziele von Google, Microsoft und Co, schon bald ‚klimaneutral‘ zu operieren, werden nun um Jahrzehnte nach hinten geschoben!

Wir diskutieren die komplexen Krisen-Auswirkungen der KI und fragen, an welchen Punkten es möglich sein könnte, der zerstörerischen Tech-Transformation nicht mehr nur zuzuschauen, sondern politisch einzugreifen.

]]>
Chipproduktion in der Multikrise https://capulcu.blackblogs.org/2024/05/25/chipproduktion-in-der-multikrise/ Sat, 25 May 2024 20:01:33 +0000 https://capulcu.blackblogs.org/?p=1025 Continue reading Chipproduktion in der Multikrise ]]> Die materielle Seite künstlicher Intelligenz

Von capulcu

Einleitung

Der Hype um sogenannte „künstliche Intelligenz“ (KI) erscheint uns in den meisten Debatten in rein virtueller Gestalt; als Versprechen einer quasi voraussetzungsfreien Automatisierung nahezu aller Lebensbereiche durch eine tiefgreifende Neugestaltung von Mensch-Maschine-Interaktionen auf der Basis menschlicher Sprache. Die politisch-ökonomischen Konsequenzen dieses technologischen Sprungs, insbesondere die Verstärkung gesellschaftlicher Ungleichheit und Abhängigkeit von einem technokratischen Oligopol (= die wenigen Hüter:innen der großen Sprachmodelle) haben wir bereits in Die Goldgräber der Künstlichen Intelligenz diskutiert.

Eine politisch relevante Verengung breiter Diskurse durch eine Überhöhung des Mainstreams gepaart mit einer zu erwartenden Rechtsverschiebung haben wir in ChatGPT als Hegemonieverstärker untersucht. Die Wechselwirkung sozialer Medien mit Sprachgeneratoren wie ChatGPT reduziert nachweislich diskursive Diversität und fördert gesellschaftliche Fragmentierung.

In diesem Text soll es bewusst um die materielle Seite künstlicher Intelligenz im Kontext mehrfach verschränkter Krisen gehen – insbesondere die ökologische Krise in Verbindung mit der Krise neuer Kriege um eine multipolare Weltordnung. Unser erster Text Klima – das grüne Vehikel der KI-Offensive hat das Thema bereits angerissen. Die KI entpuppt sich hinsichtlich der Klimazerstörung als Brandbeschleuniger und nicht, wie vielfach herbeifantasiert, als zentrales Lösungswerkzeug eines für den Menschen zu komplexen Optimierungsproblems.

Der massive Ausbau von KI-Rechenzentren frisst nicht nur beim Training und im Betrieb der großen Sprachmodelle enorm viel Energie (ein einziger Trainingsdurchlauf des aktuellen Sprachmodells GPT-4 kostet 64 Millionen Dollar Strom). Die Entwicklung und Produktion der Chips verschlingt Unmengen an Energie und Wasser – zudem werden seltene Metalle wie Germanium und Gallium benötigt, deren Extraktion massive Umweltschäden verursacht. Die meiste Computerhardware hat daher den Großteil ihrer klimaschädlichen Wirkung bereits entfaltet bevor sie das erste Mal eingeschaltet wird1. Zum energieintensiven Betrieb der Rechenzentren (aufaddierter Stromverbrauch der Prozessoren + deren aktive Kühlung) trägt danach die Entsorgung der mitunter gerade mal zwei Jahre genutzten Höchstleistungs-Hardware ebenfalls zum enormen ökologischen Fußabdruck bei.

Die USA und die EU nehmen derzeit viel Geld und andere Mittel in die Hand, um wieder eine „heimische“ Halbleiterindustrie aufzubauen – mit dem Ziel, die krisenbehaftete, technologische Vorherrschaft gegenüber dem erklärten „Systemrivalen“ China abzusichern. Dabei wird insbesondere die Künstliche Intelligenz als Schlüsseltechnologie ausgemacht: eine Technologie, die ohne die modernsten Mikrochips – designt von Nvidia im Silicon Valley/ USA und hergestellt von TSMC in Taiwan mit weltweit einzigartigen Belichtungsmaschinen von ASML aus Eindhoven/ Niederlande – nicht denkbar wäre. China hat indes wirtschaftlich und technologisch einen beispiellos rasanten Aufstieg hingelegt – bisher, ohne dass ein Ende in Sicht ist, auch wenn sich das chinesische Wirtschaftswachstum in den letzten Jahren etwas verlangsamt hat. In einigen Kernbereichen wie Elektromobilität, Hochgeschwindigkeitszügen, erneuerbare Energien und 5G lassen chinesische Unternehmen ihre westliche Konkurrenz inzwischen hinter sich. Sollte keine der Seiten ihre Interessen mit anderen Mitteln durchsetzen können, droht aus dem sich aktuell zuspitzenden Handelskrieg ein heißer Krieg zu werden. Das wirft die praktische Frage auf, ob und wie sich Krieg und eine weitere Militarisierung der Gesellschaft aufhalten lassen.

Chips sind seit ihren Anfängen eine wichtige Militärtechnologie. Wir deuten die geplanten Chipfabriken auch als Teil der notwendigen wirtschaftlichen Entflechtung zur Kriegsvorbereitung. Diese nun auch hierzulande entstehenden Chipfabriken (z.B. Intel in Magdeburg bzw. TSMC und Infineon in Dresden) sind daher Punkte, an denen Widerstand ansetzen kann und sollte, um in der derzeitigen multiplen Krise eine linke Kritik sowohl an fortschreitender ökologischer Zerstörung als auch an einer Normalisierung der Kriegslogik zu formulieren. Die Chipindustrie ist zugleich hochspezialisiert und global integriert: ganze Lieferketten hängen daher von den Produkten und dem Wissen einzelner Unternehmen und Standorte ab.

Dieser Text versteht sich als Einladung zur Debatte an herrschaftskritisch, ökologisch und antimilitaristisch Bewegte. Wir wünschen uns eine Diskussion und Praxis, die der weiteren Militarisierung und Umweltzerstörung entgegentritt. Lasst uns jetzt aus dieser Zukunft ausbrechen – Keep the future unwritten!

Chipboom mit ökologischen Konsequenzen

Der „Chiphersteller“ Nvidia ist aktuell einer der größten Profiteure des KI-Booms. Bei den Highend-Grafikchips wird die Produktion der Nachfrage längst nicht mehr gerecht. Seit ChatGPT Ende 2022 veröffentlicht wurde, hat sich der Wert des Unternehmens auf über zwei Billionen Dollar rund versechsfacht – und das, obwohl Nvidia selbst keine Chips produziert, sondern sie lediglich entwirft und in Auftrag gibt. Nvidia designt spezielle, für das maschinelle Lernen sogenannter künstlich-neuronaler Netze entworfene Hochleistungschips, die einfache Rechenoperationen im Parallelbetrieb vieler zusammengeschalteter „Prozessorkerne“ besonders effektiv abarbeiten können.

Nach einer in den 1960er Jahren aufgestellten (und immer noch gültigen), empirischen Vorhersage („Mooresches Gesetz“) verdoppelt sich über die Weiterentwicklung lithografischer Methoden bei der Chipproduktion die Zahl der Schaltkreise auf gleicher Fläche spätestens alle 2 Jahre. Das kommt in etwa einer Verdopplung der Leistungsfähigkeit der Chips gleich. Dadurch ergibt sich ein quasi-zyklischer Austausch von Computer-Hardware durch neuere, leistungsfähigere Hardware in vielen Anwendungsbereichen.

Dieser stetige Ersatz produziert massive Umweltschäden. Insbesondere in einer von Technokrat:innen avisierten Welt stetig steigender Verdatung und Vernetzung, in der alles mit allem kommunizieren soll (Smartifizierung über 5G-Netze / Industrie 4.0), steigt dieser (zyklische Ersatz-)Produktionsaufwand an Computerchips massiv an.

Zudem steigt das Ausmaß ökologischer Zerstörung für die Produktion eines einzelnen Chips mit zunehmender Leistungsdichte: Es dauert drei bis vier Monate, bis eine Siliziumscheibe (Wafer) die verschiedenen Stufen der Verarbeitung zum fertigen Produkt durchlaufen hat. Die Wafer werden in einer wachsenden Anzahl von Prozessschritten aufwändig bearbeitet, in denen mikroskopisch kleine Schichten aufgetragen, Muster eingebrannt und nicht benötigte Teile in vollautomatischen Verfahren abgekratzt werden. Die Spülung mit riesigen Mengen an Reinstwasser ist wichtiger Bestandteil dieser Prozedur.

Gehen wir von einem gleichgroßen Stück einer Siliziumscheibe für einen Computerchip aus, so benötigt die modernste 2nm-Prozesstechnologie zur Herstellung erheblich mehr Strom- (x3,5) und Reinstwasser (x2,3) gegenüber der älteren 28nm-Technologie. Der Ausstoß an Treibhausgasen (in CO2-Äquivalenten) steigt um das 2,5-fache (je Computerchip).2

Für den taiwanische Chiphersteller TSMC, den größten Auftragsfertiger der Welt, der unter anderem auch Apple beliefert, bedeutet das aktuell: TSMC ist für sechs Prozent des Stromverbrauchs in Taiwan verantwortlich. Die Ökobilanz ist katastrophal, denn Taiwans Strom speist sich fast zur Hälfte aus schmutziger Kohlekraft. Um die Wafer mit Reinstwasser zu reinigen, verbraucht das Unternehmen pro Tag 150 Millionen Liter Wasser. Und das obwohl Taiwan seit Jahren unter Trinkwasserknappheit leidet. Ausbleibende Regenfälle und Trockenperioden haben die Pegel der Wasserreservoire empfindlich sinken lassen. In einigen Städten Taiwans mussten bereits das Trinkwasser rationiert und der Wasserdruck reduziert werden, damit die globalen Lieferketten der wichtigen Halbleiter nicht gestört werden. Die Regierung lässt im ganzen Land nach Brunnen bohren und versucht wütende Reisbauern mit Kompensationszahlungen ruhigzustellen.3

In einem Papier vom Oktober 2020 haben Forscher der Harvard University4 öffentlich zugängliche Nachhaltigkeitsberichte von Unternehmen wie TSMC, Intel und Apple verwendet, um zu zeigen, wie mit der zunehmenden Verbreitung von Computern auch deren Umweltschädigungen zunehmen. Es wird erwartet, dass bis 2030 bis zu 20% des weltweiten Energiebedarfs auf die Informations- und Computertechnologie entfallen werden, wobei die Hardware für einen größeren Teil dieses ökologischen Fußabdrucks verantwortlich ist als der Betrieb eines Systems, so die Forscher: „Der größte Teil des Kohlenstoffausstoßes entfällt auf die Chip-Herstellung, nicht auf die Hardware-Nutzung und den Energieverbrauch“.

Das Ergebnis ist, dass die fortschrittlichsten Chiphersteller schon heute einen größeren CO2-Fußabdruck haben als einige traditionell umweltschädliche Branchen, wie etwa die Automobilindustrie. Aus den Unternehmensangaben geht beispielsweise hervor, dass die Fabriken von Intel bereits 2019 mehr als dreimal so viel Wasser verbrauchten wie die Anlagen des Automobilherstellers General Motors und mehr als doppelt so viel als gefährlich eingestufte Abfälle erzeugten.

Halbleiter sind die materielle Seite des informationstechnologischen Angriffs

Das Konzept des technologischen Angriffs dient uns dazu, Technologiekritik als Herrschafts- und Gesellschaftskritik zu entwickeln. Um zu verstehen, warum wir Innovationen und technischen ›Fortschritt‹ als Angriff charakterisieren,

„müssen wir uns klar machen, dass gerade die kapitalistischen Innovationstheoretiker:innen und -strateg:innen Innovation als umfassende Offensive konzipieren, als umfassenden Schock. Ein Schock, der auf die Zerstörung und Reorganisation nicht nur der Arbeit zielt, sondern der gesamten Gesellschaft in allen ihren Bereichen, von Arbeit über Verkehr, Familie, bis hin schließlich zu Erziehung und Kultur. Sie sehen Innovationen nicht schlicht als ›Erfindungen‹. Sie konzipieren sie als Einsatz von Basistechnologien, die das Potential zu umfassenden Zerstörungen oder auch »disruptions« und reorganisatorischen Unterwerfungen und Zurichtungen haben.“5

Der informationstechnologische Angriff, auf den wir uns hier beziehen, ist nicht der erste Innovationsangriff:

„So dienten in der sogenannten »industriellen Revolution« neue Maschinen (Dampfmaschine, automatische Webstühle etc.) dazu, nicht nur überkommene Arbeitsformen und darauf fußende Lebensgewohnheiten zu zerstören, sondern vielmehr die gesamte Bevölkerung ›aufzumischen‹. […] [Eine] darauf folgende Gewaltwelle wurde um die Elektro- und chemische Industrie gestartet. Sie war eng verbunden mit den Formen der Verhaltensdisziplinierung und mentalen Zurichtung durch Taylorismus und Fordismus. Ihr materieller Kern lag im Angriff der Technologie des elektrisch betriebenen Fließbands und seiner Utopie auf die ganze Gesellschaft. Als sein zentraler ›Erfinder‹ oder ›Innovator‹ nannte der Amerikaner Frederick Taylor selbst sein System ausdrücklich »Krieg« gegen die Autonomie der Arbeiter:innen (zumeist migrantische Bauernarbeiter:innen) und ihre unregulierten Lebensformen.“6

Informationstechnologie als Herrschaftstechnik

Weltweit stellen Informationstechnologien heute eine zentrale Säule in der Stabilisierung und Durchsetzung von kapitalistischer Herrschaft dar – sowohl zivil als auch militärisch/polizeilich. Ubiquitous Computing (zur allgegenwärtigen Erfassung und Verfügbarmachung sämtlicher Alltagsdaten z.B. über das Smartphone) und eine Künstliche Intelligente Modellierung dieser Daten (z.B. zur Verhaltensvorhersage) vor allem mit Techniken des Maschinellen Lernens sind erst durch die enormen Steigerungen der Speicher- und Rechenkapazitäten von Mikrochips in den letzten beiden Jahrzehnten ermöglicht worden.

Die wirtschaftliche Produktivität hängt längst von der Qualität und Verfügbarkeit von IT-Anwendungen und deren Hardware ab, gerade dort wo Arbeitskraft teuer ist. Die Automobilindustrie in Deutschland bekam dies während der Coronapandemie zu spüren, als die Produktion vorübergehend stillstand, da die benötigten Chips bzw. einfache Mikroelektronik aus Fernost nicht verfügbar war.

Das Repertoire an letztlich auf Informationstechnologien und der dafür benötigten Rechenleistung beruhenden Regierungstechniken, auch bekannt als „Digitalisierung“, ist dabei durchaus vielfältig. Nudging etwa scheint gut zum (post-)demokratischen Selbstverständnis der EU zu passen. Schließlich erlaubt es diese Technik mit hoher Wahrscheinlichkeit, erwünschtes Verhalten zu erzeugen. Ein anderes Beispiel sind die Sozialkreditsysteme, auf die die chinesische Regierung setzt und die einen hohen Druck zu sozial konformen Verhalten auf die Individuen ausüben. Diese unterschiedlichen, sich ergänzenden Herrschaftstechniken, führen zu einer tiefgreifenden Transformation der Gesellschaften. Sie sind daher ein Angriff auf das Leben und die Arbeit der Menschen. Die Regierungen beider – angeblich vollkommen unterschiedlicher politischer Systeme – erkennen die sich aus der Entwicklung der digitalen Technologien ergebenden Möglichkeiten und fördern deren Durchsetzung. Eine zentrale Wirkung des technologischen Angriffs ist die schöpferische Zerstörung (Schumpeter) existierender Sozialstrukturen und Formen der Gesellschaftlichkeit. Diese hat zwei wichtige Zwecke. Zum einen werden durch den Angriff immer neue Bereiche menschlichen Lebens im Sinne einer ursprünglichen Akkumulation für das Kapital in Wert gesetzt. Zum anderen ermöglicht der technologische Angriff die (näherungsweise) Vorhersage und Steuerung sozialen Verhaltens. Er zielt also darauf ab, eine prädiktive Kontrollgesellschaft herzustellen.

Computerchips sind eine entscheidende Ressource der Kriegsindustrie

Bereits kurz nach der Machtübernahme 1933 begannen die Nazis damit, die deutsche Wirtschaft auf den Krieg vorzubereiten. Der Anteil der Rüstungskosten am BIP stieg von 1933 bis 1938 von 1% auf 20%. Zu den getroffenen Maßnahmen gehörte auch der Bau von Stahlwerken, die hoch unwirtschaftlich waren, da sie mit billigem (z.B. sowjetischen) Stahl auf dem Weltmarkt nicht konkurrieren konnten. Der NS-Staat subventionierte die Industrie massiv und rechtfertigte dies mit der Notwendigkeit wirtschaftlicher „Autarkie“. Heute werden von jenen, die ihre nationale Wirtschaft „unabhängig“ von ausländischen Waren und somit bereit für den Krieg machen wollen, nicht mehr in erster Linie Stahl-, Aluminium- oder Kautschukwerke subventioniert, sondern vor allem Chipfabriken und Energiekonzerne. Die spätestens seit Beginn des Kriegs in der Ukraine massiv gestiegenen Rüstungsausgaben vieler Staaten gepaart mit dem Streben nach wirtschaftlicher „Unabhängigkeit“ in Schlüsselindustrien wie der Halbleiterfertigung und der Energieversorgung sowie die gleichzeitig stattfindende ideologische Aufrüstung („Russland ruinieren“) dienen einem gemeinsamen Ziel: „kriegstüchtig werden.“ So jedenfalls nannte es der deutsche Kriegsminister. Wenn dieses vorläufige Ziel erst einmal erreicht ist, wird es nur noch ein kleiner Schritt sein, auch tatsächlich Krieg zu führen. Russland hat zuletzt gezeigt, wie schnell das gehen kann.

Computerchips sind seit ihren Anfängen eine wichtige Militärtechnologie. Ausgangspunkt in der Entwicklung der ersten Computer war der zweite Weltkrieg. Die ersten Jahrzehnte waren stark von Investitionen und Anforderungen der Militärs geprägt. Obwohl seit den 1970er Jahren durch die Verbreitung von PCs, Laptops und schließlich von mobilen Geräten im zivile Bereich eine immer umfassendere Digitalgesellschaft aufgebaut wurde, ist der Einsatz für militärische Ziele weiterhin ein relevanter Motor der Halbleiterentwicklung. In riesigen Forschungs- und Entwicklungsprojekten wurden über Jahrzehnte militärisch-relevante Computertechnologien gefördert.

Schon lange werden selbst konventionelle Waffen wie Raketen, Bomben etc. mit Chips ausgestattet. Angeblich musste Russland im Ukrainekrieg wegen der Knappheit an Mikrochips diese zur Umgehung von Exportverboten aus weißer Ware (Waschmaschinen, etc.) ausbauen und in die eigenen Waffensystem einbauen.7 Mit zunehmender Vernetzung und Autonomie der Waffensysteme wird die Leistungsfähigkeit der IT-Systeme und damit auch die Verfügbarkeit von Mikrochips, die die nötige Rechenleistung bereitstellen, immer wesentlicher über die militärische Stärke entscheiden. Immer mehr KI-Anwendungen halten Einzug in militärische IT-Systeme: Chatbots á la Chat-GPT werden implementiert in Battle Managment Systeme (z.B. »AIP for Defense« von Palantir Inc.8) sowie in Simulationssysteme zur Entwicklung komplexer Entscheidungsverfahren bspw. bei der Abwehr gegnerischer Drohnenangriffe (z.B. »Ghostplay« vom Zentrum für Digitalisierungs- und Technologieforschung der Bundeswehr9) oder für Propagandazwecke und gezielten Desinformationskampagnen mit Hilfe von KI-generierten Fake-Bildern und -Texten. Nicht erst seit die Firma OpenAI im Januar 2024 die Zivilklausel zur Nutzung von ChatGPT gestrichen hat, sind die großen Sprachmodelle zum Dual Use (zivil+militärisch) geworden.

Modernste Halbleiter im Zentrum des Kampfes um technologische Vorherrschaft zwischen den USA und China

Im März 2023 verkündete die niederländische Regierung neue Restriktionen für die Ausfuhr von lithographischen Maschinen, also den Belichtungsmaschinen, die zentral für die Herstellung immer leistungsfähigerer Chips sind – auf Druck der US-Regierung. Seitdem wurden die Exportbeschränkungen immer weiter verschärft. Die Maschinen des mit knapp 90% Marktanteil größten Produzenten von Fertigungsanlagen für Chips, ASML, können seitdem nur noch mit Sondergenehmigung nach China exportiert werden. Ziel dieser Maßnahme ist es, es China zu erschweren, eine eigene (Hochleistungs-)Chipproduktion aufzubauen. China ist bereits jetzt der größte Chipproduzent der Welt bei veralteten Fertigungstechnologien ab 80nm und hat somit eine durchaus relevante eigene Industrie in diesem Sektor. Allerdings ist diese nicht in der Lage, die entscheidenden Hochleistungschips zu produzieren, welche etwa für moderne Server, Laptops, Smartphones und Grafikkarten benötigt werden. Insbesondere bei Halbleitern in Fertigungstechnologien unter 14nm liegt der Marktanteil des taiwanesischen Konzerns TSMC bei über 90%, wenngleich in den letzten Monaten immer wieder entscheidende Durchbrüche durch chinesische Unternehmen vermeldet wurden.10 Auch insgesamt produziert TSMC deutlich mehr als die Hälfte aller Chips weltweit. Die Auslagerung der Halbleiterfertigung aus den kapitalistischen Zentren nach Taiwan auf die andere Seite des Pazifik war Teil der neoliberalen Globalisierung und der damit einhergehenden Deindustrialisierung in vielen der Zentren selbst.

Insgesamt lässt sich für die Halbleiterindustrie festhalten, dass es einen hohen Spezialisierungsgrad gibt und (globale) Lieferketten an vielen Stellen von einzelnen Unternehmen oder Werken abhängen. Das bereits erwähnte niederländische Unternehmen ASML ist weltweit als einziges Unternehmen in der Lage, die modernsten Fertigungsanlagen zu bauen und warten. ASML selbst ist dafür auf die Produkte hochspezialisierter Zulieferern angewiesen. Der zur Belichtung der Wafer eingesetzte Hochleistungslaser wurde von dem Maschinenbau-Unternehmen Trumpf mit Sitz in Ditzingen entwickelt. Das Spiegelsystem, mit dem diese Laser ins Ziel gesteuert werden, stammt von der Firma Zeiss aus Oberkochen. Auch Zeiss rühmt sich damit, dass 80% aller weltweit hergestellten Mikrochips mit den eigenen optischen Systemen produziert werden.11 Doch damit nicht genug – in der Halbleiterfertigung selbst werden Hunderte von Chemikalien benötigt. Auch diese können teilweise nur von wenigen Unternehmen hergestellt werden. In Deutschland sind BASF und Merck zu nennen. Und – man ahnt es schon – auch von Merck wird behauptet, dass die hergestellten Chemikalien in beinahe jedem Mikrochip der Welt enthalten sind. Wegen ihrer Bedeutung für die Halbleiterfertigung diskutierte die Bundesregierung im April 2023 Ausfuhrbeschränkungen für die in Deutschland hergestellten Chemikalien nach China.12

China wiederum reagierte im August 2023 mit einer Exportbeschränkung von Gallium und Germanium in die EU. Diese Rohstoffe sind essentiell für die Herstellung von Mikrochips. China ist der weltgrößte Produzent der Mineralien Gallium und Germanium. Die EU bezieht 71 beziehungsweise 45 Prozent davon aus China. Mit Hochdruck versucht die EU samt ihres wichtigsten, westlichen Verbündeten, den USA, eine eigene Rohstoffbasis aufzubauen.

Der Wirschaftskrieg macht keinen Halt vor Verlusten der nationalen Unternehmen

Die Initiativen und Investitionsprogramme der USA, Chinas und inzwischen auch der EU, in der Halbleiterfertigung unabhängiger von Taiwan zu werden, sind nicht neu, sondern datieren mindestens bis in die Mitte der 2010er Jahre zurück. Dahinter steckt die Erkenntnis, dass Mikrochips nicht einfach ein beliebiges Industrieprodukt sind, sondern eine „Schlüsseltechnologie“ darstellen, wie es sich derzeit insbesondere in der Debatte um die Exportverbote für Nvidia-Chips zum Training von KI zeigt.13 Unter „unabhängiger werden,“ „de-coupling“ oder – wie die EU es nennt – „de-risking“ verstehen die Regierungen dieser Länder vor allem, dass ihre Fähigkeit, kapitalistische Gewinne zu erwirtschaften, bzw. ihre Fähigkeit, Krieg zu führen, nicht durch andere Staaten eingeschränkt werden darf. Es kann dabei keineswegs die Rede von einer einseitigen Sanktions- bzw. Protektionspolitik westlicher Staaten sein. Denn auch China ergreift harte Maßnahmen, um im „Chipkrieg“ Boden gutzumachen. So verbot die chinesische Regierung großen Unternehmen im eigenen Land, (Speicher-)chips beim US-Konzern Micron Technology zu kaufen. Diese Chips können in China selbst gefertigt werden – auch wenn der Markt in diesem Segment derzeit (noch) durch andere dominiert wird.

Alle wesentlichen Softwaretools zum Chipdesign gehören westlichen Firmen. China hat weniger als ein Prozent Marktanteil beim globalen Chipdesign. Die Belichtungsanlagen für Hochleistungschips können nur durch den niederländischen Konzern ASML hergestellt werden. Chinesische Firmen hingegen sind nur in stark veralteten Fertigungstechnologien konkurrenzfähig auf dem Weltmarkt. Derzeit existiert im Chipsektor also durchaus noch ein gewisser Vorsprung der USA vor China, doch er schmilzt rapide. Die USA und die EU sind außerdem ebenso „abhängig“ von der Fertigung in Taiwan wie China. Die angreifbaren Lieferketten mit Chips aus taiwanesischer Produktion stellen angesichts der wirtschaftlichen und militärischen Bedeutung aus Sicht der Regierungen ein enormes Risiko dar. Zumal sich keiner der Staaten sicher sein kann, diese Lieferketten notfalls durch militärische Drohungen und letztlich Krieg aufrecht erhalten zu können. Diese Ausgangslage lässt hoffen, dass das Risiko eines Krieges auf allen Seiten als zu hoch eingeschätzt wird. Denn die US-Regierung will mit allen Mitteln verhindern, dass China weiter aufholt, sowohl in Bezug auf das nötige Know-how etwa im Chipdesign als auch die vorhandenen Fertigungskapazitäten. Die chinesische Regierung ihrerseits hat sich mit ihrem Programm Made in China 2025 das Ziel gesetzt, bis 2049 weltweit führende Produktionsmacht zu werden. In China geht man also davon aus, dass die eigene Wirtschaft von der „regelbasierten Weltordnung“ stärker profitieren kann, als diejenigen, die seit ihrer Durchsetzung nach dem zweiten Weltkrieg die vornehmlichen Nutznießer:innen waren.

Die punktuelle Abkehr vom Freihandel in den USA und der EU ist die Bestätigung, dass diese Einschätzung auch dort geteilt wird. Das neoliberale Dogma der vergangenen Jahrzehnte wird vor dem Hintergrund des erfolgreichen chinesischen Staatsinterventionismus auch in diesen Ländern zunehmend in Frage gestellt. Um ihre globale Machtpositionen aufrechtzuerhalten, ist die US-Regierung willens, sogar großen Tech-Konzernen wirtschaftlichen Schaden zuzufügen. Apple ist beispielsweise wenig begeistert von der wirtschaftlichen Protektionspolitik der USA gegenüber China. Schließlich werden die Geräte des Konzerns dort zusammengesetzt, auch wenn sie in Kalifornien designt werden und die benötigten Chips nur in Taiwan von TSMC in ausreichender Qualität und Quantität gefertigt werden können. Anders als Unternehmen wie Google, die gerade im Bereich der Künstlichen Intelligenz chinesische Unternehmen auch als Konkurrenten fürchten müssen, hat Apple von der globalisierten Arbeitsteilung mit China vor allem profitiert und würde diese Geschäfte gerne fortsetzen.

China ist vom „Entwicklungsland“ zum „Systemrivalen“ aufgestiegen

Die Regierungen in den EU-Staaten und den USA haben in China den ersten ernstzunehmenden „Systemrivalen“ seit dem Zerfall der Sowjetunion erkannt. Denn sie sehen, dass die Volksrepublik auf dem Weg ist, möglicherweise die größte Volkswirtschaft der Welt zu werden und dabei bereits jetzt auch in Teilen des Hightech-Sektors führende westliche Unternehmen hinter sich lässt. So ist Huawei das Unternehmen, dass 2020 weltweit die meisten Patente angemeldet hat. Von diesem Unternehmen kommt ein Großteil der weltweit verbauten Netzwerktechnik, etwa für 5G. Auch in anderen Kernbereichen wie künstlicher Intelligenz sind die meisten wissenschaftlichen Veröffentlichungen inzwischen chinesischer Herkunft (obgleich die Qualität dieser Veröffentlichungen umstritten ist).

Naiv betrachtet mag es paradox erscheinen, dass die westlichen Staaten China als Rivalen oder Konkurrenten bekämpfen. Schließlich hat China sich doch innerhalb der „regelbasierten Weltordnung“ durch eine geschickte Wirtschaftspolitik und Öffnung für den kapitalistischen Weltmarkt von einem der ärmsten „Entwicklungsländer“ zur – gemessen am BIP – zweitstärksten Ökonomie der Welt entwickelt. Dass China dazu in der Lage war, ist ein Sonderfall, der in dieser Form offensichtlich nie vorgesehen war, von jenen, die „Entwicklung“ durch wirtschaftliche und politische Öffnung versprachen, dabei aber lediglich an den Zugriff auf Rohstoffe und Absatzmärkte dachten. Für die wirtschaftliche Entwicklung setzte die Kommunistische Partei Chinas (KPCh) unter Deng Xiaoping stark auf ausländische Investitionen. Allerdings wurde das westliche Kapital nicht bedingungslos ins Land gelassen. Die ausländischen Unternehmen mussten für ihre Investitionen Joint Ventures mit chinesischen Unternehmen eingehen. Außerdem waren ein Technologietransfer nach China sowie lokale chinesische Zulieferer Voraussetzung für die Investitionen und nur produktive Investitionen (z.B. der Bau von Produktionsanlagen) keine rein finanziellen Investitionen (z.B. Anteilskäufe bestehender Unternehmen) waren zulässig. Hinzu kam eine sehr restriktive Währungs- und Kreditpolitik. Mit dieser Strategie ist es in China gelungen, eigene konkurrenzfähige Unternehmen entstehen zu lassen. Dass die KPCh in der Lage war, diese Bedingungen gegenüber dem kapitalistischen Ausland auszuhandeln, hängt damit zusammen, dass es in China sowohl ein riesiges Reservoir billiger Arbeitskräfte als auch den entsprechenden Absatzmarkt gab. Die Größe des Landes hat den Standort für ausländisches Kapital so attraktiv gemacht, dass die Regierungen industrialisierter Staaten Kompromisse eingingen, die andere Staaten nicht erreichen konnten.

Die Erwartung der USA und führenden EU-Länder, dass mit der Öffnung des Marktes auch eine politische Öffnung einhergehen würde, hat sich nur in rudimentären Ansätzen erfüllt, beispielsweise der Schaffung eines Rechtsstaats als Voraussetzung für Kapitalinvestitionen. Viele der anderswo erfolgreich angewendeten Machttechniken des wirtschaftlichen Abhängigmachens (Sanktionen, Verschuldung, Unternehmensübernahmen etc.), sowie der zivil-gesellschaftlichen Einflussnahme (beispielsweise durch die Förderung von NGO-Netzwerken, Journalist:innen und Aktivist:innen) waren in China von außen effektiv kaum anwendbar. Das ist kein Zufall, sondern der Tatsache geschuldet, dass die KPCh sich der Risiken äußerer Einflussnahme bei der Öffnung des Landes sehr bewusst war. Begreifen wir die wirtschaftliche Öffnung als Strategiewechsel der chinesischen Eliten nach Maos Tod, so wird deutlich, dass die Kontinuität zum sozialistischen China nach Außen im Nationalismus und nach Innen im Paternalismus der KPCh liegt. China zu einem Land von Weltgeltung zu machen, war schon unter Mao das erklärte Ziel (noch vor dem Sozialismus). Dieses Ziel lässt sich in der real existierenden Welt effektiver mit kapitalistischen Mitteln verfolgen als mit sozialistischen. Dass die Entwicklung der Volksrepublik zu einem Staat auf Augenhöhe (sowohl wirtschaftlich als auch politisch) von den bisherigen Platzhirschen nicht ohne weiteres geduldet wird, zeigt sich an den immer lauter werdenden Feindschaftserklärungen in der hiesigen medialen Berichterstattung. Und das, obwohl eine derartige wirtschaftliche Entwicklung nach Maßstäben der europäischen und der US-Regierung ‚Vorbild‘ für viele andere Länder sein könnte. Anders als die Regierungen parlamentarischer Demokratien kann die KPCh nicht nur den Ablauf einer Legislaturperiode planen, sondern langfristige Strategien verfolgen, wie z.B. die der Neuen Seidenstraße.

Framing Chinas als autoritärer Unrechtsstaat

Zweifelsohne ist China ein autoritärer Unrechtsstaat – jedoch versuchen sowohl die USA als auch die EU aus einer wirtschaftlichen und politischen Konkurrenz zu China eine betont moralische Konkurrenz zu konstruieren, die China als autoritären Willkürstaat einem ‚demokratischen Westen‘ gegenüberstellt. Dies zeigt sich etwa an der Berichterstattung über die Proteste in Hongkong, „die Taiwanfrage“ und die Unterdrückung der Uighur:innen. Es gibt gute Gründe, das Vorgehen der chinesischen Regierungen zu kritisieren. Sie verfolgen in erster Linie nationale Interessen und die Absicherung ihrer eigenen Herrschaft. Die – übrigens von westlichen Staaten selten kritisierte – Einführung des Kapitalismus etwa wurde gänzlich autoritär über die Köpfe der Menschen in China hinweg durchgesetzt und ist sicherlich einer der Hauptgründe, warum es dort heute so viele gesellschaftliche Gegensätze und damit einhergehend Proteste, Streiks usw. gibt.14 In diesen sozialen Auseinandersetzungen und Arbeitskämpfen zeigt sich übrigens auch, dass sich das hierzulande oft gezeichnete Bild der konfuzianistisch-konformistischen Chines:in nicht aufrecht erhalten lässt. In der Beurteilung der Niederschlagung dieser Proteste wird in der hiesigen Berichterstattung offensichtlich mit unterschiedlichem Maß gemessen. In der Region Xinjiang beispielsweise haben mehrere islamistische Anschläge gegen Han-Chines:innen stattgefunden mit teils hunderten Toten. Wie haben demokratische Staaten auf Vergleichbares reagiert? Die USA beispielsweise haben nach dem 11. September 2001 gleich mehrere Angriffskriege mit Hunterttausenden Toten geführt. Dieses Vorgehen sollten sich US-Außenminister:innen zum Maßstab machen, wenn sie China für die Menschenrechtsverletzungen an den Uighur:innen in Xinjiang kritisieren. Aus emanzipatorischer Sicht gibt es keinen Grund, für eine der Seiten Partei zu ergreifen.

Ein anderes Beispiel für die unterkomplexe Betrachtung in den hiesigen Medien ist Taiwan. Die vor dem chinesischen Festland gelegene Insel, ist nicht nur wegen der ansässigen Halbleiterindustrie von Bedeutung, sondern auch wegen ihrer geographischen Lage wichtig als Marine- und Luftwaffenstützpunkt zur Kontrolle der Straße von Taiwan, einer der meistbefahrenen Handelsrouten der Welt. Auf diese Insel haben sich nach der Niederlage im Bürgerkrieg 1949 die Kuomintang zurückgezogen. Bis in die 80er/90er Jahre regierten sie dort in Einparteiendiktatur, wobei sie als Verbündete der USA gegen das kommunistische China auch entsprechende Waffenlieferungen erhielten (und auch schon vor ihrer Flucht nach Taiwan erhalten hatten). In den 70er und 80er Jahren wollten die USA, China aus dem sozialistischen Block lösen. Um diese Öffnung und diplomatische Beziehungen mit der Volksrepublik zu erreichen, schlossen sie drei Verträge, die die Ein-China-Politik anerkannten und auch den Rückzug eigener Truppen sowie ein Ende ihrer Waffenlieferungen an Taiwan vereinbarten. An letzteres haben sich die US-Regierungen eigentlich nie gehalten. Der demokratische Präsident „Yes we can“-Obama genehmigte sogar 14 Mrd. US-Dollar an Waffenlieferungen für Taiwan. Seine Nachfolger Trump und Biden setzten diese Politik fort.

Auch die Bundesrepublik unterstützt formal die Ein-China-Politik unter Deng Xiaopings Leitsatz „Ein Land, zwei Systeme,“ womit auf Hongkong und Macau Bezug genommen wird. Wenn die deutsche Außenministerin also sagt: „Wir akzeptieren nicht, wenn das internationale Recht gebrochen wird und ein größerer Nachbar völkerrechtswidrig seinen kleineren Nachbarn überfällt – und das gilt natürlich auch für China.“ Dann kann die Rede von den zwei Nachbarn durchaus als Revision der Ein-China-Politik gelten. Schließlich besagt das Ein-China-Prinzip, dass es sich nicht um Nachbarn, sondern ein einziges Land handelt. Es ist müßig, sich über das Ein-China-Prinzip zu streiten, geht es hier doch mitnichten um soziale Fragen oder die Selbstbestimmung der Menschen, sondern die territorialen Herrschaftsansprüche von Staaten und ihren Regierungen. Der Satz ist dennoch bemerkenswert. Denn er setzt den Rahmen für eine mögliche zukünftige militärische Eskalation des Konflikts mit der Volksrepublik, um damit die Legitimität einer wie auch immer gearteten Kriegsbeteiligung vorzubereiten. Beim Krieg in der Ukraine waren vergleichbare Rechtfertigungen zur Mobilisierung der eigenen Bevölkerung so erfolgreich, dass selbst vermeintliche Antimilitarist:innen und Anarchist:innen reihenweise auf Kriegskurs gingen.

Die Beschwörung des fundamentalen Gegensatzes von Demokratie und Autokratie, wie sie etwa vom US-Präsidenten zu hören ist, sollte vor dem Hintergrund der erklärten Systemrivalität verstanden werden. Während die parlamentarischen Demokratien immer neue autoritäre Elemente in ihre eigenen Herrschaftstechniken integrieren, zeigen sie zugleich mit dem Finger auf Staaten, wie den Iran, Russland oder China als das autoritäre Andere. Mit vergleichbar „undemokratischen“ Staaten wie Saudi Arabien oder der Türkei haben sie dagegen weniger Probleme. Für diese Entscheidungsträger:innen besteht kein Widerspruch darin, einerseits anzuprangern, dass in Russland das Demonstrieren mit einem leeren Plakat zur Verhaftung führt, selbst aber die Versammlungsfreiheit durch Polizeigesetze einzuschränken, den Ausbau staatlicher Überwachungsbefugnisse zu betreiben und ein grausames EU-Grenzregime durchzusetzen. Mit dieser Kritik sollen nicht alle Unterschiede eingeebnet werden, aber eine gewisse Skepsis gegenüber dem hierzulande von Politik und Medien gezeichneten Gut-Böse-Schema ist durchaus angebracht.

Was sind die Gründe dafür, das die genannten Zustände in dem einen Fall scharf kritisiert und in dem anderen Fall geflissentlich übergangen werden. Die identitäre Konstruktion des Kampfes eines „demokratischen Westens“ gegen einen „autoritären Osten“ weist erhebliche strukturelle Ähnlichkeiten zu altbekannten nationalistischen Diskursen zur Mobilisierung der eigenen Bevölkerung für den Krieg auf und wird der Komplexität der realen Machtverhältnisse nicht gerecht. Nationalistische Diskurse sind nicht verschwunden, sie werden jedoch innerhalb des Lagers des progressiven Kapitals (Stichworte: „Zeitenwende“, „the great reset“, „green new deal“ und „Bidenomics“) durch modernisierte Diskursen ergänzt und überlagert. Beide Diskurse bleiben auch innerhalb des „demokratischen Westens“ nicht absolut durchgesetzt, sondern umkämpft, wie Trump, AfD aber auch Christian Lindner zeigen. Diese Diskurse sind keineswegs neu. Ganz im Gegenteil – sie waren schon für die ersten bürgerlichen Revolutionen eine entscheidende Legitimationsgrundlage.

Fazit

Es gibt gute Gründe gibt, Widerstand gegen den Bau neuer Chipfabriken zu leisten. Denn die dort produzierten Halbleiter sind die stoffliche Basis eines technologischen Angriffs, der immer mehr Bereiche unserer Leben kapitalistisch in Wert setzt und auf eine patriarchale Optimierungs- und Kontrollgesellschaft abzielt. Gefühlsregungen werden erfasst und gelenkt, um unsere Leben zugunsten der Interessen seiner technokratischen Antreiber:innen zu optimieren. Wir bleiben dabei alleine und isoliert zurück. Unser Wunsch nach sozialer Gemeinschaft kann durch die digitale Interaktion am Bildschirm in ‚sozialen Netzwerken‘ nicht erfüllt, sondern lediglich unterdrückt werden. „Teile und herrsche“ ist keine neue Herrschaftstechnik, aber sie findet in der sozialen Atomisierung der digitalisierten Gesellschaft eine neue Qualität. Fürsorge, Gemeinschaft, Empathie und Körperlichkeit, verlieren an Bedeutung. Das Patriarchat in Verkörperung des deutschen Kriegsministers und der ‚feministischen‘ Außenministerin, möchte den ‚technologisch-ökonomisch autarkeren‘ Zustand der „Kriegstüchtigkeit“ wiederherstellen.

Dies zu verhindern, erfordert unmissverständliche Zeichen, dass wir eben kein Teil einer ‚geschlossenen Heimatfront‘ sind und die Konfrontationspolitik gegenüber China im Kampf um die technologische Vorherrschaft im Bereich der Halbleiter- und Informationstechnologien nicht ohne Widerstand durchzusetzen ist. Die Geschichte sozialer Bewegungen zeigt, dass sich gerade auf der materiellen Seite viele Möglichkeiten ergeben, Widerstand gegen (neue) Technologien als Herrschaftstechniken zu leisten.

Neue Halbleiterfabriken und der durch sie materiell eingelöste KI-Hype tragen nicht zur Lösung der Klimakrise bei. Im Gegenteil, sie verbrauchen enorme Mengen an Ressourcen. Es ist sogar besonders unsinnig, Halbleiter in Europa zu produzieren, wenn die weiterverarbeitenden Betriebe, in denen etwa unsere Smartphones zusammengebaut werden, wegen der Lohnkosten weiterhin in Ostasien liegen. Die Klimakrise lässt sich nicht durch KI oder andere technologische Entwicklungen auflösen, sondern es bedarf tiefgreifender sozialer Veränderungen. Diese Veränderungen wir könnten sie als soziale Revolution bezeichnen werden durch eine geistige Mobilmachung für die nächsten Kriege um technologische Vorherrschaft verhindert statt befördert.

Wir wünschen uns Widerrrede, Ergänzungen, Zustimmung, Weiterdenken und eine politische Praxis!

1 Das gilt übrigens auch für Standardkomponenten wie Laptops und Smartphones.

2 The environmental footprint of logic CMOS technologies, IMEC Studie, M.Bardon, B. Parvais (2020),

https://www.imec-int.com/en/articles/environmental-footprint-logic-cmos-technologies

3 https://taz.de/Oekologischer-Fussabdruck-von-KI/!5946576/

4U. Gupta et. al. (2020), Chasing Carbon: The Elusive Environmental Footprint of Computing, http://arxiv.org/pdf/2011.02839

5 IT – Der technologische Angriff des 21. Jahrhunderts“ in DISRUPT, https://capulcu.blackblogs.org/wp-content/uploads/sites/54/2018/10/Disrupt2018-11web.pdf

6 Ebda.

7 https://www.forbes.com/sites/erictegler/2023/01/20/is-russia-really-buying-home-appliances-to-harvest-computer-chips-for-ukraine-bound-weapons-systems/

8 „AIP for Defense“, Palantir, https://www.palantir.com/platforms/aip/defense/ .

9 „Ghostplay“, dtec.bw, https://www.ghostplay.ai/ .

10 https://www.ecns.cn/news/sci-tech/2023-11-29/detail-ihcvixpi0428703.shtml und https://www.reuters.com/technology/huaweis-new-chip-breakthrough-likely-trigger-closer-us-scrutiny-analysts-2023-09-05/

11https://www.handelsblatt.com/unternehmen/industrie/industrie-chipherstellung-eine-frage-der-chemie/24995018.html

12 https://archive.is/https://www.bloomberg.com/news/articles/2023-04-27/berlin-erwagt-exportbeschrankung-von-chip-chemikalien-nach-china

13 https://www.reuters.com/technology/how-us-will-cut-off-china-more-ai-chips-2023-10-17/

14 https://www.akweb.de/bewegung/daniel-fuchs-es-braucht-eine-linke-china-perspektive/

]]>
ChatGPT als Hegemonieverstärker https://capulcu.blackblogs.org/2023/11/17/chatgpt-als-hegemonieverstaerker/ Fri, 17 Nov 2023 15:11:23 +0000 https://capulcu.blackblogs.org/?p=959 EN: ChatGPT AS HEGEMONY BOOSTER
IT: ChatGPT COME STRUMENTO PROMOTORE DELL’ EGEMONIA

Eine Gesellschaft mit unechten Menschen, die wir nicht von echten unterscheiden können, wird bald gar keine Gesellschaft mehr sein.1 (Emily Bender, Computerlinguistin)

Die Künstliche Intelligenz (KI) erlebt aktuell ihren iPhone-Moment. ChatGPT hat einen beispiellosen Hype um künstliche Intelligenz ausgelöst. Innerhalb von zwei Monaten haben mehr als 100 Millionen Menschen weltweit die neue Technik ausprobiert.

Sprachmodelle – keine Wissensmodelle

Der Chatbot2 ChatGPT basiert auf einem sogenannten großen Sprachmodell, das wir uns wie einen sehr großen Schaltkreis mit (im aktuellen Fall von GPT-4) einer Billion justierbarer Parameter vorstellen können. Ein Sprachmodell beginnt als unbeschriebenes Blatt und wird mit mehreren Billionen Wörtern Text trainiert. Die Funktionsweise eines solchen Modells ist, das nächste Wort in einer Folge von Wörtern aus dem ‚Erlernten‘ zu erraten. Die Bedeutung von Worten ist für ein Sprachmodell lediglich die statistische Erfassung des Kontexts, in dem sie auftauchen.

Dieses Imitieren von Text-‚Verständnis’ bzw. ‚Wissen‘ über die Berechnung von Wahrscheinlichkeiten für das Auftauchen einzelner Wörter innerhalb von komplexen Wortmustern klappt teilweise verblüffend gut. Das Generieren von Inhalt ohne jegliches semantisches Verständnis hat natürlich den Nachteil, dass auch sehr viel Unsinn (im engeren Sinn) produziert wird. ChatGPT erzeugt mit dieser Taktik der Nachahmung von Trainingstexten beispielsweise wissenschaftlich anmutende Abhandlungen, inklusive ‚frei erfundener‘ Referenzen, die strukturell stimmig aussehen, aber nicht existieren. ChatGPT ‚erfindet‘ Dinge und produziert dadurch massenweise Fake-Inhalte – das liegt daran, dass es sich um ein statistisches Sprachmodell und nicht um ein wissensbasiertes Modell handelt.

Es ist daher für ein Restmaß an ‚Faktizität‘ im Internet wenig förderlich, dass Google und Microsoft die neuesten Versionen ihrer Suchmaschinen mit den jeweiligen Sprachmodellen ChatGPT bzw. Bard koppeln. Denn eines kann Künstliche Intelligenz in Form von Sprachmodellen noch weniger als jede aggregierte themenbasierte Internetsuche: Fakten prüfen. Da Sprachmodelle lediglich Wahrscheinlichkeiten von für sie bedeutungslosen Sprachformen berechnen, ist ein Faktencheck neuen ‚Wissens‘ (über die Trainingsdaten hinaus) ein blinder Fleck: Sprachmodelle leiden unter einem Phänomen, das Programmierer:innen „Halluzinieren“ nennen3. Sie sind darauf programmiert, (fast) immer eine Antwort zu geben, die auf der Ebene von ‚sich nahe stehenden‘ Wortgruppen eine hinreichend hohe Wahrscheinlichkeit haben, um für die Nutzer:in (nachträglich) Sinn zu ergeben. ChatGPT ist daher konzeptionell eine Fake-Maschine zur Produktion von plausibel erscheinenden, aber nicht notwendigerweise faktenbasierten Inhalten und damit hervorragend geeignet für die Verbreitung von Mis- oder gar Desinformation.

Damit verstärkt sich ein Effekt, der bereits durch das algorithmische Ranking bei den sozialen Medien erkennbar wurde. Nicht-faktengebundene Inhalte können so weit selbstverstärkend im individuellen Nachrichtenstrom ‚nach oben‘ gespült werden, dass Meinungsbilder verzerrt werden. Und damit ist die zentrale These dieses Textes:

ChatGPT ermöglicht das (automatisierte und voraussetzungslose) Produzieren von post-faktischen Inhalten, die im Wechselspiel mit der algorithmischen Reichweitensteuerung sozialer Medien und den Ranking-Algorithmen der Suchmaschinen statistisches Gewicht erlangen. Die Rückkopplung der so generierten Inhalte sozialer Medien in den Trainingsdatensatz der nächsten Generation von Sprachmodellen ermöglicht sogar eine Dominanz synthetischer Inhalte im Netz.

‚Kannibalismus‘ und Zensur bei wachsendem Anteil KI-generierter Inhalte

Eine derartige Dominanz hat messbare Konsequenzen. Die Größe von Sprachmodellen nimmt zu und damit auch der Bedarf an Trainingsmaterial für das maschinelle Lernen. Immer mehr synthetische Inhalte werden zum Training herangezogen, denn je mehr Inhalte KIs wie ChatGPT oder Google Bard produzieren, desto häufiger werden sie ihre eigenen Inhalte in ihren Datensatz aufnehmen. Das geschieht beim sogenannten Datenschürfen, bei dem automatisierte Programme nahezu alles an Daten aufsaugen, was frei im Internet verfügbar ist. Google bedient sich zudem bei den eigenen Anwendungen wie Gmail, in Speicherdiensten wie Google Drive oder Google Docs.

Durch das Wiederverdauen selbst generierter Inhalte entsteht eine „selbstverzehrende“ Rückkopplungsschleife, die einer nachweisbaren Störung unterliegt, der sogenannten Model Autophagy Disorder (MAD)4: Die Fehler zum Beispiel von Bild-Generatoren verstärken sich rekursiv zu regelrechten Artefakten und sorgen für eine abnehmende Datenqualität. Siehe dazu die Abbildung künstlich erzeugter Gesichter bei deren Wiederverwendung als Trainingsmaterial in der nächsten Generation (t=3) bzw. in übernächster Generation (t=5), usw. Noch wesentlicher ist eine massiv schrumpfende Diversität der Inhalte im Netz bei zu geringer Beimischung neuer, nicht-synthetischer Inhalte. Ähnliches lässt sich bei der Text-Erzeugung durch ChatGPT beobachten.

Bereits im April 2023 (kurz nach Freischaltung des kostenfreien Schnittstelle zur Nutzung von ChatGPT) hat NewsGuard rund 50 Nachrichten- und Informationsseiten in sieben Sprachen identifiziert, die fast vollständig von KI-Sprachmodellen generiert werden.5 Diese Webseiten produzieren eine Vielzahl von rein synthetischen Artikeln zu verschiedenen Themen, darunter Politik, Gesundheit, Unterhaltung, Finanzen und Technologie. Damit scheinen sich die Befürchtungen von Medienwissenschaftler:innen zu bestätigen: Zur Erzeugung von Werbeeinnahmen und / oder zur Debattenbeeinflussung verbreiten algorithmisch generierte Nachrichtenseiten KI-generierte Inhalte von fiktiven Verfasser:innen. Den meisten Leser:innen stehen keine Möglichkeiten zur Verfügung, diese Artikel als synthetisch zu identifizieren.6

Von Produktrezensionen über Rezeptsammlungen bis hin zu Blogbeiträgen, Pressemitteilungen, Bildern und Videos – die menschliche Urheberschaft von Online-Texten ist auf dem besten Weg, von der Norm zur Ausnahme zu werden. Pessimistische Prognosen sagen bis zum Ende dieses Jahrzehnts einen Anteil von bis zu 90% KI-generierter Inhalte im Internet voraus.7 Schon jetzt tauchen diese KI-generierten Texte in den Ergebnislisten der Suchmaschinen auf. Eingreifen will Google erst bei „Inhalten mit dem Hauptzweck, das Ranking in den Suchergebnissen zu manipulieren“.8

Wie sollen wir mit der Datenexplosion umgehen, die diese KIs nun verursachen werden? Wie verändert sich eine Öffentlichkeit, die so unkompliziert mit Mis- und Desinformation geflutet werden kann? Bei steigendem Anteil können derartige synthetische Inhalte den ‚Nutzen‘ des Internet drastisch reduzieren: Wer kämpft sich durch einen (noch viel) größeren Berg an quasi-sinnloser Information – ohne Bezug zur Lebensrealität menschlicher Autor:innen? Lässt sich feststellen, ob ein Text, ein Bild, eine Audio- oder eine Videosequenz durch eine KI generiert bzw. gefälscht wurde? Schon bieten Software-Hersteller Werkzeuge zur Detektion von KI-generierten Inhalten an – selbstverständlich ebenfalls auf der Basis einer künstlich-intelligenten Mustererkennung. Menschlich verfasste Texte sollen sich über statistische Abweichungen von den Wahrscheinlichkeitsmustern der verwendeten Wortgruppierungen der KI-Sprachmodelle unterscheiden lassen. Dies sind jedoch statistische Differenzen, deren Erkennung im Einzelfall damit hochgradig fehleranfällig ist.

Im Falle einer Dominanz von synthetischen Inhalten wird die Mehrheit der Nutzer:innen von Kommunikationsplattformen nach automatisierter Löschung rufen, da ein ‚unbereinigter‘ Nachrichtenstrom für sie zu viel und zu schwer erkennbaren ‚Unsinn‘ enthält. Damit ergibt sich eine Lizenz zum (immanent politischen) Löschen bzw. zur Unsichtbarmachung von Inhalten im Netz. Den Architekt:innen der nun anzupassenden Social Media-Algorithmen und den Datenaufbereiter:innen für Training und Output der großen Sprachmodelle kommt dann eine nicht hinnehmbare Macht innerhalb der politischen Öffentlichkeit zu:

Eine KI-basierte Bewältigung des Problems synthetischer Inhalte im Netz ist ein politisches Desaster für die historische Entwicklung des Internet, welches vorgab, die Demokratisierung der Wissenszugänge und des Informationsaustauschs voranzutreiben.

Die Machtkonzentration auf ein kleines Oligopol ist umso größer, als die Privatisierung von Sprachtechnologien massiv voranschreitet. Als die Chef-Entwicklerin von ChatGPT Mira Murati 2018 bei OpenAI startete, war das Unternehmen noch als gemeinnütziges Forschungsinstitut konzipiert: Es ging darum, „sicherzustellen, dass künstliche allgemeine Intelligenz der ganzen Menschheit zugutekommt“. 2019 folgte, wie gewöhnlich bei angehenden Einhörnern, die als offene Entwickler:innen-Projekte gestartet sind, die Abkehr vom Non-Profit-Modell. Die mächtigsten KI-Unternehmen halten ihre Forschung unter Verschluss. Das soll verhindern, dass die Konkurrenz von der eigenen Arbeit profitiert. Der Wettlauf um immer umfangreichere Modelle hat schon jetzt dazu geführt, dass nur noch wenige Firmen im Rennen verbleiben werden – neben dem GPT-Entwickler Open AI und seiner Microsoft-Nähe sind das Google, Facebook, xAI (neue Firma von Elon Musk), Amazon und mit Einschränkung9 chinesische Anbieter wie Baidu. Kleinere, nichtkommerzielle Unternehmen und Universitäten spielen dann so gut wie keine Rolle mehr. Der ökonomische Hintergrund dieser drastisch ausgedünnten Forschungslandschaft: Das Training der Sprachmodelle ist eine Ressourcen-intensive Angelegenheit, welches eine massive Rechenleistung und damit einen beträchtlichen Energieaufwand erfordert. Ein einziger Trainingslauf für das derzeit größte Sprachmodell GPT-4 kostet aktuell 63 Millionen Dollar. 10

Auf der Überholspur ins Zeitalter von Deepfakes

Analog zur (Text-zu-)Texterzeugung per ChatGPT nutzen Programm wie Midjourney oder Stablediffusion einen ebenfalls auf maschinellem Lernen basierenden (Text-zu-)Bildgenerator, um aus einer textförmigen Bildbeschreibung synthetische Bilder zu erzeugen. Die so erstellten Fake-Bilder einer fiktiven Festnahme von Donald Trump und eines im Rapper-Style verfremdeten Papstes galten dem Feuilleton zu Anfang des Jahres weltweit als ikonische Zeugnisse einer ‚neuen Fake-Ära‘ des Internet. Dabei waren beide lediglich gut gemachte, aber harmlose Bildfälschungen. Andere Formen der sprachmodellbasierten Mis- und Desinformation sind von weit größerer Tragweite.

Auf der Code Conference 2016 äußerte sich Elon Musk wie folgt zu den Fähigkeiten seines Tesla-Autopiloten: „Ein Model S und Model X können zum jetzigen Zeitpunkt mit größerer Sicherheit autonom fahren als ein Mensch. Und das bereits jetzt.“11 Elon Musks Anwält:innen behaupteten nun im April 2023 zur Abwehr einer Schadensersatzklage vor Gericht, das Video des Konferenzbeitrags, in dem Musk diese juristische folgenreiche Behauptung aufstellte, sei ein Deepfake.12

Bereits ein Jahr zuvor argumentierten zwei Angeklagte, die wegen der Kapitolerstürmung im Januar 2021 vor Gericht standen, das Video, welches sie im Kapitol zeige, könne von einer Künstlichen Intelligenz erstellt oder manipuliert worden sein. Täuschung und vorgetäuschte Täuschung gab es schon immer. Diese Debatte hatten wir bereits bei der Popularisierung der Bildbearbeitungssoftware Photoshop. Neu ist, dass es keiner handwerklichen Fertigkeiten bedarf und die für alle zugängliche, quasi-instantane Manipulierbarkeit auch Video- und Audio-Sequenzen betrifft.

Das Hauptproblem ist, dass wir nicht mehr wissen, was Wahrheit ist“ (Margaret Mitchell, ehemalige Google-Mitarbeiterin und jetzige Chefethikerin des KI-Startups Hugging Face).

„Das ist genau das, worüber wir uns Sorgen gemacht haben: Wenn wir in das Zeitalter der Deepfakes eintreten, kann jeder die Realität leugnen“, so Hany Farid, ein Experte für digitale Forensik und Professor an der University of California, Berkeley. „Das ist die klassische Lügendividende13.“ Eine skeptische Öffentlichkeit wird dazu gebracht, die Echtheit von echten Text-, Audio,- und Videodokumenten anzuzweifeln.

Angesichts der beachtlichen Geschwindigkeit, mit der ChatGPT neue Nutzer:innen gewinnt, bedeutet dies einen enormen zukünftigen Schub für das Postfaktische, dessen Hauptwirkungsweise nicht darin besteht, dass selbstkonsistente Parallelwelten von Falscherzählungen für sich ‚Wahrheit‘ im Sinne einer Faktizität reklamieren, sondern dass sie die Frage „Was ist wahr und was ist falsch?“ (zumindest in Teilen des öffentlichen Diskursraums) für unwichtig erklären.

Große Sprachmodelle sind geradezu das Ideal des Bullshitters, wie der Philosoph Harry Frankfurt, Autor von On Bullshit, den Begriff definierte. Bullshitter, so Frankfurt, sind schlimmer als Lügner. Ihnen ist es egal, ob etwas wahr oder falsch ist. Sie interessieren sich nur für die rhetorische Kraft einer Erzählung. Beide Aspekte, das Ignorieren der Frage nach wahr oder falsch, als auch deren aktive Dekonstruktion haben das Potential, Gewissheiten über das Funktionieren von Gesellschaft zu zerlegen. Selbstorganisiertes politisches Engagement von unten droht zu einem Blindflug entlang falscher Annahmen zu werden. Die darauf folgende Ernüchterung befördert den Rückzug ins Private – ein durchaus gewünschter und geförderter Aspekt14. Politisch profitieren können von einem hohen Anteil an Misinformation rechte Kräfte, denen an einer gesellschaftlichen Destabilisierung durch wachsende Polarisierung gelegen ist. Steve Bannon (ehemalige Berater von Donald Trump), bezeichnete die Medien immer wieder als Feind, den es niederzuringen gelte. Dazu müsse man „das [mediale] Feld mit Scheiße fluten“. Je stärker die Akzeptanz verbreiteter Information von ihrem Wahrheitsgehalt entkoppelt ist, desto leichter lässt sich dann auch manipulative Desinformation verbreiten. Falschnachrichten sind meist überraschend und erzeugen deutlich mehr Aufmerksamkeit. Bewusst adressierte Affekte wie Empörung, Angst und Hass erzeugen bei der Leser:in nachweislich mehr Aktivität und halten die Nutzer:innen damit länger in sozialen Netzwerken als etwa Freude, Zuversicht und Zuneigung. Dieses Muster wird von der algorithmischen Reichweitensteuerung sozialer Medien erkannt und rückkoppelnd als Trend verstärkt. Über diese statistische Gewichtsverzerrung bevorzugt rechter Beiträge innerhalb politischer Debatten ist z.B. auf Twitter eine deutliche Rechtsverschiebung zu verzeichnen – und das bereits weit vor der Übernahme durch Elon Musk und dessen Neuausrichtung des Algorithmus.15 Der Siegeszug des Trumpismus nach 2016 ist ein gut untersuchtes Beispiel derartig kontaminierter Diskursräume.

Bedenklicher Reduktionismus

Suchmaschinen wie Bing oder Google haben begonnen, ihre KI-Sprachmodelle GPT-4 bzw. PaLM zur zusammenfassenden Weiterverarbeitung gefundener Suchergebnisse zu implementieren. Damit wird die (per Ranking-Algorithmus vorsortierte, aber immerhin noch vorhandene) bisherige Auswahl von Suchergebnissen reduziert auf ein leicht konsumierbares Ergebnis auswählbaren Umfangs. Eine enorme Vereinfachung zugunsten einer beträchtlichen Zeitersparnis bei der Internetsuche, aber zulasten einer Vielfalt möglicher (kontroverser) Ergebnisse.

Wer erste Nutzungserfahrungen mit ChatGPT gesammelt hat, wird bei vielen Text-Antworten auf Wissensfragen zu kontroversen Themen eine vermeintliche Ausgewogenheit feststellen. Einer detailliert dargestellten Mehrheitsmeinung wird ein Zusatz angehängt, dass es dazu durchaus anderslautende Interpretationen gibt. Politische Widersprüche, die in den (sich widersprechenden) Suchergebnissen noch bestanden, werden nun mit einer durch das Sprachmodell vordefinierten Diversitätstiefe aufgelöst. Dadurch ergibt sich ein politisch bedenklicher Reduktionismus, der wohlgemerkt auf einem Sprachmodell(!) basiert – also nicht wissensbasiert ist, sondern mangels Verständnis von Begriffsbedeutungen rein statistisch bestimmt ist.

Diese ‚kritischen’ Anmerkungen werden zukünftig zur sogenannten Medienkompetenz gezählt werden und bedeutungslos (wie alles in der Welt der Sprachmodelle) verhallen. Wer klickt noch in schier endlosen Suchergebnislisten herum, wenn die Suche bei Google oder Bing das ‚Wichtigste‘ für uns zusammenfasst?16

Vergangenheit in die Zukunft projiziert

ChatGPT ist ein stochastischer Papagei, der (willkürlich) Sequenzen sprachlicher Formen zusammenfügt, die er in seinen umfangreichen Trainingsdaten beobachtet hat, und zwar auf der Grundlage probabilistischer Informationen darüber, wie sie kombiniert werden, aber ohne jeglichen Bezug zu deren Bedeutung. Ein solcher Papagei reproduziert und verstärkt dabei nicht nur den Bias von verzerrten Trainingsdaten, sondern auch hegemoniale Weltanschauungen dieser Trainingsdaten. Gesellschaftliche Verhältnisse aus der Vergangenheit der Trainingsdaten werden in die Zukunft verstetigt. Die den Sprachmodellen immanente Rekombination statistisch dominanter Wissenseinträge der Trainingsdaten wirkt die Verhältnisse konservierend und stabilisierend – ein sogenannter value lock, das Einrasten von Werten im Sinne einer politischen Stagnation droht.17

Die Bedingungen einer solchen Hegemonieverstärkung werden leider nur marginal gesellschaftlich (mit-)bestimmt. Das komplexe System aus Trainingsdatenaufbereitung, Parameterjustierung des Sprachmodells und nachträglicher Zensur des Outputs (allesamt unter der Kontrolle profitorientierter Privatunternehmen) bestimmen das Gewicht von neuen Wissenseinträgen. Damit liegt die hohe Hürde einer ausreichenden statistischen Relevanz emanzipatorischer Debattenbeiträge außerhalb einer demokratisch verfassten, gesellschaftlichen Mitbestimmung. Angesichts eines deutlichen politischen Drifts nach rechts maßgeblicher Technokrat:innen des KI-Geschäftsmodells (wie Sam Altman, Elon Musk, Peter Thiel, …) sind das keine hinnehmbaren Voraussetzungen für eine gesellschaftlich progressive Entwicklung.

Diversitätsverlust und Rechtsdrift

Die intrinsische Hegemonieverstärkung großer Sprachmodelle über ein selbstverstärkendes Wiederverdauen des eigenen Outputs als Input für das nächste Training des Modells bedeutet einen Verlust an Meinungsvielfalt (siehe Abbildung links+Mitte).

Zusätzlich führt die zuvor erwähnte Bevorzugung (in Reichweite und Verbreitungsgeschwindigkeit) verschwörerischer und (rechts-)populistischer Inhalte in den sozialen Medien zu einer politisch rechts gerichteten Verzerrung in den Trainingsdaten der nächsten Generation von Sprachmodellen. Dadurch erwarten wir in der Überlagerung beider Effekte einen rechtslastigen Diversitätsverlust (Abbildung rechts).

Eine solche Deformation öffentlicher Diskursräume über die Wechselwirkung großer Sprachmodelle mit den sozialen Medien zugunsten einer a) hegemonial-konservativen Meinungseinfalt und b) einer zentralen Machtposition eines Technologie-Oligopols, welches die Verzerrung algorithmisch codiert, muss aus der Sicht einer progressiven Position als Rückschritt und als politische Sackgasse zurückgewiesen werden. Die Unzulänglichkeit der sich neu ergebenden Informationsinfrastruktur bestehend aus großen Sprachmodellen + Social MediaPlattformen + Suchalgorithmen wird sich wohl kaum durch eine gesellschaftlich legitimierte, besser ausbalancierte Inhalte-Moderation abfedern lassen.

Ein emanzipatorischer Zugang zu einer grundlegenden Technologiekritik darf nicht auf der Ebene kosmetischer Korrekturen einer zahnlosen „Technikfolgenabschätzung“ verharren. Anstatt große Sprachmodelle unkritisch als unausweichlichen technologischen Fortschritt hinzunehmen, sollten wir die Frage aufwerfen, ob, und nicht wie, wir diese Technologien überhaupt gesellschaftlich akzeptieren sollten. Die langfristigen gesellschaftlichen Folgen dieser Modelle innerhalb einer dominanten KI-Empfehlungs- und Entscheidungs-Assistenz insbesondere für den Prozess der politischen Willensbildung, tauchen in einer nun allseits geforderten technischen Sicherheitsforschung von KI-Systemen als ‚schwer zu quantifizieren‘ gar nicht auf.18

Wir sollten unsere Haltung in Bezug auf die politische Schadwirkung KI-basierter Sprachmodelle ausrichten an unserer Haltung gegenüber KI-basierten, autonomen Waffensystemen: Warum sollte eine Gesellschaft einen derart rückwärts gewandten technologischen ‚Fortschritt‘ hinnehmen?

„Marx sagt, die Revolutionen sind die Lokomotive der Weltgeschichte. Aber vielleicht ist dem gänzlich anders. Vielleicht sind die Revolutionen der Griff des in diesem Zuge reisenden Menschengeschlechts nach der Notbremse.“19 (Walter Benjamin)

1https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html

2Ein Computerprogramm, welches möglichst menschenähnlich kommuniziert.

3Die Psychologie spricht genauer von „Konfabulationen“.

4Alemohammad et al., Self-Consuming Generative Models Go MAD, 2023, https://arxiv.org/abs/2307.01850

5https://www.newsguardtech.com/de/special-reports/newsbots-vermehrt-ai-generierte-nachrichten-webseiten/

6https://www.theguardian.com/books/2023/sep/20/amazon-restricts-authors-from-self-publishing-more-than-three-books-a-day-after-ai-concerns

7https://www.youtube.com/watch?v=DgYCcdwGwrE

8https://developers.google.com/search/blog/2023/02/google-search-and-ai-content?hl=de

9Die weitreichende Zensur von Trainingsdaten und Output chinesischer Sprachmodelle stellen wegen der damit verengten Datenbasis ein großen Wettbewerbsnachteil dar. Eine weitere Hürde ist die Hardware. US-Regulierungen verhindern den Export der neuesten KI-Chips von Nvidia u.a. nach China. Diese Chips sind (derzeit) entscheidend für die Entwicklung und Verbesserung von KI-Modellen.

10https://the-decoder.de/leaks-zeigen-gpt-4-architektur-datensaetze-kosten-und-mehr/

11https://www.vox.com/2016/6/6/11840936/elon-musk-tesla-spacex-mars-full-video-code

12https://www.theguardian.com/technology/2023/apr/27/elon-musks-statements-could-be-deepfakes-tesla-defence-lawyers-tell-court

13Die „Lügendividende“ ist ein Begriff, den Robert Chesney und Danielle Citron 2018 in einer Veröffentlichung Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, prägten. Darin beschrieben sie die Herausforderungen, die Deepfakes für die Privatsphäre, die Demokratie und die nationale Sicherheit darstellen. Der zentrale Gedanke darin ist, dass die Allgemeinheit sich bewusst wird, wie einfach es ist, Audio- und Videomaterial zu fälschen, und dass diese Skepsis als Waffe einsetzbar ist: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954

14Beispielhaft steht hierfür die Politik von Vladislav Surkov, Spindoktor Putins. https://www.nytimes.com/2014/12/12/opinion/russias-ideology-there-is-no-truth.html

15Aral, S. (2018): The spread of true and false news, Science 359,1146-1151(2018), https://www.science.org/doi/10.1126/science.aap9559

16Amazons Spracherkennungs- und -steuerungssoftware Alexa befördert ebenfalls diesen Reduktionismus, da sich niemand von Alexa eine längere Liste von Sucheinträgen vorlesen lassen möchte. Wegen der oft wenig hilfreichen Sprachausgabe eines weit oben gelisteten Treffers ist die Googlesuche über Alexa allerdings weit weniger beliebt.

17Bender et al: On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (2021) https://dl.acm.org/doi/pdf/10.1145/3442188.3445922

18Siehe dazu: Nudging – die politische Dimension psychotechnologischer Assistenz, DISS-Journal#43 (2022) http://www.diss-duisburg.de/2022/08/nudging-die-politische-dimension-psychotechnologischer-assistenz/

19Walter Benjamin: MS 1100. In: Ders.: Gesammelte Schriften. I, hg. v. R. Tiedemann und H. Schweppenhäuser, Frankfurt am Main: Suhrkamp 1974, 1232.

]]>
Die Goldgräber der Künstlichen Intelligenz https://capulcu.blackblogs.org/2023/10/20/die-goldgraeber-der-kuenstlichen-intelligenz/ Fri, 20 Oct 2023 11:38:10 +0000 https://capulcu.blackblogs.org/?p=945 Continue reading Die Goldgräber der Künstlichen Intelligenz ]]> Zweiter Teil unserer kritischen Textreihe zu KI.

Ende Mai 2023 wird ein kurzes Statement1 veröffentlicht, welches vor der Auslöschung der Menschheit durch Künstliche Intelligenz warnt. Unter das Statement haben Koryphäen der KI-Forschung, CEOs von KI-Unternehmen wie OpenAI und weitere prominente Figuren des Tech-Sektors ihre Unterschrift gesetzt. Diese apokalyptische Warnung reiht sich ein in eine ganze Serie gleichartiger Aussagen2 von Personen und Institutionen aus dem genannten Dunstkreis. Eric Schmidt, Ex-CEO von Google und jetzt Regierungsberater, warnt vor Tausenden von Toten. Sam Altman, CEO von OpenAI, der Entwicklungsfirma von ChatGPT, fleht die US-Regierung an, Regulatorien für die Branche zu erlassen.3

Es ist schon etwas verwunderlich, dass ausgerechnet diejenigen vor einer Technologie warnen, die sie selbst mit Macht und viel Geld auf den heutigen Stand gebracht haben. Sie erscheinen wie Goethes Zauberlehrling, der die Geister, die er rief, nicht mehr unter Kontrolle hat. Nichts könnte falscher sein.

Spätestens mit der Veröffentlichung von ChatGPT hat KI den Mainstream erreicht und genießt die volle Aufmerksamkeit der Medien. Die Leistung dieser Software scheint eine Schwelle überschritten zu haben. KI wird jetzt nicht mehr als belächelnswerter netter Versuch wahrgenommen oder als beachtenswerte Leistung in einer nerdigen kleinen Nische, sondern ist in ihre Gegenteil gekippt; eine Technologie, die auf dem besten Wege sei, die Menschheit in Sachen Intelligenz zu überflügeln. Das geht soweit, dass ein an der Entwicklung beteiligter Ingenieur bei Google nicht von der Behauptung abzubringen war, dass “seine” KI ein Bewusstsein entwickelt hat. Google war das augenscheinlich so unangenehm, dass die Kündigung folgte.

ChatGPT als textgenerierende KI und andere bildgenerierende KIs (z.B. Midjourney) sind Schaufensterprodukte der Branche. Ohne sie hätte die teils enthusiastische, teils beunruhigte Reaktion der Öffentlichkeit auf KI nicht stattgefunden. AlphaGo, eine KI, die den amtierenden Weltmeister im Spiel Go wiederholt geschlagen hat, hatte dazu noch nicht ausgereicht. Die apokalyptischen Warnungen aus der KI-Szene greifen genau diese Stimmung auf. Ihre Dystopie einer übermächtigen Technologie, die die Menschheit ausrottet, betont im Wesentlichen eines: die Mächtigkeit dieser Technologie. Das apokalyptische Flair dient als Ablenkung, um von den maßlosen Übertreibungen abzulenken, und obendrein als warnender Insider, die Reputation eines kritischen und reflektierten Bewusstseins mit in die Waagschale zu werfen – CEOs, die besorgt sind um das Wohl der Menschheit. Dabei geht es mitnichten um eine Warnung und schon gar nicht um das Wohl der Menschheit, sondern um eine spezifische Verkaufsargumentation: Sei dabei, bediene dich dieser übermenschlichen Macht, investiere jetzt oder schließe zumindest ein Premium-Abo ab!

Die Goldgräberstimmung ist mit Händen zu greifen. Der Ruf nach einer Regulierung dieser Technologie durch Regierungen mag verwirren, ist aber folgerichtig. Regulierungen sind nicht zwangsläufig schädlich für die Branche, im Gegenteil: Sie ebnen das Spielfeld, schaffen Übersichtlichkeit, Planbarkeit und Investitionssicherheit. Sie können benutzt werden, um dem Einstieg von Nachzüglern in den Markt (z.B. China) Barrieren in den Weg zu legen. Außerdem wären Regulierungen eh gekommen, aus Sicht der Branche ist es deshalb vorteilhaft, hier die Initiative zu übernehmen.

Es gibt noch einen weiteren Aspekt: den Regulierungsbehörden fehlt das nötige Fachwissen. Das gilt allerdings für praktische alle Technologien, deren Einsatz reguliert wird – das Fachwissen muss von außen hinzugezogen werden. Besonders im Falle von KI ist dieses Fachwissen allerdings stark konzentriert, die Entwicklung wird im Wesentlichen von den Forschungsabteilungen der großen Konzerne voran getrieben. Das Fachwissen für die Regulierung kommt also ausgerechnet aus der Branche, die reguliert werden soll, die Interessenskonflikte sind vorprogrammiert. Für die Tech-Konzerne beste Startbedingungen, um eine Quasi-Selbstregulierung im eigenen Sinne durchzudrücken. Dieses Muster ist übrigens nicht neu, sondern lässt sich in vielen vergleichbaren Vorgängen wieder finden – und das nicht nur in den USA. Was vielleicht nicht neu, aber diesmal besonders auffällig ist, ist die Dringlichkeit, mit der das Anliegen vorgebracht wird.

Ein Schlaglicht darauf wirf Sam Altmans Kritik an den KI-Regulierungen der EU. Nach intensiver Lobbyarbeit ist es OpenAI und Google gelungen, „Allzweck“-KI-Anwendungen wie etwa ChatGPT aus der Kategorie der Hochrisiko-Technologien heraus zu bekommen, die mit strengen Auflagen belegt ist. Statt dessen wurde für diese Fälle eine neue Kategorie der „Foundation Models“ mit aufgeweichten Auflagen geschaffen.4 Regulierungen sind für Herrn Altman nur solange OK, wie sie nicht geschäftsschädigend sind.

Ein Seiteneffekt der suggerierten Dringlichkeit ist die Erzeugung eines Eindrucks, dass jetzt etwas Neues aufgetaucht sei. KI blickt aber auf eine Jahrzehnte alte Geschichte. AlphaGo wurde schon genannt. KI-basierte Gesichtserkennung zum Beispiel bei Zugangssystemen, aber auch in Überwachungskameras, wie etwa am Berliner Südkreuz mit notorischer Schwäche, Menschen mit nicht-weißer Hautfarbe zu erkennen. Auch Betrugserkennungssysteme basieren auf KI und haben dort für eine Reihe von desaströsen Skandalen gesorgt – erinnert sei hier beispielsweise an die Toeslagenaffaire5 in den Niederlanden. Unternehmen wie Clearview AI oder PimEye haben mit Porträtfotos aus dem Internet Bilddatenbanken aufgebaut, die sich mit Hilfe von KI durchsuchen lassen – ein Schnappschuss einer Person kann schon ausreichen, um Name, Arbeitgeber oder Adresse herauszufinden6 – Stalkerware, nicht nur für Repressionsbehörden. Eine ausführlichere Liste lässt sich in unserem Text „KI zur Programmatischen Ungleichbehandlung“ finden7. Ein solches Erbe im Gepäck verdüstert die Akzeptanz.

Das Gold, welches die Goldgräber der Tech-Branche zu finden hoffen, ist die Automatisierungsdividende. KI verspricht, Vorgänge automatisieren zu können, die sich bislang erfolgreich entzogen haben. In einer Studie8 über die Auswirkungen der KI schätzt GoldmanSachs, dass 66% aller Arbeitsplätze in den USA betroffen sein werden. Dort könnten 25-50% der anfallenden Aufgaben von KI übernommen werden. Andere Studien9 kommen zu ähnlichen Zahlen. Es ist die Aussicht auf diese Produktivitätssteigerung, die die oben genannten Aktivitäten anspornt.

Ende des 19ten, Anfang des 20ten Jahrhunderts entwickelte und popularisierte Frederick Taylor u.a. eine Methode, die später als „Wissenschaftliches Management“ oder besser „Taylorismus“ bekannt wurde. Erklärtes Ziel dieser Methode war es, die Arbeit zu effektivieren, mehr Leistung aus jede*r Arbeiter*in rauszupressen. Dazu wurden Arbeitsabläufe minutiös dokumentiert, analysiert und optimiert, um sie dann in neu zusammengesetzter Form in den Produktionsprozess zurückzubringen, mit der klaren Absicht, „ineffiziente“, tradierte Abläufe und Arbeitsformen zu ersetzen. Aus Facharbeiter*innen wurden austauschbare Massenarbeiter*innen, Anhängsel der Maschinen, die ab sofort den Arbeitstakt vorgaben.

Zentraler Baustein dieser Methode war ein Wissenstransfer von den Facharbeiter*innen in die Ingenieursetage. So war es möglich, dieses Wissen einzusetzen, ohne von den Menschen, von denen das Wissen stammte, abhängig zu sein. Der Transfer war im Kern ein Transfer der Verfügungsgewalt über dieses Wissen. Die Folge war eine Entmachtung der Facharbeiter*innen im Produktionsprozess, eine Dequalifizierung der Arbeit und damit eine Verschlechterung der Verhandlungsbedingungen, wenn es z.B. um Lohnforderungen oder Arbeitsschutz ging. Ein vergleichbarer Transfer findet beim Training einer KI statt.

Der Taylorismus treibt sein Unwesen seit mehr als hundert Jahren und Computer sind auch nicht erst gestern erfunden worden. Damit Abläufe aus der „analogen“ Welt in einem Computer repräsentiert und ausgeführt werden können, müssen sie formalisiert werden: in einen Satz von detaillierten Regeln bzw. Anweisungen übersetzt werden, ganz ähnlich wie auch im „wissenschaftlichen Management“. Das funktioniert je nach betrachtetem Ablauf bzw. Problemstellung unterschiedlich gut. In vielen Fällen bleibt ein „Rest“, der sich einer Formalisierung entzieht, das Ergebnis passt dann nur unvollkommen auf die Problemstellung. In anderen Fällen ist es schon schwierig zu benennen, wie überhaupt an die Formalisierung einer Problemstellung herangegangen werden kann.

Formalisierung lässt sich begreifen als eine Art notwendiger Übersetzungsschritt, der eine Aufgabenstellung „computergängig“ macht – ein Schritt, der von Menschen geleistet wird. Für die KIs der aktuellen Generation wird erst gar nicht versucht, eine Aufgabenstellung zu formalisieren. Statt dessen wird die KI in einem trial-and-error-Prozess unter enormen Aufwand an die Aufgabenstellung heran trainiert. Der Schritt, der die Aufgabenstellung computergängig macht, wird also vom Computer selbst ausgeführt. Die Trainingsdaten werden so häufig „durchgekaut“10, bis die KI zufriedenstellend plausibel die in den Trainingsdaten enthaltenen Eigenschaften nachahmen bzw. wiedererkennen kann.

Beim Training entsteht eine Art stochastisches Extrakt der Trainingsdaten, ein Tensor aus Billionen von Zahlen, der sich im Hauptspeicher der KI ausbildet. Welche Aspekte der Trainingsdaten extrahiert werden, hängt von der Gestaltung des Trainings, der Topologie der KI, der Aufbereitung der rohen Trainingsdaten und weiteren begleitenden Maßnahmen ab. Entscheidend ist, dass im Tensor die notwendigen Informationen für das plausible Nachahmen bzw. Wiedererkennen landen – im allerweitesten Sinne also das „Wissen“. Wie auch immer dieser Wissenstransfer in den Tensor beurteilt werden mag – schließlich ist Nachahmen etwas anderes als Verstehen –, er erlaubt eine „Reproduktion“, ohne auf die Menschen zurückgreifen zu müssen, von denen das Wissen stammt. Wie schon beim Taylorismus findet ein Transfer von Verfügungsgewalt statt. Dieser Transfer ist das Fundament der Automatisierungsdividende.

Auch die in klassischer Programmierung verwendete Formalisierung implementiert einen Transfer der Verfügungsgewalt, allerdings wird dieser von Menschen in Hand- oder besser Kopfarbeit gemacht und ist deshalb nur schlecht zu skalieren. KI verspricht, diesen Formalisierungsschritt zu überspringen und den Transfer selbst in einen automatisierbaren und damit skalierbaren Prozess zu verwandeln – und das ist der qualitative Sprung in der Enteignung von „Wissen“.

Das Umschiffen der Formalisierung zur Übertragung einer Aufgabenstellung auf Computer erlaubt es zwar, neue Anwendungsgebiete zu erschließen, kommt aber mit einigen Nachteilen daher. Formalisierung setzt voraus, dass ein Problem bis ins Detail verstanden wurde – dass dabei Fehler passieren und Missverständnisse ausdetailliert werden, ist dazu kein Widerspruch. Das Ergebnis lässt sich überprüfen, mit einigem Aufwand ist es sogar möglich, einen mathematikartigen Beweis zu führen.

Bei KI ersetzt das Training das Verständnis, letztendlich ist das Training ein Schuss ins Blaue. Die Begeisterung vieler Ingenieur*innen von ChatGPT und anderen KIs reflektiert deren Überraschung, wie gut dieser Schuss gelungen scheint.

Dem Extrakt der Trainingsdaten ist nicht anzusehen, was genau extrahiert wurde – was genau die KI „gelernt“ hat. Dementsprechend sind die Ausgaben, die eine KI produziert, fehlerbehaftet. Das Einsatzgebiet für KIs zielt auf Anwendungen, bei denen entweder Fehler „tolerierbar“ sind oder sie in Konkurrenz zu menschlicher Arbeit treten, die ebenfalls fehlerbehaftet ist. Oder sie tritt in Konkurrenz zu im weitesten Sinne kreativen Tätigkeiten, die nicht binär richtig oder falsch, sondern besser oder schlechter sind. Letztendlich findet hier eine ökonomische Abwägung über Kosten und Nutzen statt, deren Ergebnis einzig vom (positiven) Einfluss auf das Geschäftsergebnis abhängen wird.

Das Ergebnis ist überaus zynisch: Wenn ein System zur Aufdeckung von Sozialhilfebetrug Fehler macht und die Falschen beschuldigt (und in Folge die Unterstützungszahlungen verweigert), dann trifft es Menschen, die sich nur schlecht wehren können. Selbst wenn KIs fachlich schlechte Ergebnisse liefern, bauen sie (oder genauer diejenigen, die die KI einsetzen) einen Konkurrenzdruck auf Arbeiter*innen und Angestellte auf, der Folgen z.B. bei Tarifverhandlungen haben kann. Einen Eindruck davon liefert die Antwort von Netflix auf den Streik von Schauspieler*innen und Autor*innen in Hollywood, die u.a. eine „Zweitverwertung“ ihrer Leistungen durch KI-„generierte“ (besser: kopierte) Inhalte verhindern wollen: Netflix schreibt eine gut bezahlte Stelle für einen „KI Produkt Manager“ aus, für „alle Bereiche“, was genau diese Zweitverwertung beinhaltet.11

Wie schon der Taylorismus, wird die KI zu einer Verschiebung gesellschaftlicher Macht „nach oben“ führen, gefolgt und verstärkt durch eine entsprechende Reichtumsumverteilung in die gleiche Richtung. KI wirkt wie ein Verstärker gesellschaftlicher Ungleichheit. Der enorme Ressourcenaufwand, den die KI-Technologie verlangt – Trainingsdaten, Energie, Wasser und leistungsfähige Hardware – lässt an einer „Demokratisierung“ dieser Technologie zweifeln. Einen eigenen Web- oder Mailserver im Internet zu betreiben ist vielleicht nicht trivial, aber durchaus von normalsterblichen Individuen leistbar. Für KI gilt das auf absehbare Zeit nicht, sie wird Werkzeug der Mächtigen bleiben.

Selbst, wenn sich in einem utopischen Szenario ein gesellschaftlich sinnvoller Einsatz denken ließe – die jetzige gesellschaftliche Realität besteht praktisch vollständig aus Anwendungen zu Lasten der großen Mehrheit der Menschen und reflektiert damit die aktuelle gesellschaftliche Machtverteilung.

Es muss also – in bester luddistischer Tradition – gefragt werden, wer KI für welchen Zweck einsetzt und ob die Resultate gesellschaftlich und ökologisch erstrebenswert sind. Diese Frage kann klar verneint werden.

1https://www.safe.ai/statement-on-ai-risk

2https://futureoflife.org/open-letter/pause-giant-ai-experiments/ https://www.cold-takes.com/ai-could-defeat-all-of-us-combined/

3https://www.c-span.org/video/?528117-1/openai-ceo-testifies-artificial-intelligence

4https://time.com/6288245/openai-eu-lobbying-ai-act/

5https://www.amnesty.org/en/latest/news/2021/10/xenophobic-machines-dutch-child-benefit-scandal/

6https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html

7https://capulcu.blackblogs.org/wp-content/uploads/sites/54/2020/06/DIVERGE-small.pdf – ab Seite 33

8https://www.key4biz.it/wp-content/uploads/2023/03/Global-Economics-Analyst_-The-Potentially-Large-Effects-of-Artificial-Intelligence-on-Economic-Growth-Briggs_Kodnani.pdf

9https://arxiv.org/abs/2303.10130

10Eine lesbare Einführung in die Funktionsweise von KIs vom Typ ChatGPT und was genau mit „durchkauen“ gemeint ist: https://arstechnica.com/science/2023/07/a-jargon-free-explanation-of-how-ai-large-language-models-work/

11https://theintercept.com/2023/07/25/strike-hollywood-ai-disney-netflix/

PDF zum Download: https://capulcu.blackblogs.org/wp-content/uploads/sites/54/2023/10/KI-Goldgraeber.pdf

]]>
Chaos Communication Congress 32C3 https://capulcu.blackblogs.org/2015/03/24/platzhalter/ Tue, 24 Mar 2015 21:47:02 +0000 http://capulcu.blackblogs.org/?p=115 Capulcu ist auf dem Chaos Communication Congress 32C3 vertreten. Wir sind vom 27.-30.12.2015 im Anarchist Village des CCC im Congress Centre Hamburg zu finden.

Ihr könnt dort unsere Broschüren und geprüfte Tails-USB Sticks (aktuelle Version 1.8.1) mit mechanischen Schreibschutzschalter bekommen.

Desweiteren machen wir am 28.12.2015 um 20:30 im Anarchist Village eine Diskussions-Veranstaltung: Die technologische Offensive

]]>