Jürgen „Tante“ Geuter hat in einem bemerkenswerten Blogpost „sechs Unwahrheiten über die digitale Sphäre“ aufgeschrieben, der Misskonzeptionen gerade rückt, denen ungefähr alle schon einmal aufgesessen sind, die sich an derlei Debatten beteiligen – mich eingeschlossen.
Kurz zusammengefasst sind das:
- Technische Entscheidungssysteme (manchmal auch Algorithmen oder künstliche Intelligenz genannt) würden ethisch entscheiden, wenn man ihnen die Ethik nur korrekt einprogrammiert.
- Daten würden automatisch Wahrheit erzeugen, und wenn nicht, würden mehr Daten gebraucht.
- In 20 Jahren hätten wir eine künstliche Intelligenz vergleichbar mit dem menschlichen Gehirn.
- Diskriminierung durch Maschinen ist schlimmer als durch Menschen.
- Verträge und Gesetze würden sich sich ohne weiteres in Programmcode umsetzen lassen.
- Volle individuelle Autonomie ist der Inbegriff von Freiheit.
Eines oder mehrere dieser Muster werden regelmäßig benutzt, etwa bei so genannter künstlicher Intelligenz (Punkte 1, 2 und 3), Blockchain-Anwendungen (Punkte 2, 5 und 6), in der Hacker- und Nerdkultur (Punkte 4 und 6) und Einsatz algorithmischer Systeme durch den Staat oder große Unternehmen und den Widerstand dagegen (Punkte 1, 2, 5, und 6).
Über jeden einzelnen dieser Punkte ließe sich streiten und ganze Bücher verfassen, aber ich bin überzeugt, dass Jürgen weitgehend recht hat, auch wenn ich nicht so weit gehen würde, von „Falsehood“ zu sprechen, das immer auch die Konnotation von Lüge in sich trägt. Ich glaube durchaus, dass viele dieser Ansichten Misskonzeptionen sind, die manche Leute mit besten Intentionen pflegen. Oft haben sie den Charakter von Lebenslügen.
Die Frage ist jedoch: Was bringt uns diese Erkenntnis – außer diese Argumente in Debatten künftig nicht mehr zu verwenden? Bemerkenswert ist, dass Jürgens sechs Punkte alle (nicht nur aber auch) einen gemeinsamen Fluchtpunkt haben: Die Ausübung von Macht mittels technologischer Systeme und die Verschleierung derselben.
Betrachten wir die Punkte im einzelnen. Sie transportieren in etwa folgende Botschaft: Macht euch keine Sorgen, wenn wir Entscheidungsgewalt an Maschinen abgeben, dann wird das ethisch korrekt passieren, weil wir Ethik einprogrammiert haben werden (Punkt 1) genauso wie Gesetze und Verträge und deren strikte Einhaltung (Punkt 5). Fehlentscheidungen sind nicht möglich, weil Daten nicht Lügen können, und wenn es doch zu Fehlentscheidungen kommt, hatten wir noch nicht genug Daten (Punkt 2). Entscheidungen werden in 20 Jahren nicht mehr von Menschen getroffen werden, sondern von intelligenten Maschinen. Sie werden die Macht haben und das ist eine unausweichliche Entwicklung. (Punkt 3). Du findest das alles dystopisch und willst dabei nicht mitmachen? Dann bist du selber schuld, dass du [hier „bösen Internet-Konzern deiner Wahl einsetzen] mit Daten fütterst statt eigene Server zu pflegen und deine eigene Software zu programmieren (Punkt 6).
In Punkt 4 steckt meiner Meinung nach der springende Punkt. Er beschreibt Angst davor, dass Maschinen Menschen diskriminieren könnten. Als ob ein rassistischer Richterspruch zu Bewährungsauflagen weniger ungerecht wäre, wenn er durch einen menschlichen Richter ausgesprochen wird als durch ein algorithmisches System oder das Opfer eines Verkehrsunfalls mit einem selbstlenkenden Fahrzeug irgendwie toter sei als bei einem Unfall mit einem menschlichen Fahrer. Punkt 4 verschleiert die bereits heute in unseren Systemen vorhandenen Biase und praktizierten Diskriminierungen.
Anders gesagt: Die bereits heute bestehenden Biase und Diskriminierungen können fortgeschrieben werden, allerdings ohne dass es dann noch jemanden gibt, der die Verantwortung dafür trägt, ohne jedes demokratische Korrektiv. Denn die Maschine kann nicht falsch liegen, da ja Ethik, Gesetze und Verträge tadellos in sie hinein programmiert wurden und wenn es doch einen Fehler gab, lag es daran, dass es nicht genug Daten gab. Das ist ungemein praktisch, weil am Ende niemand Verantwortung trägt, spätestens mit Punkt 3 und der religiösen Überhöhung „künstlicher Intelligenz“ ins Gottgleiche bei den Singularitanern.
Der Punkt ist nur: Es wird gar keine Macht an Maschinen übertragen sondern weiterhin von Menschen und ihren Organisationen ausgeübt. Sie betreiben all die algorithmischen Systeme. Sie haben die Systeme so programmiert und trainiert, dass sie Ergebnisse in ihrem Sinne liefern. Und sie werden sie ganz schnell abschalten, sollten sie Entscheidungen treffen, die nicht in ihrem Sinne sind.
Perspektivisch weisen diese Narrative der Digitalisierung, auch wenn sie vielfach von gänzlich unverdächtigen Leuten und mit gegenteiliger Intention vertreten werden, nahtlos in Richtung der Neoreaktionären, einer Bewegung, die Herrschaft durch eine neue (Tech-)Elite proklamiert und eine Art Techno-Feudalismus anstrebt bis hin zur Übernahme der Staatsgewalt durch Tech-Unternehmen. Gepaart mit dem religiösen Überbau des Transhumanismus und einem Human Enhancement, das nicht Inklusion, Vielfalt und Selbstverwirklichung dient sondern in seiner gegenwärtigen Form fast immer darauf abzielt, wie sie sich der relativ wohlhabende, weiße Mittelstand für eine komfortable Teilhabe an dieser technofeudalistischen Welt optimieren könne, bilden diese sechs Punkte das Narrativ einer Herrschaftsideologie.
Es geht also letztlich nicht darum, ob Technik gut oder böse ist (sie ist sowieso da und allzu menschlich) und die Antwort steckt auch nicht darin, dass wir alle künftig als eine Art Cyber-Mad-Max unsere eigene Technik programmieren können müssen, sondern die Frage ist: Wie kriegen wir algorithmische Entscheidungssysteme demokratisiert?