Das Zeitalter des Überwachungskapitalismus

06.07.2020

Ein Brief an Tilo Jung und Gerd Scobel zum Thema Überwachungskapitalismus in Bezug auf das Jung und Live Interview vom 01.07.2020 (YouTube)

In dem Interview geht es im Kern um das Buch "Das Zeitalter des Überwachungskapitalismus" (Amazon) von Shoshana Zuboff


Photo by Parker Coffman on Unsplash

Hallo zusammen,

ich schätze die Interviews mit Gerd Scobel bei Jung und Live sehr. Ich finde Philosophie muss, besonders in der heutigen Zeit, wieder einen höheren Stellenwert genießen. Die neoliberale Idee, dass wir durch "die Märkte" inzwischen kollektiv vollkommen rational sind, hat nach meiner Meinung dazu geführt, dass Philosophen und Intellektuelle heute eher als Sonderlinge betrachtet werden. Die neuen Thought Leader sind natürlich die Chefs der Digitalkonzerne, da diese Menschen nicht nur Gedankengebäude vorweisen können, sondern realwirtschaftliche Erfolge. Aus diesen Erfolgen wird - fälschlicherweise - abgeleitet, dass sie besonders intelligent sind und die Zukunft der Welt bestimmen sollten. Dies führt zu einer neuen Art von Tech-Meritokratie, in der sich nicht wenige Bill Gates als Gesundheitsminister und Elon Musk als Wirtschaftsminister vorstellen können, oder Ähnliches. Was in dieser Entwicklung mitschwingt, ist der Glaube, dass wir heute frei von Ideologie sind - eine Einstellung gegen die ja auch Žižek vehement und zurecht kämpft. Fukuyamas Überschrift "Das Ende der Geschichte" (denn tiefergehend als mit der Überschrift haben sich die wenigsten wahrscheinlich mit dem Themenfeld beschäftigt) hat den Rest dazu beigetragen, diesen Glauben an die Ideologielosigkeit in das Unterbewusstsein der Menschen einzuimpfen.
In dieser Zeit ist es umsowichtiger Ideologiekritik auf allen Ebenen zu führen, und die versteckte Ideologie aufzudecken, zu dekonstruieren und über die Folgen dieser Ideologien zu sprechen, die uns blühen, falls wir sie weiter verfolgen.

Ich habe allerdings das Gefühl, dass die meisten unserer zeitgenössischen Philosophen hier bisher nur an der Oberfläche kratzen. Žižek ist sicher der Philosoph, der hier am weitesten geht. Das hängt vielleicht auch damit zusammen, dass viele der heutigen Philosophen keine "digital Natives" sind und die technischen Konzepte nicht genug verstehen. Aber auch die Technik ist ja in diesem Fall nur ein Vehikel für die tieferliegende Ideologie, die Weltsicht, die hinter diesen Entwicklungen steckt. Hier höre ich viel zu wenig in dem Interview zum Überwachungskapitalismus, aber auch von Žižek oder Precht.
An dieser Stelle möchte ich, unter Bezug auf das Jung und Live Interview, einige Ergänzungen und Anmerkungen einwerfen. Ich habe bis heute ca. 15 Jahre in der IT gearbeitet, habe in sehr jungen Jahren mit dem Programmieren begonnen und gehöre sicher zu den ersten, die sich vielleicht ansatzweise als "digital Natives" bezeichnen können. Das ist mein Beruf - meine Berufung aber ist die Philosophie, was mich fasziniert sind die abstrakten Konzepte, wie Gesellschaft funktioniert und was komplexe Systeme stabil hält. Vor diesem Hintergrund kann ich, hoffe ich, einen bereichernden Beitrag zu dieser Diskussion leisten.

Ich werde versuchen, mich kurz zu fassen, was mir sehr schwer fallen wird. Ich hoffe ihr habt bis hierhin gelesen und lest noch weiter.

Ein guter Einstieg in diesen Komplex ist die Aussage von Gerd Scobel: Man kann die Wahrscheinlichkeit berechnen, mit der ein Raucher an Krebs stirbt, aber ob genau ein Individuum an Krebs stirbt, kann man nicht beantworten. Das ist die Freiheit im System.

Und genau hier kommen wir jetzt zu der Ideologie und dem Ziel dieser Technologie-Konzerne, einen Aspekt, den Zuboff leider in ihrem Buch auch ausklammert. Es ist nämlich nicht so, dass der totale Kapitalismus, die totale Vermarktlichung der letzten Lebensbereiche das Ziel ist. Es handelt sich hierbei nur um den Weg, der zum eigentlichen Ziel führt und das ist meiner Meinung nach die komplette Modellierung des Individuums in einem Computer. Die Idee hinter diesem Ziel ist ein fast absolut deterministisches Weltbild: Wenn wir nur genügend Daten haben, können wir alles voraussagen, denn die messbaren Daten determinieren jegliches physische und geistige Ergebnis. Es liegt also nicht daran, dass es nicht geht, nur daran, dass wir nicht genügend Daten haben.

Nicht zuletzt ist dieses Weltbild sicherlich beeinflusst von der "Simulation Hypothesis" von Nick Bostrom, der einige der Silicon Valley Vordenker anhängen. Tatsächlich müssen sie logischerweise dieser These anhängen, denn wie Bostrom zeigt, ist die Simulationshypothese mathematisch wahrscheinlicher als beispielsweise die Schöpfungshypothese oder die zufällige Entstehung des Lebens. Ich werde hier nicht darauf eingehen, dass dies die Schöpfungsfrage ja nur eine Metaebene höher legt auf "Wer hat diesen Computer erschaffen und wie sind die Erschaffer des Computers entstanden?", denn hiermit erreichen wir den Bereich der Metaphysik. Persönlich halte ich die Simluationshypothese auch für die wahrscheinlichste, ich komme allerdings zu komplett anderen Schlussfolgerungen, als die Leute im Valley. Darum soll es aber nicht gehen. Wichtig ist zu verstehen, welche praktischen (und moralischen) Konsequenzen in unserer Realitätsebene durch diese Ansicht entstehen (können) und entstanden sind. Auf dieser Grundlage macht nämlich der Solutionismus, auf den wir zusteuern, absolut Sinn und kann moralisch positiv gesehen werden.

Ganz konkret wird Bostrom im Buch "Superintelligence" (Amazon), in dem er die Wege zu einer, dem Menschen ebenbürtigen Intelligenz und dann darüber hinaus aufzeigt. Dort erwähnt er, dass eine der Möglichkeiten darin besteht, den momentanen Zustand eines Gehirns zu scannen und in den Computer hochzuladen, also als Urladung - und ab dort denkt dann der Computer eigenständig weiter. Dies ist dann auch die erste Stufe zum Transhumanismus, der ja beispielsweise von Ray Kurzweil vertreten und angestrebt wird ("The Singularity is Near" Amazon). Bostrom und Kurzweil sind bei den Valley Milliardären hoch angesehene Denker und wir beschäftigen uns viel zu wenig mit diesen Themen, wahrscheinlich weil wir denken, dass es sich dabei um SciFi Spinnereien handelt. Aber ich bin der Überzeugung, dass diese "Spinnereien" genau in Form des Überwachungskapitalismus schon heute konkrete Auswirkungen auf unser aller Leben haben.
Das Thema der "Superintelligenz" ist nebenbei bemerkt auch ein sehr interessantes Feld, das in der Philosophie heute viel zu wenig bearbeitet wird. Durch die Superintelligenz bekommt zum Beispiel die Frage "Gibt es eine objektive Moral?" eine ganz konkrete Bedeutung - hier denkt selbst Bostrom zu kurz, der zwar die Frage stellt, wie die Maschine Moral lernt, für mich aber keine befriedigende Antwort geben kann. Aber auch das würde hier zu weit führen...

Zurück zum Überwachungskapitalismus: Die Idee ist also, selbst wenn wir einen Menschen noch nicht zu 100% im Computer simulieren können, dann kommen wir mit genügend Daten ausreichend nahe, mit Wahrscheinlichkeiten von über 95% Voraussagen treffen zu können, was einen Menschen "glücklich" und gesund halten würde.
Diese Vision ist tatsächlich das Ende des Kapitalismus und der Marktwirtschaft. Dies ist dann eher eine solutionistische Planwirtschaft, in der genau das produziert werden kann, was wir für jeden einzelnen Menschen brauchen. Man muss das dann nicht mal mehr selbst bestellen, denn der Simulator weiß was wir brauchen, bevor wir es selbst wissen. Eric Schmidt: "We don't need you to type at all. [...] We can more or less know what you're thinking about." Es scheint auch der eine oder andere schon konkret gesagt zu haben, dass sie den Kapitalismus überwinden wollen, dazu finde ich aber keine konkreten Zitate, die Frage die sich dann stellt: Was ist das, was nach dem Kapitalismus kommt?
Was Zuboff beschreibt ist also alles richtig, aber es ist zu kurz gedacht. Auch die Ideologiekritik muss den Überwachungskapitalismus überwinden und sich mit dem Überwachungssolutionismus beschäftigen, besonders mit der Frage, was auf dem Weg dorthin passiert.
Hier kommen Themen zu tragen, die Scobel mit der Frage „Was ist mit dem Abweichler?“ angeschnitten hat, und die Precht in dem Satz konzentriert "In einer Gesellschaft, die sich am Menschen ausrichtet, darf nicht zu viel normiert werden, um abweichendes Denken und Verhalten nicht zu beschneiden." (Jäger, Hirten, Kritiker - Amazon) Precht belässt es in dem Buch allerdings bei diesem einen wichtigen Satz. Die Fragen, die sich beispielsweise konkret stellen sind: Wenn der Algorithmus uns alles vorschlägt, wie kommt es dann noch zu Innovation, da es sich ja nur um statistische Modelle der Vergangenheit handelt? Was ist in der langen Übergangsphase mit den Menschen, die der Algorithmus nicht gut treffen kann? Werden die zu sozial Ausgestoßenen, oder müssen sich einfach der Mehrheit anpassen, um nicht unterzugehen?
Die Frage nach dem Social Scoring, die von einer Regierung ausgeht, die eine bestimmte Verhaltensweise aufoktroyieren will, greift also ebenfalls zu kurz. Die Frage muss lauten: Begeben wir uns nicht selbst wie die Schafe in die Abhängigkeit, ohne konkret über die Folgen der daraus entstehenden Gesellschaft nachzudenken? Wieder Eric Schmidt: "Ich denke, dass die meisten Menschen nicht wollen, dass Google ihre Fragen beantwortet. Sie wollen, dass Google ihnen sagt, was sie als nächstes tun sollen." Das ist es, was im Kern dieser Ideologie steckt: Die Ansicht, dass für die meisten Menschen der freie Wille eher eine Belastung darstellt.

Ich hoffe, damit konnte ich den Ideologischen Hintergrund, der diesen Entwicklungen zugrunde liegt, bzw. meine Theorie dazu, ein bisschen anreißen, und es gibt euch etwas zum Nachdenken und verarbeiten.

 

Jetzt möchte ich noch auf einige konkrete Punkte aus dem Interview kurz eingehen, die aus meiner Sicht der Ergänzung bedürfen:

Allgemein zum Nudging:
Man kann nicht nicht nudgen - oder zumindest ist es sehr schwierig nicht zu nudgen. Wenn ich mir vorher keine Gedanken mache, wie ich Information präsentiere, dann nudge ich ggf. unfreiwillig. Einfaches Beispiel: Wir neigen dazu Default-Optionen zu wählen, wenn ich also keine entweder-oder Fragen stelle, sondern eine "Kreuze hier an, wenn du deine Organe spenden willst" Frage, dann ist das schon Nudging, weil ich im Default Modus das Kreuzchen nicht setze. Sowohl die Zustimmungs- als auch die Widerspruchslösung ist also Nudging. Wenn ich Ja oder Nein ankreuzen müsste, wäre es vielleicht kein Nudging, aber dann kommt es ggf. auf die Formulierung der Frage an oder die Fragen, die vorher gestellt wurden, durch die ich dann u. U. wieder auf eine bestimte Entscheidung hin genudgt werde.
Auch dieser ganze Komplex rund um Nudging müsste öffentlich viel besser diskutiert werden. Die meisten Menschen haben das nicht verstanden.

 

„Die KI geht auf mein Smartphone und integriert die Daten dort“
Das ist natürlich nur die Paraphrasierung der Paraphrasierung, aber es zeigt einen Fehler im Verständnis, wie KI und wie Datenmodellierung funktioniert.
Die heutigen KI Systeme (Deep Learning Algorithmen) können nicht auf dem eigenen Smartphone laufen. Sie brauchen erstens die kompletten Daten aller statistischen Beispiele, sonst funktioniert die Technik nicht, und diese Algorithmen brauchen sehr spezielle Prozessoren, um gut zu laufen und würden außerdem in kürzester Zeit die Batterie des Smartphones leer saugen.
Die Daten anonymisiert an einen Server zu schicken, der dann das Deep Learning macht geht heute schon, auch ohne KI auf dem Smartphone. Das wird nicht gemacht, weil der Mehrwert ja genau in der Personalisierung der Daten liegt.
Und die Corona App hat mit KI und Deep Lerning überhaupt nichts zu tun und ist somit auch kein Beispiel für die „neue Form von KI“. Die App ist also kein Beispiel für das neue Modell. Nicht jede moderne App macht irgendwas mit KI - aber "künstliche Intelligenz" ist heute ein Marketing Bullshit Wort geworden, dass auf so gut wie jeden adaptiven Algorithmus geklebt wird, damit sich die App besser verkauft.

Etwas sehr Negatives, was die Corona App gezeigt hat, ist, wie die Techkonzerne Staaten bereits erpressen können. Es gibt keinen technischen Grund, warum die Corona App nicht mit zentralisierten Daten hätte funktionieren können. Trotzdem haben Google und Apple zur deutschen Regierung gesagt: Wenn ihr das zentralisiert macht, arbeiten wir mit euch nicht zusammen. Das ist in diesem Fall gut für die Menschen und den Datenschutz, es ist allerdings ein sehr bedenklicher Vorgang, wenn man ihn abstrakt betrachtet. Wenn Google und Apple sagen: Das geben wir in unseren Stores nicht frei, also kann es niemand installieren, dann hast du keine Chance die App auf das Handy zu bekommen, es sei denn du machst einen sog. Jailbreak.

 

„Das ist im Grunde Wahrscheinlichkeitsrechnung, die wir in den 40er und 50er Jahren erfunden haben“
Das stimmt zumindest für Deep Learning nicht, sonst hätte es diese Technologie schon früher gegeben. Neuronale Netzwerke sind ja keine neue Technologie, die gibt es schon sehr lange. Es gab vor ein paar Jahren neue Erkenntnisse in der theoretischen Mathematik, die das Deep Learning ermöglicht haben. Das hängt zusammen mit den Berechnungen von Tensoren (das sind Matrizen aus Vektoren), für die dann sogar eigene Prozessortypen entwickelt wurden, die diese Berechnungen schneller durchführen konnten. Mathematisch bin ich da selbst auch nicht so versiert, aber diese neuen mathematischen Erkenntnisse haben zum Ende des sogenannten „KI Winters“ beigetragen.

 

Ergänzung zu Street-View (Ausführungen von Wolfgang):

Was Google bei Street-View auch gemacht hat, war etwas, dass mit Street View gar nichts zu tun hat. Sie haben unverschlüsselte WLANs gesucht, und dann in den privaten File-Shares die Dateien abgescannt, vielleicht heruntergeladen und gespeichert oder einfach „nur“ Metadaten gespeichert. Das ist ein wirklich konkreter Eingriff in die Privatsphäre, der auch unentdeckt geblieben wäre, wenn es da nicht paranoide Leute gäbe, die den Verkehr in ihrem Netz mitschneiden. Es wäre interessant zu wissen, wie man darauf konkret gekommen ist, denn diese Paranoiden haben wahrscheinlich kein unverschlüsseltes Netz. Darauf geht Zuboff im Buch leider nicht ein. Wahrscheinlich haben die sog. Honeypots konfiguriert, um eben genau solche Fälle zu erkennen.

 

Wolfgang sagt, dass man bei (Online-)Werbung keinen A-B-Test machen kann.
Man kann das sicherlich nicht mit einer hundertprozentigen Trefferquote, aber Google bietet genau die Tools an, um auch hier eine möglichst hohe Quote zu erzielen. Als Werbekunde weiß ich genau, welche Werbung ein Kunde angeklickt hat, um auf meinen Online-Shop zu kommen und kann versuchen nachzuvollziehen, wann er gekauft hat. Man versucht das sogar über mehrere Besuche hinweg, um die gleichen Besucher zu identifizieren. Ich habe an solchen Lösungen am Rande mitgearbeitet, muss ich gestehen.

 

Scobel sagt: Wenn Google den eigenen Algorithmus nicht mehr verstehen, haben sie ein Problem.

Das ist heute wahrscheinlich schon so, falls dort Deep Learning zum Einsatz kommt. Man kann so einen Deep Learning Algorithmus in einem neuronalen Netzwerk nicht mehr wirklich verstehen. Man kann an den Gewichtungen an den Eingangsparametern drehen und auch die Ergebnisse nochmal filtern. Man hat also in gewissem Maße schon noch Kontrolle über den Algorithmus, aber die Idee ist ja genau die, dass der Algorithmus besser ist als jeder Experte. Wir verstehen nicht genau, warum die KI die Go-Spiele gewinnt - wir sehen dass sie Züge macht, die ein Mensch nicht machen würde, wir wissen aber nicht warum sie diese Züge macht. Das ist sehr wichtig zu verstehen.