Der Google-Instinkt

Elena Esposito & Laokoon

Die Vollversion des dekorativen Hintergrundbildes dieses Elements anzeigen.

Die Wette gilt! Das Kollektiv Laokoon hat mit dem künstlerischen Datenexperiment „Made to Measure“ behauptet, die letzten fünf Jahre im Leben eines Menschen ausschließlich anhand seiner im Netz hinterlassenen Datenspuren rekonstruieren zu können. Ihr Versuch gibt einen Ausblick in eine Zukunft, in der Datensammlungen massiv an politischem und marktwirtschaftlichem Einfluss gewinnen werden. Die Forschung der Soziologin Elena Esposito (EE) war Laokoon Inspiration für ihr Projekt. Hier diskutieren Cosima Terrasse von Laokoon (L) und Esposito über die Kulturtechniken, die wir für ein kommendes „Zeitalter der algorithmischen Prophezeiung“ als einer Krise der Freiheit und Autonomie des Individuums entwickeln müssen.

 

Liebe Elena Esposito, Ihre Arbeit hat uns in der Entwicklung unseres aktuellen Projekts „Made to Measure“ sehr beschäftigt. In dem Projekt arbeiten wir mit Vorhersagen, die Algorithmen über individuelle Zukunftsentwicklungen auf der Grundlage von Datenspuren aus dem Internet treffen. Was glauben Sie, wie sich unsere Vorstellung von der Zukunft in den nächsten Jahren hierdurch verändern wird?

EE Vorweg etwas Grundsätzliches: An unserem Umgang mit Zukunft hängt unser ganzes Verständnis moderner menschlicher Individualität und Selbstbestimmtheit. Dass wir die Zukunft durch unsere Entscheidungen und Handlungen erst selbst erschaffen, ist seit der europäischen Moderne eine Überzeugung, die zu unserem heutigen menschlichen Selbstbewusstsein entscheidend beigetragen hat. Aber an diesem hart erkämpften Selbstverständnis ändert sich in naher Zukunft eventuell einiges, weil wir in ein neues kulturelles Zeitalter eintreten könnten, das über Zukunft grundsätzlich anders nachdenkt: Ich nenne es das Zeitalter der Prophezeiung.

L Und Big Data spielt hierbei eine entscheidende Rolle.

EE Ja. Ich beschäftige mich mit den sozialen Konsequenzen des Maschinenlernens. Es hat unter anderem das explizite Ziel, unsere individuelle und kollektive Zukunft präzise vorauszusagen. Das ist zunächst eine Behauptung. Aber bereits eine solche verändert fundamental, wie wir mit der Unsicherheit umgehen, die eine offene Zukunft immer auch bedeutet. Ich glaube, man kann die Tragweite der sich hier anbahnenden kulturellen Veränderung am besten verstehen, wenn man die Analogie zu den Praktiken der Prophezeiung aus der antiken Mythologie eingeht.

L  Wie damals der Flug der Vögel und der plötzliche Wetterumschwung zur Vorhersage der Zukunft ausgedeutet wurden, wird es heute unsere Suchhistorie bei Google?

EE In etwa, ja. Mein Vergleich beruht auf drei Aspekten, die beschreiben, was die zweifelhafte Qualität der algorithmischen Vorhersagen ausmacht und warum diese unseren modernen Anforderungen an Prognostik eigentlich nicht standhalten. Der erste Aspekt ist, dass wir den hohen Grad an Zufälligkeit von Vorhersagen ausblenden: Algorithmen nutzen alle möglichen zufällig ähnlichen Daten aus dem Internet, um Vorhersagen über die Zukunft zu produzieren. Trotzdem werden diese Vorhersagen teilweise behandelt, als stünde hinter ihnen ein sinnhafter, strukturierter Analyseprozess. Auch antike Naturbeobachtungen haben aus Ähnlichkeiten grundsätzliche Schlüsse ziehen wollen: „Immer, wenn das Wetter umschlägt, sind die Götter erzürnt und die Schlacht wird in einer Niederlage enden“. So erklären uns Algorithmen im Prinzip heute wieder die Zukunft und wir nutzen solche Informationen tatsächlich bereits ganz ernsthaft!
Ein zweiter Aspekt meines Vergleichs betrifft die Individualisierung von Zukunftserwartungen: Algorithmische Prognosen sollen für ein ganz bestimmtes Individuum zutreffend sein – so, wie die seherische Prophezeiung auch. Wenn das Orakel von Delphi in den mythologischen Erzählungen um eine Prophezeiung gebeten wurde, dann durch eine spezifische, personenbezogene Frage: „Wird meine Heirat durch Kinder gesegnet sein?“ oder „Wird die Schlacht für mich gut ausgehen?“. Es war nicht die Rede von Durchschnittswerten, Wahrscheinlichkeiten oder allgemeinen Entwicklungstrends. Und auf Fragen von solch einer individuellen Qualität versprechen sich beispielsweise Unternehmen heute algorithmische Antworten: „Wer wird sich am 2. August in Berlin ein rotes Kleid kaufen? Das werden Sie sein!“

L Vermutlich! Wenn Sie das sagen …

EE Nicht ich. Wenn es der Algorithmus vorhersagt! Das Beispiel zeigt auch, wie unsicher eine solche individualisierte Vorhersage ist, von welcher Menge an nicht einrechenbaren Faktoren ihre Verwirklichung tatsächlich abhängt. Aber genau solche Vorhersagen werden getroffen und Firmen zahlen dafür.
Und der dritte Aspekt sind die performativen selbsterfüllenden Eigenschaften sowohl der antiken Prophezeiung – denken Sie an Ödipus – als auch der algorithmischen Prognose. Der französische Soziologe Dominique Cardon sagt, dass der Algorithmus die durch ihn vorhergesagte Zukunft produziert. Ihnen werden Produkte, politische Überzeugungen und soziale Kontakte im Netz vorgeschlagen, weil der Algorithmus sie für passend hält. Sie lernen diese vielleicht so erst kennen und ihr Konsumverhalten oder sogar ihr Weltbild verändert sich Stück für Stück. Der Algorithmus baut an der Zukunft, die er vorhersagen will. Insofern wird es am Ende sogar wirklich wahrscheinlicher, dass Sie das rote Kleid kaufen – weil eine Vielzahl von vorgeschlagenen Bildern und Artikeln im Netz es ihnen im Vorfeld immer wieder nahegelegt haben.

L In unserem Projekt „Made to Measure” hat uns interessiert, wie sich diese neuen Qualitäten der algorithmischen Vorhersage auf ein individuelles Leben auswirken. Deshalb sind wir ein Experiment eingegangen: Ist es möglich, für eine Person einen perfekten Doppelgänger zu erschaffen, für den die Grundlage allein Daten bilden, die diese Person über die Zeit von fünf Jahren hinweg bei Google, Facebook und Co. hinterlassen hat? Diese Daten hat die so genannte Datenspenderin bei den genannten Firmen angefordert und uns zur Analyse übergeben. Wir haben dann allein auf Grundlage der Daten, die wir gemeinsam mit Spezialistinnen ausgewertet haben, ein Double der Person erstellt und wichtige Stationen aus den fünf Jahren mit einer Schauspielerin filmisch inszeniert – von Beziehungsenden über neue Wohnorte und Tagesabläufe, große mentale Tiefs und Neuanfänge der Person, alles möglichst detailgenau. Am Ende hat unsere Datenspenderin dann zu unserem Rekonstruktionsversuch Stellung genommen und ihre Version der eigenen Lebensgeschichte beigetragen.
Wir konnten anhand der Daten und vor allem der Google-Suchanfragen nachverfolgen, wie sich Vorlieben, Einstellungen und Interessen der Person über die Zeit hinweg entwickelt und sehr grundlegend verändert haben. Der Algorithmus hat hier zunächst viele Aspekte treffsicher identifiziert. Zu Beginn des Datensatzes standen Strategien zur körperlichen Selbstoptimierung und für gesellschaftliche Anerkennung im Zentrum der Google-Suchen. Angezeigt und von ihr geklickt wurden Angebote von Nahrungsmittelergänzungen über Diätprogramme bis hin zu Fitnesskursen. Das sind für Google finanziell relevante Produkte und deshalb spielten diese Aspekte im Profiling unserer Datenspenderin durch den Algorithmus eine wichtige Rolle. Zunächst lag die Vorhersage auch richtig: Das Interesse der Person an genau den angezeigten Inhalten wuchs lange weiter, wurde sogar obsessiv.
Als sich aber die Wertvorstellungen und Wünsche der Person sukzessive veränderten, sie sich beispielsweise nach beruflichen Veränderungen und Weiterbildungsmöglichkeiten umsah, basierten die ihr angezeigten Empfehlungen weiterhin auf ihren alten, lukrativeren Gewohnheiten und konfrontierten sie immer wieder mit den für sie selbst schädlichen Mustern. Man kann nicht mal sagen, dass der Algorithmus ab hier falsch lag, denn tatsächlich verfiel die Datenspenderin durch die Konfrontation mit bestimmten Produkten immer wieder in eben diese Muster – das berührt den dritten Aspekt Ihres Vergleichs, die selbsterfüllende Prophezeiung, und bestätigt, dass der Einfluss des Algorithmus in unserem Beispiel sich tatsächlich äußert machtvoll auf die Entwicklung eines individuellen Lebens ausgewirkt hat und das auch bis heute weiter tut. Aber gleichzeitig verfügte unsere Datenspenderin eben auch über Ressourcen, um ihr Leben zu verändern: wachsende Neugier auf ein anderes Lebensumfeld, Selbstbewusstsein durch Erfolge im Studium. Zum Glück ist jedes Leben doch komplexer und vielfältiger als das Modell, das der Algorithmus von ihm anlegt.

EE Das ist ein faszinierendes Projekt, weil es einen Prozess zeigt, der einen in bestimmten verletzlichen Lebensphasen regelrecht in die eigene Vergangenheit zurückversetzt. Es wäre naheliegend, die Großkonzerne und ihre Programmierer dafür verantwortlich zu machen. Aber es gibt in der Forschung viele Anhaltspunkte dafür, dass diese Schuldzuweisung zu kurz greift. Das konservative Moment stammt aus den Daten selbst, die wir im Netz hinterlassen. Menschliches Verhalten wird sehr oft eben nicht durch innovative, sozial verantwortliche und selbstreflexive Muster geleitet. Grundsätzlich neigen wir im Gegenteil dazu, dieselben Trends immer wieder zu verstärken. Das bedeutet, dass Innovation auch in der digitalen Kultur eine Ausnahme ist.

L Natürlich sind wir es selbst, die im Netz Datenspuren hinterlassen und Entscheidungen in eigener Verantwortung treffen. Aber diese Spuren prägen sich nicht auf neutralem Grund ein. Wir hinterlassen sie in einem digitalen Universum voller programmierter Vorentscheidungen darüber, welche unserer Angewohnheiten für Dritte ökonomisch relevant sind. Bevor wir im Netz irgendeine Entscheidung treffen können, hat der Algorithmus unsere Möglichkeiten schon auf eine sehr überschaubare Auswahl eingeschränkt. Außerdem findet unsere persönliche Entwicklung in Co-Abhängigkeit mit der digitalen Umgebung statt, die uns ebenso prägt wie die analoge. Manchmal gehe auch ich trotz besseren Wissens zur Suchmaschine Google zurück. Ich bin mit ihr aufgewachsen und habe einfach einen Instinkt dafür entwickelt, wie ich mich innerhalb dieses vertrauten Systems bewege. Es gibt sogar den Wunsch, diesem System zu gefallen – wenn es persönlich und ökonomisch relevant wird. Zum Beispiel, wenn Youtuber ihre Zuschauer regelmäßig auffordern: „Bitte hinterlasst einen Kommentar, das liebt der Algorithmus.“

EE In beide Richtungen – bei Mensch und Algorithmus – werden dabei aber vor allem Informationen angesammelt, es findet kein Lernen im Sinne von Innovation statt. Nur sehr bewusste Umgangsweisen mit dem Internet, die Manipulationen von Technik, verändern das. Solche bezeichnet man als Reverse-Engineerings und sie beruhen zum Beispiel auf der Parodie erwartbaren Verhaltens, auf Humor und auf klugen Tricks – auf Kunst im allerweitesten Sinne.

L Im Moment liegt der einzige Zugang zu solchen Umgangsweisen mit dem Internet im kulturellen Vermögen und Wissen von Individuen. Aber eine durchschnittlich informierte Person kann nicht ansatzweise überblicken, zu welcher Form der Datenerhebung sie ihre Zustimmung gibt. Unsere Datenspenderin hat ihre Zustimmung etwa an Google gegeben – und dann später an unser Experiment. Aber war ihr klar, dass sich aus diesen Daten fünf Jahre später das Muster einer Essstörung ableiten lassen würde? Rückblickend zeichnet sich das in den Daten ab und spielt auch tatsächlich für die Biografie der Datenspenderin eine Rolle – doch das war fünf Jahre zuvor für sie noch nicht absehbar. Zu Beginn hat diese Person einfach auf „Cookies akzeptieren“ geklickt und hatte keine Vorstellung davon, dass ein Modell, eine Typisierung ihrer Persönlichkeit erstellt werden würde und wie stark dieses Modell sich unter anderem auch durch die folgenden personalisierten Produktangebote und vorgeschlagenen Inhalte aus dem Internet immer stärker selbst verwirklichen sollte.
Wie sollen wir uns verändern, wie können wir uns selbst entkommen, wenn wir uns in technisch selbstverstärkenden Mustern bewegen, die sich zuallererst auf die kommerzialisierbaren Aspekte unseres Verhaltens beziehen? Unser Wissen über diese Modellbildung wird deren Wirksamkeit unter Umständen auch gar nicht brechen, sondern psychologisch sogar noch verstärken. Ist es also vielleicht sogar besser, das Wissen der Internetkonzerne über uns einfach zu ignorieren?

EE In der Medizin gibt es, dem vergleichbar, das Recht auf Nichtwissen. Es gibt Fälle, in denen Personen beispielsweise nicht mit ihrer vermutlichen Lebenserwartung angesichts einer schweren Krankheit konfrontiert werden möchten. Aber Dritte, etwa Versicherungen, werden uns auf Grundlage von so genanntem kontextuellen Profiling anders behandeln, weil sie plötzlich mehr über unsere Krankheit zu wissen meinen als wir. Es gibt auch Situationen, in denen Dritte tatsächlich ein moralisches Anrecht auf diese Informationen und Daten haben. In unserem Beispiel wären das Angehörige, die vom Risiko einer vererbbaren Krankheit wissen sollten. Hier zwischen verschiedenen Rechten an Daten abzuwägen, wird eine der großen künftigen Rechtsherausforderungen an unsere Gesellschaften sein.

L Was diese Fragen noch komplizierter macht, ist, dass individuelle Schicksale darin nur als Verantwortung vereinzelter Menschen – und nicht als geteilte gesellschaftliche Aufgabe – betrachtet werden.

EE Bisher mussten und konnten sich viele europäische Gesellschaften auf eine Infrastruktur verlassen, die man als geteilte Unsicherheit bezeichnet. Diese beruhte etwa im Versicherungswesen auf allgemeiner Statistik statt auf individueller Prognose. In Europa verstehen wir diese Vergesellschaftung von Risiko bislang als Motor für Innovation, denn Absicherung ist ein Aktivator für menschliche Risikobereitschaft. Wenn aber die Konsequenzen meines individuellen Lebensstils voraussagbar wären, wer wäre dann noch bereit, meine Sicherheit finanziell solidarisch mitzutragen? Wer lässt sich wissentlich mit einer Person mit Essstörung auf eine kollektive Krankenversicherung ein, wenn für eine Seite hohe Behandlungskosten wahrscheinlich sind und für die andere nicht?
Wir können niemandem verbieten, sich lieber auf seine individuelle Analyse durch Big Data als auf die Absicherung in der Gemeinschaft verlassen zu wollen – aber die Konsequenzen berühren Grundannahmen unseres Zusammenlebens.

Gibt es auch technische Innovationen, die uns helfen könnten, innerhalb von Big Data solidarische Infrastrukturen zu entwickeln?

EE Es gibt ein riesiges Forschungsfeld zu „Explainable AI“, das vor allem auf das bessere Verstehen von Algorithmen und der Art zielt, in der sie ihre Informationen aus Daten sammeln. Aus diesem größeren Wissen über algorithmische Lernprozesse will die internationale Forschung dann Souveränität über Algorithmen gewinnen. Ich glaube, man sollte hier anders vorgehen und vor allem Künstliche Intelligenzen (KI) schaffen, die Datensätze in genau der Form liefern, die wir als gesellschaftliche Zielvorgabe formulieren. In der Programmierung solcher völlig neuer Kontrollmechanismen für KI stehen wir aber noch ganz am Anfang. Die Methode des so genannten „Co-Constructing“, die wir zum Beispiel in einem Forschungsprojekt der Universität Bielefeld untersuchen, will Nutzer des Internets zukünftig stärker Einfluss darauf nehmen lassen, was genau Maschinen über sie lernen – Individuen sollen den Algorithmus bewusst mit von ihnen ausgewählten Informationen etwas über ihre Vorlieben und Erwartungen lernen lassen.
Mich würde aber auch interessieren, ob die Protagonistin Ihres Projekts einen ganz persönlichen Weg gefunden hat, sich von den Prophezeiungen der Algorithmen über sie freizumachen?

L Die Person hat sich im Zuge des Projektverlaufs sehr intensiv damit beschäftigt, welch starke Veränderung sie in fünf Jahren durchlaufen hat – das in einem künstlerischen Experiment abgebildet zu sehen, war für sie wie für uns auch eine sehr emotionale Erfahrung. Aber erst vor einigen Tagen hat uns die Datenspenderin erzählt, dass ihre Nutzung des Internets sich eigentlich nicht grundlegend verändert habe. Sie fragt sich nur heute bei einer Google-Suche: Was würde wohl Laokoon daraus ableiten? Offenbar hat sie kürzlich Google gefragt: Wie kann ich eine Nonne werden?

EE Und welche Schlussfolgerungen ziehen Sie über Ihre Aufgabe als Künstlerinnen aus dem Projekt?

L „Made to Measure“ findet auf einer interaktiven Storytelling-Website statt – einer digitalen Bühne, wenn man so will. Mit der Funktionsweise der Website verkörpern wir die sonst verdeckte Logik von Algorithmen. Wir machen diese sichtbar und eignen sie uns an – durch künstlerische Reproduktion und die probeweise Umprogrammierung nach unseren eigenen Regeln. Welches Erlebnis sich damit für die Besucherinnen der Website verbindet, und was man dabei über die Funktionsweise von Algorithmen lernt, kann man im Vorfeld nicht verraten. Nur so viel: Es ist unser Versuch, Löcher in die Blackbox von Big Data zu stanzen, indem wir uns selbst zu Autorinnen einer Lebensgeschichte gemacht haben – auf der Grundlage eines Datensatzes.

Elena Esposito

Elena Esposito ist Professorin für Kommunikationssoziologie an den Universitäten Bologna und Bielefeld. 1990 bei Niklas Luhmann promoviert, erforscht sie als Systemtheoretikerin das Problem der Zeit in sozialen Systemen. Dabei beschäftigt sie sich u. a. mit Technologien der Erinnerung, des Vergessens und der Zukunftsvorhersage, sowie Mode, Fiktionen und dem Nutzen von Unberechenbarkeit im Finanzsystem. Ihr Schwerpunkt liegt dabei seit einigen Jahren auf der Erforschung der sozialen und politischen Tragweite der Implementierung algorithmischer Vorhersagesysteme – ihrem Wandel von Instrumenten zur bloßen Risikoabschätzung zu solchen der Zukunftsprognostik und schließlich zur autopoietischen Reproduktion alternativloser Gegenwartsszenarien.

Labore des Zusammenlebens

In ihrer Veranstaltungsreihe „Labore des Zusammenlebens“ versammelt die Kulturstiftung des Bundes seit Januar 2021 digitale Gespräche und künstlerische Projekte. Dazu sind Künstlerinnen und Theoretiker, Wissenschaftlerinnen und Akteure der kulturellinstitutionellen Praxis eingeladen, Szenarien unseres zukünftigen Zusammenlebens zu imaginieren und zu diskutieren. Die Form der einzelnen Labore folgt dem, was Erkenntnisgewinn verspricht. Das kann eine moderierte Kontroverse um schmerzliche Zerwürfnisse in der kulturellen Praxis sein; ein anderes Mal ein schneller partnerschaftlicher Austausch zu Überlegungen im Entstehen, für die in der öffentlichen Debatte weitere Mitdenkende gewonnen werden sollen. Das Herzstück der Labore bilden digitale Projekte, die Künstlerinnen und Künstler im Dialog mit der Kulturstiftung als Reallabore entwickeln. Eine dieser Arbeiten ist das künstlerische Datenexperiment Made to Measure, das von Laokoon und der Kulturstiftung des Bundes initiiert wurde.
Bisher fanden in der Reihe „Labore des Zusammenlebens“ fünf digitale Veranstaltungen zu den Themen menschliche Selbstbestimmung, Erinnerungskultur im globalen Kontext, ostdeutsche Identitäten und Wahrheit in der Informationsgesellschaft statt. Als Gäste waren dazu u. a. der Historiker Michael Rothberg, die Schriftstellerin Olivia Wenzel, der Theaterregisseur Arne Vogelgesang oder die Choreografin Florentina Holzinger geladen. Alle bisherigen Episoden können auf YouTube nachgeschaut werden.

Laokoon

Die Gruppe Laokoon verbindet in ihren Arbeiten investigative und wissenschaftliche Recherche mit verschiedenen künstlerischen Ausdrucksformen. So entstehen Essays, Dokumentarfilme, Theaterproduktionen, Vorträge und Hörspiele, in deren Zentrum stets die Frage steht, wie sich unsere Vorstellung von Mensch und Gesellschaft im digitalen Zeitalter verändert.

Die französische Künstlerin und Landschaftsarchitektin Cosima Terrasse entwickelt partizipative Performance-Projekte und lehrt seit 2018 am Social Design Studio der Universität für angewandte Kunst in Wien. Der Dokumentarfilm „The Cleaners“ der Regisseure und Autoren Hans Block und Moritz Riesewieck über die Schattenindustrie der digitalen Zensur in Manila hatte seine Weltpremiere auf dem Sundance Film Festival 2018 und erhielt unter anderem den Prix Europa und den Grimme Publikumspreis. 2020 ist ihr Essay „Die digitale Seele“ im Goldmann Verlag erschienen.

Made to Measure

Für das künstlerische Datenexperiment „Made to Measure“ hat die Künstlergruppe Laokoon allein auf Basis der Datenspuren einer anonymen Person eine Doppelgängerin aus Fleisch und Blut erschaffen. Zusammen mit einer Schauspielerin und einer Datenanalystin rekonstruierte und verfilmte die Gruppe wichtige Stationen im Leben dieser Person auf der großen Bühne von PACT Zollverein. Einige Monate später kam es dann zur Begegnung zwischen dem Original und seinem datafizierten Double. Erlebbar ist das innovative Experiment seit Ende August 2021 auf einer interaktiven Storytelling-Website, die auf neuartige Weise erfahrbar macht, welche Schlüsse Algorithmen über die Persönlichkeit eines Menschen und sein künftiges Verhalten ziehen. Laokoon hat mit der Webexperience ein komplexes digitales Erzählen im und über das Netz kreiert. „Made to Measure“, das neben der Website auch eine TV-Dokumentation umfasst, macht auf eindrucksvolle Weise deutlich, wie weitreichend die Einblicke in unser Seelenleben und unsere intimsten Geheimnisse sind, die wir Google, Facebook & Co. jeden Tag gewähren. „Made to Measure“ wurde initiiert und gemeinsam entwickelt von Laokoon und der Kulturstiftung des Bundes. Premiere feierte das Projekt am 29. August 2021 im Rahmen von Labor #5 unserer Reihe Labore des Zusammenlebens (öffnet neues Fenster).

Magazin bestellen

Das Magazin der Kulturstiftung erscheint halbjährlich und will einen aktuellen und facettenreichen Einblick in die Arbeit der Kulturstiftung des Bundes geben. Sie können es kostenfrei ab der aktuell lieferbaren Ausgabe bestellen, wenn Sie uns Ihre Adresse mitteilen.

Gern liefern wir Ihnen auch ältere Ausgaben des Magazins, sofern die gewünschte Ausgabe noch verfügbar ist. Folgende Ausgaben des Magazins sind bereits vergriffen und können leider nicht mehr geliefert werden: 4, 15, 19, 20, 24, 26, 30 und 31.

Adressdaten ändern

Wenn Sie Ihre Adressdaten korrigieren oder ändern möchten, schicken Sie uns bitte eine E-Mail mit den geänderten Kontaktdaten (alte und neue Adresse) an:

magazin​(at)​kulturstiftung-bund.de

 

Magazinarchiv