Die Macht der Spekulation in einer Welt von Vorhersagen

Image by Pete Linforth from Pixabay

Die Macht der Spekulation in einer Welt von Vorhersagen

Eine kurze Geschichte der prädiktiven Mathematik

Seit Tausenden von Jahren versuchen Menschen, die Zukunft vorauszusagen, indem sie in die Sterne blicken, Knochenwürfel werfen oder die Linien der Handfläche lesen. Trotz Spekulationen und Wetten auf die Zukunft im Laufe der Jahrhunderte waren die meisten Menschen größtenteils nicht in der Lage, sie zu berechnen. Doch im Jahr 1654 veränderte eine Serie von Briefen zwischen Blaise Pascal und Pierre de Fermat die Welt, indem sie die Möglichkeit eröffneten, die Zukunft zu prognostizieren, indem sie Wahrscheinlichkeiten mathematisch bewerteten. Heutzutage sind wir daran gewöhnt, unser Leben zu gestalten, indem wir Risiken kalkulieren: Wie wahrscheinlich ist es, einen guten Job zu finden, wenn ich ein bestimmtes Fach an der Universität studiere? Wie viel sollte ich in eine Rentenversicherung investieren, um im Alter ein komfortables Leben führen zu können? Vor Blaise und Pascal war dies eine fremde Denkweise. Umso mehr, da wir heute unsere Welt formen, indem wir Algorithmen diese Risiken für uns berechnen lassen.

In ihrem Briefwechsel schufen Blaise und Pascal die mathematischen Grundlagen, die für die prädiktive Analytik benötigt werden. Prädiktive Analytik beschreibt die Praxis, “Informationen aus vorhandenen Datensätzen zu extrahieren, um Muster zu erkennen und zukünftige Ergebnisse und Trends vorherzusagen”. Eine Reihe von statistischen Techniken werden heute verwendet, um prädiktive Analytik durchzuführen, darunter Data Mining, Modellierung und maschinelles Lernen, die alle dazu dienen, historische Informationen zu analysieren, bzw. Daten aus der Vergangenheit zu verwenden, um Vorhersagen über das Unbekannte und Kommende zu treffen. Prädiktive Analytik kann bewerten, was in der Zukunft wahrscheinlich geschehen wird, basierend auf den Eingabedaten, kann jedoch nicht vorhersagen, was tatsächlich passieren wird, obwohl wir oft den Fehler machen, genau das zu glauben.

Heutzutage leben wir in einer von Daten und Algorithmen gesteuerten Welt. Jeden Tag lassen wir Algorithmen unsere Entscheidungen darüber beeinflussen, welchen Film wir sehen oder in welche Aktien wir investieren könnten. Algorithmen sagen voraus, auf welche Werbeanzeigen wir am ehesten reagieren werden, und welche Entscheidungen selbstfahrende Autos treffen sollten. Unsere Daten werden mit oder ohne Zustimmung gesammelt und von Datenwissenschaftlern genutzt, um “die Zukunft zu erraten”. Dies ist grundsätzlich keine negative Entwicklung. Viele soziale Anwendungsfälle werden entwickelt, wie beispielsweise die prädiktiven Modelle, die am John Jay College of Criminal Justice in New York City entwickelt wurden, um zu identifizieren, welche Studierenden Gefahr laufen, das College abzubrechen, und sie bis zum Abschluss zu unterstützen. In unserer zunehmend komplexen und informationsreichen Welt können Algorithmen wichtige Werkzeuge sein, um zu verstehen, was in unserer Umgebung wichtig ist.

Warum ist es keine gute Idee, sich auf die Vorhersage großer Daten zu verlassen?

Allerdings kann KI-basierte Entscheidungsfindung auch bestehende Vorurteile fortsetzen und dazu beitragen, die Überwachungswirtschaft weiter zu verfestigen. Zahlreiche Fälle dokumentieren falsch gelaufene prädiktive Polizeiarbeit oder rassistische Gerichtsurteile aufgrund voreingenommener Daten. Diese Beispiele (von denen viele wahrscheinlich nicht dokumentiert wurden) zeigen die Gefahren auf, die mit der Verwendung vereinfachter Datenmodelle in sensiblen sozialen Umgebungen einhergehen. Daten-Determinismus beeinflusst unser Leben nicht nur in Extremsituationen wie der Strafverfolgung, sondern auch im täglichen Leben – durch sexistische, rassistische, altersbezogene und behindertenfeindliche Suchergebnisse, Einstellungspraktiken und Gestaltung und Bereitstellung von Gesundheitsdiensten. Da diese Systeme so normalisiert sind, neigen wir dazu, ihre Auswirkungen herunterzuspielen, was es Unternehmen aus dem Silicon Valley ermöglicht, ihre Richtlinien als Regeln für die Gesellschaft und Individuen durchzusetzen. Zum Beispiel erklärt AirBnB, dass jede Buchung “auf Risiko bewertet wird, bevor sie bestätigt wird. Wir verwenden prädiktive Analytik und maschinelles Lernen, um sofort Hunderte von Signalen zu bewerten, die uns dabei helfen, verdächtige Aktivitäten zu erkennen und zu untersuchen, bevor sie passieren.” Da diese Richtlinie dem Unternehmen effektiv erlaubt, das Web nach Informationen zu durchsuchen, wurden mehrere Nutzer als “verbunden” mit gefälschten Profilen in sozialen Netzwerken oder mit Schlüsselwörtern, Bildern oder Videos markiert, die auf eine Beteiligung an Drogen, Alkohol oder Sexarbeit hindeuteten. Dazu gehörten auch mehrere Sexarbeiterinnen, deren Konten gelöscht wurden, obwohl sie AirBnB ausschließlich für private, touristische Zwecke genutzt hatten. Natürlich hätte jedes der großen Technologieplattformen als Beispiel für diese Art der Verwendung prädiktiver Analytik dienen können – es ist keineswegs spezifisch für AirBnB.

Ein dunkler Raum mit Lichtinstallation. Schatten von einigen Menschen sind zu erkennen.

Foto von Robynne Hu auf Unsplash

Die auf Daten basierenden Realitäten und Zukünfte, die wir schaffen, gründen auf den Daten der Vergangenheit. Um uns von den rückwärtsgerichteten, deterministischen Strukturen zu lösen, die wir heute programmieren, müssen wir diese Daten ergänzen. In ihrem TedxCambridge-Vortrag erklärt die Ethnografin und Datenwissenschaftlerin Tricia Wang, dass uns mehr Daten nicht helfen, “bessere Entscheidungen zu treffen”, wenn wir wichtige, kontextualisierende Perspektiven außer Acht lassen. Stattdessen plädiert sie für die Humanisierung von Daten – das, was sie “dick data” nennt – große Datenmengen, die mit nicht quantifizierbaren, qualitativen Daten angereichert wurden, die aus einer ethnografischen Perspektive gesammelt wurden und “Tiefe der Bedeutung” liefern. Wang zieht diese Schlussfolgerung aus ihren eigenen Erfahrungen in China im Jahr 2009, als sie den Siegeszug des Smartphones über das herkömmliche Mobiltelefon vorhersagte. Zu dieser Zeit war ihr Kunde Nokia nicht bereit, den Geschichten zuzuhören, die sie hinter den Daten gesammelt hatte, sondern klammerte sich an die Überzeugung, dass die Menschen nicht bereit wären, so viel ihres Einkommens in ein so fragiles Gerät zu investieren.

Umfragen und andere Formen der Vorhersage, wie Prognosen, scheitern, wenn Daten gelesen werden, ohne auf die nuancierteren Verschiebungen in politischen Allianzen und der Mobilisierung von Wählern zu achten, beispielsweise bei der Wahl von Präsident Trump und dem Brexit-Votum in Großbritannien. Um Daten effektiv nutzen zu können, müssen wir lernen zu sehen, was uns die Daten nicht zeigen. Wie Wang warnt: “Es gibt kein größeres Risiko, als blind für das Unbekannte zu sein”. 

Die Macht der Spekulation und der politischen Vorstellungskraft im Blick auf das Unbekannte

Indem wir uns von den Daten entfernen und die Möglichkeiten außerhalb des Messbaren erkunden, können wir beginnen, zu erahnen, was derzeit unbekannt ist. In seinem Vortrag ‘Die politische Tragödie des datengetriebenen Determinismus’ beschreibt Mushon Zer-Aviv den Prozess der Entwertung durch die Integration digitaler Dienste in unseren Alltag. Ist es wichtig, ob wir einfache Kopfrechenübungen vergessen, Telefonnummern auswendig lernen oder eine Karte lesen können? Vielleicht, aber es ist nicht akzeptabel, dass wir unsere Fähigkeit verlieren, sich unterschiedliche Zukünfte vorzustellen. Zer-Aviv betont die Bedeutung der Aufrechterhaltung und Schulung unserer “Fähigkeit zur politischen Vorstellungskraft”, und erinnert uns daran, dass das 20. Jahrhundert gezeigt hat, wie die Utopie einer Person für jemand anderen zum Albtraum werden kann. Deshalb müssen wir die Zukunft nicht als linear und deterministisch, sondern als vielfältig betrachten. Und weil es uns oft leichter fällt, nicht wünschenswerte Zukünfte in Form von Dystopien zu formulieren, benötigen wir Werkzeuge, um uns bei der Entwicklung erstrebenswerter Zukünfte zu unterstützen.

Zwei Hochhäuser im ökobrutalistischen Look aus der Vogelperspektive.

Foto von Nazarizal Mohammad auf Unsplash

Spekulation ist ein solches Werkzeug. Es ist der Prozess des “Bildens einer Theorie oder Vermutung ohne feste Beweise” oder “die Tätigkeit, mögliche Antworten auf eine Frage zu erraten, ohne genug Informationen zu haben, um sicher zu sein”. In der heutigen datengetriebenen Gesellschaft kann Spekulation befreiend sein. Wie Anthony Dunne und Fiona Raby in ihrem Buch ‘Spekulatives Alles’ argumentieren: Wir glauben, dass durch vermehrte Spekulation auf allen Ebenen der Gesellschaft und durch die Erkundung alternativer Szenarien die Realität formbarer wird und obwohl die Zukunft nicht vorhergesagt werden kann, können wir dazu beitragen… Faktoren zu setzen, die die Wahrscheinlichkeit erhöhen, dass wünschenswertere Zukünfte eintreten… ebenso können Faktoren, die zu unerwünschten Zukünften führen könnten, frühzeitig erkannt und angegangen oder zumindest begrenzt werden. Profis aus verschiedenen Disziplinen wie Design, Geschäftsentwicklung, Gaming und politischer Philosophie können solche Ansätze bieten. In den letzten Jahren wurden zahlreiche Methoden und Werkzeuge entwickelt, von denen einige in dieser Publikation vorgestellt werden, die uns einladen, zu spekulieren, zu imaginieren und zu schaffen, anstatt einfach zu rechnen, zu analysieren und zu bewerten.

Im Jahr 1952, rund dreihundert Jahre nach dem Briefwechsel zwischen Blaise und Pascal, der es den Menschen ermöglichte, Wahrscheinlichkeiten zu berechnen, schuf Christopher Strachey das, was als das erste Stück digitaler Literaturkunst bezeichnet wurde, einen kombinatorischen Liebesbrief-Algorithmus für den Manchester Mark 1-Computer. Heute steht die generative KI ganz oben auf der Agenda für digitale Politikgestalter, Aktivisten und Theoretiker. Als Gesellschaft befassen wir uns mit Fragen wie: Welche Aufgaben sollte KI erlaubt sein auszuführen, wie unterscheiden wir zwischen Werken, die von KI und von Menschen geschaffen wurden, und wie viel Entscheidungsgewalt sollte KI über unser Leben haben. Gleichzeitig, während wir unsere Maschinen lehren zu erschaffen, sollten wir unsere eigene Kreativität und Handlungsfähigkeit bewahren, um zu erforschen, was durch sie erreicht werden kann, anstatt uns auf sie zu verlassen, um unsere Zukunft gemäß unserer Vergangenheit vorherzusagen.