top of page

Eine Keynote über KI, Vorhersage, und die alten Griechen

Am 21.03.24 in Heusenstamm bei Frankfurt am Main, im Rahmen der Verleihung des Vectorsoft yeet Awards gehalten.


Literaturverzeichnis am Seitenende. KI-geprüft für die deutsche Rechtschreibung ;)

 



Zukunft „in Echtzeit“ – eine Keynote über KI, Vorhersage, und die alten Griechen


Keynote Isabelle Vuong Foto © Annalisa Borrelli
Foto © Annalisa Borrelli


KI-Vorhersage oder die Zukunft „in Echtzeit“


In den letzten Wochen habe ich an verschiedenen Konferenzen in Deutschland teilgenommen.


Zukunft in Echtzeit durch digitalen Unternehmen

Dabei bin ich immer wieder auf das gleiche Versprechen von Tech- und digitalen Interessenverbänden oder Unternehmen gestoßen.

Nämlich, dass Künstliche Intelligenz die Zukunft „in Echtzeit“ oder „aus der Kristallkugel“ erlebbar macht. Sei es, um neue Produkte zu entwickeln oder neue Märkte zu erschließen. Mit anderen Worten: KI wäre in der Lage, die Zukunft mehr oder weniger vorherzusagen.

 


Zurück zu den Grundlagen der Vorhersage


In einer Ära, in der künstliche Intelligenz zum Synonym für Innovation, Transformation, also faktisch für Zukunft wird, weil sie dank der probabilistischen Extrapolation von Big Data in die Zukunft zum Prognosewerkzeug par excellence avanciert, ist es höchste Zeit, zu den Grundlagen der Vorhersage (oder Prognose) zurückzukehren.

 

Nämlich zu den alten Griechen.


Denn die antike Griechen wussten schon fast alles, was es über Vorhersagen und unseren Umgang mit der Zukunft zu wissen gibt.



Tempel von Delphi
Der Tempel von Delphi in Griechenland, einige hundert Kilometer westlich von Athen.


Die alten Griechen amüsierten sich nämlich über den grundlegenden Widerspruch zwischen dem Wunsch, die Zukunft zu kennen, und der Konsequenz dieses Wissens, also in der besagten Vorhersage gefangen zu sein (1).

 

Man kennt dabei die Prophezeiungen des Orakels von Delphi. Am bekanntesten ist bis heute die Geschichte von Ödipus, der sein Leben lang versuchte, die Vorhersage zu widerlegen, er werde seinen Vater töten und seine Mutter heiraten.


Das Ergebnis ist bekannt: Er tötete seinen Vater und heiratete seine Mutter.

 

Fazit: Wenn wir die Zukunft kennen könnten, würde das bedeuten, dass die Zukunft vorherbestimmt wäre. Und man könnte dagegen nichts tun.


Die Ungewissheit der Zukunft ist also die existenzielle Voraussetzung unserer Handlungsfreiheit, ob wir wollen oder nicht.

 

Genau hier liegt der Unterschied zwischen Zukunftsforschung und Wahrsagerei:


In der Unterscheidung zwischen Aussagen, die zum Zeitpunkt ihrer Formulierung wahr sind, aber im Laufe der Zeit falsch werden können (technisch als „ex ante“ wahr bezeichnet) und solchen, die endgültig wahr (also „ex post“ wahr) sind, was auch immer in der Zwischenzeit geschehen mag, vergleiche Ödipus (2).

 

Aber auch heute noch verstehen viele diesen Unterschied kaum, so dass Prognose und Prophezeiung häufig verwechselt werden.

 


Die kontinuierliche Wirkung der Zukunft auf die Gegenwart


Dieser „Ödipus-Effekt”, wie ihn der berühmte Wissenschaftsphilosoph Karl Popper (3) zu nennen versuchte, ist heute unter dem Begriff der „selbsterfüllenden Prophezeiung“ bekannt.

 

Die selbsterfüllende Prophezeiung macht uns darauf aufmerksam, dass die Zukunft, auch wenn sie nicht existiert, kontinuierlich auf die Gegenwart einwirkt und damit unser heutiges Handeln permanent beeinflusst.

 

Das Paradebeispiel für eine selbsterfüllende Prophezeiung nach Robert Merton (4), dem amerikanischen Soziologen, der den Begriff 1948 einführt, ist das sich verbreitende Gerücht, dass eine Bank bankrott gehen wird. Dieses Gerücht führt dazu, dass alle Kunden ihr Geld abheben, so dass die Bank ... tatsächlich bankrott geht.


Klingt etwas übertrieben?


Na ja... Erinnern Sie sich noch an die Credit Suisse?




Der Tweet des amerikanischen Journalisten von ABC David Taylor im Oktober 2022

 


Dieser mittlerweile gelöschte Tweet des amerikanischen Journalisten des TV-Senders ABC sorgte im Oktober 2022 für ein Riesengerücht.


Damals, im Oktober 2022, hatte die Credit Suisse keinen Liquiditätsengpass. Im März 2023 immer noch nicht. Doch dann wurde die Bank auf Ersuchen der Schweizer Regierung im Eilverfahren von der UBS übernommen. Um den Bankrott abzuwenden.




Keynote Isabelle Vuong Foto © Annalisa Borrelli
Foto © Annalisa Borrelli


Zurück zu Robert Merton. Ihm zufolge ist eine selbsterfüllende Prophezeiung also eine zunächst falsche Prognose, die dazu führt, dass die Betroffenen ihr Verhalten so ändern, dass diese tatsächlich eintritt.

 

Interessant, oder?

 


Ohne Gläubige keine Vorhersage


Hier zeigt sich der eigentliche Mechanismus der Vorhersage:

Eine Aussage über die Zukunft wirkt nur dann als Prognose, wenn ihr oder ihrem Autor*in von den Rezipient*innen Autorität zugeschrieben wird.

 

Eine Vorhersage braucht also einerseits eine autoritative Instanz und andererseits gläubige Massen, um wirksam zu sein.

Sonst gilt man... als Kassandra (ja, schon wieder die alten Griechen: Kassandra war diejenige, die die Zukunft voraussagte, der man aber nicht glaubte).


Und wem schreiben wir heute die Autorität zu, Prognosen zu erstellen? 


Der künstlichen Intelligenz.

 

Das klingt alles etwas abstrakt?


Dann hier eine kleine konkrete Übung: Fragen Sie eine KI, z.B. ChatGPT, ob sie Ihnen Unternehmen aus Ihrer Branche empfehlen kann.

Und schauen Sie, ob Ihr Unternehmen in den Ergebnissen auftaucht.

 

Die Frage ist: Was passiert, wenn alle Empfehlungen durch eine einzige ersetzt werden, eine einzige Empfehlung, die den Anspruch erhebt, die Summe aller Quellen, allen Wissens zu sein?

Eine ultimative Autorität also, oder eine Art „fundamentale Wahrheit über die Welt“ (5), um es mit den Worten von vier ehemaligen IT-Expertinnen von Google zu sagen, die entlassen wurden, weil sie in einem Artikel argumentiert hatten, KI sei in Wirklichkeit ein stochastischer Papagei.


Ein stochastischer Papagei der also nicht versteht, was er sagt.

 


Klimavorhersage und Wetterprognose verwechseln


Nun werden Sie mir vielleicht entgegenhalten, dass Vorhersagen doch funktionieren können - das beste Beispiel dafür sind Klimavorhersagen wie die des Intergovernmental Panel on Climate Change (IPCC). Und dass es nur eine Frage der Zeit, und der Datenmenge, ist, bis es auch mit AGI, Artificial General Intelligence, gelingt.


Ja, das funktioniert im Großen und Ganzen mit Klimavorhersagen, weil sie auf langfristigen und physikalischen Phänomenen beruhen.

 

Das Problem ist, dass Klimavorhersage und Wetterprognose - bildlich gesprochen - oft miteinander verwechselt werden. Das heißt, völlig unterschiedliche Größenordnungen:


Auf der einen Seite langfristige, teilweise globale Phänomene, die im Wesentlichen auf Naturgesetzen beruhen, und auf der anderen Seite Phänomene, die viel lokaler und kurzfristiger sind und oft auch viel weniger auf allgemein gültigen physikalischen Prinzipien beruhen.


Zum Beispiel technische Machbarkeit mit technologischer Akzeptanz und/oder Diffusion verwechseln. Beispiele hierfür sind: GVO-Kulturen, der Einsatz von Gesichtserkennungstechnologien (in Echtzeit) im öffentlichen Raum, dem Metaverse, oder Geoengineering-Lösungen (übrigens auch in einigen Szenarien des IPCC zu finden (6)).


Ein weiteres Problem ist, dass dabei Kreativität mit Zufälligkeit oder Innovation mit (Prozess-)Optimierung verwechselt wird, d.h. mit dem „wahrscheinlichsten nächsten Ergebnis“.


Kann KI uns sagen, was die wahrscheinlichste nächste Innovation ist?

Moment, „wahrscheinlichste Innovation“?! Klingt das nicht etwas seltsam?

 

Wie drei Forscherinnen der Universität Berkley kürzlich betonten, ist KI gerade nicht gut für Innovationen. Also weniger gut als Kinder im Alter von 3 bis 7 Jahren, so ihre Forschungsergebnisse (7).


Das wissen wir in der Zukunftsforschung schon lange: Wahrscheinlichkeitstheorie hat nicht viel mit Innovation zu tun. Eher das Gegenteil ist der Fall.

 

Darüber hinaus stellt sich die grundsätzliche Frage: Was passiert, wenn wir davon überzeugt sind, dass die Projektionen des IPCC so oder so eintreffen?


Dann tun wir nichts mehr. Und stecken in der Klimakrise. Erneut eine selbsterfüllende Prophezeiung.

 


Nach einem Blick in die Zukunft sehnen wir uns alle


Aber zurück zur heutigen KI: Warum glauben wir dennoch, dass es möglich ist, die Zukunft auch für kleine Phänomene, also für das Alltagsgeschäft, vorherzusagen?


Weil wir die Zukunft wissen wollen. Genau das, worüber sich die alten Griechen schon vor 2000 Jahren lustig gemacht haben.

 

Wir alle sehnen uns danach, in die Zukunft zu blicken. Umso mehr in unsicheren Zeiten.


Und an Unsicherheiten mangelt es derzeit nicht, schon allein in Form globaler Risiken (von regionalen ganz zu schweigen), wie der diesjährige „Global Risks Report 2024“ des Weltwirtschaftsforums zeigt (8).



World Economic Forum's Global Risks Report 2024



Die Ironie dabei: Gerade in unsicheren Zeiten wird die Zukunft unvorhersehbar.


Und die zweite Ironie ist, dass gerade diese wachsende Unsicherheit dazu führt, dass wie im antiken Griechenland nach prophetischen Orakeln gesucht wird.

 


„Erkenne dich selbst“


Wir, die wir uns gerne über die Wahrsagepraxis der alten Griechen und ihre Naivität, den Vorhersagen des Orakels zu glauben, lustig machen, sind wir nicht selbst dabei, der KI genau die Autorität zu verleihen, die man damals dem Orakel von Delphi zuschrieb?

 

Wir haben also allen Grund, uns lustig zu machen ... über uns selbst.

 

Über unseren Wunsch, die Zukunft zu kennen, über unsere Naivität, an eine KI zu glauben, sobald sie die Summe vieler Quellen ist und die menschliche Konversation gut imitiert.

 

Auf dem Frontgiebel am Eingang des Tempels von Delphi stand geschrieben:

„Erkenne dich selbst“.



 

Literaturverzeichnis:


  1. Lynda Walsh (2003) "The Rhetoric of Oracles", in Rhetoric Society Quarterly, 33 (3): 55-78

  2. Ex ante versus ex post, oder "presumptively true" versus "terminally true" bei: Wendell Bell (1998) "Making People ResponsibleThe Possible, the Probable, and the Preferable", in American Behavioral Scientist, 42(3): 323-339

  3. Karl R. Popper (1944, 1957), The Poverty of Historicism, Boston: Beacon Press, p. 13

  4. Robert K. Merton (1948) "The Self-Fulfilling Prophecy", in The Antioch Review, 8 (2): 193-210

  5. Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell (2021) "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?", In FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, p. 610–623

  6. Silke Beck, Martin Mahony (2018) "The politics of anticipation: the IPCC and the negative emissions technologies experience", Global Sustainability 1 (8): 1–8

  7. Eunice Yiu, Eliza Kosoy, Alison Gopnik (2023) "Transmission Versus Truth, Imitation Versus Innovation: What Children Can Do That Large Language and Language-and-Vision Models Cannot (Yet)", in Perspectives on Psychological Science, 0(0)

  8. World Economic Forum (2024) The Global Risks Report 2024 (19th Edition)





A question? A remark? Want to collaborate?
Drop me a line!

bottom of page