Singularität in Sicht!
„Thunderbolt and lightning, very very frightning!“[1]
Ich kann mich noch ausgezeichnet erinnern, wie es damals war, als Steve Jobs das iPad ankündigte. Und wie in der, seinerzeit von Zukunftsängsten arg gebeutelten, Zeitungsindustrie[2] ein wahrer Boom ausbrach, vorherzusagen, welche revolutionären Auswirkungen das Angekündigte auf dieselbe haben werde. Nichts weniger als die Rettung des gedruckten Wortes wurde erwartet. Der, zum Teil selbst, herbeigeschriebene Tod der Zeitung auf Papier, sollte von dem Geist aus der Maschine abgewendet werden, in Form von Apps, für die Leserinnen und Leser endlich wieder mit Freuden bezahlen würden. Diese Zeit hat großen Einfluss auf meine Karriere gehabt. Nicht nur war sie Basis einer satirischen Artikelserie in diesem Blog, nein, ich habe auch an mehreren solcher wunderverheissenden Apps mitgewirkt und neben einem gigantischen Flop dabei sogar einiges mit erreicht. Nur gerettet wurde das gedruckte Wort dabei eher nicht oder lediglich mittelbar, als Teil einer größeren Strategie, die da geheißen haben könnte, wir werfen möglichst viel Dreck an die Wand und das, was davon kleben bleibt, das nehmen wir dann.
2023 nun steht das gedruckte Wort erneut am Scheideweg, die Dinge wiederholen sich. Und wieder zieht eine neue Technologie am Horizont auf und wieder wird sie angefüllt mit Erwartungen darüber, was sie für uns tun kann. Diesmal zog sich der Prozess allerdings deutlich länger hin. Quasi über Jahrzehnte. Zunächst war es Science-Fiction-Literatur, die vorhersagte, was passieren wird, wenn die Maschinen anfangen zu denken. Seit AlphaGo jedoch Lee Sedol besiegte, traten wir in eine neue Phase ein: machine und deep learning waren von diesem Moment an als künstliche Intelligenz in allem zu finden, wurden in jedes Produkt eingebaut, das nicht bei drei auf dem Baum war und wenn es nur in die Werbung für dasselbe war. Seit aber inzwischen jedoch DALL-E Bilder für uns malt und ChatGPT Texte für uns schreibt, ist gewissermaßen kein Halten mehr.
Wir müssen mit allem rechnen, alles kann passieren, sogar die Rettung des gedruckten Wortes. Oder eben, dass eine KI in der Zukunft einen Kampfroboter baut und ihn durch die Zeit schickt, um die Mutter desjenigen Mannes zu töten, der einen Kampfroboter hacken wird, der die KI umbringen werden wird. Oder so. Bei LargeLanguageModels (LLM) geht es um Vorhersagen, wie wir gleich noch lernen werden, und als ginge es darum, ist das Netz plötzlich voll mit Vorhersagen, was „KI“ für uns tun können wird, oder wie sie uns zerstört. Google hat 12.000 Leute entlassen, aus Angst vor ChatGPT? Aber warum hat dann Microsoft, die in großem Stil an OpenAI, der Firma dahinter, beteiligt ist, Arbeitskräfte in gleicher Größenordnung auf die Straße gesetzt? Oder bereitet das ganze Silicon Valley sich darauf vor, ganz ganz fett auf den KI-Zug aufzuspringen?
Donner. Blitz. Vielleicht wurde schon dieser Text von einer AI verfasst. Würden wir das merken? Und wenn ja, würde das etwas ändern?
Aber was machen Programme wie ChatGPT oder DALL-E eigentlich? Sie fallen in den Bereich generativer KI (generative AI) und sind eng verwandt mit der vorhersagenden KI (predictive KI). Es hat sehr lange gedauert, ihren Vorgänger mit deep learning und pattern recognition beizubringen, Bilder von Katzen und Hunden zu unterscheiden.
Das Ganze ist eine Art Party Trick. ChatGPT ist ungeheuer belesen, hat also für uns unvorstellbare Massen von Texten konsumiert. Aber nicht verstanden in dem Sinne, wie wir Verstehen definieren würden. Vielmehr hat es in all diesen Texten Muster ausgemacht. Das Programm macht nun Vorhersagen über das nächste zu schreibende Wort, aus dem vorigen Kontext und den vorgegebenen Fragen heraus. Wenn das groß genug skaliert wird, kann das den Eindruck von Intelligenz erwecken. ChatGPT kann einen Text im Ton von William Shakespeare schreiben, weil es weiß, wie Shakespeare schrieb, gleichzeitig aber keine Ahnung davon haben, dass Shakespeare nur im klingonischen Original wirklich zur Geltung kommt.
Das ist nur die Simulation von Intelligenz.
Das käme dem entgegen, was heute schon reine Simulation ist. Wie Oliver Reichenstein so schön schreibt. Und Ben für uns so schön übersetzt.
Das ist keine Intelligenz im Sinne der Definition. Die Singularität ist noch weit. Aber vielleicht ändern wir in Zukunft die Definition? Wir wissen es nicht. Noch nicht. Blitz! Donner!
Titelbild: Ein von DALL-E errechnetes Bild zu: „atomic explosion above the ocean with birds in the sky and computers in the water comic style”
Zum Schreiben dieses Textes habe ich über Kopfhörer die Geräuschkulisse „Distant Thunderstorm“ der App „Dark Noise“ gelauscht, was ich auch dringend beim Lesen dieses Textes zur Erhöhung des Effekts empfehlen möchte. ↩︎
zumindest des von mir beobachteten Teils derselben ↩︎
Havard Business Review: How Generative AI Is Changing Creative Work ↩︎
The Markup: Decoding the Hype About AI ↩︎
Anmut und Demut: simulation of simulations ↩︎
Noch keine Kommentare.
Kommentare geschlossen.