Digitaler Entzug
Wenn es um KI geht: Denke innerhalb der Box - Cal Newport

Wenn es um KI geht: Denke innerhalb der Box - Cal Newport

      James Somers veröffentlichte kürzlich im The New Yorker einen interessanten Essay mit dem Titel „The Case That A.I. Is Thinking.“ Er beginnt damit, eine spezifische Definition von Denken darzustellen, die zum Teil Eric B. Baums Buch What is Thought? (2003) zugeschrieben wird und diesen Akt beschreibt als den Einsatz eines „komprimierten Modells der Welt“, um Vorhersagen darüber zu treffen, was man erwartet, dass passieren wird. (Jeff Hawkins’ 2004er Übung in Laien-Neurowissenschaft, On Intelligence, vertritt eine ähnliche These.)

      Somers spricht dann mit Experten, die untersuchen, wie moderne große Sprachmodelle (LLMs) funktionieren, und merkt an, dass die Mechanik der Vorhersage des nächsten Tokens bei LLMs dieser bestehenden Definition von Denken ähnelt. Somers ist vorsichtig in seinen Schlussfolgerungen, findet aber dennoch Anlass zur Begeisterung:

      „Ich glaube nicht, dass ChatGPT ein inneres Leben hat, und doch scheint es zu wissen, wovon es spricht. Verstehen – ein Erfassen dessen, was vor sich geht – ist eine unterschätzte Form des Denkens.“

      Vergleichen Sie diese nachdenkliche und erhellende Diskussion mit einer anderen, jüngeren Beschreibung von KI, vorgetragen vom Biologen Bret Weinstein in einer Folge von Joe Rogans Podcast.

      Weinstein beginnt damit, (zu Recht) festzustellen, dass die Art und Weise, wie ein Sprachmodell Bedeutung von Wörtern durch Exposition gegenüber Text lernt, analog dazu ist, wie ein Baby Teile der Sprache aufschnappt, indem es Gesprächen zuhört.

      Er baut diese Analogie jedoch weiter aus und präsentiert dann selbstsicher eine dramatische Beschreibung davon, wie diese Modelle arbeiten:

      „Es führt kleine Experimente durch und entdeckt, was es sagen sollte, wenn es bestimmte Dinge erreichen will, etc. Das ist ein LLM. Irgendwann wissen wir, dass dieses Baby ein bewusstes Wesen wird. Wir wissen nicht, wann das ist. Wir wissen nicht einmal genau, was wir damit meinen. Aber das ist unsere Beziehung zur KI. Ist die KI bewusst? Ich weiß es nicht. Wenn sie es jetzt nicht ist, wird sie es sein, und wir werden nicht wissen, wann das passiert, richtig? Wir haben keinen guten Test.“

      Diese Beschreibung vermischt und verwirrt viele Realitäten darüber, wie Sprachmodelle tatsächlich funktionieren. Das Offensichtlichste ist, dass Sprachmodelle nach dem Training statisch sind; sie sind eine feste Abfolge von Transformern und Feedforward-Netzwerken. Jedes Wort jeder Antwort, die ChatGPT erzeugt, wird vom gleichen unveränderlichen Netzwerk generiert.

      Entgegen dem, was Weinstein andeutet, kann ein eingesetztes Sprachmodell keine „kleinen Experimente“ durchführen, oder „wollen“, dass Dinge passieren, oder irgendeine Vorstellung davon haben, dass ein Ergebnis erwünscht oder unerwünscht ist. Es schmiedet keine Pläne, lernt nicht dazu. Es gibt keine spontane oder fortlaufende Berechnung und kein aktualisierbares Modell seiner Welt – all das impliziert, dass es mit Sicherheit nicht als bewusst betrachtet werden kann.

      Wie James Somers darlegt, können diese festen Netzwerke dennoch eine beeindruckende Menge an Verständnis und Wissen kodieren, das bei der Generierung ihrer Ausgaben angewendet wird, aber die Berechnung, die auf diese Informationen zugreift, ist nichts wie die selbstreferenziellen, motivierten, anhaltenden inneren Stimmen, die Menschen oft mit Kognition assoziieren.

      (Tatsächlich weist Somers ausdrücklich darauf hin, dass unsere verbreitete Vorstellung von Denken als „etwas Bewusstem, wie ein joyceanischer innerer Monolog oder der Fluss sinnlicher Erinnerungen in einem proustschen Tagtraum“ unsere Versuche, künstliche Kognition zu verstehen, verwirrt hat, die in keiner Weise so funktioniert.)

      ~~~

      Ich erwähne diese beiden Beispiele, weil sie, wenn wir über KI sprechen, zwei unterschiedliche Stile repräsentieren.

      In Somers’ nachdenklichem Artikel erleben wir einen grundlegend modernen Ansatz. Er blickt in die sprichwörtliche Blackbox, um die tatsächlichen Mechanismen innerhalb der LLMs zu verstehen, die das beobachtete Verhalten erzeugen. Dann nutzt er dieses Verständnis, um interessante Schlussfolgerungen über die Technologie zu ziehen.

      Weinsteins Ansatz ist demgegenüber im Grunde prämodern, insofern als er niemals versucht, die Box zu öffnen und zu fragen, wie das Modell tatsächlich funktioniert. Er beobachtete stattdessen sein Verhalten (es ist sprachgewandt), erfand eine Geschichte, um dieses Verhalten zu erklären (vielleicht funktionieren Sprachmodelle wie der Geist eines Kindes), und leitete dann Schlussfolgerungen aus seiner Geschichte ab (Kinder werden schließlich autonome und bewusste Wesen, daher werden es Sprachmodelle ebenfalls).

      Das ist nicht unähnlich der Art und Weise, wie der vormoderne Mensch Geschichten erzählte, um natürliche Phänomene zu beschreiben, und dann auf die Implikationen seiner Erzählungen reagierte; z. B.: Der Blitz kommt von den Göttern, also müssen wir regelmäßige Opfer darbringen, damit die Götter uns nicht mit einem Himmelsschlag treffen.

      Auf Sprachmodellen basierende KI ist eine beeindruckende Technologie, die mit Implikationen und Risiken einhergeht, die besonnene Reaktionen erfordern werden. All dies ist zu wichtig für prämodernes Denken. Wenn es um KI geht, ist es an der Zeit, unsere ernsthaftesten Gespräche damit zu beginnen, in der Box zu denken.

Andere Artikel

Wenn es um KI geht: Denke innerhalb der Box - Cal Newport

James Somers hat kürzlich einen interessanten Essay im The New Yorker mit dem Titel „The Case That A.I. Is Thinking“ veröffentlicht. Er beginnt damit, eine bestimmte Definition von Denken vorzustellen, die in ... zugeschrieben wird. Mehr lesen