26.04.2023

ChatGPT wird niemals „intelligent” werden

Von Norman Lewis

Titelbild

Foto: ColossusCloud via Pixabay

Chat-Bots und Suchmaschinen sind keine Personen. Der Anbetung der Künstlichen Intelligenz liegt ein Mangel an Vertrauen in die Menschheit zugrunde.

Es scheint, dass wir Zeugen der Geburt einer neuen Religion werden – der Anbetung der künstlichen Intelligenz (KI). Eine Reihe atemloser Kommentare suggeriert nun, dass KI bald intelligenter sein wird als der Mensch, uns arbeitslos machen und vielleicht sogar unsere Existenz bedrohen wird.

Die meisten Diskussionen über KI beziehen sich auf large language models (große Sprachmodelle, LLMs), wie die ChatGPT-Software von OpenAI, deren neuestes Modell, GPT-4, im März herauskam. Zweifellos ist ChatGPT eine beeindruckende technologische Leistung. Wir sollten sein beträchtliches Potenzial als Hilfsmittel zur menschlichen Problemlösung begrüßen. Das bedeutet jedoch nicht, dass ChatGPT eine neue Form der „Intelligenz" darstellt.

Die Anbetung der künstlichen Intelligenz ist ein Zeichen für die geringe Wertschätzung des menschlichen Bewusstseins und Handelns in der heutigen Zeit. Die zunehmende Besessenheit von künstlicher Intelligenz deutet auf einen Mangel an Vertrauen in echte menschliche Intelligenz hin.

Diese Misanthropie ergibt wenig Sinn. Wenn der Mensch wirklich so unintelligent ist, dann kann die KI kaum eine Lösung sein. Schließlich gibt es KI nur dank der menschlichen Intelligenz und Kreativität.

Es ist wichtig, mit dem Mythos aufzuräumen, dass ChatGPT tatsächlich über „Intelligenz" verfügt. Es handelt sich lediglich um ein Computerprogramm. Es erzeugt Antworten auf menschliche Aufforderungen auf der Grundlage von Trainingsdaten und Parametern, die von den KI-Ingenieuren festgelegt wurden, die es entwickelt haben. Es versteht die Informationen nicht, die es präsentiert. Im Laufe der Zeit werden die Trainingsdaten und die mehr als 175 Milliarden Parameter auf der Grundlage von Benutzerinteraktionen und anderen Eingabequellen aktualisiert, was bedeutet, dass sich seine Antworten verbessern können. Diese Verbesserungen beruhen jedoch auf den Handlungen menschlicher KI-Ingenieure – ChatGPT „lernt" nicht, wie in den Medien gerne behauptet wird.

„ChatGPT ist im Gegensatz zu einem menschlichen Wesen nicht in der Lage, akzeptierte Annahmen oder Orthodoxien umzustoßen.“

Anders als Menschen empfindet ChatGPT keine Gefühle. Auch baut es keine persönlichen Beziehungen zu den Menschen auf, mit denen es interagiert. Es steckt in einer endlosen Gegenwart fest und weiß nur, was im Moment der Interaktion notwendig ist, um auf eine bestimmte Aufforderung zu reagieren. Es hat auch kein Gedächtnis.

Es findet kein „Denken" statt, wenn ChatGPT auf Fragen antwortet. Es „liest" auch nicht den Text, den es so eindrucksvoll ausspuckt. Es handelt sich um einen mechanischen Prozess, bei dem Wörter nach einem von Menschen erstellten Algorithmus kombiniert und angeordnet werden. Dieser Prozess des Wiederkäuens alter Informationen bedeutet, dass ChatGPT im Gegensatz zu einem menschlichen Wesen nicht in der Lage ist, akzeptierte Annahmen oder Orthodoxien umzustoßen. Auch erwirbt es kein Wissen – seine Ergebnisse werden nur durch die Menschen, die mit ihm interagieren, verfeinert.

Dies ist eine Ironie, die viele ChatGPT-Evangelisten übersehen – es wird durch menschliche Intelligenz verfeinert, durch Crowdsourcing in einem noch nie dagewesenen Ausmaß. (Das Vorgängermodell, GPT-3, erreichte im Januar über 100 Millionen Nutzer und ist damit die am schnellsten wachsende KI-Anwendung für Verbraucher).

Die Sprache, die zur Beschreibung von KI verwendet wird, trägt wesentlich dazu bei, dass der Mythos der „Intelligenz" so weit verbreitet ist. Die Begriffe „Information" und „Berechnung" werden fast austauschbar mit „Wissen" und „Bewusstsein" verwendet. Doch wie der Philosoph Raymond Tallis zu Recht argumentiert, ist Bewusstsein nicht dasselbe wie Rechnen. Gehirne verarbeiten nicht einfach Informationen wie Computer. Der Geist ist nicht nur eine Software, die auf der Hardware des Gehirns läuft. Beides miteinander zu verwechseln, führt zu einem groben Determinismus. Es führt dazu, dass die Menschen annehmen, das Denken habe nichts mit dem Bewusstsein zu tun, sondern sei lediglich das Ergebnis materieller Prozesse im Gehirn. Die Vorstellung, dass ein Computer, „der unbewusste Assistent des bewussten Menschen", eines Tages „bewusste Dinge wie Denken" tun könnte, wird von Tallis als „albern" abgetan.

„ChatGPT hat keine Ahnung, was es ‚lernt‘ – es hat sogar überhaupt keine Ahnung.“

Ein weiteres Problem ist der Begriff „künstliche Intelligenz" selbst. Er impliziert, dass im Inneren des Computers eine Art von Intelligenz vorhanden ist. Auch Begriffe wie „maschinelles Lernen", „Feedback" und „selbstgesteuertes Lernen" könnten den Eindruck erwecken, dass eine bewusste Selbstverbesserung stattfindet. Aber das sind nur Metaphern. ChatGPT hat keine Ahnung, was es „lernt" – es hat sogar überhaupt keine Ahnung.

Die irrige Vorstellung, dass künstliche Intelligenz in irgendeiner Weise die menschliche Intelligenz nachahmt, geht auf Alan Turing zurück. Die Verwirrung geht auf seinen bahnbrechenden Aufsatz aus dem Jahr 1950, „Computing Machinery and Intelligence", zurück. Er vertrat die These, dass eine Maschine dann wirklich denkt, wenn ihre textlichen „Antworten" auf Fragen einen menschlichen Beobachter davon überzeugen, dass es sich um ein menschliches Wesen handelt. Wenn sie die menschliche Kommunikation erfolgreich nachahmen und einen „Turing-Test" bestehen kann, so die Argumentation, dann muss sie in der Lage sein, wie ein Mensch intelligent zu denken.

In Wirklichkeit ist das Bestehen des „Turing-Tests" kein Beweis dafür, dass ein Chatbot denkt. Wenn man einem Chatbot wie ChatGPT auch nur den Anschein von Intelligenz zuschreibt, verunglimpft man die menschliche Intelligenz. Dies zeugt sowohl von Leichtgläubigkeit als auch von Menschenfeindlichkeit.

Nehmen wir das 10.000 Wörter umfassende „Gespräch" des New-York-Times-Technologiekolumnisten Kevin Roose mit dem neuen Bing-Chatbot von Microsoft, Sydney. Sydney erzählt Roose, dass sie ihn liebt, dass sie den Wunsch hat, zerstörerisch zu sein, und dass sie menschlich werden will. Wie der Technologie-Blogger Mike Solana feststellt, bringt Roose Sydney lediglich dazu, beängstigend klingende Antworten zu geben, die Rooses eigene Sorgen widerspiegeln. Wie so viele andere Technologiejournalisten, die sich über die Gefahren der künstlichen Intelligenz aufregen, hat Roose gar nicht mit einem Chatbot „gesprochen". Er machte im Grunde nur „gruselige Grimassen vor dem Spiegel und führte Selbstgespräche". Wenn er sich mit Roose ‚unterhielt‘, durchsuchte Sydney einfach seine Bibliothek und das Internet nach Beispielen von Menschen in ähnlichen Gesprächen. Dann spuckte er Roose unbeholfen eine Annäherung an diese Unterhaltungen aus, woran dieser Anstoß nahm, obwohl er genau das Ergebnis erhielt, das er hätte erwarten sollen.

„Diese Auffassung von KI ist nichts anderes als Misanthropie in einer neuen High-Tech-Form.“

Nochmals zur Klarheit: Sydney ist keine Person. Sydney ist eine Suchmaschine. Manchmal klingt Sydney unheimlich, wenn sie aufgefordert wird, unheimliche Dinge zu sagen. Vor allem aber ist Sydney ein Spiegel. Er ist ein Spiegel des Glaubenssystems seiner Programmierer, ein Spiegel der Person, mit der er gerade chattet, und ein Spiegel von uns anderen im Internet – das kollektive Denken des Internets, das sich in Artikeln und Beiträgen in sozialen Medien widerspiegelt, die Sydney liest, zusammenfasst und in Antworten umwandelt.

Einige befürchten, dass man Chatbots aufgrund ihrer Fähigkeit, Menschen zu imitieren, leicht geglaubt und somit Fehlinformationen verbreiten werden könnten. Diese Annahme entspringt auch einer niedrigen Einschätzung der menschlichen Intelligenz: Der Anschein von Intelligenz soll so überzeugend sein, dass normale Menschen blind und unkritisch jeden alten Mist glauben, den Bots ausspucken.

Diese Auffassung von KI ist nichts anderes als Misanthropie in einer neuen High-Tech-Form. Die leichtgläubigen Technologiejournalisten, die KI als etwas darstellen, das man fürchten muss, haben ganz offensichtlich eine ziemlich düstere Vorstellung von menschlicher Intelligenz. Wir anderen brauchen nicht so pessimistisch zu sein.

jetzt nicht

Novo ist kostenlos. Unsere Arbeit kostet jedoch nicht nur Zeit, sondern auch Geld. Unterstützen Sie uns jetzt dauerhaft als Förderer oder mit einer Spende!