ChatGPT

Erfolge und Herausforderungen

by

©Andrea de Santis / Unsplash


Alle reden von ChatGPT, aber was steckt wirklich dahinter? Ist das Sprachmodell nur ein Hype, der viel verspricht und zurzeit laufend für neue Schlagzeilen sorgt? Mehr oder weniger seriös fundierte Artikel beschäftigen Bildungseinrichtungen und ganze Berufsgruppen. Reißerische Überschriften wie „Macht ChatGPT die Schüler dümmer?“ tragen zur Verunsicherung bei. Die Reaktionen fallen selbst bei Expert:innen von überzogen euphorisch bis zu distanziert ablehnend aus.

Seit kurzem ist GPT-4 da, die neue Version des von der amerikanischen IT-Firma OpenAI (Artificial Intelligence) entwickelten selbstlernenden Sprachmodells GPT. Verglichen mit dem Vorgänger, ist es angeblich noch besser. Es wurde als Dialogsystem speziell für die Verwendung von Chatbots entwickelt und liefert mittlerweile eindrucksvolle Ergebnisse beim Formulieren von Texten. Scheinbar sind es Leistungen auf dem Niveau eines intelligenten Menschen. Das System soll Antworten geben, die sich den Mechanismen des intelligenten menschlichen Verhaltens anpassen, um zum Beispiel logisches Denken, Entscheiden, Analysieren oder Kreativität menschenähnlich nachzuahmen.

Zunehmende Fähigkeiten lassen die Sprachmodelle immer intelligenter erscheinen. Erstaunlich gut formulierte Texte für jedes Genre überzeugen die Nutzer:innen, egal ob es sich um Poesie, eine Festrede oder eine Betriebsanleitung handelt. Die Ergebnisse können aber manchmal auch (Vorsicht!) fehlerhaft sein. Das System generiert lediglich plausible Wortfolgen. Dies ist möglich, weil Systeme wie GPT auf gigantischen Datenmassen in Form neuronaler Netzwerkmodelle basieren. Das leistungsstarke Textgenerierungssystem GPT-3 hat rund 175 Milliarden Parameter. Das System kann auf dieser Grundlage Texte generieren, denn es hat anhand eines riesigen Datenvolumens gelernt, wie Menschen Sprache verwenden. Es kann jedoch nur Antworten geben, die in seinem „Trainingssatz“ vorhanden sind.

Daraus folgt: Je umfangreicher die Datengrundlage, desto mehr ist der Chatbot fähig, glaubwürdige und verständliche Inhalte zu generieren – oder auch schlichtweg zu erfinden. Die Maschine liefert nur eine statistisch plausible und verständliche Aneinanderreihung von Wörtern, deren Wahrheitsgehalt mitunter fragwürdig ist. Hier stellt sich die Frage nach der Glaubwürdigkeit des maschinellen Outputs. Menschenähnliche Antworten auf Fragen könnten auch nur eine Illusion von Verstehen suggerieren. Menschlich klingende Äußerungen deuten nicht zwangsläufig auf reelles Wissen und wirkliche Überzeugungen hin. Missverständnisse entstehen nur deshalb, weil das Sprachmodell aus einer Unmenge von Datenquellen „gelernt“ hat, menschengemäß zu formulieren.

Die Ergebnisse müssen jedoch auf Plausibilität und Belastbarkeit hin geprüft werden. Diese Beurteilung kann aber nur mit dem entsprechenden Hintergrundwissen erfolgen. Das leistet – noch – keines der aktuell verfügbaren Modelle.

Derzeit ist der Zugang zum Chatbot kostenlos. Es liegt aber auf der Hand, dass man mittelfristig damit Geld verdienen will. Daher arbeiten die Entwickler nicht transparent. Und das ist ein Problem für die Wissenschaft, die nur mit einem Blick hinter die Kulissen erfolgreich arbeiten kann. Lediglich die für alle zugängliche Nutzeroberfläche gibt nicht die dahinterliegenden Algorithmen preis, die Aufschluss darüber geben, wie die Software aufgebaut ist und wie sie funktioniert. Damit entzieht sich das System einer wichtigen wissenschaftlichen Betrachtung.

Wie intelligent sind Sprachmodelle – gemessen an menschlicher Intelligenz – wirklich? Oder bleiben die Ergebnisse der Modelle immer nur eine Nachahmung menschlicher Intelligenz? Kreativität und Beurteilung bleiben wie bisher das Ressort des Menschen? Das wird die Zukunft zeigen. Es könnten drastische Einschnitte in unserem Leben sein, aber es könnte auch nur auf ein unterstützendes System hinauslaufen, das einfache Abläufe automatisiert.
Back to topbutton