ChatGPT – wo liegen die Grenzen des gehypten Chatbots?

Inhaltsverzeichnis

Lesezeit: 7 Minuten
Artikel teilen!

Ob in Schulen, Universitäten oder Werbeagenturen – der Chatbot ChatGPT war in den vergangenen Wochen das beherrschende Thema unter Laien und Fachleuten. Die Künstliche Intelligenz des amerikanischen Unternehmens OpenAI geht souverän mit natürlicher Sprache um und versteht sogar komplexe Zusammenhänge. Wirklich verblüffend. Doch wo liegen die Grenzen des Bots? Und welche regulatorischen Eingriffe juristischer und technischer Art sind zu erwarten? Wir liefern aktuelle Antworten.

Wie funktioniert ChatGPT?

ChatGPT ist ein künstliches Sprachmodell, das auf die Verarbeitung von Textinformationen spezialisiert ist. Im Gegensatz zu unzulänglichen und rasch wieder einkassierten Chatprogrammen wie Tay oder Galactica ist der OpenAI-Textbot tatsächlich in der Lage, menschenähnliche Dialoge und Texte zu generieren. Grundlage dafür ist ein Algorithmus des maschinellen Lernens, der Trainingsdaten strukturiert verarbeitet. Der dahinterstehende Aufwand ist enorm: Die sprachbasierte Anwendung muss in mehreren Phasen mit einer großen Menge an Datensätzen trainiert werden. In der ersten Phase lernt das Sprachmodell, anhand von Trainingsdaten das nachfolgende Wort in einem Text treffsicher vorherzusagen. In der zweiten Phase geht es darum, passende Antworten auf zuvor definierte Fragen zu generieren. In der dritten Phase lernt das Modell schließlich, Antworten und Möglichkeiten qualitativ zu bewerten. Im Idealfall resultiert das Training in Antworten bzw. Texten, die inhaltlich kaum noch von menschlich erzeugten Antworten und Texten zu unterscheiden sind.

Hintergrund: Woher stammen die Trainingsdaten für ChatGPT?

ChatGPT greift hinsichtlich der Trainingsdaten auf Texte und Textabschnitte aus den unterschiedlichsten, frei zugänglichen Quellen zurück. Neben Webseiten, sozialen Medien und Onlineforen gehören auch Bücher, Zeitungsartikel und gesprochene Sprache zu den Quellen, aus denen ChatGPT schöpft. Aus der unüberschaubaren Menge an Datensätzen ergibt sich ein Hauptproblem des Textgenerierungsprogramms: Der Bot ist nur so gut wie seine Daten. Trainiert man ihn mit falschen, anstößigen oder vorurteilsbehafteten Texten, sinkt automatisch die Qualität der Antworten. Um dem entgegenzuwirken, setzt OpenAI einen Moderationsfilter ein.

Wie und wo kann ich ChatGPT einsetzen?

Die Anwendungsmöglichkeiten für ChatGPT sind nicht klar definiert. Bedeutet: Im Prinzip können Sie den Chatbot überall dort einsetzen, wo Text generiert werden soll. Die Länge und der Inhalt des gewünschten Texts sind dabei grundsätzlich zweitrangig. Besonders gut lässt sich das Textgenerierungstool für den dialogischen Austausch nutzen – als Chatbot oder fiktiver Gesprächspartner. Zwar stößt der Bot stilistisch und zum Teil auch inhaltlich schnell an seine Grenzen, aber als Hilfstool hat er durchaus seine Berechtigung. Er hilft bei der Ideenfindung, beantwortet Fragen und schreibt auf Wunsch sogar vollständige Werbetexte. Die Qualität des Ergebnisses hängt vor allem von den Befehlen ab, die Sie ihm erteilen. Diese werden auch Prompts oder Anfragen genannt. Sind die Prompts ausführlich und präzise, dürfen Sie mit einem guten Resultat rechnen. Auch Programmcodes analysiert und schreibt die OpenAI Anwendung – schnell und in durchaus passabler Qualität.

Welche Vorteile hat der Open AI-Chatbot?

ChatGPT besitzt die Fähigkeit, auf natürliche Weise zu kommunizieren. Das Tool versteht komplizierte Fragestellungen mühelos und liefert im Bruchteil einer Sekunde brauchbare Resultate. Da das Tool zudem kostenlos und immer verfügbar ist, können Sie es ohne finanziellen Aufwand immer und überall verwenden. Das Sprachmodell kann nicht zuletzt in eine Vielzahl von Chatbot- und Textgenerierungssystemen integriert werden. Typische Anwendungsbeispiele sind:

  • In der Kundenbetreuung liefert das Sprachmodell korrekte Antworten auf Nutzeranfragen
  • Es vertritt Mitarbeiter im Onlinesupport außerhalb der Bürozeiten
  • Es dient als Chatbot auf E-Commerce-Plattformen und in Onlineshops
  • Es kommuniziert mit Nutzern auf Social Media-Plattformen
  • Es überprüft Texte auf fehlerhafte Rechtschreibung
  • Es übersetzt Texte
  • Es schreibt Texte um
  • Es sortiert und ordnet Keywords nach Suchabsicht
  • Es führt Marktrecherchen durch
  • Es generiert typische Fragen zu einem vorgegebenen Thema

Welche Nachteile hat ChatGPT?

Obwohl die Qualität der Antworten zum Teil erstaunlich gut ist, unterlaufen ChatGPT recht häufig inhaltliche Fehler. Der Chatbot ist dabei einigermaßen unberechenbar. So liefert er in einem Moment korrekte Antworten auf wissenschaftlich höchst anspruchsvolle Fragen und scheitert dann im nächsten Augenblick an einer simplen Frage wie etwa nach dem korrekten Alter eines Prominenten. Gerade bei komplexen Themen ist es daher unabdingbar, dass Sie die generierten Inhalte des Chatbots auf Richtigkeit überprüfen und gegebenenfalls korrigieren. Ein weiteres Problem ist das Fehlen von Moral und Ethik. Der Bot erkennt von sich aus nicht, ob ein Inhalt rassistisch oder anderweitig schädlich ist. Dadurch besteht die Gefahr, dass er Stereotype reproduziert und im schlimmsten Fall sogar zu schädigendem Verhalten beiträgt. Problematisch ist zudem der Sprachstil des Bots. Seine Sätze klingen oft nach „Robotersprache“ – starr, vage und leblos. Nicht zuletzt fehlen bei den Antworten des Bots Quellenangaben und Wahrscheinlichkeitsaussagen. Als Nutzer wissen Sie somit nicht, woher der Bot sein Wissen im Detail bezieht und ob die getroffene Aussage tatsächlich der Wahrheit entspricht. Las but not least: Das Sprachmodell ist aufgrund der Vielzahl an Anfragen häufig überlastet und lässt sich während dieser Ausfallzeiten nicht nutzen.

Welche Neuerungen bringt ChatGPT Plus?

Wie bereits erwähnt war ChatGPT bis vor Kurzem kostenlos. Dies hat sich mit der Einführung der Plus Version grundsätzlich nicht geändert. Sie können also nach wie vor kostenfrei auf die Basisversion zugreifen. Die Plus-Variante des Sprachmodells bietet gegenüber der Basisversion zwei technische Vorteile. Zum einen eine schnellere Reaktionsgeschwindigkeit im Alltagsgebrauch und zum andere einen raschen Zugriff bei hoher Auslastung. Bezüglich des Inhalts und der Funktionsweise unterscheiden sich beide Versionen nicht. Die Kosten für ChatGPT Plus liegen bei 22 EUR pro Monat.

Was sagt OpenAI-Chef Sam Altman zu seinem eigenen Produkt?

„Ein schreckliches Produkt“ – wenn ein CEO dies über sein eigenes Produkt sagt, muss einiges im Argen liegen. OpenAI-CEO Sam Altman bedachte ChatGPT kürzlich mit dieser wenig schmeichelhaften Titulierung. Der Grund? Altman ist unzufrieden mit der Zuverlässigkeit seines Sprachmodells. Die zahlreichen Ausfälle der Webseite führen dazu, dass User ihre Anfragen mehrmals stellen müssen – not good.

Inhaltliche Fehler: Kann der Bot Informationen bewerten?

Hört sich banal an, ist aber wichtig: ChatGPT imitiert Intelligenz, besitzt selbst aber keine solche. Folglich ist das Sprachmodell auch nicht in der Lage, Inhalte und Informationen korrekt zu bewerten. Seine Ergebnisse beruhen auf Wahrscheinlichkeiten. Es generiert Wissen, indem es bereits veröffentlichte Inhalte anhand von Kausalitäten und Abfolgen miteinander kombiniert – im Prinzip das klassische „If then go to“-Modell in etwas abgewandelter Form. Allerdings kann die KI nicht beurteilen, welche Informationen wichtig sind und welche nicht. So kann es vorkommen, dass die Anwendung in einer Liste zunächst fünf völlig korrekte Punkte nennt und anschließend zwei Nonsense-Argumente anfügt. Hier hilft nur eine nachträgliche Überarbeitung durch Menschenhand.

Können Detektoren KI-Texte erkennen?

Die Texte von ChatGPT sind häufig nur schwer von menschengemachten Texten zu unterscheiden. Dies stellt gerade in Schulen und Universitäten ein großes Problem dar. Herkömmliche Plagiatssoftware schlägt bei den Texten des Sprachmodells nicht an. Und auch eigens entwickelte KI-Detektoren sind teilweise machtlos. Auf dem Markt sind mittlerweile mehr als zehn Detektoren erhältlich, die KI-Texte erkennen sollen. Die bekanntesten sind:

  • AI Detector Pro
  • Originality.ai

Amazon is not amused: Welche Probleme entstehen durch KI-E-Books?

Sie wollten immer schon ein Buch schreiben, aber Ihnen fehlen Kreativität und Schreibtalent? Seit der Einführung von ChatGPT ist das kein Hindernis mehr. Wenigstens auf den ersten Blick. Schaut man genauer hin, stellt man fest: Die Qualität der auf diese Weise erstellten E-Books lässt arg zu wünschen übrig. Und auch profitabel sind die meisten dieser künstlich erzeugten Bücher nicht. Bisher war noch kein KI-E-Book wirklich erfolgreich. Bei Amazon ist man trotzdem vorgewarnt. Die Schwemme an E-Books aus der Feder von ChatGPT wirkt sich generell negativ auf das Qualitätsniveau und damit auch auf das Vertrauen der Kunden in den Handelsriesen aus. Gerade bei Ratgebern ist Vorsicht geboten – zumal die KI häufig nicht als Mitautor angegeben ist und der Käufer somit über die wahre Autorenschaft im Unklaren gelassen wird.

Was wird sich durch den AI Act ändern?

Der in Kürze erwartete AI Act wird die Spielregeln rund um ChatGPT vermutlich nicht auf den Kopf stellen, aber zumindest neu definieren. Um was handelt es sich dabei? Der AI Act ist ein Entwurf der Europäischen Kommission, der für europaweit gültige Regeln rund um den Einsatz und die Nutzung von KI sorgen soll. Im Mittelpunkt stehen Sicherheit, Transparenz und verantwortungsvoller Einsatz. Potenziell gefährliche KI soll stärker reguliert werden als KI, die keine schädlichen Auswirkungen haben kann. In Bezug auf ChatGPT herrscht Hochspannung. Interessant ist vor allem die Frage, wie die Kommission die potenzielle Gefahr durch Falschnachrichten beurteilt. Stuft man diese als hoch ein, dürfte die Zeit der freizügigen Nutzung des OpenAI-Sprachmodells bald passé sein. Stattdessen müssten die Betreiber und Anbieter von Tools zur Textgenerierung menschliche Kontrollinstanzen zwischenschalten, die eine missbräuchliche Verwendung des Bots unmöglich machen. Aber noch ist es nicht soweit. Der AI Act wird im Laufe des Jahres 2023 erwartet.

Fazit: Tesla und Clubhouse lassen grüßen – hat der Hype bald ein Ende?

Keine Frage: ChatGPT ist gekommen, um zu bleiben. Die milliardenschweren Investitionen und Absichtsbeteuerungen von Microsoft sind Beweis genug: Das Unternehmen möchte unter anderem einen Chat GPT Nachfolger in Bing integrieren und kleinere Roboter mittels ChatGPT steuern lassen – so legen es zumindest die aktuellsten Branchennews nahe. Dennoch warnen Fachleute vor einem sogenannten Tesla-Moment. Damit ist gemeint, dass Sicherheits- und Ethikbedenken die aktuelle Entwicklung stark einbremsen und womöglich gar zum Stillstand bringen könnten. Eben wie dies bei Tesla vor einigen Jahren der Fall war. Problematisch aus Sicht der Branche sind vor allem regulatorische Eingriffe wie durch den geplanten AI Act. Es bleibt also spannend, in welche Richtung sich das OpenAI-Sprachmodell und generell Künstliche Intelligenz weiterentwickelt. Wo liegen die Grenzen? Wir sind gespannt!