ChatGPT lässt sich als KI-unterstützter Chatbot auffassen. Auch ein Chatbot reagiert auf Texteingaben und generiert durch Volltextsuche in einer Wissensdatenbank regelbasiert eine Antwort.
Ein typisches Beispiel dafür ist etwa Alexa von Amazon oder Siri von Apple. Als Prototyp gilt das Programm Eliza von Joseph Weizenbaum aus den 1960er Jahren, das eine Psychotherapeutin nachahmte, vgl. z.B. die Simulation http://www.med-ai.com/models/eliza.html.de.
GPT auf der anderen Seite steht für „Generative Pre-trained Transformer“. Pre-trained bedeutet dabei, dass das System vortrainiert ist und anschließend in vielerlei Hinsicht nachtrainiert wurde. „Transformer“ bezieht sich darauf, dass eingegebener Text unter Beachtung des Kontextes sowie der Syntax, Grammatik usw. in auszugebenden Text umgeformt wird.
Das umfasst beispielsweise auch die Anfertigung von Übersetzungen, Zusammenfassungen mit bestimmten Zusatzbedingungen (Sprachniveau oder Umfang) oder die Bereitstellung von Programmcode in unterschiedlichen Programmiersprachen.
„Generative“ schließlich nimmt Bezug auf das Erzeugen von Texten.
Exemplarisch genannt seien YouChat (https://you.com/), das sich als Chrome-Erweiterung als Suchmaschine installieren lässt und deutschen Ursprungs ist, sowie das Übersetzungstool DeepL aus dem Jahre 2017.
KI-gestützte Chatbots wie ChatGPT sind an der Schnittstelle zwischen Linguistik und Künstlicher Intelligenz angesiedelt, die im Folgenden zur Einordnung näher betrachtet werden.