Skip to main content

Karlsruher Forscher über ChatGPT

„Künstliche Intelligenz erscheint uns magisch, aber das sind dumme Systeme“

ChatGPT ist ein nützlicher Helfer, aber das Programm macht Fehler. Trotzdem sagen Experten aus Karlsruhe Künstlicher Intelligenz eine große Zukunft voraus. Das KIT denkt darüber nach, seine Akzente bei den Prüfungen zu verschieben.

Jederzeit zum Dialog bereit: Die KI-Anwendung ChatGPT erzeugt auf Nutzerwunsch Texte, die Sinn ergeben - zumindest auf den ersten Blick. Experten warnen jedoch davor, die Möglichkeiten des Systems zu überschätzen.
Jederzeit zum Dialog bereit: Die KI-Anwendung ChatGPT erzeugt auf Nutzerwunsch Texte, die Sinn ergeben - zumindest auf den ersten Blick. Experten warnen jedoch davor, die Möglichkeiten des Systems zu überschätzen. Foto: Lionel Nonaventure / AFP

Irgendjemand muss der Maschine Bescheidenheit beigebracht haben. Die Frage „Weißt du alles?“ beantwortet sie mit einem klaren Nein. „Ich bin kein allwissendes Wesen und habe begrenzte Fähigkeiten“, versichert der Bot.

Wie von Geisterhand getippt erscheinen im Chat-Fenster Textzeilen, die dem Nutzer den Eindruck vermitteln, er sei weiterhin die Krone der Schöpfung und der Künstlichen Intelligenz (KI) überlegen. „Bist du also nicht klüger als Menschen?“ ChatGPT weicht aus: „Es ist schwer zu sagen...“ Es sei einfach anders als wir, stellt das Computersystem klar.

Eine Untertreibung? In mehreren Versuchen in den USA hat der berühmteste Textroboter der Welt kürzlich Medizin- und Jura-Prüfungen mit passablen Ergebnissen bestanden. In einem weiteren Test hat die Maschine anhand der beschriebenen Symptome ohne zu zögern eine Hirnhautentzündung korrekt diagnostiziert.

ChatGPT fand versteckte Fehler in Computer-Programmcodes, schrieb einen Popsong „wie von Nick Cave“, erstellte detaillierte Trainingspläne und formulierte sogar in der Bibelsprache eine gereimte Anleitung, wie man am besten ein Erdnussbutter-Sandwich aus einem Videokassettenrekorder entfernen kann.

Ich bin kein allwissendes Wesen und habe begrenzte Fähigkeiten.
KI-System ChatGPT

Und die erst Ende November 2022 bekannt gemachte Super-KI-Lösung wird offenbar immer „schlauer“. In den vergangenen 40 Tagen gingen weltweit täglich im Schnitt mindestens zehn Millionen Menschen in den Chat oder auf die mit Profi-Funktionen ausgestattete Internet-„Spielwiese“ des Anbieters OpenAI, um die Software mit eigenen Fragen und Wünschen zu testen.

Daumen hoch oder herunter: Aus jeder angeklickten Reaktion der begeisterten oder ernüchterten Nutzer hat ChatGPT etwas gelernt.

ChatGPT „hat das Potenzial, die Welt zu verändern“

Manche Experten sprechen bereits von einem „iPhone“-Moment: Gemeint ist eine historische Weichenstellung, wenn eine neue Technologie massentauglich wird und einen großen Innovationsschub auslöst.

„Der Textroboter hat das Potenzial, die Welt zu verändern“, schrieb kürzlich in der „FAZ“ der Medienrechtler Rolf Schwartmann, der die Bundesregierung zur Datenethik berät. „Die Würfel sind geworfen.

Nun gilt es, das Verhältnis zwischen Mensch und Technik neu zu regeln“, urteilt der Forscher der TH Köln. Schwartmann räumt dem von Elon Musk und Microsoft finanziell unterstützten US-Unternehmen OpenAI gute Chancen ein, „die Welt buchstäblich nach seinem Willen zu programmieren“.

Das dürfte eine Übertreibung sein. ChatGPT ist nicht mehr und nicht weniger als ein leistungsstarkes KI-Modell, das mit Millionen Megabyte an Daten von Webseiten, aus Büchern, sozialen Netzwerken und anderen Quellen trainiert worden ist. Das System kombiniert maschinelles Lernen und Sprachverarbeitung, um natürliche Konversationen zu simulieren.

Dabei analysiert der Bot in Bruchteilen von Sekunden angeblich bis zu 175 Milliarden Parameter aus einer „Unterhaltung“ in einer beliebigen Sprache, um eine möglichst passende und sprachlich elegante Antwort zu generieren. ChatGPT hat natürlich kein (Selbst)Bewusstsein – aber es ist dazu fähig, sich an vorangegangene Themen „zu erinnern“ und an veränderte Gesprächssituationen anzupassen.

Bei uns gilt: Nutze das gerne, aber reflektiere das kritisch.
Robert Lepenies, Präsident Karlshochschule

Menschenähnliche Fähigkeiten, die auch den Karlsruher Robert Lepenies beeindrucken. Der Präsident der Karlshochschule ist ein gefragter Interviewpartner, seit er angekündigt hat, die neue Technologie in den Studien- und Prüfungsbetrieb seiner Lehranstalt einbinden zu wollen. „

Wir sind in einer Debatte mit den Studierenden, wie wir ChatGPT behandeln wollen“, sagt der 38-jährige Wirtschaftswissenschaftler im Gespräch mit unserer Redaktion.

„Wir haben das noch nicht in den Regularien festgehalten, aber es gilt das Prinzip: Nutze das gerne, weise im Detail nach, warum du es nutzt, reflektiere das kritisch und denke ans wissenschaftliche Arbeiten.“

Künstliche Intelligenz erstellt für Robert Lepenies gereimten Lehrplan in mehreren Sprachen

Als er Ende 2022 seine ersten Versuche mit dem Chatbot gemacht hat, war Lepenies elektrisiert. „Ich habe ChatGPT gebeten, den Lehrplan für mein Seminar in Reimen in verschiedenen Sprachen wiederzugeben. Das war sehr erheiternd“, sagt er lachend. Bei einem anderen Test formulierte das Programm auf seine Bitte hin den Schluss einer Bachelorarbeit und gab einige Quellen an.

„Der Schluss war richtig gut, aber die Quellen waren fiktiv“, berichtet der Forscher. „Der Bot ist tatsächlich dumm. Er generiert Antworten aus einem riesigen Datensatz, die wahrscheinlich richtig sind. In der Wissenschaft zählt aber nur, ob etwas richtig ist oder nicht.“

Wenn die Studierenden in ihren Arbeiten nicht existierende Quellen angeben würden, wäre das aus Lepenies’ Sicht ein großes Problem. Dennoch zeigt sich der Professor entspannt, was seine kleine Hochschule angeht: „Wir kennen unsere Studentinnen und Studenten persönlich. Uns würde deswegen ein Schummel-Versuch eher auffallen als an größeren Universitäten, die bald nicht mehr sicher sein können, ob die Hausarbeit wirklich von Person X stammt oder nicht.“

KIT könnte Akzente bei Prüfungen verschieben

Die BNN haben am Karlsruher Institut für Technologie (KIT) nachgefragt. Tatsächlich gibt es dort Sorgen über mögliche Plagiate. Die Nutzung von ChatGPT könnte dazu führen, dass künftig bei Erfolgskontrollen mehr auf mündliche Prüfungen und Präsentationen gesetzt werde, teilt die Exzellenz-Uni mit.

„Wenn bestimmte Aufgabenstellungen wie reine Literaturrecherche-Hausarbeiten durch die Verfügbarkeit von KI-Instrumenten einfacher zu bewerkstelligen sind, werden sie im Prüfungswesen an Bedeutung verlieren müssen“, heißt es in einer Stellungnahme des KIT.

Jan Niehues erforscht am KIT Sprachtechnologien. Er nennt die Leistung von ChatGPT „sehr beeindruckend“. Das Programm könne im Dialog Ideen für neue Projekte liefern und den Menschen helfen, Sätze in einer Fremdsprache besser zu formulieren, lobt der Fachmann.

Der nächste Schritt wäre es, den Bot zu personalisieren und ihn mit anderen Modellen zu kombinieren, die nicht nur auf eine begrenzte Datenbank zugreifen, sondern auch eigene Anfragen in anderen Datenquellen starten können. „Dann wird vieles möglich sein“, meint Niehues.

Das sagen Karlsruher Forscher zur Zukunft von Sprach-Bots

Vorerst rät er allerdings dazu, die Ausführungen des Roboters nicht für bare Münze zu halten und sie zu überprüfen: So ließe sich die Vervielfachung von maschinell produzierten Fake News reduzieren. Eine andere Gefahr sei die Zunahme von Rassismus und Mobbing im Netz, wenn die Sprach-KI missbraucht werden würde, um Hass und Hetze zu schüren. „OpenAI hat viel Arbeit reingesteckt, um das zu verhindern“, urteilt der Forscher.

„Man sieht, dass der Bot eher ausweichend antwortet, wenn es mal kontrovers zugeht: So soll beleidigende Sprache gemieden werden.“

Die Berichte über ChatGPT haben auch Zukunftsängste ausgelöst. Könnte es sein, fragen sich manche Menschen, dass die wortgewandte Maschine meinen Job überflüssig macht? Die von den BNN befragten Experten sind geteilter Meinung.

„Es werden bestimmte Tätigkeiten wegfallen. Es liegt aber nicht am Tool, sondern an der Gesellschaft, ob dies zu mehr Prekariat führt“, sagt Robert Lepenies. „Der Bot ersetzt keine Berufe, aber sie werden sich wandeln. Es wird neue Schwerpunkte geben“, hält Jan Niehues dagegen.

Künstliche Intelligenz erscheint uns magisch, aber es sind dumme Systeme.
Patrick Baier, Hochschule Karlsruhe

Noch skeptischer ist Patrick Baier, Professor für Maschinelles Lernen an der Hochschule Karlsruhe. „Die Künstliche Intelligenz erscheint uns magisch, aber das sind dumme Systeme“, sagt er. „ChatGPT kann nicht sagen: ,Ich weiß es nicht’, also macht es Fehler und gibt sie nicht zu – oder es lügt hin und wieder unverhohlen. Solange das so ist, wird kein Mensch obsolet werden, weil man die Aktionen der Maschine kontrollieren muss.“

Faszinierend findet Baier den Roboter trotzdem. Er kann sich vorstellen, dass Menschen in Zukunft im Dialog mit Bots auch komplizierte Dinge wie die Urlaubsplanung einer Familie besser und schneller erledigen können.

Zukunftsvision: Ein Gespräch mit sich selbst

Der Präsident der Karlshochschule hat noch eine andere Vision. „Stellen Sie sich vor“, sagt Robert Lepenies, „dass Sie Ihre alten Tagebücher in die KI einlesen – dann könnten Sie Gespräche mit sich selbst als jüngerer Mensch führen.“

Das ginge auch mit Tagebüchern von verstorbenen Eltern. Mit einem Bot, der jede Frage geduldig beantwortet, simuliere man das humane Gegenüber: „Davon könnten zum Beispiel Menschen profitieren, die sich einsam fühlen.“

nach oben Zurück zum Seitenanfang