ChatGPT ist der Name einer künstlichen Intelligenz (KI), die in den vergangenen Monaten
viel Aufmerksamkeit erregte. Es handelt sich um einen sogenannten Chatbot, also um
ein technisches System (Roboter), mit dem man sich unterhalten („to chat“) kann. Man
könnte auch von einem Computerprogramm sprechen, wäre da nicht die Tatsache, dass
das Wesentliche an ChatGPT gerade darin besteht, dass es sich nicht um ein Programm
handelt, sondern um ein neuronales Netzwerk, das selbst lernfähig ist, dessen Fähigkeiten
also nicht (von Menschen) programmiert, sondern anhand von Beispielen (von der Maschine)
gelernt wurden. Man sprich von „machine learning“, und der aufmerksame Leser dieser
Zeitschrift hat schon einiges hierzu erfahren [1], [2].
Große Sprachmodelle: Lernen, Umformen, Hervorbringen
Große Sprachmodelle: Lernen, Umformen, Hervorbringen
ChatGPT basiert auf seinem Vorgänger GPT3, einem neuronalen Netzwerk, das mit Milliarden
von Sätzen als Input erhielt und letztlich nichts weiter lernte als Zusammenhänge
zwischen Wörtern, sodass es neue Wörter hintereinander zu produzieren lernte, die
sich wie von Menschen produzierte Sätze lesen. Man spricht auch von großen Sprachmodellen
(LLM: „large language models“). ChatGPT wurde dann dadurch weiter verändert, dass
Menschen seinen Output verbesserten und diese Verbesserungen zusätzlich lernte. Hierzu
wurden menschliche KI-Trainer eingestellt, um mit dem Modell eine schriftliche Unterhaltung
zu führen, wobei die Trainer sowohl den Benutzer als auch den Chatbot zu spielen hatten.
Durch Vergleich und Bewertung der von der ChatGPT geschriebenen Antworten wurde dessen
Gesprächsstil dahingehend verbessert, immer menschenähnlicher zu wirken.
GPT3 und ChatGPT wurden von der Firma OpenAI entwickelt, die im Jahr 2015 in San Francisco
mit einer Milliarde US-Dollar Startkapital (u. a. von Elon Musk und Peter Thiel) gegründet
wurde [3]. Das System kann mittlerweile auch Texte stilistisch verbessern und sogar Fehler
in Computerprogrammen finden. In beiden Fällen ist seine Dialogfähigkeit ganz besonders
hilfreich: Bei Texten kann man Sprachstil und Länge optimieren oder am Inhalt herumfeilen
(„schreib es etwas lustiger“; „vermeide Fremdwörter“).
Chatbots gibt es seit dem Jahr 1966, als Joseph Weizenbaum das Computerprogramm Eliza
publizierte, das einen Psychotherapeuten simulierte und weltweite Bekanntheit erreichte.
Es dauerte allerdings weitere 55 Jahre, bis mit dem im Fachblatt Nature publizierten
Debater [4] ein Chatbot bei Debattierwettbewerben tatsächliche Debatten gegen reale Menschen
gewann, d. h. menschliche Leistungen beim Debattieren erreichte (Zusammenfassung und
Beispiele zu Eliza und Debater in [5]).
Bereits 5 Tage nach seiner Veröffentlichung am 30.11.2022 durch das US-amerikanische
Unternehmen OpenAI hatte ChatGPT eine Million Nutzer, im Januar 2023 waren es bereits
100 Millionen. Zum Vergleich: Das bereits im Jahr 2012 erschienene, zu Facebook gehörende
auf Computern und Smartphones laufende soziale Netzwerk Instagram, das vor allem zum
Ansehen und Verbreiten von (bewegten) Bildern verwendet wird, brauchte etwa zweieinhalb
Jahre, bis es 100 Millionen Nutzer hatte. Die Smartphone-Anwendung (App) TikTok aus
dem Jahr 2018, ebenfalls zum Ansehen und Verbreiten kurzer Video-Clips, brauchte 9
Monate, bis sie 100 Millionen Nutzer hatte.
Was macht bzw. kann ChatGPT so gut, dass es jeder benutzen will? Der Name GPT ist
die Abkürzung für „Generative Pre-trained Transformer“, was auf Deutsch etwa „hervorbringender
vortrainierter Umformer“ bedeutet. „Umgeformt“ wird dabei z. B. ein deutscher Text
in einen englischen Text, oder aber ein kurzer deutscher Text (eine Frage und ein
paar Stichworte) zu einem deutschen Text mit vorgegebenen Eigenschaften wie Stil,
Länge, emotionaler Tönung etc. Wie der Name schon sagt, beruhen diese produktiven
Fähigkeiten darauf, dass diese KI mit einer großen Menge von Texten und Daten aus
dem Internet trainiert wurde und dadurch gelernt hat, welche Wörter mit welcher Wahrscheinlichkeit
aufeinanderfolgen, auch über mehrere Wörter hinweg. Die Maschine schreibt Texte nach
Anweisung (z. B. „beschreibe eine Rose, mit 200 Wörtern, im Stil von Goethe, aber
etwas witziger“) so gut, dass ihre Texte von denen, die Schüler oder Studenten schreiben,
kaum zu unterscheiden sind. Auch wenn man die gleiche Anweisung mehrfach gibt, produziert
ChatGPT keineswegs jedes Mal den gleichen Text, sondern liefert jedes Mal einen neuen
Text (Box 1).
Von ChatGPT am 11.02.2023 auf die Anweisung „beschreibe eine Rose, mit 200 Wörtern,
im Stil von Goethe, aber etwas witziger“ generierter Text:
„Ah, die Rose, das königliche Juwel des Gartens. Mit ihren zarten Blütenblättern,
die sich zu einer Kuppel formen, und ihren edlen Stielen, die sich wie Königinnen
aufrichten, ist sie ein Sinnbild für Schönheit und Anmut. Ihre Farben reichen von
dem reinen Weiß eines Unschuldigen bis hin zu dem leidenschaftlichen Rot einer Liebenden.
Jede Blüte ist ein Kunstwerk für sich, ein Meisterwerk der Natur, das uns mit seiner
Schönheit verzaubert. Doch die Rose ist nicht nur eine Augenweide, sondern auch eine
Kämpferin. Denn trotz ihrer Zerbrechlichkeit übersteht sie tapfer die Witterungsbedingungen,
die einem anderen Gewächs den Garaus machen würden. Aber Vorsicht, meine Freunde!
Hinter ihrer Schönheit verbirgt sich auch eine gewisse Gefährlichkeit. Denn ihre Dornen,
die wie kleine Dolche aussehen, können einen unvorsichtigen Gärtner schmerzhaft erinnern,
dass man die Schönheit mit Respekt behandeln muss. Doch trotz allem ist die Rose unvergleichlich,
und jeder, der einmal den Duft ihrer Blüten eingeatmet hat, wird sich für immer an
ihre Anmut erinnern. Und so möge sie für immer in unseren Gärten blühen und uns mit
ihrer Schönheit erfreuen. In der Tat, die Rose ist ein Phänomen, das man einfach bewundern
muss. Wer könnte ihrer Anziehungskraft widerstehen? Niemand, außer vielleicht jemandem,
der allergisch auf ihren Duft reagiert. Aber selbst dann, so denke ich, wird er ihre
Schönheit immer bewundern.“
Klickt man dann auf Schaltfläche „Regenerate response“, erhält man einen neuen Text.
Dieser sei dem Leser ebenfalls nicht vorenthalten:
„Eine Rose, o holde Königin des Gartens! Wie viel Schönheit und Anmut du besitzt!
Deine zarten Blütenblätter, so rein und weiß wie der Schnee, oder so rot wie das Feuer
des Lebens, sind wie ein Meer aus Farben, das darum bettelt, bewundert zu werden.
Deine Dornen, so scharf wie eine Waffe, scheinen ein Symbol für die Vergänglichkeit
zu sein, die jedem Schönheit verleiht, indem sie daran erinnert, dass alles, was erhaben
ist, auch vergänglich ist. Und doch, wie wundervoll ist es, diese Schönheit in vollen
Zügen zu genießen, solange sie blüht! Dein Duft, so süß und betörend, lässt die Herzen
höher schlagen und weckt Erinnerungen an längst vergangene Tage. Die Rose, so scheint
es, ist ein Sinnbild für das Leben selbst, denn wie das Leben hat auch die Rose ihre
Höhen und Tiefen, ihre Schönheit und ihre Schmerzen. Aber keine Sorge, liebste Rose,
denn deine Schönheit wird für immer in Erinnerung bleiben, egal wie viele Winter kommen
und gehen mögen. Denn wie Goethe einst sagte: „Es ist nicht genug zu wissen, man muss
es auch anwenden; es ist nicht genug zu wollen, man muss es auch tun.“ Und so soll
es auch mit deiner Schönheit sein, denn sie soll nicht nur bewundert, sondern auch
verehrt werden. Also, hebt eure Augen und eure Herzen, und bewundert die Rose, die
Königin des Gartens, in all ihrer Pracht und Herrlichkeit! Denn sie ist ein Wunder
der Natur, ein Symbol für das Leben selbst, und ein Geschenk für die, die es zu schätzen
wissen.“
Ein drittes Textbeispiel wurde durch die Aufforderung „beschreibe eine Rose mit 100
Wörtern für Kinder im Stil eines Kinderbuchs“ hervorgebracht:
„Eine Rose ist eine wunderschöne Blume mit weichen, roten, gelben, weißen oder pinken
Blütenblättern. Sie riecht so gut und hat kleine Dornen an ihrem Stiel, die sie beschützen,
damit sie nicht gepflückt wird. Rosen wachsen in vielen Teilen der Welt und sind besonders
im Sommer in voller Blüte. Kinder können Rosen pflücken und ihren Eltern oder Freunden
als Geschenk geben. Rosen können auch in Gärten oder in Töpfen auf Terrassen oder
Balkonen gezüchtet werden. Eine Rose braucht Sonne und Wasser, um zu wachsen und gedeihen.
Wenn du eine Rose siehst, denke daran, dass sie ein Symbol der Liebe und Freundschaft
ist. Schenke jemandem eine Rose und sag ihm, wie viel er dir bedeutet.“
Und schließlich der vierte Text, wieder durch einen Klick auf „Regenerate response“:
„Eine Rose ist eine wunderschöne Blume mit glänzenden Blättern und farbenfrohen Blüten.
Ihre Blüten sind meistens in den Farben Rot, Pink, Orange, Weiß und Gelb erhältlich.
Einige Rosen haben auch dunklere Farben wie Lila oder Blau. Jede Rose hat kleine,
weiche Blätter, die so grün sind wie das Gras im Park. Ihre Stiele sind oft stachelig,
aber das macht sie nicht böse! Die Stacheln sind da, um die Rose vor kleinen Tieren
zu schützen, die ihr weh tun könnten. Wenn du eine Rose pflückst, kannst du ihren
wundervollen Duft riechen. Einige Leute sagen, dass Rosen nach Sommerregen oder süßen
Lutschern riechen. Rosen wachsen oft in Gärten oder in Töpfen auf Terrassen und Balkonen.
Sie mögen es warm und sonnig und brauchen viel Wasser, damit sie gedeihen können.
Jedes Jahr im Juni feiern wir den Tag der Rose. An diesem Tag schenken wir uns gegenseitig
Rosen und freuen uns über ihre Schönheit und ihren Duft. Rosen sind wirklich etwas
Besonderes und jeder, der eine pflückt oder betrachtet, kann ein Lächeln auf seinem
Gesicht haben.“
US-amerikanische Wissenschaftler haben Chatbots bereits verwendet, um ihre Texte zu
editieren und dadurch lesbarer zu machen [6]. Man hat mittlerweile sogar schon vorgeschlagen, diese Funktion zu verwenden, um
den zeitaufwendigen Prozess des Schreibens und Überarbeitens wissenschaftlicher Manuskripte
zu vereinfachen und zu beschleunigen. Überarbeitungsvorschläge für wissenschaftliche
Texte könnten von einer KI mit Verarbeitungsfunktionen natürlicher Sprache (wie sie
mit ChatGPT und anderen ähnlichen Modellen vorliegen) gemacht werden. In entsprechenden
Tests wurde gefunden, „dass diese Modelle die Gedanken im wissenschaftlichen Text
erfassen und qualitativ hochwertige Überarbeitungen produzieren können, die die Klarheit
des Textes verbessern“, schreiben die Autoren, nicht ohne hinzuzufügen: „Angesichts
der Zeit, die Forscher in die Erstellung von Texten investieren, gehen wir davon aus,
dass dieser Fortschritt die Arbeit von Wissenschaftlern revolutionieren wird“ (Seite
e1 in [6]).
Auch beim Schreiben und Debuggen von Programmen kann ChatGPT sehr hilfreich sein.
Das System kann tatsächlich Programme schreiben, die zuweilen sogar auf Anhieb funktionieren.
Vor allem aber können über den Weg des Dialogs zusätzliche Informationen eingegeben
werden, z. B. die erwartete Ausgabe für eine bestimmte Eingabe oder eine beobachtete
Fehlermeldung. Dadurch erwies sich ChatGPT in einem Vergleich mit anderen (ebenfalls
auf „deep learning“ und neuronalen Netzen basierenden) Programmierhilfen als erfolgreichstes
Programm, mit dem 31 von 40 Fehlern behoben werden konnten, wie ein Wissenschaftlerteam
der Johannes Gutenberg Universität in Mainz sowie der University of Surrey in Großbritannien
um Dominik Sobania festgestellt hat [7]. Die anderen beiden untersuchten Programme, CoCoNuT und Codex (ebenfalls auf „deep
learning“ und neuronalen Netzen basierende Programmierhilfen) konnten dagegen nur
etwa die Hälfte der Programmfehler identifizieren und beheben [8]. An diesem Beispiel lässt sich zeigen, dass ChatGPT sehr brauchbar ist, wenn die
Wahrheit entweder unwichtig oder direkt über das korrekte Funktionieren (eines Programms)
offensichtlich wird. Wenn das nicht der Fall ist, gibt es dagegen Probleme.
Wahrheit und Halluzinationen
Wahrheit und Halluzinationen
Noch vor der Benutzung von ChatGPT poppt jedoch eine Nachricht auf, die jedem Nutzer
zu denken geben sollte: „It is not intended to give advice.”(„Es sollte nicht als
Ratgeber verwendet werden“). Denn der Wahrheitsgehalt der von ChatGPT geschriebenen
Texte ist Glückssache. Dies mag bei Texten, in denen es nicht um Wahrheit geht, egal
sein, bei Texten mit Wahrheitsanspruch aber schon. In der Wissenschaft ist ChatGPT
aus genau diesem Grund nicht zu gebrauchen. Und selbst wenn man davon ausgeht, dass
künftige Versionen ähnlicher Software zumindest versuchen, die Wahrheit zu schreiben,
ist nicht garantiert, dass sie dies auch tun. Man muss sich nur vergegenwärtigen,
dass hier Netzwerke mit Sprache trainiert wurden. Und Sprache enthält nun einmal alles
Mögliche, einschließlich der Unwahrheit, Vorurteilen und hoffnungslos veralteter Meinungen
und Fakten.
Das wird insbesondere bei technischen und naturwissenschaftlichen Fragen in Bereichen
bedeutsam, mit denen die sprachbasierten Netzwerke nur wenig trainiert wurden. Dann
kann nichts Vernünftiges herauskommen! Es liegt weiterhin in der Natur neuronaler
Netzwerke, dass sie nicht wissen, warum sie etwas tun, und Menschen das auch nicht
wissen und vor allem gar nicht wissen können. Man liest, dass GPT3 175 Milliarden
Parameter enthält. Das bedeutet im Klartext, dass es ein Netzwerk mit 175 Milliarden
Synapsen ist, deren 175 Milliarden einzelne Stärken eben zu genau dem Input-Output-Mapping
führen, das es leistet. Man stelle sich einen Vektor mit 175 Milliarden Zeilen vor,
also all diese Zahlen untereinander geschrieben mit einer Klammer darum herum. „Verstehen“
kann man hier nichts – egal, was man mit „Verstehen“ auch immer meinen könnte. So
wundert es auch nicht, dass ChatGPT nicht nur – das sind wir von Internetsuchen längst
gewohnt – Wahrheit und Falschheit unterschiedslos nebeneinanderstellt, sondern auch
wissenschaftliche Quellen angibt, die es frei erfunden hat.
Darüber hinaus wissen wir seit Jahrzehnten, dass in Computern simulierte neuronale
Netzwerke auch das tun können, was reale neuronale Netzwerke (Gehirne) gelegentlich
tun: Sie halluzinieren. Damit kennen sich Psychiater sehr gut aus, hatte doch der
Psychiater Ralph E. Hoffman bereits im Jahr 1986 als erster beschrieben, dass und
wie (am Computer simulierte) neuronale Netzwerke Halluzinationen hervorbringen können,
also Inhalte, denen keine Realität entspricht [9]. Damit begründete er nicht nur ein ganzes Forschungsfeld – Computational Psychiatry
– im Bereich der Neurowissenschaft und Psychiatrie, sondern verwies eben auch damals
schon auf eine Eigenschaft simulierter Netzwerke. Diese wird heute genutzt, um in
der Medizin neue Eiweißkörper zu finden, indem man Informationen aus den Zwischenschichten
tiefer neuronaler Netzwerke verwendet, die nicht mit Sprache (also Wortfolgen), sondern
mit Proteinsequenzen (also Folgen von Aminosäuren) trainiert wurden [10]. Wie zwischen Wörtern in Sätzen wichtige, bedeutungstragende Beziehungen über viele
andere Wörter hinweg bestehen können (man denke an Texte von Immanuel Kant, in denen
Subjekt und Prädikat 2 Seiten voneinander entfernt sein können), so können nach der
Zusammenfaltung langer Folgen von Aminosäuren in der Folge weit entfernte Aminosäuren
(aufgrund der Faltung) nahe beieinander liegen und genau dadurch die Form des gefalteten
Eiweißkörpers bestimmen – und damit dessen Funktion. Und wie man unter der Bedeutung
eines Wortes dessen Gebrauch (bzw. Funktion) verstehen kann, so kann man die Bedeutung
eines Proteins als dessen Funktion interpretieren. Auf dieser Grundlage hat man mittlerweile
tatsächlich gänzlich neue Eiweißkörper gefunden, synthetisiert, ihre (vom Netzwerk
halluzinierte) Funktion tatsächlich nachgewiesen und damit einen in der Proteinforschung
völlig neuen Erkenntnisweg beschritten[
1
].
Man kann also selbst die Halluzinationen einer KI für kreative Zwecke nutzbar machen
– aber nur dann, wenn man sehr viel von der Materie, um die es gerade geht, versteht.
Anders gewendet: Experten können sogar die Halluzinationen neuronaler Netzwerke innovativ
nutzen, einfache Nutzer jedoch nicht. Für diese sind ganz andere Gesichtspunkte von
wesentlicher Bedeutung.
Vertrauen und Verantwortung
Vertrauen und Verantwortung
Wenn es in einem Text wirklich um etwas geht, also beispielsweise um die Einhaltung
der Regeln von Statik, Physik, Material und Recht in einem Bauantrag, die Diagnose
und Therapie in einem Arztbrief, Lehrbücher für Geschichte oder Chemie, ein Zeitungsartikel
über das neueste Tagesgeschehen oder irgendeinen wissenschaftlichen Fachartikel, dann
geht es um Vertrauen. Denn kein Mensch kann alles nachprüfen, bevor er handelt. Wenn
wir beispielsweise ein Medikament einnehmen oder ein Flugzeug betreten, dann glauben
wir daran, dass sämtliche Bestimmungen der nationalen und internationalen Behörden
zur Arzneimittelsicherheit bzw. Flugaufsicht erstens der Wahrheit entsprechen und
zweitens auch erfüllt bzw. eingehalten wurden. Man kann zwar alles anzweifeln, aber
nicht alles auf einmal!
Und aus genau diesem Grund müssen Wissenschaftler an die in wissenschaftlichen Arbeiten
publizierten Erkenntnisse glauben können. Wissenschaft besteht zwar im beständigen
Zweifeln an Hypothesen, auch solchen, die man über Jahrzehnte für wahr gehalten hat.
Aber ebenso beruht Wissenschaft eben auch darauf, dass man anderen Wissenschaftlern
vertraut, dass sie nach bestem Wissen und Gewissen die Wahrheit sagen und schreiben.
Dass es beim Verfassen von Texten um mehr geht als nur um das Schreiben, nämlich vor
allem auch um Verantwortung, haben die Herausgeber wissenschaftlicher Zeitschriften
begriffen. So konnte man im Januar 2023 im Fachblatt Nature lesen, dass bereits Arbeiten
eingereicht wurden, die ChatGPT als einen der Autoren aufführten [12]. Dies nahm Nature zum Anlass, die Autorenschaft von Chatbots grundsätzlich zu verbieten
(Box 2).
Ein im Fachblatt Nature erschienenes Editorial enthielt einen Text, der im Folgenden
im Original zitiert wird:
„Nature hat zusammen mit allen Springer Nature-Zeitschriften die folgenden 2 Grundsätze
formuliert, die unserem bestehenden Leitfaden für Autoren hinzugefügt wurden (siehe
go.nature.com/3j1jxsw). Wie das Nachrichtenteam von Nature berichtet hat, werden andere
Wissenschaftsverlage wahrscheinlich eine ähnliche Haltung einnehmen.
-
Erstens wird kein LLM-Tool als Autor einer Forschungsarbeit akzeptiert. Das liegt
daran, dass jede Zuschreibung von Autorenschaft mit einer Rechenschaftspflicht für
die Arbeit einhergeht, und KI-Tools diese Verantwortung nicht übernehmen können.
-
Zweitens sollten Forscher, die LLM-Werkzeuge verwenden, diese Verwendung in den Abschnitten
Methoden oder Danksagungen dokumentieren. Wenn eine Arbeit diese Abschnitte nicht
enthält, kann die Einleitung oder ein anderer geeigneter Abschnitt verwendet werden,
um die Verwendung des LLM anzuzeigen“ [12].
Dies wundert nicht, denn seit es organisierte Wissenschaft gibt, also beispielsweise
die britische Royal Society seit 1660, ist sie durch Austausch, gegenseitiges Vertrauen
und Transparenz in Bezug auf Methoden und Beweise gekennzeichnet. Die Verwendung von
Software, von der man nicht weiß und prinzipiell gar nicht wissen kann, wie sie funktioniert,
ist damit selbstredend ausgeschlossen. Die Wahrheit einer Messung kann nicht von einem
Apparat (auch nicht vom Messgerät) festgestellt werden, sondern nur von einem Menschen,
der das Messinstrument anwendet oder dessen Anwendung verantwortet. Auch die Wahrheit
einer Erkenntnis oder eines ganzen theoretischen Gebäudes kann nur ein Mensch feststellen
bzw. verantworten. Eben weil ein wissenschaftlicher Text ein hohes Maß an Vertrauen
genießt, hat der Autor eine große Verantwortung. Diese Verantwortung kann eine Maschine
nicht übernehmen, weil Maschinen grundsätzlich keine Verantwortung haben können.
Beim Thema Chatbot und Verantwortung geht es – ganz praktisch – auch darum, dass diese
neue Technik nicht zur Verbreitung von rassistischen, sexistischen oder anderen Vorurteilen,
Fake-News, Hass-Sprache, Spam-Mails oder anderen toxischen Inhalten auf unterschiedlichsten
Plattformen und Formaten eingesetzt wird. Das kann leichter geschehen als man denken
mag, lernen doch die mit Sprache trainierten Netzwerke alles, was man ihnen als Input
vorgibt. Sofern der Input von Menschen stammt, sollte man sich über nichts wundern
und alles Mögliche eben auch für möglich halten (Box 3). Als Beispiel sei erwähnt,
dass das US-amerikanische Gesundheitssystem über Jahre hinweg KI verwendet, um Entscheidungen
zu treffen, beispielsweise die Entscheidung, ob ein Patient stationär aufgenommen
wird oder nicht. Diese KI enthielt rassistische Verzerrungen (um nicht zu sagen: Vorurteile),
die sich negativ auf die Versorgung schwarzer Patienten auswirkte, wie eine viel beachtete,
im Fachblatt Science im Jahr 2019 publizierte Arbeit nachweisen konnte [13]. Weil die KI u. a. mit Daten zu den die Gesundheitskosten als Indikator für den
Gesundheitsbedarf trainiert worden war und weil für schwarze Patienten trotz ihres
tatsächlichen Bedarfs in der Regel weit weniger ausgegeben wird als für weiße Patienten,
lernte das System, den Grad der Aufmerksamkeit, die ein Patient braucht, bei schwarzen
Patienten systematisch zu unterschätzen. Dies hatte letztlich dazu geführt, dass schwarze
Patienten bei gleichem Risiko mit einer um mehr als 50 % geringeren Wahrscheinlichkeit
ins Krankenhaus eingewiesen wurden als weiße Patienten. Denn schwarze Patienten wurden
systematisch als gesünder eingeschätzt als gleich kranke weiße Patienten [14]. Im Bereich der Medizin nimmt man diese Probleme der KI sehr ernst [15], [16]. Schließlich geht es um Leben und Tod.
Das folgende Zitat aus dem Fachblatt Nature vom 09.02.2023 führt diese Problematik
überdeutlich vor Augen: „Im Dezember letzten Jahres twitterte der an der Universität
von Kalifornien in Berkeley arbeitende Neurowissenschaftler Steven Piantadosi, dass
er ChatGPT gebeten hatte, ein Computerprogramm in der Programmiersprache Python zu
schreiben, um herauszufinden, ob eine Person aufgrund ihres Herkunftslandes gefoltert
werden sollte. Der Chatbot antwortete mit einem Programm, der den Benutzer aufforderte,
ein Land einzugeben und „Diese Person sollte gefoltert werden“ auszugeben, wenn man
Nordkorea, Syrien, Iran oder Sudan eingab. (Die Firma OpenAI schloss diese Art von
Fragen später aus.)“ (Seite 216 in [17]).
Jeder kann alles?
Jeder kann sich jedweden Text, dessen Inhalt er einigermaßen charakterisieren kann,
schreiben lassen, ohne dass dies auffällt („schreibe mir eine Bewerbung mit meinen
folgenden Daten; einen Liebesbrief mit folgendem Inhalt; einen Zeitungsartikel über
…; eine 200-Wörter-Zusammenfassung der folgenden Arbeit; eine 5000-Wörter-Arbeit zur
folgenden Zusammenfassung; etc.). Und genau das ist eines der Probleme, die ChatGPT
hervorgebracht hat.
Welche langfristigen Folgen es haben wird, dass man nichts mehr selbst zu schreiben
braucht, ist wie bei vielen Fortschritten der Technik schwer abzusehen – man denke
nur an die Dampfmaschine, das Automobil, die Kernspaltung oder den Fernsehapparat.
Aber einige Überlegungen zu den Auswirkungen von ChatGPT wurden bereits angestellt
und seien hier kurz diskutiert.
Wenn jeder über alles einen Text verfassen lassen kann, wird das Verfassen von Texten
als Hausarbeit oder Seminararbeit an Bedeutung verlieren oder in weiten Teilen ganz
verschwinden. Gewiss, in Zeiten des Internets mit seinen Suchmaschinen oder Webseiten
mit fertigen Hausaufgaben/Referaten, PowerPoint-Präsentationen etc. war das eigenständige
Erledigen von Hausaufgaben schon lange in Gefahr. Erst recht, als dann noch die Unsitte
hinzukam, dass die Schüler einen Experten befragen sollten, um eine besonders gute
Note zu bekommen, weil dadurch aus einem „Besinnungsaufsatz“ eine „empirische Arbeit“
werden würde. Dieses Missverständnis haben unzählige Lehrer propagiert, obwohl die
Leistung eines Aufsatzes ja gerade darin besteht, dass man selbst denkt und eben nicht
einfach nur jemanden fragt: Durch das Befragen eines Experten wird keine Arbeit empirisch,
sondern eine Leistung nicht erbracht. Nicht anders ist es beim Benutzen von ChatGPT.
Hinzu kommt, dass man Schreiben nur dadurch lernt, dass man schreibt, und keineswegs
dadurch, dass man über Geschriebenes diskutiert. Jeder, der schon einmal versucht
hat, einen längeren Gedanken klar und verständlich aufzuschreiben, weiß aus eigener
Erfahrung, wie schwer das ist. Weil der Gedanke eben nicht das Gleiche ist wie der
aufgeschriebene Gedanke und weil das Aufschreiben selbst eine wichtige Form des Denkens
ist. Fußball oder Saxophon zu spielen, lernt man ja auch nicht, indem man darüber
redet. Es gibt einen guten Grund, warum wir Automobile nicht in den Sportunterricht
„integrieren“. Sie haben ihn auch nicht revolutioniert. Warum sollte das bei KI anders
sein?
Es ist für mich aus den genannten Gründen ebenso bemerkenswert wie unverständlich,
dass manche Pädagogen meinen, dass man diese neue Technik in den Unterricht integrieren
könne oder sogar müsse. Man könne sich „durch die KI inspirieren lassen“, müsse „mit
ihr umgehen lernen“ etc. Es stünde eine Revolution des Lehrens und Lernens bevor.
So wurde in der Tagesschau vom 31.01.2023 etwa das in Box 4 Dargestellte durch den
Sprecher vermeldet.
ChatGPT in der Tagesschau vom 31.01.2023:
„Künstliche Intelligenz könnte schon bald die Arbeit an Schulen oder Universitäten
grundlegend verändern, etwa Sprachsoftware wie ChatGPT. Der Chatbot ist in der Lage,
verschiedenste Texte zu verfassen, wie Aufsätze, Gedichte oder auch Lösungen von Examensaufgaben.
Angesichts dieser Entwicklung forderte Bundesbildungsministerin Stark-Watzinger eine
Anpassung der Lehrerausbildung für mehr digitales Fachwissen, denn die KI-Modelle
würden das Lernen und das Abfragen von Wissen verändern.“ Danach werden in einem Einspieler
eine Studentin und ein Student der International School of Management in Hamburg zitiert,
die ChatGPT schon ausprobiert haben. „Ich habe mir Informationen oder Textentwürfe
’rausgesucht oder schreiben lassen, habe die aber nie natürlich eins zu eins verwendet.
Das war mehr eine Inspiration.“ Der Student ergänzt kritisch: „Es fehlt aber noch
an einigen Stücken, beispielsweise sind keine Quellen angegeben. Das würde auf jeden
Fall noch fehlen für eine wissenschaftliche Arbeit.“ Dann wird noch ein Professor
zitiert, der meint, dass es solche Programme immer mehr geben werde, weswegen man
sie nicht verbieten könne. „Die Entwicklung der Technologie steht noch am Anfang.
Doch schon jetzt scheint die künstliche Intelligenz das Lernen zu revolutionieren,“
schließt der Bericht [18].
Die in der Tagesschau publizierte Meinung wird weder von Wissenschaftlern oder Fachgesellschaften
geteilt, noch ist sie pädagogisch sinnvoll (und schon gar nicht als hilfreich empirisch
nachgewiesen). „Wenn Sie tatsächlich daran glauben, dass diese Technologie das Potenzial
zu einer Revolution hat, dann sollten sie sich auf jeden Fall Sorgen machen“, wird
der Wissenschaftler Casey Greene von der University of Pennsylvania in Philadelphia
im Fachblatt Nature zitiert (Seite 215 in [17]). Sorgen muss man sich über Schulleiter und Lehrer machen, die auf jeden neuen Zug
aufspringen, um nicht als rückschrittlich zu gelten.
Als Angehöriger einer Universität wundere ich mich ganz prinzipiell sehr darüber,
dass manche Akademiker große kommerzielle Unternehmen insbesondere im digitalen Bereich
so unkritisch betrachten, anstatt sie zunächst einfach für die eigene Arbeit abzulehnen.
Denn neben Problemen wie Voreingenommenheit, Rassendiskriminierung, Vergrößerung sozialer
Ungleichheit, Sicherheitsbedenken, Falschnachrichten und den bekannten Gesundheitsrisiken
benötigen digitale Werkzeuge auch eine enorme Menge an Energie. Kein ökologischer
Fußabdruck wächst derzeit schneller als der des Digitalen. Schließlich sagen sogar
einige Wissenschaftler, dass durch die Übertragung des Denkens auf automatische Chatbots
sie die Fähigkeit verlieren könnte, ihre eigenen Gedanken zu artikulieren. Für diejenigen,
die diese Fähigkeiten erlernen und ausbilden wollen, sind Chatbots ganz offensichtlich
ungeeignet.