Zum Inhalt springen
Peter Dabrock

Ethik und künstliche Intelligenz So lässt sich ChatGPT verantworten

Peter Dabrock
Ein Gastbeitrag von Peter Dabrock
Der Chatbot gilt als Meilenstein künstlicher Intelligenz. Doch er ermöglicht auch Täuschungen und Missbrauch und wirft neue ethische Fragen auf. Ein Vorschlag.
ChatGPT auf einem Mobiltelefon

ChatGPT auf einem Mobiltelefon

Foto: Peter Morgan / AP

Nein, dieser Text über die ethische Einschätzung von ChatGPT beginnt nicht im neuerdings üblichen Stil, nach drei Absätzen einzugestehen, dass diese nicht vom Autor, sondern von der KI-Software selbst verfasst sind. Daher direkt zur Sache: Welche ethischen Fragen ergeben sich durch ChatGPT?

Es ist ein Gemeinplatz, dass in Deutschland bei neuen, als disruptiv bezeichneten Technologien Bedenken erhoben werden, während im angloamerikanischen Raum Technikbegeisterung die Lösung gesellschaftlicher Probleme verspricht. »Solutionismus« nannte der Digitaltheoretiker Evgeny Morozov diesen Zugriff. Gegenüber den Zauberern des Doppelklicks oder den Untergangspropheten der zerstörerischen Disruption – eine einprägsame Unterscheidung im Anschluss an den amerikanischen Wissenschaftsjournalisten Charles C. Mann – ist jedoch viel nüchterner, sich und anderen einzugestehen: Technikethik sollte sich weder als uneingeschränkte Akzeptanzbeschaffung neuer Entwicklungen noch als fundamentalistische Protestkommunikation dagegen funktionalisieren lassen.

Beides geht oft an der Realität vorbei: Selten zeichnet das Leben schwarz-weiß, sondern meist grau in grau. Entsprechend sollte auch ein verantwortlicher Korridor für den Einsatz neuer Technologien jenseits von Euphorikern und diesseits von Apokalyptikern, wie Julian Nida-Rümelin typische Einstellungsmuster genannt hat, gesucht werden. Und weil das Konkrete eben nicht abstrakt ist, sondern aus unterschiedlichen Perspektiven Unterschiedliches zu sehen lehrt, sollte die Suche nach allgemeinen Kriterien immer auch partizipativ erfolgen und dabei möglichst viele einbeziehen.

Konkrete Technikethik von ChatGPT wird nüchtern beobachten und dabei nicht nur schauen, was risikoreich ist, sondern auch, welche Chancen das Sprachmodell und seine Geschwister besitzen. Denn Verantwortung tragen wir als Einzelne wie als Gesellschaft für das, was wir tun, aber auch für das, was wir wider besseres Wissen unterlassen. Die Chancen dieser Modelle, von Backrezepten bis Bildungseinrichtungen, sollten nicht durch Übervorsicht links liegen gelassen werden.

Die ethische Beurteilung der Entwicklung und Nutzung von ChatGPT hängt zunächst banal davon ab, wie man die technische Weiterentwicklung der Sprachmodelle einschätzt. Wird es möglich sein, wie es auch bei anderen KI-Anwendungen versucht wird, ihre Ergebnisgenerierung transparent und erklärbar zu machen? Also: Wie ist das System zu einem Resultat gekommen? Kann man bestimmte, etwa als diskriminierend erkannte Resultate verändern? Kann man im Text tangierte Urheberrechte achten? Kann man erkennen, ob ein Prüfungstext von ChatGPT erzeugt wurde und somit eine Täuschung vorliegt?

Diese Fragen positiv zu beantworten, würde – schon auf einer technischen Ebene, von der sozialen ganz zu schweigen – Vertrauen in die Technik und ihre Anbieter stärken und das beunruhigende Black-Box-Image der Systeme zumindest etwas reduzieren.

Schließlich wird man die sachliche und soziale Eingriffstiefe unterschiedlicher Einsätze beurteilen müssen. Lasst doch den Bürgermeister die Rede zum Kaninchenzuchtverein mit ChatGPT vorbereiten! Oder, wenn er ein ganz großer Langweiler ist, sogar schreiben!

Mittelprächtige Witze hat das Sprachmodell drauf. Inakzeptabel hingegen wäre, wenn ein Sprachmodell psychologische Hilfe anbietet, und dies den Nutzerinnen und Nutzern nicht bekannt ist.

Man sieht, dass es auch darauf ankommt, welchen Ethikansatz man präferiert. Wenn man sich anschaut, dass es verschiedene Ethikmodelle gibt – vom ernsthaften kantschen bis hin zum schnöde daherkommenden, aber oft effektiven Utilitarismus – kann man dieser Vielfalt etwas abgewinnen. Dann sind nämlich die Handlungen und Entscheidungen zu bevorzugen, die im Lichte der ganz unterschiedlichen ethischen Fragen sich verantworten lassen.

Bewirken die Sprachmodelle Schäden? Sind diese dauerhafte, irreversible, tiefgehend? Sind sie ideell oder materiell? Welcher Nutzen steht dem gegenüber?

ChatGPT wird der Gesellschaft den Spiegel vorhalten und Brüche verstärken.

Sind die Sprachmodelle unabhängig von ihren jeweiligen Kontexten problematisch oder sinnvoll – etwa, weil sie die Autonomiefähigkeit von Individuen unterminieren oder eben stärken? Oder sind nur in bestimmten Anwendungskontexten gefährliche Konsequenzen in den Blick zu nehmen, zum Beispiel, wenn eine medizinische Diagnose automatisiert erstellt wird?

Kann ChatGPT so eingesetzt werden, dass es soziale Gerechtigkeit und Solidarität stärkt? Oder wird Ungleichheit dadurch zunehmen?

Hat man die ethischen Grundsatzfragen im Gepäck, kann man gut gerüstet erste Orientierung für die verantwortliche Gestaltung von Sprachmodellen wie ChatGPT finden. Zunächst kann man nüchtern festhalten, dass sich viele Anforderungen an künstliche Intelligenz im Allgemeinen auch auf ChatGPT und Geschwister anwenden lassen.

Hier sind vor allem Biases, also implizite Vorurteilsstrukturen, kritisch in den Blick zu nehmen und möglichst zu minimieren, die bei Programmierung, Training oder Verwendung eines Sprachmodells sich fortpflanzen können. Man mache sich aber nichts vor: Vorurteile lassen sich nicht vollständig eliminieren, weil sie auch Ausdruck von Lebenseinstellungen sind.

Microsoft-Übernahme ChatGPT

Microsoft-Übernahme ChatGPT

Foto: LIONEL BONAVENTURE / AFP

Und die soll man gar nicht komplett löschen. Hans-Georg Gadamer, der große Philosoph der Verstehenslehre, ging fast so weit, den Vorurteilen eine konstitutive Bedeutung für das Menschsein zuzuerkennen. Aber – das wusste Gadamer – Vorurteile müssen immer neu überprüft werden, ob und wie sie mit grundlegenden Normen wie Menschenwürde und Menschenrechten, aber auch mit Diversität vereinbar sind, und deshalb nicht Stigmatisierung und Diskriminierungen legitimieren oder fördern.

Wie die Umsetzung dieser moralischen und ethischen Standards technisch und organisatorisch bei ChatGPT möglich sein wird, ist eine der größten kommenden Herausforderungen. Diese Sprachmodelle werden zudem einer Gesellschaft den Spiegel vorhalten und – wie auch schon bei Social Media – verzerrend, aber eben doch entlarvend gesellschaftliche Brüche aufdecken und verstärken können.

Wenn man von Disruption sprechen will, dann zeichnet sich solches Potenzial beim verstärkten Einsatz von Sprachmodellen ab, die weit intensiver als die gegenwärtigen Modelle gefüttert werden können, um solides Wissen zu kombinieren. Auch wenn sie selbst selbstlernend nur ein neuronales Netzwerk entfalten, wird der Effekt so erheblich sein können, dass die generierten Texte echte menschliche Aktivität simulieren.

Diese burleske Mimikry dürfte die üblichen Formen des Turing-Tests bestehen. Bibliotheken von Reaktionen werden darüber verfasst werden, was dies für Mensch, Maschine und ihre Interaktion bedeute. Ich prognostiziere entweder eine Verkomplizierung des Turing-Tests (die es schon mehrfach gab, als die Maschinen dem Bestehen bedenklich nahe kamen), sodass der Mensch Sieger bleibt. Oder es kommt endlich zum ehrlichen Eingeständnis, dass diese Versuchsanordnung schon immer anthropomorph und zum Scheitern verurteilt war.

Ein sorgsam zu beobachtender Effekt könnte darin bestehen, dass die basale Kulturtechnik des individuellen Schreibens unter Druck gerät. Kürzlich wurde darauf verwiesen, dass die Ausbildung des individuellen Subjekts und die Entstehung romantischer Briefliteratur in einem konstitutiven Wechselverhältnis standen. Man muss nicht gleich mit dem Abpfiff für Proseminararbeiten, die mit ChatGPT leicht zu erstellen sind, das Ende des neuzeitlichen Subjekts heraufbeschwören.

Aber klar ist, dass eigenständiges kreatives Schreiben anders geübt und internalisiert werden muss. Dies ist von erheblicher ethischer Relevanz, weil die Ausbildung einer selbstbewussten Persönlichkeit für unsere komplexe Gesellschaft von entscheidender Bedeutung ist.

Zudem müssen wir als Gesellschaft lernen, mit der erwartbar von Sprachmodellen erzeugten Überflut an Texten umzugehen. Dies ist nicht nur eine Frage der persönlichen Zeithygiene. Vielmehr droht eine neue Form von sozialer Ungleichheit – nämlich wenn Bessergestellte sich von Texten inspirieren lassen können, die weiterhin von Menschen geschrieben werden, während bildungsfernere und finanzschwächere Personen sich mit den durch ChatGPT erzeugten Brosamen zufriedengeben müssen.

Statt über das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit zu debattieren, werden wir gerechtigkeitstheoretisch über die Konsequenzen von Wissenschaft, Journalismus und Literatur im Zeitalter ihrer technischen Produzierbarkeit streiten müssen.

Nicht per se drohen mit der technischen Disruption von ChatGPT automatisch gesellschaftliche Fissuren. Aber sie werden nur vermieden, wenn wir zügig Gewohntes – gerade im Bildungsbereich – auf den Prüfstand stellen und uns auf die neuen Möglichkeiten einstellen. Deshalb zum Schluss nochmals die entscheidende Botschaft: Wir haben nicht nur eine Verantwortung für unser Tun, sondern eine auch für das Unterlassen sinnvollen Tuns: Entsprechend sind die neuen Sprachmodelle nicht zu verteufeln oder generell zu verbieten. Vielmehr gilt es, nüchtern ihre Weiterentwicklung zu beobachten, sie mitzugestalten – und dabei möglichst alle mitzunehmen, um ungerechtfertigte Ungleichheit zu verhindern.