ChatGPT und die Abschätzung der Folgen

mögliche Auswirkungen der Sprachverarbeitung

ChatGPT und die Abschätzung der Folgen

Steffen Albrecht: Die Gesellschaft braucht mehr Information. Foto: Konstantin Börner

Das vom Karlsruher Institut für Technologie betriebene Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag legt eine umfassende Einschätzung des technologischen Durchbruchs von ChatGPT in der digitalen Sprachverarbeitung vor.

Im Einzelnen beschreibt das rund 100-seitige Hintergrundpapier des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) die Technik, auf der ChatGPT aufsetzt, ihre Möglichkeiten und Grenzen, die potenziellen Anwendungen des Chatbots sowie mögliche gesellschaftliche Auswirkungen. Steffen Albrecht vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT, das auch das TAB betreibt:

Die Gesellschaft muss sich klarmachen, auf was sie sich da einlässt und welche Regeln wir vereinbaren wollen. Das System birgt ebenso zahlreiche Chancen wie Risiken.

Die KIT-Studie liefert ein Nebeneinander von Pro und Contra, will sich aber noch zu keiner klaren Bewertung durchringen. Albrecht: "Dafür ist es derzeit noch zu früh."
 
Das scheinbar grenzenlose Wissen der Dialog-KI und ihre verblüffende, blitzschnelle Eloquenz führt Soziologe Albrecht auf zwei technologische Durchbrüche zurück: "Diese neue Art künstlicher neuronaler Netzwerke, die sogenannten Transformermodelle, ermöglicht erstens eine besonders effiziente Umwandlung von Sprache in mathematische Parameter. Dadurch können zweitens die Komplexität dieser Computermodelle und die Menge der für ihr Training verwendeten Daten enorm vergrößert werden." Das ChatGPT zugrundeliegende Computermodell greift auf 175 Milliarden Parameter und auf ein Trainingsmaterial von 300 Milliarden Textbestandteilen zurück.
 
Einsatzmöglichkeiten für Chatbots derartiger Potenz ergeben sich laut Albrecht nicht nur für Bereiche wie Journalismus, Unternehmenskommunikation oder Dialoge mit Kundinnen und Kunden, sondern auch bei Programmierung und Rechtsberatung. "Da die KI-Systeme in natürlicher Sprache angesprochen werden können, könnten sie, wo erforderlich, zugleich als leicht bedienbare Schnittstelle für andere Computersysteme genutzt werden." Positive Effekte könnten sich auch für die Inklusion behinderter Menschen ergeben: "Noch immer sind erst wenige Texte in leichte Sprache übersetzt, hier könnte künftig ChatGPT einen Beitrag leisten." 
 
Allem medialen Wirbel zum Trotz sollte die öffentliche Debatte über Computermodelle wie ChatGPT auch deren Grenzen und Risiken einbeziehen. "Der Output von Computermodellen kann nur so gut sein wie das, was sie an Input erhalten haben. Ein in den Trainingsdaten enthaltener Bias, also eine verzerrte Repräsentation bestimmter Kategorien, kann sich in den Antworten des Systems widerspiegeln und Diskriminierung verstärken", sagt Albrecht.

Zudem sind die vom System erzeugten Informationen häufig schlicht falsch, was sich mangels Belegen jedoch nur schwer überprüfen lässt, wodurch wiederum das Vertrauen in die Verlässlichkeit von Informationen im Allgemeinen sinken, gar die demokratische Meinungsbildung untergraben werden kann.

In der Wissenschaft könnten Programme wie ChatGPT zu mehr Betrugsfällen führen. Albrecht erinnert an den Druck, möglichst viel zu publizieren:

Es ist leicht vorstellbar, dass sich Forschende dazu verleiten lassen, ein KI-System ihre Studien schreiben zu lassen. Gleichzeitig deutet sich aber an, dass das System beim wissenschaftlichen Schreiben auch hilfreich sein könnte, zum Beispiel wenn es darum geht, die relevante Literatur zusammenzufassen oder in einer anderen als der Muttersprache zu publizieren.

zur Studie 
 


Unser Newsletter