Experte: Was ChatGPT produziert, ist autoritativer Bullshit
„Was ChatGPT produziert, ist autoritativer Bullshit“, diese Aussage im amerikanischen Fernsehen hatte Gary Marcus einer breiteren Öffentlichkeit bekannt gemacht. Im Rahmen der „DIGHUM“-Vorlesungsreihe zu „Digital Humanities“ an der Technischen Universität (TU) Wien erklärte der Psychologe, Neurowissenschafter, Autor und Entrepreneur am Donnerstagabend den Hintergrund seiner Worte und erläuterte Schwachstellen des gehypten Programmes.
„Am Beginn der KI (Künstlichen Intelligenz, Anm.) stand Hybris“, stellte Marcus fest. Schon im Jahr 1967 hatte der MIT-Wissenschafter Marvin Minsky erklärt, dass „das Problem der KI innerhalb einer Generation gelöst sein wird“. Dieses Versprechen sei, trotz des momentanen Hypes um ChatGPT, nicht eingelöst worden, so der emeritierte Professor für Psychologie und Neurowissenschaften an der New York University. Marcus ist Buchautor und schreibt regelmäßig Beiträge für Publikationen wie „The New Yorker“, „Wired“ und die „New York Times“. Außerdem hat er schon mehrere KI-Firmen gegründet.
Die von der Entwicklerfirma OpenAI entwickelte Software ChatGPT knackte zwar zwei Monate nach der öffentlichen Vorstellung im November 2022 die Marke von 100 Millionen Nutzern – eine Zahl, für die Video-Plattform TikTok neun Monate und der Fotodienst Instagram zweieinhalb Jahre gebraucht haben. Doch der Enthusiasmus hielt laut Marcus nicht lange an: Immer mehr Social-Media-Posts machen auf Schwächen des Programmes aufmerksam. Demnach ist die Anwendung anfällig für die Verbreitung von Desinformation und auch die eingebauten Filter, die den Output von „Hate Speech“ verhindern sollen, sind leicht zu überwinden. Die Suchmaschinenintegration bei „Bing“ habe außerdem zu falschen Suchergebnissen geführt. Microsoft setzt bei seinem „Bing“-Chatbot auf Technik des Start-ups OpenAI und unterstützt das kalifornischen KI-Unternehmen mit Milliarden.
Die vielen Fehler haben ihren Ursprung in dem der Anwendung zugrunde liegenden Prinzip: Sprachbasierte KI-Modelle lesen riesige Mengen an Text aus dem Internet aus, um plausible, menschlich klingende Sätze vorherzusagen. Aber „einen Satz vorherzusagen ist nicht dasselbe, wie einen Satz zu verstehen“, so Marcus. Was fehlt, ist der Bezug zwischen Aussage und Inhalt. So verfüge das Programm über keinerlei Abstraktionsfähigkeit, deswegen können Aufgaben wie Sortieren und Zählen nicht verlässlich ausgeführt werden. Auch Schlussfolgern kann das Programm nicht. Außerdem hat es keinen Bezug zur Faktizität einer Aussage – die Vorhersage eines Satzes führe, wenn sie auf unzuverlässigen Quellen basiert, eben zu unzuverlässigen Aussagen. Das Ergebnis sind sogenannte „Halluzinationen“, also erfunden anmutenden Aussagen des Programmes.
Doch Marcus sieht die Fehlschläge positiv – der Start von ChatGPT sei „eine Generalprobe für KI“ gewesen. Jetzige Fehler sollten die Grundlage für zukünftige Forschung bieten. Dabei ist für den Experten die Einbindung von Linguisten und Neurowissenschaftern zentral. Gerade, dass prominente Figuren wie der Linguist Noam Chomsky sich jetzt in die Debatte einmischen, sei durchaus positiv, findet Marcus.
Zudem dürfe KI nicht für Werbezwecke entwickelt werden, so Marcus weiter. Das ist auch ein Ressourcenproblem: Unternehmen, die derzeit Milliarden in die Entwicklung von KI investieren, haben ein klares Profitinteresse. Demgegenüber sind Universitäten, die KI im öffentlichen Interesse entwickeln würden, budgetär einfach nicht konkurrenzfähig.
Die Rolle Europas aus Sicht des US-Amerikaners sei in der aktuellen Entwicklung „politische Vorgaben zu setzen, denen andere folgen müssen“. Eine starke europäische Richtlinie gegen Fehlinformation würde auch darüber hinaus Auswirkungen haben. Denn wenn Tech-Firmen gezwungen wären, für den europäischen Markt striktere Versionen zu entwickeln, würden sie diese mit hoher Wahrscheinlichkeit auch weltweit implementieren. Die EU verweist ihrerseits aktuell auf die Risiken von KI und drängt auf eine rasche Regulierung.