Forscher: Algorithmen müssen gerechter designt werden
Die Art, wie wir künstliche Intelligenz (KI) designen, muss sich ändern. Das sagte Stuart Russell, Professor für Informatik an der University of California in Berkeley, im Gespräch mit der APA. In seiner Forschung konzentriert er sich darauf, Maschinen intelligenter und damit nützlicher zu machen. Gleichzeitig beschäftigt er sich mit der Frage, was passieren kann, wenn Maschinen intelligenter als Menschen werden, und wie man sie trotzdem unter Kontrolle hält.
„Stell dir vor, du bist ein Gorilla im Dschungel“, sagte Russell. „Du lebst glücklich im Wald aber einer deiner Vorfahren hat sich abgespaltet und zu einem Menschen weiterentwickelt. Dein Problem ist nun, dass Menschen einfach intelligenter sind als du, also bekommen sie was sie wollen und du nicht.“ Gorillas sterben weil ihre Wälder zerstört werden, sie werden gefangen genommen und in Zoos verfrachtet. „Sie verlieren die Kontrolle über ihre eigene Zukunft weil Menschen intelligenter sind“, erklärte der Forscher. Mit künstlicher Intelligenz sei es ähnlich: „Wir wollen nicht in die gleiche Position kommen, also müssen wir herausfinden, wie wir Maschinen bauen, die sehr intelligent und nützlich sind, die gleichzeitig aber unter menschlicher Kontrolle bleiben“.
Dazu sei es notwendig, die Zielsetzung künstlicher Intelligenz richtig zu definieren. Ein Roboter Taxi kann so programmiert werden, dass es die Zielsetzung hat, jemanden zum Flughafen zu bringen. Daneben hat es noch andere Ziele, wie zum Beispiel Fußgänger nicht zu überfahren oder die Geschwindigkeitsbegrenzung nicht zu überschreiten. Diese Zielsetzungen bei der Programmierung richtig zu definieren ist schon für einfache Aufgaben kein leichtes Unterfangen. Je komplexer die Aufgabe, die künstliche Intelligenz lösen soll, desto komplexer ist auch die richtige Definition der Zielsetzung.
Wenn eine Maschine zwar sehr intelligent ist aber ein Ziel verfolgt, das nicht korrekt definiert wurde, könne das zu, teilweise auch schwerwiegenden, Problemen führen. Deshalb sei es notwendig, die Art, wie wir künstliche Intelligenz designen, zu ändern. „Wir müssen die Maschinen bescheiden machen, sodass sie sich vorsichtig verhalten und beispielsweise um Erlaubnis fragen, bevor sie wichtige Entscheidungen treffen“, so Russell.
Ein weiteres Problem sieht Russell in der Verzerrung, dem „Bias“, in den Daten, die künstlicher Intelligenz zugrunde liegen. Algorithmen basieren auf großen Datenmengen, die von Menschen gesammelt und kategorisiert wurden. Die Zielsetzung des Algorithmus ist es, Vorhersagen zu treffen, die mit dem Datensatz übereinstimmen. Man hoffe dabei, dass die Vorhersagemethode auch für neue Beispiele anwendbar ist, solange die Ergebnisse dem Datensatz entsprechen. Das Problem sei allerdings, dass es im Datensatz immer eine gewisse Verzerrung gibt, weil Menschen niemals vollkommen unvoreingenommen agieren, so der Forscher. Dadurch entstünden Probleme, beispielsweise dass künstliche Intelligenz in ihren Entscheidungen aufgrund von Geschlecht oder Hautfarbe diskriminiert. „Wenn der Datensatz biased ist, wird der Algorithmus den Bias reproduzieren“.
Gleichzeitig sei aber auch die Zielsetzung falsch, erklärte Russell. „Ziel des Algorithmus sollte es nicht sein, eine Vorhersage zu treffen, die mit dem Datensatz übereinstimmt, sondern eine Vorhersage, die nicht biased ist, eine Vorhersage, die nicht diskriminiert.“ Gerechtigkeit müsse Teil der Zielsetzung für Algorithmen sein, um Diskriminierung zu verhindern. „Darin haben wir bisher fast immer versagt“, sagte der Forscher. Dabei könne Gerechtigkeit sehr genau definiert und anhand dessen Algorithmen designt werden, die immer faire Entscheidungen treffen.
Zusätzlich sei es notwendig, Programmiererinnen und Programmierer entsprechend auszubilden, sodass sie ein Bewusstsein für Diskriminierung und mögliche Verzerrungen im Datensatz entwickeln. Je nach Kontext brauche es außerdem einen „Code of Conduct“, also einen Verhaltenskodex, oder gesetzliche Regelungen, die sicherstellen, dass Algorithmen und künstliche Intelligenz gerecht funktionieren. Als Beispiel hierfür nannte Russell die KI-Verordnung der EU-Kommission, die vorsehe, dass Algorithmen auf mögliche diskriminierende Ergebnisse getestet werden müssen.