Datenqualität als Achillesferse der KI
Rechtliche Fallstricke und ethische Grauzonen
Künstliche Intelligenz (KI) verändert alle Branchen – vom Gesundheitswesen über die Fertigung bis hin zum Finanzwesen –, indem sie eine intelligentere Entscheidungsfindung und betriebliche Effizienz ermöglicht. Doch die Wirksamkeit von KI-Systemen hängt von der Qualität der zugrunde liegenden Daten ab.
Ungenaue, unvollständige, voreingenommene oder veraltete Daten können KI-Ergebnisse erheblich beeinträchtigen und schwerwiegende rechtliche und ethische Risiken nach sich ziehen. Diese reichen von regulatorischen Verstößen und Haftungsfragen über Diskriminierung bis hin zum Vertrauensverlust in der Öffentlichkeit. Die Bewältigung dieser Herausforderungen ist nicht nur eine technische Notwendigkeit, sondern ein moralischer Imperativ, um den verantwortungsvollen Einsatz von KI sicherzustellen.
Rechtliche Risiken: Compliance, Haftung und Datenintegrität
Eine der dringlichsten Herausforderungen für Unternehmen im Zusammenhang mit fehlerhaften KI-Daten stellt die Verletzung von Vorschriften dar. Verstöße gegen Regelungen wie die Datenschutz-Grundverordnung (DSGVO) in Europa, die die Erhebung und Verwendung von Daten für bestimmte Zwecke einschränkt, sowie gegen den AI Act, der strenge Anforderungen an Datenqualität und Fairness von KI-Systemen stellt, können zu hohen Geldstrafen, Rechtsstreitigkeiten und Reputationsschäden führen. Ein bekanntes Beispiel ist Amazon, dessen KI-Rekrutierungstool aufgrund diskriminierender Algorithmen gegenüber Frauen scharf kritisiert und dann eingestellt wurde.
Haftungsfragen machen die ganze Sache noch komplexer: Versagen KI-Systeme aufgrund fehlerhafter Daten, ist oft unklar, wer dafür Verantwortung trägt. Liegt die Schuld beim Hersteller, Entwickler oder Endnutzer? Diese Unschärfe kann zu langwierigen Rechtsstreitigkeiten und finanziellen Verlusten für alle Beteiligten führen.
Auch Probleme des geistigen Eigentums und der Datensicherheit entstehen, wenn ungeprüfte oder ungeeignete Datenquellen zum Einsatz kommen. Solche Praktiken können Urheberrechtsverletzungen oder Datenschutzverstöße nach sich ziehen und Firmen rechtlichen Risiken sowie Glaubwürdigkeitsverlust aussetzen.
Über Compliance hinaus: Ethische Herausforderungen in der KI-Datenpraxis
Neben rechtlichen Konsequenzen bergen fehlerhafte KI-Daten erhebliche ethische Risiken, wobei Voreingenommenheit und Diskriminierung als die gravierendsten gelten. Erfolgt das KI-Training mit voreingenommenen Daten, verfestigen und verstärken sie bestehende gesellschaftliche Ungleichheiten. Beispielsweise zeigten Gesichtserkennungssysteme Verzerrungen in Bezug auf Herkunft und Geschlecht, was zu unfairen Ergebnissen und ethischen Herausforderungen führt.
Die Wahrung des öffentlichen Vertrauens ist zentral für die Entwicklung und den Einsatz von KI-Technologien. Aufsehenerregende KI-Pannen, die oft aufgrund einer mangelhaften Datenqualität passierten, haben das Nutzervertrauen bereits erschüttert. Gleichzeitig eröffnen diese Herausforderungen Unternehmen die Möglichkeit, Verbesserungs- und Innovationspotenziale zu identifizieren, wenn sie KI – und sogar Agentic AI – einsetzen, um Prozesse zu optimieren und effizienter mit ihren Daten umzugehen.
Tatsächlich ist Vertrauen der Schlüssel zur Akzeptanz von KI. Indem die KI-Community Transparenz, Verantwortlichkeit und robuste Datenpraktiken priorisiert, baut sie Vertrauen auf und ermöglicht so eine breitere Nutzung. Nur das entfaltet das volle Potenzial von KI für die Gesellschaft.
Auch die moralische Verantwortung bei der KI-Entwicklung spielt eine wichtige Rolle. Entwickler und Organisationen müssen aus ethischer Sicht die Datenqualität und Transparenz sicherstellen. Ethische Leitlinien wie die der UNESCO bieten hierfür eine wertvolle Orientierung. Ähnlich wie die Lebensmittelbranche auf rigoroses Datenmanagement setzt, um nachhaltige Entscheidungen zu treffen, muss auch KI qualitativ hochwertige Daten nutzen, um negative gesellschaftliche Auswirkungen zu vermeiden.
Die Risiken mangelhafter Daten in KI-Systemen umfassen sowohl rechtliche Sanktionen als auch gesellschaftliche Schäden. Unternehmen müssen Datenqualität, Transparenz und Rechenschaftspflicht priorisieren, um diese Risiken zu mindern und vertrauenswürdige KI-Systeme aufzubauen. Bei der Weiterentwicklung der KI wird es von entscheidender Bedeutung sein, sich mit diesen Fragen auseinanderzusetzen. Nur das garantiert, dass die Vorteile der KI genutzt werden, ohne ethische Standards oder die Einhaltung gesetzlicher Vorschriften zu gefährden. Als Vorreiter werden jene Unternehmen gelten, die proaktiv neue Regelungen – wie die Omnibus-Verordnung der EU – umsetzen und die Zusammenarbeit zwischen Stakeholdern fördern. Dies alles ist unerlässlich, um zuverlässige und ethische KI-Systeme zu schaffen, denen die Gesellschaft vertrauen kann.

© Informatica
Über den Autor Levent Ergin, Chief Strategist for Climate, Sustainability and Artificial Intelligence bei Informatica
Levent Ergin ist Chief Strategist for Climate, Sustainability and Artificial Intelligence beim Datenmanagement-Spezialisten Informatica und arbeitet mit führenden Organisationen zusammen, um ihre ESG-Berichterstattung (Umwelt, Soziales und Governance) durch Cloud-Datenmanagement und Data Governance zu beschleunigen und Nachhaltigkeitsentscheidungen zu unterstützen. Er verfügt über mehr als 23 Jahre Branchenerfahrung und hat zur Net-Zero Data Public Utility (NZDPU) beigetragen, die auf der COP28 ins Leben gerufen wurde. Er hat die Ehre, Mitglied der DEAL (Data for the Environment Alliance) und hochrangiges Expertengruppenmitglied des UNEP Science-Policy-Business Forum (SPBF) on the Environment zu sein.