— Anzeige —

Kommentar

3/23 Lesedauer: min

KI - wer haftet, wenn die Technik versagt?

Wenn Künstliche Intelligenz (KI) im Einsatz ist, sind viele Parteien involviert: Entwickler, Betreiber und Nutzer der KI spielen eine Rolle bei den Ergebnissen, die die KI produziert. Doch was ist, wenn durch den Einsatz der KI Schäden entstehen? Wer haftet dann? Auf EU-Ebene gibt es hierzu wichtige erste Entwicklungen.

Bild: Shutterstock / Phonlamai Photo

Die Haftung von KI ist in Deutschland bislang nicht spezialgesetzlich geregelt, daher muss auf allgemeine Gesetze wie das Bürgerliche Gesetzbuch (BGB) oder das Produkthaftungsgesetz (ProdHaftG) zurückgegriffen werden. Im Schadensfall greifen die allgemeinen Haftungsgrundsätze: Erforderlich sind eine schuldhafte Verletzung eines geschützten Rechtsgutes durch eine Verletzungshandlung (oder ein Unterlassen), eine indizierte Rechtswidrigkeit, ein ersatzfähiger Schaden sowie Kausalität zwischen der Verletzungshandlung und der Rechtsgutverletzung und Kausalität zwischen Rechtsgutverletzung und Schaden. Das Problem bei KI-Systemen besteht darin, dass es dem durchschnittlichen Nutzer quasi unmöglich sein dürfte, den vorgenannten Anforderungen nachzukommen. Insbesondere stellt sich das Problem, dass der Geschädigte den Fehler nachweisen können muss. Gerade Laien werden die Technik der KI (Stichwort: Blackbox) nicht verstehen und die Rechtsverfolgung von Schäden wäre zum Scheitern verurteilt.

Der Vorschlag aus Brüssel

Dieses Problem hat der europäische Gesetzgeber erkannt. Nachdem bereits der Entwurf der KI-Verordnung auf den Weg gebracht wurde, die KI-Systeme nach den Risiken ihrer Anwendungszwecke klassifiziert, hat die EU-Kommission Ende September letzten Jahres einen weiteren Gesetzesvorschlag hinsichtlich KI-gestützter Systemen angenommen: Den "Entwurf für eine Richtlinie zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz" (Richtlinie über KI-Haftung). Dieser zielt darauf ab, ein EU-weit einheitliches Schutzniveau für Schäden zu schaffen, die durch KI verursacht werden.

Im Kern soll dies durch zwei Mittel erreicht werden: Zum einen sollen Geschädigte auf Grund der Kausalitätsvermutung von der Pflicht entbunden werden, die Ursächlichkeit des Schadens beweisen zu müssen. Zum anderen soll bei Schäden durch Hochrisiko-KI-Systeme der Zugang zu Beweismitteln erleichtert werden, die im Besitz von Unternehmen oder Anbietern sind. Wann man von einem Hochrisiko-KI-System spricht, richtet sich im Wesentlichen nach Funktion und Zweck des Systems und den möglichen Auswirkungen auf Gesundheit, Sicherheit und Grundrechte natürlicher Personen.

Die Richtlinie über KI-Haftung greift für Schäden, die durch alle Arten von KI-Systemen verursacht werden: sowohl durch Hochrisiko-KI-Systeme als auch durch KI-Systeme ohne hohes Risiko.

— Anzeige —

Mehr Vertrauen in KI

Durch die Einführung von KI-spezifischen Haftungsregelungen soll das Vertrauen der Öffentlichkeit in KI-Systeme gestärkt werden, indem sichergestellt wird, dass Geschädigte bei Schäden durch KI denselben Schutz genießen wie in Fällen, in denen keine KI-Systeme beteiligt waren. Aber auch Unternehmen können von den geplanten Regelungen profitieren, indem sie besser in der Lage sind, ihr potentielles Haftungsrisiko vorherzusehen, zu bewerten und zu versichern. Dies gilt insbesondere für Unternehmen, die grenzüberschreitend Handel treiben, darunter auch kleine und mittlere Unternehmen (KMU), die laut EU-Kommission zu den aktivsten im KI-Sektor zählen. 

Melanie Ludolph

Rechtsanwältin

Melanie Ludolph ist Rechtsanwältin bei Fieldfisher, einer internationalen Wirtschaftskanzlei mit besonderer Expertise im Technologie-, IT- und Datenschutzrecht. Zuvor hat sie mehrere Jahre für ein spezialisiertes Beratungsunternehmen gearbeitet und dort Unternehmen und internationale Konzerne aus unterschiedlichen Branchen zu allen Themen des Datenschutzrechts und angrenzender Rechtsgebiete beraten. Für com! professional stellt Melanie Ludolph jeden Monat aktuelle Themen aus dem IT- und Datenschutzrecht vor.