DSD-Blog

Haftung bei KI-Schäden – EU will konkrete Regeln

Beitrag von

27.09.2022

Schäden durch Künstliche Intelligenz sind oft nicht einfach nachweisbar, noch weniger deren Entstehung. KI gilt häufig als Black Box, was die Klärung von Haftungsfragen nicht gerade vereinfacht. Die EU will das jetzt ändern und Opfern von KI zu Einblicken in Daten und Protokolle verhelfen.

Die Funktionsweise und vor allem Entscheidungsfindung von KI soll für Betroffene nachvollziehbar gemacht werden.

Beweislastumkehr in bestimmten Fällen

Ein Unfall durch selbstfahrende Autos, ärztliche Fehldiagnosen basierend auf KI-Assistenz – wer haftet in diesen Fällen? Normalerweise müssen Betroffene, die durch ein Produkt geschädigt werden nachweisen, dass der Schaden durch das Produkt entstanden ist. Das ist bei KI allerdings nicht so einfach bis unmöglich – vor allem ohne entsprechende Einblicke.

Im EU-Parlament wurde daher teils eine komplette Beweislastumkehr gefordert, laut der die Hersteller in jedem Fall beweisen müssten, dass ihre KI einwandfrei funktioniert habe. Die Europäische Kommission unterstützt das Anliegen allerdings nicht in dem Umfang. Sie will bis Mitte der Woche einen Entwurf vorlegen, nach dem die Beweislast nur in bestimmten Fällen umgekehrt werden kann.

Hersteller sollen Informationen offenlegen

Außerdem sollen Anbieter dazu verpflichtet werden zu zeigen, wie ihre KI funktioniert. Dazu gehört auch, Schulungs- und Testdatensätze zur Verfügung zu stellen sowie unter anderem technische Dokumentationen und Informationen zum Qualitätsmanagement. Hierbei müssen allerdings die Geschäftsgeheimnisse gewahrt bleiben.

Legt der Hersteller die entsprechenden Informationen nicht offen, können sie eingeklagt werden. Anderenfalls muss er beweisen, dass der Fehler nicht bei der KI liegt. Verstößt der Anbieter gegen die Sorgfaltspflichten, gilt dies ebenfalls. Zu den Sorgfaltspflichten gehören unter anderem ein angemessenes Risikomanagement und eine menschliche Aufsicht.

Der Vorschlag muss noch vom EU-Parlament und Ministerrat abgesegnet werden, Kritik gibt es allerdings schon jetzt am Umfang der Beweislastumkehr. Generell dürften deutlichere Haftungsregeln das Vertrauen der Nutzer in KI stärken. Die Regularien sollen außerdem einen weltweiten Standard setzen. (tl)