Wer haftet bei Schäden durch den Einsatz von Künstlicher Intelligenz (KI)?

künstliche Intelligenz

Lesedauer: 3 Minuten

Künstliche Intelligenz ist mehr als bloß ein technisches Hilfsmittel. Mit ihr wurde ein Wandel eingeleitet, dem sich nun jedes Unternehmen stellen muss, so wird Martin Heimhilcher, Obmann der Sparte Information und Consulting der WK Wien, in der OTS-Presseaussendung der WK Wien am 20. August1KI: Schlüsselfaktor zum Unternehmenserfolg – Presseaussendung der WK Wien: https://www.ots.at/presseaussendung/OTS_20240820_OTS0016/ki-schluesselfaktor-zum-unternehmenserfolg. zitiert, und die Wirtschaftskammern Kärnten, Steiermark und Burgenland haben aus diesem Grund die Serviceinitiative KI Österreich gegründet, um Betriebe bei der Umsetzung eigener KI-Anwendungen zu begleiten und die Kompetenzentwicklung der Mitarbeiter*innen zu fördern sowie vermehrt entsprechende Veranstaltungen – auch in Wien – zu organisieren. 2Siehe Website KI Österreich. Das Programm für den KI-Kompetenzaufbau.
KI Österreich kooperiert eng mit dem DIH-SÜD sowie dem Fraunhofer Zentrum für Künstliche Intelligenz KI4LIFE in Klagenfurt.

Eine große Herausforderung im Umgang mit KI ist die Haftung für Schäden, die durch KI-Systeme verursacht werden. Zur Zeit wird auf europäischer Ebene eine KI-Haftungsrichtlinie entwickelt, die einen umfassenden Rechtsrahmen für künstliche Intelligenz bedeutet. Das entsprechende Gesetzgebungsverfahren ist allerdings, wie die Noerr Partnerschaftsgesellschaft schreibt3KI-Haftungs­richtlinie: Studie des Europäischen Parlaments zur Haftung für KI., ins Stocken geraten, was sich mit der am 19. September 2024 veröffentlichten Studie des Europäischen Parlaments zur Haftung für KI ändern dürfte:4Noerr zufolge ist das aktuelle Stocken des im September 2022 veröffentlichten Vorschlags der Europäischen Kommission auch dem mangelnden Interesse der ungarischen Ratspräsidentschaft geschuldet, was sich, so wird es erwartet, wahrscheinlich mit der kommenden polnischen Ratspräsidentschaft (Anfang 2025) ändert. Die Studie wurde vom Rechtsausschuss des Europäischen Parlaments in Auftrag gegeben, untersucht die vorgeschlagenen rechtlichen Instrumente und empfiehlt verschiedene Ausweitungen der Haftungsvorschriften.

Der Vorschlag für die KI-Haftungsrichtlinie wurde im September 2022 von der Europäischen Kommission veröffentlicht und soll spezielle Vorschriften für die außervertragliche zivilrechtliche Haftung für Schaden festlegen, die durch künstliche Intelligenz verursacht wurden. Nach diesem Entwurf ist der Betreiber eines KI-Systems nach den hergebrachten verschuldensabhängigen Schadensersatznormen des nationalen Rechts verantwortlich. Die Richtlinie sieht jedoch zwei Erleichterungen für Geschädigte vor:5Zitiert nach https://www.noerr.com/de/insights/ki-haftungsrichtlinie-studie-des-eu-parlaments-zur-haftung-fuer-ki.

  • Die KI-Haftungsrichtlinie sieht eine widerlegliche Kausalitätsvermutung vor, die der Komplexität von KI-Systemen Rechnung trägt. Wenn der Anbieter bei der Entwicklung oder Anwendung der KI gegen eine Sorgfaltspflicht (z.B. nach der KI-Verordnung) verstoßen hat und durch diese KI anschließend ein Schaden eintritt, wird grundsätzlich vermutet, dass die Pflichtverletzung für den Schaden kausal war.
  • Eine Offenlegungspflicht soll dem Phänomen der „Black Box“ bei künstlicher Intelligenz begegnen. Geschädigte können die Herausgabe von Informationen zu dem KI-System verlangen, um potenzielle Ansprüche und Anspruchsgegner zu ermitteln und das KI-System auf Fehler oder Sicherheitslücken zu untersuchen. Um den Offenlegungsanspruch (auch gerichtlich) geltend zu machen, muss ein möglicher Anspruch lediglich plausibel dargelegt werden.

Von der Studie vorgeschlagene Änderungen und Erweiterungen der KI-Haftungsrichtlinie:6Zitiert nach https://www.noerr.com/de/insights/ki-haftungsrichtlinie-studie-des-eu-parlaments-zur-haftung-fuer-ki.

  • Die Studie betont, dass die KI-Haftungsrichtlinie neben der Produkthaftungsrichtlinie notwendig ist und einen eigenen Anwendungsbereich hat, insbesondere für Schäden durch Diskriminierung, bei Verletzung von Persönlichkeits- oder IP-Rechten und bei rein wirtschaftlichen Schäden.
  • Bei den Haftungsregelungen sollte der Gesetzgeber für bestimmte KI-Systeme eine verschuldensunabhängige Haftung in Betracht ziehen.7Diese Option hatte die Europäische Kommission bei ihrem Entwurf 2022 als ineffiziente Lösung verworfen, aber mit Blick auf den Gesetzesentwurf SB 1047 in Kalifornien – dem Heimatmarkt der großen KI-Unternehmen –, der eine (beschränkte) verschuldensunabhängige Haftung der KI-Anbieter vorschlägt, hat dieses Konzept nun, wie Noerr ausführt, erneut politische Aufmerksamkeit erlangt.
  • Die erfassten KI-Systeme sollten laut der Studie präziser und in enger Abstimmung mit der KI-Verordnung definiert werden. Hierzu schlägt die Studie unter anderem vor, neben KI-Systemen auch KI-Modelle mit allgemeinem Verwendungszweck (z.B. GPT-4 von OpenAI) explizit in die KI-Haftungsrichtlinie einzubeziehen.8KI-Modelle waren – vor dem Hintergrund des Aufkommens von ChatGPT – im Trilog in die KI-Verordnung aufgenommen worden und sollten nun auch in der KI-Haftungsrichtlinie ergänzt werden.
  • Um eine echte Harmonisierung der Schadensersatzansprüche trotz der national sehr unterschiedlich gestalteten zivilrechtlichen Haftungsregime zu erreichen, schlägt die Studie vor, die KI-Haftungsrichtlinie als unmittelbar anwendbare europäische Verordnung zu erlassen. Dann wäre keine Umsetzung im nationalen Recht durch die Mitgliedstaaten erforderlich.
  • Zudem wirft die Studie den Gedanken auf, die KI-Haftungsrichtlinie deutlich breiter zu gestalten und zu einem umfassenden Instrument für die Haftung für (jegliche) Software-Fehler zu machen. Die Studie argumentiert, dass moderne Software auch ohne KI eine Komplexität mit sich bringt, der die allgemeine Produkthaftungsrichtlinie nicht gerecht wird. Bei Schäden durch Software können sich insbesondere die gleichen Beweisschwierigkeiten ergeben wie bei Schäden durch KI. Die Anwendung der Offenlegungspflicht und der Kausalitätsvermutung sei daher auch bei normaler Software gerechtfertigt und solle nicht auf KI beschränkt werden.

Anmerkungen/Fußnoten