Haftungsrisiken für Geschäftsführer und Vorstände bei der Verwendung von KI im Unternehmen
Die künstliche Intelligenz, kurz KI, steckt zwar noch in den Kinderschuhen und deren volles Anwendungspotential wird sich erst in (näherer?) Zukunft entfalten. Dennoch werden Programme wie ChatGPT zunehmend in Unternehmen angewendet.
Derlei Anwendungen sind nützliche Tools, um Präsentation vorzubereiten. Doch es gibt rechtliche Grenzen und Stolpersteine, die Sie vor einer allzu leichtfertigen Verwendung kennen sollten.
Vorsicht ist besser als Nachsicht.
Die rechtlichen Risiken
Nachfolgend geben wir Ihnen einen Überblick über den Rechtsrahmen. Seien Sie als Entscheider gewappnet, denn unsere Rechtsanwälte wissen, dass sich ein Geschäftsführer oder Vorstand bei Fehlentscheidungen nicht mit mangelnder Rechtskenntnis entschuldigen kann.
Compliance Risiko
Die Verwendung von unternehmensexternen KI-Anwendungen birgt ein Compliance Risiko.
Zunächst sollten Sie wissen, dass jeder Geschäftsleiter für die Einrichtung eines wirksamen Compliance-Managements-Systems ("CMS") zu sorgen hat. Dies ist in § 91 AktG geregelt und eben diese Norm findet nicht nur in der Aktiengesellschaft, sondern auch in Unternehmen anderer Rechtsform Anwendung.
Ein Baustein von vielen eines wirksamen CMS ist die Einführung von Richtlinien und Überwachungsstrukturen in risikoträchtigen Bereichen.
Wird die Verwendung von KI im Unternehmen nicht verboten, gar explizit erlaubt, sollte der verantwortliche CEO Richtlinien im Umgang mit KI erlassen.
Schließlich trägt er auch die Verantwortung für den Datenschutz und das Urheberrecht.
Beachte: Die Einführung von KI im Unternehmen kann sogar Mitteilungspflichten gegenüber und u.U. auch ein Mitbestimmungsrecht des Betriebsrats auslösen.
Verschwiegenheitspflichten
Die Einführung von KI-Richtlinien ist aber auch für die Beachtung von Verschwiegenheitspflichten essentiell.
Letztere können aus einem NDAs resultieren und dieser kann verletzt werden, wenn sensible Daten in eine KI-Anwendung eingegeben werden, die nicht unternehmenslokal ist.
Bei anderen Anwendungen drohen nämlich u.U. sog. „prompt-injection-Angriffe“, mit denen die Eingaben durch Dritte sichtbar gemacht werden können. Ein Supergau!
Persönliche Haftung aus § 43 GmbHG/§ 93 AktG
Darüber hinaus muss der CEO auch einen Blick auf sich selbst werfen.
Will er unternehmerische Entscheidungen mittels KI vorbereiten oder von dieser treffen lassen, muss er die Regeln der Business Judgement Rule beachten, falls sich die Entscheidung später als Fehlschlag erweist.
Die Vorgaben der Business Judgement Rule
Allgemein gilt: Hat ein Geschäftsleiter bei einer unternehmerischen Entscheidung kein glückliches Händchen gehabt und ist der Gesellschaft daraus ein Schaden entstanden, kann er sich grundsätzlich nur entlasten, wenn er nachweist, dass er
- zum Wohle des Unternehmens
- unbeeinflusst von Sonderinteressen
- auf Basis angemessener Informationen
- eine vertretbare Entscheidung getroffen hat.
Wir, die Rechtsanwälte und Steuerberater von CORTA empfehlen Ihnen bei der Verwendung von KI, mittels derer Sie ihre Entscheidungen vorbereiten oder gar von dieser treffen lassen wollen, Folgendes.
Prüfen Sie, ob die KI-Anwendung für die zu treffende Entscheidung überhaupt geeignet ist,
Führen Sie Testläufe durch.
Prüfen Sie, wie alt die Daten sind, mit denen die KI arbeitet.
Vor allem: Checken Sie die Plausibilität der ausgeworfenen Ergebnisse.
Je höher die Investitions- oder potentielle Schadenssumme ist, desto strenger sind die Kontrollen, die von Ihnen erwartet werden können.
Künstliche Intelligenz kann nützlich, aber ebenso gefährlich sein. Sie ersetzt den Menschen und Entscheider nicht. In der Verantwortung wird letztlich immer der Geschäftsführer oder Vorstand stehen.
Haben Sie weitere Detailfragen? Dann zögern Sie nicht, uns zu kontaktieren, wir helfen Ihnen gern weiter.