Laut einer repräsentativen Umfrage des Bitkom verwendet jedes 3. Unternehmen in Deutschland KI (https://www.bitkom.org/Presse/Presseinformation/Durchbruch-Kuenstliche-Intelligenz). Tatsächlich dürften es viel mehr sein, denn auch ohne unternehmensinternes KI-Tool verwenden Beschäftigte ganz selbstverständlich ChatGPT und Co. im Alltag für E-Mails oder Zusammenfassungen von Texten. Wenn die Unternehmensleitung keine Vorgaben macht, wird eben das Large Language Model (LLM) genutzt, das man auch privat verwendet.
So sehr es die Arbeit erleichtern mag: Vor den Fallstricken sollte man nicht die Augen verschließen. Insbesondere das Gesetz zum Schutz von Geschäftsgeheimnissen, Datenschutz- und Urheberrecht, aber auch die europäische KI-Verordnung sind zu beachten. Auch das kritische Hinterfragen der Antworten von KI ist wichtig, um Haftungsrisiken zu vermeiden.
Disclaimer: Dieser Beitrag stellt keine Rechtsberatung dar und erhebt keinen Anspruch auf Vollständigkeit. Auslassungen, Verkürzungen und Vereinfachungen sind beabsichtigt. Für konkrete Fragen wenden Sie sich bitte an einen Rechtsanwalt
1. Geschäftsgeheimnisse
Was ein Geschäftsgeheimnis ist, definiert § 2 GeschGehG:
Eine Information,
- die weder allgemein bekannt noch ohne weiteres zugänglich ist, wodurch sich ihr wirtschaftlicher Wert ergibt (Kundeninformationen, Geschäftspläne, bestimmte technische Dokumentation, etc.)
- die durch angemessene Geheimhaltungsmaßnahmen geschützt wird (Geheimhaltungsvereinbarungen, Passwortschutz, Verschlüsselung, etc), und
- bei der ein berechtigtes Interesse an der Geheimhaltung besteht.
Wer also als Angestellter eine Kundenliste vom passwortgeschützten Server herunter- und in ein Chatfenster mit Gemini hochlädt, um eine Marketingkampagne für eine vergleichbare Zielgruppe zu erarbeiten, verletzt das Geschäftsgeheimnis seines Arbeitgebers.
Es drohen u.a. Unterlassungs- und Beseitigungsansprüche oder eine Abfindung in Geld. Wer vorsätzlich handelt, macht sich u.U. sogar strafbar. Werden Geschäftsgeheimnisse eines anderen Rechteinhabers, etwa eines Geschäftspartners, per Prompt offengelegt, haftet das Unternehmen für die Arbeitnehmer.
Wichtig ist bei all dem aber, dass es sich nur dann um Geschäftsgeheimnisse handelt, wenn es entsprechende Geheimhaltungsmaßnahmen gibt. Unternehmensinterne Informationen fallen also nicht automatisch unter die Definition des Geschäftsgeheimnisses.
2. Haftungsrisiken und negative Auswirkungen auf das Geschäft
Ein Mitarbeiter verwendet die Antwort eines KI-Agenten ungeprüft – was kann schon schiefgehen?
Nach meiner Erfahrung setzen Menschen häufig viel zu viel Vertrauen in KI. Sie sind nicht in der Lage, auf der Eingabeseite einen Prompt richtig zu schreiben und können die Antwort auf der Ausgabeseite nicht bewerten.
Beispiel:
Ein Unternehmen, das Software programmiert und an Kunden vermietet, braucht einen entsprechenden Vertrag. Weil es praktisch ist und schnell geht, nutzt man ChatGPT: „Schreibe mir einen Softwarevertrag.“
Die Ausgabe sieht schlüssig und professionell aus, also wird das Dokument in der Praxis verwendet. Der so generierte Vertrag ist aber natürlich unbrauchbar.
ChatGPT weiß u.a. nicht,
- ob die Software verkauft oder vermietet werden soll,
- ob dem Kunden ein ausschließliches Nutzungsrecht eingeräumt wird oder ein nicht ausschließliches,
- ob die Software auf Server des Kunden läuft oder als Cloud-Lösung zur Verfügung gestellt wird.
Sollte Cloud vereinbart sein, fehlt der zusätzlich abzuschließende Auftragsverarbeitungsvertrag. Es fehlt eine Klausel zum Haftungsausschluss.
Das Unternehmen setzt sich hier enormen Risiken aus. Sollte die Software mangelhaft sein und einen Schaden beim Kunden verursachen, ist der Hersteller in der Haftung.
Mitarbeiter setzen KI auch ein, um sich Informationen zusammenfassen zu lassen. So kann man Geschäftsberichte hochladen und sich für das Reporting an den Vorgesetzten analysieren lassen. Abgesehen davon, dass hierdurch Interna nach außen gegeben werden, ist das Ergebnis der Analyse möglicherweise falsch, ungenau, unvollständig. Man stelle sich vor, der Vorgesetzte trifft operative Entscheidungen auf Grundlage der vom Mitarbeiter bereitgestellten Informationen. Das kann zu schwerwiegenden unternehmerischen Fehlern führen, die finanzielle Einbußen nach sich ziehen.
3. Datenschutz
Oft fehlt es schon am Verständnis daran, was personenbezogene Daten überhaupt sind. Ja, auch Daten, die für einen persönlichen Login verwendet werden, wie berufliche E-Mailadresse und Zeitpunkt der Loginvorgänge gehören dazu.
Personenbezogene Daten sind nach der Definition der DSGVO
„alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person (im Folgenden „betroffene Person“) beziehen; als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann“.
Kurz gesagt: Alle Namen, Telefonnummern, E-Mail-. IP- und andere Adressen, KFZ-Kennzeichen, biometrische Daten, Personalnummern, Kreditkartennummer und IBAN, Geburtstage, Standortdaten, Fotos, usw.
Die Eingabe solcher Daten in einen Prompt stellt eine Verarbeitung personenbezogener Daten dar, für die das Unternehmen verantwortlich ist.
- Jede Verarbeitung, für die es keine Rechtsgrundlage gibt, ist verboten.
Die Rechtsgrundlagen sind in Art. 6 Abs. 1 DSGVO abschließend aufgeführt. Liegt – das wird der Regelfall sein – keine Einwilligung der betroffenen Person vor, wäre nur eine Eingabe der Daten aufgrund des überwiegenden berechtigten Interesses des datenschutzrechtlich Verantwortlichen, hier also des Unternehmens, denkbar. Nutzen Beschäftigte KI in Eigenregie, fehlt es an dieser zu dokumentierenden Abwägungsentscheidung. - Wie alle anderen Eingaben auch, können in den Standardeinstellungen alle personenbezogenen Daten, die in das Chatfenster gängiger LLM eingegeben oder hochgeladen werden, zu Trainingszwecken verwendet werden.
Zwar kann man gewisse Einstellungen vornehmen, um das zu verhindern. Wer sich aber nicht auskennt, bleibt bei den Voreinstellungen. - Es gibt keinen Auftragsverarbeitungsvertrag.
Um die Verarbeitung personenbezogener Daten durch Dritte, hier also die KI-Anbieter, zu ermöglichen, wird ein AVV benötigt. Auch wenn die Beschäftigten dieses Erfordernis kennen sollten – ohne Unternehmensentscheidung kein Vertrag. Damit werden Daten aus der Hand gegeben, ohne dass die rechtmäßige Weiterverarbeitung durch vertragliche Regelungen sichergestellt werden kann.
Regelmäßig wird mit den hohen Bußgeldern gedroht, die wegen Datenschutzrechtsverstößen verhängt werden können. Dass es tatsächlich dazu kommt, ist jedoch nicht der Regelfall. Was aber noch schwerer wiegt: Der Imageschaden. Niemand möchte seine Daten bei einem Geschäftspartner wissen, der die unkontrollierte Nutzung der eigenen personenbezogenen Daten ermöglicht.
4. Urheberrecht
Input
Texte, Bilder und Fotos können urheberrechtlich geschützt sein. Das Urheberrecht schützt vor Vervielfältigung eines schöpferischen Werks. Lädt man einen Vertrag in ein LLM, um sich die Kerndaten herausfiltern zu lassen, kann das eine Vervielfältigung des Vertrags und damit einen Urheberrechtsverstoß darstellen. Auch Prompts können urheberrechtlichen Schutz genießen.
Output
Auch auf der Ausgabenseite ist Vorsicht geboten: Zwar unterliegen grundsätzlich nur menschliche Schöpfungen dem Urheberrecht. Daher sind KI-generierte Inhalte zunächst einmal nicht geschützt. Wer KI-generierte Inhalte weiterverarbeitet, schafft möglicherweise ein neues Werk, das wiederum urheberrechtlichen Schutz genießt. Wenn aber die Antwort Inhalte enthält, die selbst urheberrechtlich geschützt sind, ist eine Veröffentlichung, Bearbeitung und Umgestaltung nur mit Erlaubnis des Rechteinhabers möglich.
Bei Verletzungen können die Urheber u.a. Unterlassung oder Schadensersatz fordern. Sogar eine strafrechtliche Verfolgung ist möglich.
5. KI-VO
Die europäische KI-Verordnung gilt direkt in allen Mitgliedstaaten der Europäischen Union (EU) und legt Kriterien fest, die KI-Systeme erfüllen müssen, um in der EU in den Verkehr gebracht und betrieben werden zu dürfen. Es ist also ein Produktsicherheitsgesetz, wie es sie auch für Aufzüge oder Gasbehälter gibt.
KI-Systeme werden nach dem Risiko unterschieden, das von ihnen ausgeht. Demnach gibt es verbotene KI-Systeme, Hochrisiko-KI-Systeme und KI-Systeme mit geringem Risiko.
Als Unterfall von KI-Systemen werden auch sog. KI-Systeme mit allgemeinem Verwendungszweck (eng. General Purpose Artificial Intelligence, kurz GPAI) reguliert. Das sind insbesondere Chatbots (wie z.B. ChatGPT), die für eine Vielzahl von Aufgaben eingesetzt werden und auch in andere Systeme integriert werden können. Bei GPAI werden nicht nur die Systeme reguliert, sondern auch die KI-Modelle.
Zur Unterscheidung:
KI-Systeme sind ein Produkt, mit dem Nutzer interagieren können. Es benötigt also zumindest eine Schnittstelle zum Nutzer, z.B. ein Chat-Eingabefeld.
Ein KI-Modell dagegen ist der „Kern“ eines KI-Systems, dem diese Schnittstelle und ggfs. weitere Komponenten erst noch hinzugefügt werden müssen.
GPAI-Modelle werden unterteilt in GPAI mit systemischem Risiko und GPAI ohne solches Risiko. Entsprechend der Risikostufe der jeweils eingesetzten KI-Systeme bzw. GPAI-Modelle ergeben sich für Anbieter und Betreiber von KI-Systemen bestimmte Pflichten.
Ein aus Sicht des europäischen Gesetzgebers nicht hinnehmbares Risiko geht z.B. von KI-Systemen aus, die die Entscheidungsfindung durch Einsatz manipulativer Techniken beeinflusst oder Menschen aufgrund ihres Verhaltens in Kategorien einordnet (sog. Social Scoring). Solche Produkte sind verboten und dürfen weder in Verkehr gebracht noch in Betrieb genommen oder verwendet werden.
KI mit hohem Risiko im Sinne der KI-VO liegt vor, wenn sie in ein Produkt eingebaut wird oder selbst ein Produkt ist, das einem Konformitätsverfahren unterliegt, es also gewisse Bedingungen erfüllen muss, um auf dem europäischen Markt zugelassen zu werden.
Beispiele für Produkte bei denen ein solches Konformitätsverfahren Pflicht ist: Spielzeug, Medizinprodukte, KFZ.
Außerdem gilt KI z.B. als hochriskant, wenn sie in der kritischen Infrastruktur eingesetzt wird, im Bereich der allgemeinen oder beruflichen Bildung oder im Personalmanagement. Hier sind insbesondere solche Systeme zu nennen, die etwa eingehende Bewerbungen nach bestimmten Kriterien vorfiltern, sodass Beschäftigte sich nur mit vielversprechenden Kandidaten beschäftigen müssen. Unter bestimmten Umständen sind diese Systeme jedoch ausnahmsweise nicht als Hochrisiko-KI-Systeme einzustufen, wenn das Risiko für Gesundheit, Grundrechte und Grundfreiheiten gering ist. Das ist z.B. dann der Fall, wenn das System lediglich eingesetzt wird, um eine zuvor abgeschlossene menschliche Tätigkeit zu verbessern.
Chatbots sind KI-Systeme mit geringem Risiko. Anbieter und Betreiber haben Transparenzpflichten zu erfüllen: Nutzer müssen erkennen können, dass sie es mit KI zu tun haben. Ist dies nicht offensichtlich, müssen sie entsprechend informiert werden.
Ein minimales Risiko geht von KI aus, die etwa in Spam-Filtern oder Videospielen eingesetzt wird. Die KI-VO sieht keine Pflichten für Anbieter oder Betreiber vor – sie fallen gar nicht in den Regelungsbereich der Verordnung.
Nun zu GPAI.
GPAI-Systeme werden reguliert wie alle anderen KI-Systeme. Entsprechend dem Risiko, das von dem System ausgeht, wird es einer Risikostufe zugeordnet. Die Pflichten für Betreiber und Anbieter ergeben sich aus der jeweiligen Risikostufe.
GPAI-Modelle dagegen werden wiederum unterteilt in solche mit und solche ohne systemisches Risiko. Weil der Gesetzgeber sich nicht auf eine zu enge Definition festlegen wollte, damit in Zukunft entwickelte Modelle auch noch darunterfallen, hat er als Kriterium „Fähigkeiten mit hohem Wirkungsgrad herangezogen. Das wird gemessen an der Anzahl der Rechenoperationen, die das Modell im Verlauf des Trainings durchgeführt hat. Das wird in der Einheit FLOPS dargestellt (kurz für eng. Floating Point Operations per Second, dt. Gleitkommaoperationen pro Sekunde).
Für Modelle, die
- eine Trainingsrechenleistung von mehr als 1023 FLOPS aufweisen und
- für eine Vielzahl von Aufgaben eingesetzt werden können (Ausgabe von Text, Bild, Audio, etc.),
gilt die widerlegbare Vermutung, dass sie KI-Modelle mit systemischem Risiko sind.
Anbieter von GPAI-Modellen ohne systemisches Risiko müssen u.a.
- die technische Dokumentation des Modells erstellen und aktualisieren, die das Trainings- und Testverfahren betrifft;
- Informationen sowie die Dokumentation des Modells erstellen, aktualisieren und Anbietern zur Verfügung stellen, die das Modell in ihre KI-Systeme integrieren möchten;
- eine Zusammenfassung der für das Training des Modells verwendeten Inhalte erstellen.
Handelt es sich um ein GPAI-Modell mit systemischem Risiko, treffen Anbieter zusätzlich u.a. folgende Pflichten:
- Durchführung einer Modellbewertung einschließlich der Dokumentation von Angriffstests, um systemische Risiken zu ermitteln und zu mindern;
- Bewertung und Minderung möglicher systemischer Risiken auf Unionsebene, die sich aus der Entwicklung, dem Inverkehrbringen oder der Verwendung von GPAI mit systemischem Risiko ergeben können;
- Erfassung und Dokumentation einschlägiger Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen.
6. Fazit
Die Nutzung von KI in Unternehmen kann ein enormer Effizienzgewinn sein. Die rechtlichen Risiken sind jedoch nicht zu unterschätzen. Mitarbeiter müssen angeleitet werden. In den Händen von Mitarbeitern, die im Arbeitsalltag ihren privaten ChatGPT-Account nutzen, kann KI eine Gefahr für das Unternehmen und die Mitarbeiter selbst darstellen. Es drohen wirtschaftliche Einbußen und Rechtsverletzungen, die Schadensersatzforderungen, Bußgelder und einiges mehr nach sich ziehen können. Gibt man den Beschäftigten jedoch Orientierung, kann man den Wert von KI tatsächlich für sich nutzen, um seine Ergebnisse zu verbessern. Dazu gehört zunächst eine klare Idee, wofür man KI überhaupt einsetzen möchte, sowie eine klare Kommunikation dazu an die Beschäftigten, und außerdem Schulungen zum produktiven Einsatz mit KI und zu seinen Fallstricken und ein in der Belegschaft verankertes Bewusstsein für den Datenschutz.

