Startseite > Themen > Marken managen > Die Nutzung von künstlicher Intelligenz aus rechtlicher Sicht

31.08.2023

header banner

Die Nutzung von künstlicher Intelligenz aus rechtlicher Sicht

Was müssen Unternehmen aus rechtlicher Sicht bei der Nutzung von künstlicher Intelligenz im Alltag beachten? Diese Woche bekommen wir einen tiefen Einblick in das Thema KI-Nutzung & Recht. Wir haben im ESB Netzwerk nachgefragt und zu unseren Fragen sehr interessante Antworten aus juristischer Sicht bekommen.

Künstliche Intelligenz und Urheberrecht

Schutzobjekt des Urheberrechts ist die persönliche geistige Schöpfung. Obwohl es zwei unter­schiedliche Urheberrechtssysteme weltweit gibt (das anglo-amerikanische Copyright und das Urheber­rechts­system mitteleuropäischer Prägung) ist der Ausgangspunkt der urheberrechtlichen Betrachtung und das eigentliche Schutzobjekt das gleiche: Es geht um den Schutz eines Werkes, das im Rahmen eines kreativen Schöpfungsaktes entstanden ist. Solche Werke können ganz unterschiedlicher Natur sein. Galt das Urheberrecht seinem Ursprung nach für Werke das Musik, Literatur und bildender Kunst, hat es in den letzten 30 Jahren auch andere Bereiche, wie Software, Datenbanken oder ähnliche eher technische Kreationen erfasst. Trotz dieser vollkommen unterschiedlichen Schutzgegenstände gibt es jedoch einen entscheidenden Grundsatz: Der Schutz des Urheberrechts kann sich nur auf die Leistung eines Menschen oder mehrerer Menschen beziehen. Es muss sich bei dem Werk um eine persönliche Schöpfung handeln. Werke hingegen, die von einem Computer oder einer Software erzeugt werden (computergenerated works) genießen grundsätzlich keinen Urheberrechtsschutz.

Prof. Dr. Ulf Vormbrock

Grundsätzlich heißt bei Juristen immer, dass es Ausnahmen hiervon gibt oder diese zumindest denkbar sind. Anknüpfungspunkt für den Urheberrechtsschutz ist eine menschliche kreative Schöpfungs­leis­tung. Weist eine Person nach, dass die von einem Computer geschaffene Leistung aus­schließ­lich auf seinen Anweisungen beruht, die Leistung also nur auf seinem kreativen In-put basiert, liegt eine persönliche und damit urheberrechtlich geschützte Leistung vor. In diesem Fall spricht man von der geistigen Urheberschaft, die unabhängig von der eigentlichen Werkentstehung maßgeblich ist. Auf den ersten Blick mag dieses Ergebnis überraschend sein, zu beachten ist aber, dass das Gesetz die kreativ-schöpferische Tätigkeit eines Menschen für schützenswert erachtet und nicht das Instrument oder das Werkzeug, das zur endgültigen Schaffung des Werkes führt. Das jedoch bei ChatGPT bloß in Auftrag gegebene Referat genießt keinen Urheberrechtsschutz als Schriftwerk.

Allerdings ergibt sich bei einem solchen Referat eine ganz andere Problematik, die immer mehr in Vordergrund rückt und deretwegen bereits auch Urheberrechtsklagen bei US-amerikanischen Gerich­ten anhängig sind: Damit eine Software in der Lage ist, ein Referat zu erstellen, muss es mit umfang­reich­en Informationen gefüttert werden. Diese Informationen holt sich die Software insbesondere aus dem Internet, in­dem sie sämtliche bereits veröffentlichte Referate und Aufsätze etc. zu dem beauftragten Thema liest und diese im Rahmen eines computergestützten Verfahrens verarbeitet. Problematisch ist nun, dass die verwendeten Texte in der Regel urheberrechtlich geschützt sind und durch die Veröffentlichung im Internet diesen Schutz auch nicht verlieren. Diese nicht erlaubte Übernahme von fremden Texten hat daher bereits US-amerikanische Autoren dazu veranlasst, gegen die Betreiber von Unternehmen, die Künstliche Intelligenz vermarkten, Klagen wegen Urheberrechtsverstößen einzureichen. Es bleibt abzuwarten, wie Gerichte diese Fälle beurteilen; sie sind vermutlich nur ein Vorgeschmack auf das, was der Einsatz von künstlicher Intelligenz in den nächsten Jahren an Fragestellungen hervorbringt.

Prof. Dr. Ulf Vormbrock, Rechtsanwalt, Fachanwalt für gewerblichen Rechtsschutz, Quantum Law


 

Haftungsfragen bei KI-gestützten Marketingentscheidungen – wie können Unternehmen sich wappnen?

Zunehmend kann eine aufgrund von KI-gestützten Systemen getroffene Entscheidung signifikanten Einfluss auf das Leben der Menschen haben. Nehmen wir an, ein autonom fahrendes Auto erkennt einen Fahrradfahrer nicht und bremst nicht oder ein auf eine KI gestütztes Waschprogramm einer Waschmaschine erkennt nicht das richtige Stoffgewebe und wäscht mit einer falschen Temperatur. In beiden Fällen werden Rechtsgüter verletzt und es entstehen Schäden. Aber wer ist verantwortlich? Wer haftet für die entstandenen Schäden? Der Fahrzeughalter, der Waschmaschinenhersteller? Der Programmierer oder der Nutzer? Oder kann gar eine KI haften? Letzteres gibt das deutsche Deliktsrecht jedoch derzeit noch nicht her. Denn nur wem das Gesetz eine Rechtspersönlichkeit zuerkennt, kann nach deutschem Recht haftbar gemacht werden. Da eine solche Rechtspersönlichkeit Robotern und Maschinen zumindest noch nicht zugesprochen wird, muss bei der Haftungsfrage auf die dahinterstehenden Menschen abgestellt werden.

Es liegt nahe, die Hersteller der KI-Systeme bei einem Fehlverhalten zur Verantwortung zu ziehen, denn sie sind es, die über das Programmieren und Trainieren die Entscheidungsfindung vorgeben und so die Basis für das (fehlerhafte) Produkt legen. Die sog. Produkthaftung ist gekennzeichnet durch das Prinzip der sog. Gefährdungshaftung, bei der es egal ist, ob der Schädiger die Rechtsgutsverletzung zu verschulden hat. Entscheidend für die Haftung ist jedoch, dass der Geschädigte die Kausalität zwischen Produkt als Gefahrenquelle und dem entstandenen Schaden erkennen muss. Da die Maschinen selbständig dazulernen, sind die Entscheidungsfindungsprozesse einer KI - erst recht für Laien - kaum nachvollziehbar. Der notwendige Kausalitätsnachweis wird somit nicht erbracht werden können, sodass die Herstellerhaftung idR nicht greift.

Barbara Schmitz

Möglich wäre ein allgemeiner Schadenersatzanspruch nach § 823 BGB, der jeden treffen kann, der ein Rechtsgut wie Leben, Gesundheit oder Eigentum verletzt. Anders als bei der Produkthaftung handelt es sich hier um eine Verschuldenshaftung, d.h. der Produzent muss nachweisen, dass gerade kein fehlerhaftes Produkt vorsätzlich oder fahrlässig erstellt und in den Verkehr gebracht wurde. Der Nachweis der Verantwortlichkeit gestaltet sich schon bei „normalen“ Produkthaftungsfällen als schwierig. Bei KI-gestützten Produkten, mit einer Blackbox bei der Entscheidungsfindung, ist eine klare Darstellung der Verantwortlichkeit der am Produktentwicklungsprozess Beteiligten - wie dargestellt - nochmal schwieriger.

Tobias Baader

Um diesen Schwierigkeiten zu begegnen, hat die Europäische Union verschiedene Gesetzesvorhaben auf den Weg gebracht. Darunter den „Vorschlag für eine Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz“ (sog. AI Act), den Richtlinienentwurf zur KI-Haftung (sog. AI Liability Directive) sowie eine Überarbeitung der Produkthaftungsrichtlinie. Die Richtlinie zur KI-Haftung soll die „Kausalitätsvermutung“ stärken und Geschädigten den Zugang zu einschlägigen Beweismitteln erleichtern. Diese könnten 2023 in Kraft treten. Deutschland erhält eine Frist von 24 Monaten, um die Richtlinie in nationales Recht umzusetzen.

Wenn Unternehmen KI in ihren Unternehmensprozessen bzw.  im Marketing einsetzen wollen, sollten folgende Gesichtspunkte berücksichtigt werden:

Datenschutz

Prüfen, welcher Anbieter zum Einsatz kommen soll und welche Daten und Informationen für die KI-Systeme genutzt werden dürfen. Grundsätzlich sollte auf die Verarbeitung von personenbezogenen und auch anderen sensiblen oder vertraulichen Daten verzichtet werden.

Hinweis: Da es sich bei KI-Anwendungen um neue Technologien handelt, muss eine Datenschutz- Folgenabschätzung durchgeführt werden.

Urheberrecht

Prüfen, ob die eingegebenen Daten und Informationen urheberechtlichem Schutz unterliegen. Nur so kann sichergestellt werden, dass der KI-gestützte Output nicht strafbar ist.

Transparenz

Den Einsatz von KI-Modellen transparent machen, einschließlich der Information, in welchen Abläufen sie zum Einsatz kommen. Zum Beispiel in den Datenschutzerklärungen für Kunden und Mitarbeitern und in Unternehmensinformationen.

Risikomanagement

Identifizierung von technischen, rechtlichen und ethnischen Risiken sowie Risiken durch Fehlinterpretationen und deren Steuerung durch passende Sicherungsmaßnahmen.

Menschliche Überprüfung

Prozess erstellen, der gewährleistet, dass KI-generierte Ergebnisse oder Produkte von einem Menschen überprüft und ggfls. geändert werden können.

Schulungen

Regelmäßig Beschäftigte sensibilisieren und im Umgang mit KI-Anwendungen schulen. Interne Vorgaben zum Umgang mit KI sollten in Leitfäden an die Beschäftigten kommuniziert werden, um ebenfalls einem internen Organisationsverschulden entgegenwirken zu können.

Der Einsatz von KI bietet Unternehmen Chancen, erfordert aber gleichzeitig eine besondere Aufmerksamkeit. Die Vorteile der KI können genutzt und die Risiken minimiert werden, wenn strategisch gedacht und sorgfältig geplant wird.

Barbara Schmitz, Rechtsanwältin, BAY GmbH Wirtschaftsprüfungsgesellschaft Rechtsanwaltsgesellschaft
Tobias Baader, Datenschutz- und Informationssicherheit-Consultant | ITSiBe / CISO, BAY GmbH Wirtschaftsprüfungsgesellschaft Rechtsanwaltsgesellschaft


 

Der KI-Boom ist allgegenwärtig und dennoch gibt es (gefühlt) keine klaren rechtlichen Rahmenbedingungen für die Nutzung am Arbeitsplatz. Dürfen Angestellte KI-Instrumente zur Erledigung der eigenen Arbeit einsetzen, ohne den Arbeitgeber zu fragen?

Die typisch juristische Antwort lautet "es kommt drauf an". Angestellte haben gegenüber ihrem Arbeitgeber eine Sorgfalts- und Treuepflicht. Das bedeutet, dass Angestellten vor dem Einsatz von KI-Angestellte überlegen müssen, ob dies mit ihrer Sorgfalts- und Treuepflicht vereinbar ist. Gerade bei kostenlosen KI-Instrumenten stellt sich die Frage, was für Daten man in das KI-Instrument einspeisen muss, um es nutzen zu können. Bei kostenlosen Angeboten zahlt man häufig mit Daten. Bei dem Übersetzungstool DeepL beispielsweise bleiben bei der Gratisversion die Daten, die man eingibt in der DeepL-Datenbank gespeichert und werden zum Trainieren der KI genutzt. Bei der kostenpflichtigen Version werden die Daten nach dem Übersetzungsvorgang wieder gelöscht. Oder ein anderes Beispiel: mit ChatGPT lassen sich Dokumente zusammenfassen. Wenn ich diese Funktion nutzen will, muss ich mir als Angestellte überlegen, ob nicht eine vertragliche Geheimhaltungspflicht oder der Schutz von Geschäftsgeheimnissen einer Nutzung entgegen steht. Unternehmen tun sich deshalb gut daran, die Nutzung solcher KI-Instrumente in einer arbeitsrechtlichen Weisung zu thematisieren und den Umgang damit verbindlich zu regeln.

Claudia Keller

Anfragen unter: c.keller@wengervieli.ch und m.wiki@wengervieli.ch

Claudia Keller, Rechtsanwältin & Partnerin, Wenger Vieli AG
Michelle Wiki, Rechtsanwältin, Wenger Vieli AG

Michelle Wiki

 

KI-gestützte Analysewerkzeuge ermöglichen es Unternehmen, Kundenverhalten und -präferenzen besser zu verstehen. Welche rechtlichen Überlegungen sind bei der Verwendung solcher Tools zu beachten, um sicherzustellen, dass keine unerlaubte Überwachung oder Diskriminierung stattfindet?

Der Einsatz von KI-Werkzeugen im Marketing ruft vor allem datenschutzrechtliche Fragen auf den Plan. Jede Verarbeitung personenbezogener Daten zu einem bestimmten Zweck bedarf nach der Datenschutzgrundverordnung (DSGVO) einer besonderen Rechtfertigung. Werden für die Analyse von Kundenverhalten - etwa zur Verbesserung von Conversion-Rates - Nutzerprofile gebildet, ist das datenschutzrechtlich relevant. Alle Daten, die einer natürlichen Person zugeordnet sind, haben Personenbezug und dürfen daher nur verarbeitet werden, wenn das Gesetz das zulässt oder eine Einwilligung eingeholt wurde.

Läuft jetzt über alle erhobenen Daten noch ein KI-Tool, ist das datenschutzrechtlich in besonderer Weise relevant: Insbesondere die Datenschutzaufsichtsbehörden sehen kritisch, wenn Kundendaten von einer Black Box verarbeitet und nur schwer nachvollziehbare Ergebnisse ausgeworfen werden. Erste Bußgelder sind hier schon ergangen.

Martin Schirmbacher

Wenn möglich sollten KI-Tools daher nur mit anonymen Daten gefüttert werden. Das bedeutet, dass der Datenpool nur mit Daten gefüttert werden darf, die nicht mehr einer natürlichen Person zugeordnet werden können. Die Anforderungen für eine Anonymisierung gerade im eigenen Unternehmen sind hoch. Die Ergebnisse nicht so präzise, als würde mit personenbezogenen Daten gearbeitet.

Werden deshalb Echtdaten verarbeitet, braucht es eine Rechtfertigung. Grundsätzlich lässt sich jede Datenverarbeitung mit einer freiwilligen transparenten Einwilligung der betroffenen Nutzer oder Kunden rechtfertigen. Dies setzt aber voraus, dass die Betroffenen vor der Datenverarbeitung gefragt werden und eben ein Opt-in auch erteilen.

Unternehmen, die die schlechte Conversion der Einwilligungsabfrage vermeiden wollen, bleibt, auf so genannte berechtigte Interessen zu setzen. Das setzt aber eine konkrete Prüfung jedes einzelnen Use Cases voraus. Dabei müssen die Interessen von Unternehmen und Betroffenen miteinander abgewogen werden. Wie diese Abwägung ausgeht, hängt von den verarbeiteten Daten und den konkreten Zwecken der Datenanalyse ab.

Martin Schirmbacher, Rechtsanwalt & Fachanwalt für IT-Recht, Härting Rechtsanwälte


 

Die Nutzung von KI kann dazu führen, dass automatisierte Chatbots und virtuelle Assistenten im Marketing eingesetzt werden. Welche rechtlichen Risiken müssen Unternehmen beim Einsatz solcher Tools beachten?

Sogenannte Large Language Models (LLM), auf welchen Angebote wie z.B. ChatGPT basieren, schaffen neue Möglichkeiten in der Kundenkommunikation. Allerdings stellen sich in diesem Zusammenhang auch diverse rechtliche Fragen für Unternehmen, die auf solche Angebote setzen wollen:

1. Mit welchen Informationen darf der Chatbot gefüttert werden?

Angebote, die auf LLM basierend, bringen insbesondere dann überzeugende Ergebnisse hervor, wenn sie auf eine umfassende Datenbasis zurückgreifen können. Wenn ein Chatbot auf Ihr Unternehmen zugeschnittene Antworten liefern soll, so muss diese Datenbasis auch vom Unternehmen selber bereitgestellt werden. Aber Vorsicht: Vielfach bedingen sich die Anbieter von Chatbots das Recht aus, die hochgeladenen Informationen/Dokumente für das weitere Training des Chatbots zu verwenden. Mit anderen Worten: Ihre allenfalls vertraulichen Informationen (z.B. Kalkulationsgrundlagen) werden weiterverwendet und Ihrer Kontrolle vollständig entzogen.

Das Hochladen von Dokumenten bzw. Informationen kann aber nicht nur die Interessen Ihres eigenen Unternehmens beeinträchtigen. Es kann auch sein, dass Dritte legitime Gründe haben, das Hochladen unterbinden zu wollen, z.B. weil diesen die Urheberrechte am verwendeten Werk zustehen oder weil sich Ihr Unternehmen vertraglich verpflichtet hat, die Inhalte vertraulich zu behandeln. Solche Vertraulichkeitsverpflichtungen sind oft in Verträgen festgehalten.

Empfehlung: Prüfen Sie einerseits, welche Rechte Sie an den Anbieter des Chatbots abgeben, wenn Sie eigene Informationen zur Anreicherung eines Chatbots verwenden und andererseits, ob Sie überhaupt ermächtigt sind, diese Informationen an den Anbieter des Chatbots weiterzugeben.

Moritz Jäggy

2. Muss der Nutzer oder die Nutzerin wissen, mit wem (oder besser: was) er/sie chattet?

Unter Schweizer Recht gibt es aktuell noch keine allgemeine Verpflichtung offenzulegen, wenn eine Nutzerin mit einem Chatbot kommuniziert (in der EU sind solche Vorschriften bereits auf der Zielgeraden; sog. KI-Verordnung). Allerdings untersagt das Bundesgesetz gegen den unlauteren Wettbewerb (UWG) in allgemeiner Weise täuschendes oder in anderer Weise gegen den Grundsatz von Treu und Glauben verstossendes Verhalten. Wenn nun einem Nutzer vorgegaukelt wird, dass ein 24/7 erreichbares Kundensupportcenter zur Verfügung steht, dann kann durchaus auch ein Verstoss gegen das UWG riskiert werden. Soweit durch den Chatbot Personendaten bearbeitet werden, ist eine Deklaration auch aus datenschutzrechtlichen Überlegungen geboten (sog. Transparenzgebot).

Empfehlung: Auch wenn es in der Schweiz keine allgemeine Verpflichtung gibt, KI-Chatbots als solche zu kennzeichnen, empfehlen wir Ihnen, die Nutzerinnen und Nutzer aktiv darüber zu informieren, dass sie nicht mit einem effektiven, menschlichen Vertreter des Unternehmens kommunizieren. Dazu gleich mehr.

Elias Mühlemann

3. Ist das Unternehmen an die Aussagen des Chatbots gebunden?

Potentiell ja. Verträge können in der Schweiz im Grundsatz formlos abgeschlossen werden. Auch ein ????-Emoji kann einen Vertrag besiegeln. Wenn nun ein Chatbot auf die Frage einer Kundin "wird mir der Kaufpreis zurückerstattet?" mit "Ja" antwortet, dann muss sich das Unternehmen diese Antwort zunächst anrechnen lassen. Die Verwendung von Chatbots kann in diesem Kontext also risikoreich sein, denn dieser kann nicht wirklich zwischen wahr und falsch unterscheiden, sondern zeigt einfach jenes Wort als nächstes an, das im gesetzten Kontext am wahrscheinlichsten auf das vorangehende Wort folgt.

Empfehlung: Zeigen Sie den Nutzerinnen und Nutzern vor der Verwendung eines Chatbots an, dass sie mit einem Chatbot interagieren und schränken Sie klar ein, für welche Zwecke der Chatbot genutzt werden kann und für welche gerade nicht.

Balthasar Müller

4. Darf der Chatbot selber entscheiden?

Grundsätzlich ja. Chatbots dürfen also z.B. automatisiert Kundenanfragen ablehnen oder auch annehmen (siehe oben). Wird dem Chatbot aber ein eigenes Ermessen eingeräumt und ist das Ergebnis für die betroffene Person mit einer Rechtsfolge verbunden (z.B. wird eine Rückerstattung aus Kulanz gewährt oder nicht) oder führt es sonst zu einer erheblichen Beeinträchtigung der betroffenen Person (z.B. Nichtberücksichtigung einer Bewerbung), so muss diese darüber informiert werden, dass ein sog. "automatisierter Einzelentscheid" erfolgt. In solchen Fällen hat die betroffene Person Anspruch auf ein "menschliches Gehör", also die Möglichkeit, dass der automatisierte Entscheid von einer natürlichen Person überprüft wird.

Empfehlung: Wenn Ermessensentscheide an Chatbots delegiert werden, ist insbesondere zu prüfen, ob ein Recht auf "menschliches Gehör" gewährt werden sollte.

Moritz Jäggy, Partner, VISCHER AG
Elias Mühlemann, Rechtsanwalt, VISCHER AG
Dr. Balthasar Müller, Advokat, VISCHER AG


 

Weitere Interessen:

WEITERE ARTIKEL

Datennutzung der Zukunft - Der Weg von Daten zu Mehrwerten

Im Expertview erklären uns Anna Rüde und Michael Völske von Artefact, wie Künstliche Intelligenz die Datennutzung…

15.08.2023 mehr lesen

KI-Inhalte im Gaming: So steht es um das Urheberrecht

Mithilfe von KI können Dialoge, Quests und Item-Beschreibungen geschrieben werden. Zudem können Kunst-Assets,…

15.08.2023 mehr lesen

Content Marketing durch KI

Die Integration von Künstlicher Intelligenz (KI) hat das Content Marketing in den Fokus gerückt, da Unternehmen vermehrt…

02.08.2023 mehr lesen

book2 Themen
news News
group-work Netzwerk
mic2 Events
graduation-hat Academy