Regulierung betr. Umgang mit Chat GPT und generativer KI

Guidance für eine betriebliche Policy betr. Nutzung von KI generierten Informationen

 

Ausgangslage und Bedrohungen

Nicht erst seit dem Erfolgskurs von Chat GPT war abzusehen, dass KI aus ethischen und rechtlichen Gründen reguliert werden muss. Wir haben in unserm Praxisleitfaden «Information Governance 2021 darauf hingewiesen, dass die praktische Umsetzung von KI-Tools in Betrieben früher oder später an ethische oder rechtliche Grenzen stösst (S.45). KI-Systeme, die verzerrte Ergebnisse liefern, haben Schlagzeilen gemacht. Ein bekanntes Beispiel ist Apples Kreditkartenalgorithmus, dem vorgeworfen wird, Frauen zu diskriminieren, was eine Untersuchung des New Yorker Finanzministeriums auslöste.

B. Wildhaber hat in seinem Artikel vom 19. Juni 2023 zum Thema Data Poisoning darauf hingewiesen, wie einfach es ist, Daten so zu manipulieren, dass nur die vom Angreifer gewünschten Ergebnisse bzw. Informationen ausgegeben werden.

Es ist klar, dass die rasant fortschreitende Entwicklung insbesondere auf dem Gebiet der generativen KI zwangsläufig juristische Fragen aufwirft und Probleme der Compliance offenlegt. Regelungen zur KI in Gesetze oder Richtlinien zu fassen, ist also ein schwieriges Unterfangen. Erst kürzlich hat an der HSG ein internationaler Wettbewerb stattgefunden, um herauszufinden unter welchen Voraussetzungen und Bedingungen KI-Produkte rechtskonform und praktisch umzusetzen sind bzw. dem jeweiligen nationalen Recht genügen([1]).

Es ist allerdings zu befürchten, dass diese Anstrengungen ins Leere laufen. Auch die bisherigen Versuche der EU, das Thema zu regulieren, scheinen zu scheitern. Wir gehen davon aus, dass solche Regulierungen an der fortschreitenden Technik scheitern werden. Grundsätze auszuformulieren, welche langfristig Bestand haben, dürften schwer zu erreichen sein. Allerdings gibt es dafür auch gute Beispiele: Die asimov’schen Grundsätze der Robotik haben bis heute Bestand:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich[3]) verletzen oder durch Untätigkeit (wissentlich[3]) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

 

Was kann man heute bereits tun?

Was bedeutet dies für die praktische Umsetzung von KI-Tools in Privatwirtschaft und Verwaltung? Welche Basisregeln sollten befolgt werden?

Unser US-Partner «doculabs» hat eine betriebliche Musterpolicy für den Umgang mit generativer KI entworfen und publiziert. Das krm liefert dazu eine Übersetzung in Deutsch.

WARUM braucht es Richtlinien im Umgang mit Chat GPT / Generativer KI?

Eine generative KI-Politik gilt für Unternehmen, die in der heutigen, sich schnell entwickelnden technologischen Landschaft flexibel agieren wollen. Das Aufkommen leistungsfähiger generativer KI-Modelle wie GPT-3.5/4.0 hat das Potenzial für Fehlinformationen, Fake News und irreführende Inhalte deutlich erhöht. Die Implementierung einer generativen KI Richtlinie ermöglicht es Unternehmen, klare Richtlinien und ethische Grenzen für die Nutzung von KI generierten Informationen festzulegen. Diese Richtlinie stellt sicher, dass die generierten Inhalte korrekt und zuverlässig sind und mit den Werten des Unternehmens übereinstimmen, um das Vertrauen von Kunden, Stakeholdern und der breiten Öffentlichkeit zu wahren. Außerdem hilft sie den Unternehmen, potenzielle rechtliche und rufschädigende Risiken zu vermeiden, die mit der Verbreitung von irreführenden oder schädlichen Informationen verbunden sind.

Darüber hinaus hilft eine generative KI-Richtlinie Unternehmen, die Risiken von Voreingenommenheit und Diskriminierung in KI-generierten Inhalten zu adressieren. KI-Modelle können versehentliche Vorurteile abbauen, die in den Trainingsdaten enthalten sind, was zur Erzeugung von Inhalten führt, die Stereotypen aufrechterhalten oder bestimmte Gruppen diskriminieren. Durch die Umsetzung einer soliden Richtlinie können Unternehmen regelmäßig KI-generierte Inhalte überprüfen, überwachen und bewerten, um etwaige Vorurteile zu erkennen und zu korrigieren. Dieser proaktive Ansatz fördert eine faire, integrative und respektvolle Informationsgenerierung und gewährleistet einen ethischen und verantwortungsvollen Nutzung von KI-Technologie.

Zusammenfassend lässt sich sagen, dass eine generative KI-Politik für Unternehmen unerlässlich ist, um die Herausforderungen im Zusammenhang mit KI-generierten Inhalten zu meistern. Eine gut definierte generative KI-Politik hilft Unternehmen, Vertrauen zu bewahren, ethische Standards einzuhalten und sich in der der komplexen Landschaft der KI-gestützten Informationsgenerierung zurecht zu finden.

[1] Vgl. NZZ 5.8.23, S.23, Fachleute aus der ganzen Welt testen in St. Gallen KI-Regeln. An der HSG treffen sich Erfinder von Produkten und Juristen, um die neue Regulierung praktisch anzuwenden

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ähnliche Beiträge

Der Angriff auf die GeBüV – ein Lehrstück in 2 Akten  (Akt 1: Wie man mit eigennutzorientierten Partikularinteressen den Gesetzgebungsapparat zu Lasten der Steuerzahler beschäftigt)

Der Angriff auf die GeBüV – ein Lehrstück in 2 Akten  (Akt 1: Wie man mit eigennutzorientierten Partikularinteressen den Gesetzgebungsapparat zu Lasten der Steuerzahler beschäftigt)

Jede/r von uns hat sich vermutlich schon einmal darüber Gedanken gemacht, welche mehr oder weniger sinnvollen Vorstösse im Parlament eingebracht werden und welche Motivation dahinter steckt. Man ist sicher gewohnt, dass auf lokaler Ebene partikulare Interessen mit...

mehr lesen