Brauchen wir einen Corporate AI Codex?
Mit dem Einsatz von künstlicher Intelligenz stellen sich viele Fragen zu Ethik, Transparenz und Kontrolle der Tools. Regulatorische Vorgaben stehen noch aus. Unternehmen tun aber gut daran, rechtzeitig Leitplanken für den Einsatz von KI zu ziehen.
Inhaltsverzeichnis
- Braucht mein Unternehmen einen Corporate AI Codex?
- Leitplanken für eine Corporate Digital Responsibility
- Verantwortlichkeit über einen Corporate AI Codex?
- 1. Erklärung zu der Herkunft der Daten
- 2. Erklärung zu den verwendeten KI-Algorithmen
- 3. Erklärung zu der Neutralität der KI-Ergebnisse
- 4. Erklärung zur Kennzeichnung von KI-Ergebnissen
- 5. Erklärung zur Sicherstellung von Revisions- und Widerspruchsrechten
- Corporate AI Codex als Kür und nicht als Pflicht
Kennen Sie das Projekt CDREUROPE? Das ist ein gefördertes Projekt der Europäischen Union für die Entwicklung eines Leitfadens zur Corporate Digital Responsibility (CDR), einem Berichtswesen von Unternehmen für den verantwortungsvollen Umgang mit der Digitalisierung. Ziel ist es, dass die Unternehmen (zunächst freiwillig oder später im Rahmen einer EU-Vorschrift) erklären, wie sie die digitalen Technologien und die zugehörigen Daten in einer Art und Weise nutzen, die sozial, wirtschaftlich, technologisch und ökologisch verantwortlich ist. Im Zeitalter der künstlichen Intelligenz wird diese Verantwortung nur umso größer, da immer mehr interne und externe Daten von einer KI in den Unternehmen verarbeitet werden. Es wird also Zeit, sich als Geschäftsführer oder Vorstand damit zu befassen und schon jetzt über einen eigenen Corporate AI Codex nachzudenken.
Braucht mein Unternehmen einen Corporate AI Codex?
Oh nein – nicht schon wieder irgendwelche Vorschriften und Verpflichtungen für das Berichtswesen von Unternehmen. So wird mancher Verantwortliche in den Führungsetagen jetzt denken und auf die ohnehin schon zahlreichen Regelungen gerade für börsennotierte Konzerne verweisen wie u. a. der Corporate Governance Kodex, die EU-Transparenzrichtlinien und das anstehende Corporate Sustainability Reporting (CSR). Und jetzt auch noch einen Bericht zur Corporate Digital Responsibility (CDR)? Muss das sein? Viele werden das Verneinen, doch man kann die Uhr danach stellen, wann die EU die Vorschriften zum Digital Markets Act, Digital Services Act und nun auch noch dem AI Act in die Berichtswesen der europäischen Unternehmen im Sinne einer transparenten Überprüfung bzw. Selbstverpflichtung verankern möchte.
Leitplanken für eine Corporate Digital Responsibility
Erste börsennotierte Unternehmen in Deutschland wie Telekom und Zalando haben laut dem Dax Digital Monitor 2023 schon vorausschauend reagiert und freiwillig einen CDR-Bericht eingeführt. Porsche plant die Einführung eines solchen Berichts und andere werden sicherlich folgen. Das EU-Projekt CDREUROPE scheint gerade die dafür gewünschten Leitplanken seitens des europäischen Gesetzgebers vorzubereiten. Auf der zugehörigen Website ist zu lesen, dass die Corporate Digital Responsibility (CDR) „eine Reihe von Praktiken und Verhaltensweisen vorgeben soll, die einem Unternehmen dabei helfen wird, Daten und digitale Technologien in einer Weise zu nutzen, die sozial, wirtschaftlich, technologisch und ökologisch verantwortlich ist“.
Nun hat CDREUROPE aber selbst schon erkannt, dass das zwar „in der Theorie selbstverständlich klingt, aber in der Praxis – insbesondere für die KMUs – nicht so einfach zu erreichen ist“. Und jetzt kommen auch noch die Auswirkungen der Technologien rund um die künstliche Intelligenz hinzu und werden diese Corporate Digital Responsibility (CDR) nochmals wesentlich verkomplizieren und massiv beeinflussen. Und damit stellt sich die Frage, wie die Auswirkungen einer Datenverarbeitung durch eine KI im und außerhalb des Unternehmens hier eine Berücksichtigung finden könnten. Wie kann die Verantwortlichkeit für eine KI-Anwendung aussehen? Wird diese Verantwortlichkeit und der Umgang mit einer KI ein Teil der CDR sein? Oder brauchen wir und die Unternehmen vielleicht schon jetzt einen eigenen Corporate AI Codex?
Verantwortlichkeit über einen Corporate AI Codex?
Die Chancen, die KI bietet – von der Optimierung betrieblicher Abläufe bis hin zur Transformation ganzer Geschäftsmodelle –, sind ohne Zweifel enorm. Gleichzeitig gibt es aber auch wachsende Bedenken hinsichtlich der Transparenz, Ethik und Kontrolle von KI-Anwendungen. Um das Vertrauen in KI zu stärken und gleichzeitig Innovationen zu fördern, ist es für Unternehmen schon jetzt an der Zeit, die Leitplanken im Umgang mit künstlicher Intelligenz für sich und ihre Kunden festzulegen. Ein Corporate AI Codex – eigenständig oder als Teil einer CDR – könnte dabei helfen und sollte auf folgenden Grundlagen aufbauen:
1. Erklärung zu der Herkunft der Daten
Eine KI verarbeitet Daten, und zwar am besten eine sehr große Menge davon. Die Ergebnisse aus dieser Verarbeitung über die Algorithmen bestimmen also im Kern die resultierenden Ergebnisse der KI-Anwendung. Entsprechend wichtig ist in einem ersten Schritt die Frage nach der Transparenz bezüglich der Herkunft dieser Daten. In einem Corporate AI Codex sollte daher die Herkunft bzw. Datenquelle als zentrale Anforderung kommuniziert werden. Unternehmen müssen daher in der Lage sein, genau zu dokumentieren, woher die Daten stammen, die für das Training ihrer KI-Modelle bzw. die anschließende Verwendung in KI-Anwendungen eingesetzt werden. Dies ist nicht nur eine Frage der Transparenz, sondern auch der eigenen Datensouveränität für die Unternehmen. Die Offenlegung der Datenquelle könnte zukünftig auch zum Prüfstein für Aktionäre, Investoren und Stakeholder werden, um zu kontrollieren, ob die Daten legal und ethisch korrekt beschafft wurden.
2. Erklärung zu den verwendeten KI-Algorithmen
Eines der größten Probleme bei vielen KI-Anwendungen ist die sogenannte „Blackbox“: Der Entscheidungsprozess ist oft nicht nachvollziehbar, selbst für die Unternehmen, die sie verwenden. Über einen Corporate AI Codex sollte daher kommuniziert werden, welche grundlegenden Funktionsweisen die verwendeten KI-Algorithmen benutzen. Dies umfasst nicht (!) die detaillierte Veröffentlichung der Codes der verwendeten KI-Algorithmen, die ja vielleicht auch wettbewerbsrelevant sein könnten. Es geht vielmehr um die Darlegung der grundlegenden Berechnungsmethoden und Annahmen, auf denen die KI-Algorithmen beruhen. Für Unternehmen könnte dies in Zukunft wichtig sein, um gegenüber der Öffentlichkeit sicherzustellen, dass die eigenen KI-Berechnungen nachvollziehbar und überprüfbar sind.
3. Erklärung zu der Neutralität der KI-Ergebnisse
Die Ergebnisse aus der Berechnung einer KI werden in Zukunft wesentlichen Einfluss auf interne und externe Entscheidungen der Unternehmen haben. Deswegen müssen diese Ergebnisse nicht nur nachvollziehbar, sondern im Ergebnis auch neutral und damit sprichwörtlich „fair“ sein. Diese Neutralität wird eine wesentliche Voraussetzung für die Akzeptanz gegenüber einem Unternehmen sein, welches KI-Technologien einsetzen wird. In einem Corporate AI Codex sollten Unternehmen diese Ergebnisneutralität entsprechend festschreiben bzw. zusichern, um eine Diskriminierung auf der Grundlage z. B. von Geschlecht, Herkunft, Religion oder anderen persönlichen Merkmalen auszuschließen. Dies wäre für die Unternehmen nicht nur ein ethischer Imperativ, sondern auch ein kommunizierbarer Vorteil im Wettbewerb um das Vertrauen der Verbraucherinnen und Investoren.
4. Erklärung zur Kennzeichnung von KI-Ergebnissen
Schon heute wird es für die Öffentlichkeit und damit auch für die Verbraucher immer schwieriger, den Einsatz von KI zu erkennen. Es sollte im Hinblick auf die Akzeptanz von KI-Anwendungen aber erkennbar sein, ob es sich bei dem verwendeten oder resultierenden Content um KI-generierte Ergebnisse handelt. Verbraucher und Unternehmen müssen/sollten wissen, wann sie es mit einer Maschine zu tun haben und wann mit einem Menschen (ohne dies inhaltlich zu bewerten). In einem Corporate AI Codex sollte daher erklärt werden, dass man die von einer KI generierten Ergebnisse kennzeichnet und wie eine solche Kennzeichnung aussieht (z. B. über Label „KI-Inside“).
5. Erklärung zur Sicherstellung von Revisions- und Widerspruchsrechten
Es gibt bzw. es wird in Zukunft nicht wenige Menschen geben, die sich einer KI-Berechnung „unterwerfen“ wollen. Um dieser drohenden „Maschine-über-Mensch-Aversion“ zu begegnen, könnten die Unternehmen im Rahmen eines Corporate AI Codex aktiv erklären, dass sie ihren Mitarbeitenden, Kunden bzw. Nutzerinnen ihrer KI-Technologien das Recht einräumen, die durch eine KI getroffenen Entscheidungen anzufechten oder überprüfen zu lassen. Dies würde jedoch auch bedeuten, dass die Unternehmen nicht nur in die KI-Technologie investieren dürfen, sondern auch in den Aufbau interner Revisionsabteilungen für KI-getriebene Entscheidungen, um jederzeit nachweisen zu können, dass auch ein Mensch zum gleichen Ergebnis gekommen wäre (inkl. z. B. eventueller Kulanzregeln).
Corporate AI Codex als Kür und nicht als Pflicht
Die Offenlegung von Datenquellen und der Berechnungsgrundlagen von Algorithmen, die Sicherstellung der Neutralität von KI-Ergebnissen, die Kennzeichnung von KI-generierten Ergebnissen bzw. Entscheidungen und das Recht auf die zugehörige Überprüfung sind/wären zentrale Elemente eines Corporate AI Codex, mit dem die Unternehmen schon heute ihren verantwortungsvollen Umgang mit KI-Technologien und KI-Anwendungen kommunizieren könnten. Dabei sollten diese Unternehmen dies nicht als lästige Verpflichtung sehen, sondern als hilfreiche Kür, um das Vertrauen ihrer Kunden und Stakeholder in die eigene Verwendung von KI zu stärken. Spätestens wenn die EU aus dem CDREUROPE-Projekt ihre Leitplanken entwickelt, wäre man auf die Pflicht schon vorbereitet.