Corporate Governance Inside
Künstliche Intelligenz – Herausforderung für den Aufsichtsrat
Künstliche Intelligenz im Aufsichtsrat oder: Wie überwinde ich das Gesetz der Trivialität
Gastbeitrag von Karin Dohm
Spätestens seit dem 30. November 2022 hat (theoretisch) jede Aufsichtsrätin und jeder Aufsichtsrat unkompliziert persönliche und anschauliche Erfahrungen mit künstlicher Intelligenz gemacht. An dem Tag schaltete das US-amerikanische Softwareunternehmen OpenAI seinen Chatbot (textbasiertes Dialogsystem) ChatGPT frei. Damit konnte von einem Tag auf den anderen jeder Mensch (und damit auch alle Aufsichtsräte) mit Sprachrobotern und Large-Language-Modellen1 experimentieren. Künstliche Intelligenz oder AI und die Frage, was man damit machen kann, hatten über Nacht eine gut nachvollziehbare Anwendungsmöglichkeit bekommen.
Was heißt das jetzt für die Arbeit in Aufsichtsräten ein gutes Jahr später? Vertraut man einer Analyse des Handelsblatts: augenscheinlich erst einmal nicht viel.2 Losgelöst von individueller Expertise spiegelt sich laut Studie die diesbezügliche Kompetenz in den Profilen der Aufsichtsräte gemäß Selbsteinschätzung noch nicht messbar wider.
Die generelle öffentliche Diskussion rund um ChatGTP und KI hat sich in den vergangenen 14 Monaten vornehmlich um Missbrauchsmöglichkeiten, Rechts- und Datenrisiken sowie ein potenzielles Entwicklungsmoratorium gerankt. So wichtig diese Diskussion ist, so wenig hilft sie derzeit dem einzelnen Aufsichtsratsmitglied oder einem Gremium bei der Frage der sinnhaften Befassung mit künstlicher Intelligenz.
Die folgende Struktur bietet eine Handreichung, um sich mit dem Thema künstliche Intelligenz auseinanderzusetzen und eine Verbindung zwischen der Weiterentwicklung der Möglichkeiten und der diesbezüglichen Diskussionstiefe im Aufsichtsrat zu ermöglichen. Einiges davon ist weder neu noch revolutionär, nichtsdestoweniger hoffentlich hilfreich.
AI als Teil der eigenen Fortbildung
Auch wenn die Reihenfolge der Liste keine Wertung darstellen soll, so ist doch die eigene Fortbildung bewusst an die erste Stelle gesetzt. Ohne eine solche wird eine ernsthafte und sinnstiftende Diskussion zum Thema AI im Aufsichtsrat nicht möglich sein. Gerade weil die Anwendungsmöglichkeiten sich exponentiell weiterentwickeln, ist es wichtig, die eigene Fortbildung zu strukturieren mit einem Schwerpunkt in generellen (1) und in unternehmensspezifischen (2) Themen:
- Welche AI-Konzepte gibt es generell?3 Welche sind relativ etablierte Technologien? Wo sind neue Entwicklungsfelder? Welche Aspekte werden kritisch diskutiert? Und zwar von wem? Welche Termini und Vokabeln sind essenziell? Wie immer ist der beste Einstieg eine Internetrecherche, die Lektüre von Artikeln und Diskussionen im Internet und in Fachzeitschriften, der Besuch von Kongressen, das Hören von Podcasts. Wichtig ist dabei ein möglichst direkter Zugriff. Je weiter weg die Darstellung von der Quelle ist, desto größer ist das Risiko, dass sie durch eine Reihe von Linsen, die eine Reihe von Autor:innen darübergelegt hat, verzerrt ist und desto größer ist auch die Gefahr der (Über-)Alterung der Information.
- Was ändert sich in der Branche, in der das eigene Unternehmen agiert? Besonders wichtig ist dabei nicht nur der Blick nach vorne (Was kommt auf die Branche zu? Was erwarten die Kunden? Welche Potenziale ergeben sich für das Unternehmen?), sondern auch der Blick in den Rückspiegel und zum Wettbewerb (Welche Applikationen nutzen Wettbewerber, die das beaufsichtigte Unternehmen noch nicht hat? Was hätte bereits in der Vergangenheit implementiert werden müssen?). Gerade diese Outside-in-Analyse ist essenziell, um die Diskussion im Aufsichtsrat und mit dem Vorstand sowie den Führungskräften mit Inhalten zu füllen und zu fokussieren.
AI in der Interaktion zwischen Aufsichtsrat und Vorstand
Dass das Thema künstliche Intelligenz als fester Bestandteil auf die Aufsichtsratsagenda gehört, ist unbestritten. Um die Zukunftsfähigkeit des Unternehmens zu sichern, muss künstliche Intelligenz aber vor allen Dingen als ein Thema gelebt werden, das alle Bereiche des Unternehmens durchdringt und damit auch für alle Ressorts relevant ist. Daher sollte jeder Aufsichtsrat als Gremium eine AI-Strategie in seiner Beratungs- und Aufsichtsagenda definieren:
- Ausgangspunkt ist ein gemeinsames Verständnis zwischen Vorstand und Aufsichtsrat bezüglich der AI-Strategie des Konzerns. Diese muss die vorhandenen und zukünftigen AI-Initiativen umfassen (zum Beispiel zu den Themen Automatisierung, Datenanalyse, Verbesserung der Kundenerlebnisse und der Kundenservices oder Beschleunigung der Innovation und der Produktentwicklung). Neben der Verknüpfung von Inhalten und Budgets sollte die AI-Strategie auch aufzeigen, wie diese Investitionen die Unternehmensziele fördern und auf die übergreifende Strategie einzahlen.
- Das Gesetz der Trivialität4: Cyril Northcote Parkinson hat in den 50er-Jahren des vergangenen Jahrhunderts in einem seiner Bücher die These aufgestellt, dass die auf einen Tagesordnungspunkt einer Sitzung verwendete Zeit umgekehrt proportional zu den jeweiligen Kosten des Agendapunktes ist, sodass beispielsweise die Diskussion um eine kapitalintensive, komplexe Großinvestition üblicherweise weniger Zeit in Anspruch nähme als die über einen neuen Fahrradständer vor der Unternehmenszentrale. Um diese potenzielle Falle zu vermeiden, empfiehlt es sich, dass die Diskussion mit dem Vorstand zur AI-Strategie ausreichend Zeit eingeräumt bekommt und so designt ist, dass jede/r Fachkundige (siehe oben zum Thema Fortbildungsnotwendigkeit) partizipieren und beitragen kann.
- Auf Basis dieser Strategie sollte auf jeden Fall ein regelmäßiges Update etabliert werden, um den Fortschritt zu verstehen und zu begleiten. Welcher Zielerreichungsgrad wird erreicht? Passen die Projektaufwendungen zu den inhaltlichen Meilensteinen? Wer steuert und überwacht die Schnittstellenarchitektur?Wer hat für die AI-Strategie (und grundsätzlich) die Verantwortung für Daten und Datenhaushalte? Wie entwickelt sich der Wirkungsgrad der AI-Strategie auf den Betrieb und die Umsätze?
- Bewertung der Ressourcen-Allokation: Der Aufsichtsrat muss sich ein Bild davon verschaffen, welche Ressourcen (finanziell, Mitarbeiterinnen und Mitarbeiter, technologische Infrastruktur) der Vorstand dem Thema zuordnet. Sind die Mittel aus Sicht des Aufsichtsrates vor dem Hintergrund der AI-Strategie ausreichend? Stimmen sie mit dem Unternehmensplan überein? Wie soll der Ressourceneinsatz gemanagt werden, wenn makroökonomische oder unternehmerische Entwicklungen eine Anpassung erfordern? Wie elastisch ist der Plan? Wie sollen Wissen und Intellectual Property gesteuert werden?
- Dazu gehört auch ein strukturierter Plan zur Entwicklung der unternehmensinternen Talente und des vorhandenen Wissens: Wie misst und bewertet der Vorstand das konzerninterne Wissen rund um künstliche Intelligenz und die damit verbundenen Chancen und Risiken? Wie erfolgt die dazugehörige Abstimmung zwischen den einzelnen Vorstandsressorts? Wie können externe Ressourcen sinnvoll eingesetzt werden, um Geschwindigkeit und Agilität zu erhöhen? Wie kann intern die notwendige Entwicklung des diesbezüglichen Wissens gesichert werden? Wie können rare Talente an das Unternehmen gebunden werden? Wie lassen sich alle Altersgruppen im Unternehmen und alle Regionen angemessen und wertstiftend einbinden? Last, but not least: Wie stellt der Vorstand selbst sicher, dass er und das Senior Management up to date zum Thema künstliche Intelligenz sind und bleiben?
- Zu all den oben genannten Punkten gehört auch, dass der Aufsichtsrat eine Kultur fördert, in der der Vorstand das Zutrauen hat, dass laufende Herausforderungen, Fehlschläge und andere Planabweichungen diskutiert werden können (Stichwort Fehlerkultur). Gerade die Geschwindigkeit, mit der sich die unternehmerischen Möglichkeiten in der Nutzung künstlicher Intelligenz potenzieren, sorgt dafür, dass es zu Fehlentscheidungen oder Nachbesserungsbedarf kommen wird.
Abb. 1: Top Ten Start-ups mit AI-Bezug zwischen 2013 und 20225

Risiken und ethische Implikationen
Das Future Institute veröffentlichte am 22. März 2023 einen offenen Brief, in dem es zu einer Entwicklungspause von KI aufrief, um sicherzustellen, dass zunächst die Risiken und deren Management weiter erforscht und besser kontrolliert werden können.6 Dies befeuerte nicht nur die Diskussion zu den Risiken und ethischen Herausforderungen künstlicher Intelligenz. Gleichzeitig setzte es auch eine Diskussion über die Intentionen einzelner Unterzeichner und deren wirtschaftliche Interessen in Gang, da die Unternehmen, die bereits große Modelle in der Erprobung haben, von einem Entwicklungsstopp besonders profitieren würden, da ihr Vorsprung quasi zementiert würde.7
Derartige Ambivalenzen rund um die Risiken für das Unternehmen, Datensicherheit, Information und Desinformation, ethische Implikationen für die Mitarbeiter:innen im Unternehmen, in der Wertschöpfungskette sowie im Bereich der Kund:innen werden immer wieder auftreten und Sicherungsmaßnahmen in der Gesellschaft und im Unternehmen erfordern. Verzerrende Algorithmen sind beispielsweise kein neues Problem. Dass Transparenz und datengetriebene Steuerungsmodelle zu Diskriminierung führen können, ist ebenfalls nicht neu, nichtsdestoweniger ein unverändert kritisches Risiko für ein Unternehmen. Verstärkt werden diese Risken dadurch, dass wichtige Meilensteine der künstlichen Intelligenz im Zweifelsfall außerhalb der EU entwickelt werden (vgl. Abb. 1). Damit steigt die Komplexität rund um den Zugang zu neuen Technologien, um Datensicherheit und die geopolitischen Herausforderungen für Unternehmen, die ihre Zentrale und ihren Aufsichtsrat in der EU oder Deutschland haben. Wichtig ist es daher für Aufsichtsräte, ein profundes Verständnis für die unternehmensspezifische Art dieser Risiken zu haben und zu verstehen, wie der Vorstand und das Führungsteam damit umgehen, diese bewerten und steuern. Dabei geht es neben der Umsetzung von gesetzlichen Vorgaben und Regulierung auch, wenn nicht viel mehr, um die Definition des unternehmenseigenen Risikoappetits und die ethische Haltung, mit denen die AI-Initiativen des Unternehmens übereinstimmen müssen.
Zusammengefasst sind drei Verhaltensgrundsätze für Aufsichtsräte im Zusammenhang mit künstlicher Intelligenz essenziell:
- Ohne ernst gemeinte und kontinuierliche Fortbildung des Aufsichtsrates (einzeln und/oder als Gremium) zum Thema künstliche Intelligenz geht es nicht.
- Die Interaktion mit dem Vorstand muss entmystifiziert werden. Künstliche Intelligenz ist zwar vordergründig eine IT-Frage, jedoch vor allen Dingen eine strategische Herausforderung.
- Gerade die kurz vor unendlich erscheinenden Möglichkeiten der künstlichen Intelligenz erfordern vom Aufsichtsrat, dass er als Gremium und Sparringspartner die AI-Strategie gegen die Werte des Unternehmens, die ethischen Grundsätze und die nachhaltige Wertsteigerung misst.
1 https://en.wikipedia.org/wiki/Large_language_model, abgerufen am 10.12.2023.
2 https://www.handelsblatt.com/unternehmen/management/corporate-governance-ki-expertise-spielt-in-dax-aufsichtsraeten-noch-kaum-eine-rolle/29202200.html, abgerufen am 10.12.2023.
3 Einen Einstieg in die Grundlagen bietet zum Beispiel https://www.iks.fraunhofer.de/de/themen/kuenstliche-intelligenz.html, abgerufen am 10.12.2023.
4 https://en.wikipedia.org/wiki/Law_of_triviality, abgerufen am 10.12.2023.
5 https://www.visualcapitalist.com/sp/global-ai-investment/, abgerufen am 10.12.2023.
6 https://futureoflife.org/open-letter/pause-giant-ai-experiments/, abgerufen am 10.12.2023.
7 https://www.tagesspiegel.de/gefahren-der-kunstliche-intelligenz-muss-die-entwicklung-gestoppt-werden-9586871.html, abgerufen am 10.12.2023.
Karin Dohm Vorsitzende des Prüfungsausschusses, Ceconomy AG und Danfoss sowie Chief Financial Officer, HORNBACH Holding AG & Co. KGaA
Hier können Sie das gesamte Magazin als PDF herunterladen:
Teilen Sie diesen Artikel: