Auf der europäischen und der deutschen Regierungsebene wird zurzeit intensiv über die Regulierung von lernender Software verhandelt. Die Europäische Kommission hat im Februar ein Weißbuch zur Regulierung von künstlicher Intelligenz (KI) veröffentlicht. Dieses Weißbuch ist ein Vorschlag, der versucht die Nutzung von KI zu fördern und die möglichen Risiken einzudämmen. Gestern hat die Bundesregierung eine Stellungnahme zum Weißbuch zur Künstlichen Intelligenz - ein europäisches Konzept für Exzellenz und Vertrauen veröffentlicht. Schon allein der sehr werbliche Titel lässt Besorgnis aufkommen. Aufgrund des sehr weit in Zukunft schauenden Charakters und kleinteiligen Differenziertheit, entsteht die begründete Sorge, dass jedes kleine Softwareupdate, jede minimale Veränderung an der Datenbasis überprüft werden muss und ein massiver Regulierungsapparat geschaffen wird. Folgende Sorgen für eine Technologieführerschaft in der Wirtschaft und Wissenschaft in dieser Schlüsseldiszplin entstehen:
1. Viele kleine und junge Unternehmen, die lernende Systeme in Nischen herstellen wird es sehr schwer fallen diese komplexen Regulierungen umzusetzen. Diese Firmen könnten die SAP´s und die Qiagen´s der Zukunft werden, wenn diese nicht mit einem massiven Volumen an komplexen Regulierungen behindert werden.
2. Auch wissenschaftliche Projekte beim DFKI, Fraunhofer, Max Planck, Helmholtz, den Universitäten und Fachhochschulen würden behindert werden und ein großer Teil der Forschungsförderungen müssten für die Umsetzung der Regulierungen, des Controllings und der Dokumentationen ausgegeben werden. Dies beschränkt die Anzahl, die Innovationskraft und die Geschwindigkeit mit denen diese Projekte umgesetzt werden können.
3. Diese beiden Prognosen werden dazu führen, dass wir KI-Leistungen aus den USA und China einkaufen und uns deren Bedingungen unterwerfen müssen, unternehmerische Chancen nicht nutzen und nicht die Arbeitsplätze der Zukunft schaffen können.
Natürlich werden Regeln gebraucht und hier wären ex-post Zertifizierungen, die von einer staatlichen Institution umgesetzt werden, die effizienteren Lösungen. In dieser Institution müssten allerdings die erforderlichen fachlichen Fähigkeiten in der erforderlichen Qualität und Anzahl vorhanden sein.
Effizient wäre es auch wenn artikulierte Förderung der Wirtschaft insbesondere der KMU´s und der Wissenschaft mit klar definierten KPI´s hinterlegt werden würde, die für die Ministerien gelten sollten:
Wie zum Beispiel:
In dem Weißbuch und in der Stellungnahme ließt sich sehr viel Sorge vor Software, die in Ihrem Kern Statistik ist, in den meisten Anwendungsfällen die Methode des Maschinellen Lernens nutzt und der Weg zur echter Künstlicher Intelligenz noch ein sehr weiter ist.
Die German Angst
Die German Angst ist das Ergebnis eines jahrzehntelangen kulturellen bewussten und unterbewussten Lernens.
Nach den Gesundheitsberichterstattung des Bundes leiden 9,4% der Männer und 19% der Frauen in Deutschland unter Angststörungen. Angststörungen sind meist zeitlich abgrenzbare Zeiträume und können durch u.a. Konfrontationstherapie gut therapiert werden, dennoch werden diese Menschen immer vorsichtig agieren.
Nach zwei sehr langen Zeiträumen der fast monothematischen Angstberichterstattungen: 1. Klimawandel und 2. Corona wird die Ausprägung und Verteilung der Angst in Deutschland weiter zunehmen. Diese Beobachtung wird deshalb besonders deutlich feststellbar sein, weil vitale Interessen angesprochen werden. Einmal das Überleben der Spezies Mensch und die 2. das eigene Überleben.
Die Bürger der Bundesrepublik haben zwei Regime erlebt. Einmal eine Diktatur und den Sozialismus/Kommunismus. Hier wurde sehr viel Angst gelernt und unterbewusst an die nachfolgenden Generationen weitergeben.
Hinzu kommt, dass durch diese beiden Regime der Anteil der Risktaker – die eine Gesellschaft braucht, um sich weiter zu entwickeln, massiv reduziert worden ist. Mendel folgend hat sich der Anteil der Risktaker in den folgenden Jahrzehnten weiter reduziert.
Der Algorithmus Bias
Berkeley J. Dietvorst, Joseph P. Simmons und Cade Massey haben wissenschaftlich den Algorithmus Bias (Heuristik) beschrieben. Demnach toleriert der Mensch Fehler in einem Algorithmus weniger als bei sich selbst. Sobald wir feststellen, dass ein Algorithmus einen Fehler machen kann, schwenken wir sofort zu unserer eigenen viel Fehler anfälligen Entscheidungsfindung. Bezüglich der wissenschaftlichen Beweisführung der Irrationalität des menschlichen Entscheidungsfindung verweise ich auf die umfangreichen Arbeiten des Nobelpreisträgers Robert Kahnemann. Menschliche Entscheidungsfindung ist von 186 Biases (Heuristiken), die Verzerrungen in der Wahrnehmung und Entscheidungsfindung sind, beeinflusst. Diese Verzerrungen hatten ihre Berechtigung, um uns als Spezies das Überleben zu sichern, als wir noch Jäger uns Sammler waren. Unser Lebensumfeld hat sich allerdings geändert und andere Entscheidungsfindungsprozesse sind erforderlich.
Sinnvoll wären Entscheidungsunterstützungslösungen, die mit den Methoden des maschinellen Lernens und der künstlichen Intelligenz uns dabei helfen bessere Entscheidungen zu treffen und diese auch umzusetzen. Hier ist die große Chance der lernenden Software für uns als Individuen, als Spezies Mensch und für den gesamten Planeten. Wenn wir uns die aktuellen CO2 Werte ansehen, wissen wir, dass wir nicht gut darin sind, gute Entscheidungen zu treffen, aber wir sind Menschen wir können lernen und vor allem wir können uns ändern. Wir müssen nur die Chancen lernender Software nutzen.
Wie das geht, uns dazu zu bringen Heuristiken/Biases wissenschaftlich bewiesen zu verlernen und bessere Entscheidungen zu treffen, dazu schreibe ich mehr in meinem nächsten Artikel.
Dr. Katharina von Knop
All Rishts reserved | Digital Trust Analytics GmbH