Man hört es auf den führenden Konferenzen rund um die Themen Digitalisierung, künstliche Intelligenz, Machine Learning etc. immer wieder: „Die Technologie muss menschlicher werden.“ Damit ist nicht der philosophische Humanismus gemeint. Vielmehr geht es darum, dass Technologie für den Menschen leichter verständlich, umgänglich und akzeptabel werden muss. Doch was genau bedeutet das? In meiner wissenschaftlichen Forschung, gefördert vom Wissenschaftsfond der Europäischen Kommission, habe ich zwölf Kernelemente identifiziert, die für eine menschlichere Technologie und die Bildung von digitalem Vertrauen nötig sind.
Folgende vier Gründe waren Anlass genug, diese Thematik wissenschaftlich zu untersuchen, um valide Erkenntnisse zu erlangen:
1. Starke Herausforderungen digitale Transformationen in Unternehmen umzusetzen und erfolgreiche digitale Geschäftsmodelle zu entwickeln (bezogen auf Deutschland)
2. Die zunehmende Unsicherheit und Stagnation bei der Nutzung von digitalen Lösungen im privaten Bereich.
3. Der Mangel an systematischer Anwendung von validem, interdisziplinären Fachwissen.
4. Die Erkenntnis, dass Technologie menschlicher werden muss
Inzwischen habe ich 34 Experimente mit Test- und Kontrollgruppen mit einer durchschnittlichen Größe von 1.000 Personen durchgeführt, analysiert und die Ergebnisse in eine systematische Struktur gefasst.
Digitale Technologie menschlicher zu gestalten bedeutet, digitales Vertrauen beim Nutzer aufzubauen und zu erhalten. Dieses digitale Vertrauen muß seitens des Anbieters immer wieder angesprochen und seitens des Nutzers bestätigt werden.
Was ist das eigentlich, „digitales Vertrauen“? Digitales Vertrauen befähigt uns erst, online oder im Rahmen von digitalen Lösungen, Tools, Systemen etc. Entscheidungen zu treffen. Jede Entscheidung basiert auf einer Risiko- und Chancenabwägung, bei der wir Kosten und Nutzen beurteilen. Hierbei greifen wir auf unsere Lernerfahrungen zurück, die wir im Laufe unserer individuellen Biografie gesammelt haben. Auch nutzen wir Lernerfahrungen, die wir in unserem Stammhirn, das vor 500 Millionen Jahren begonnen hat, sich zu entwickeln, gesammelt haben. Wichtig ist auch die aktuelle Situation, in der wir uns befinden und Signale, die wir gerade in diesem Moment wahrnehmen. Wenn wir vertrauen oder digital vertrauen, verzichten wir auf Informationen, die wir für eine Entscheidung eigentlich benötigen würden. In digitalen Welten fehlen uns leider sehr viele Informationen. Diese sind auch noch schwer zugänglich, da wir
1. nur zwei unserer fünf Sinne einsetzen können,
2. die Informationsaufnahme primär durch das Lesen oder das Interpretieren von Symbolen sowie Bildern erfolgt, wofür unser Gehirn sehr viel „Rechenleistung“ braucht,
3. die digitalen Produkte und Dienstleistungen auf der Code-Ebene nicht nachvollziehen können und
4. sich der Mensch vor uns noch nicht mit PCs etc. beschäftigt hat. So haben wir aus evolutionsbiologischen Gründen noch keine Lernerfahrungen damit in unserem Stammhirn gespeichert.
Daher ist der Aufbau von digitalem Vertrauen für uns sehr schwierig. Sicherheits- und Kontrollsysteme, Lösungen zur Unterstützung von Entscheidungen und technologische Entwicklungen, die diese Vertrauensbildung fördern, werden eine große Hilfe für die Nutzer sein.
IT-Sicherheit und Datenschutz sind eines von zwölf Kernelementen des digitalen Vertrauens
Das digitale Vertrauen besteht aus zwölf Kernelementen. Die Umsetzung von diesen zwölf Kernelementen ist wesentlich, damit eine digitale Technologie menschlicher wird und wir digitales Vertrauen aufbauen können. Alle zwölf Kernelemente zusammen bilden die Vertrauensinfrastruktur. Diese Infrastruktur funktioniert ähnlich wie das Zahnradgetriebe eines Uhrwerks. Jedes Kernelement ist ein Zahnrad und jedes Zahnrad muss angesprochen werden, damit es sich bewegt. Erst wenn alle Zahnräder sich drehen, kann digitales Vertrauen entstehen.
Grundlegende Bedürfnisse des Menschen zu erfüllen, wäre der erste Schritt
Das 1. Kernelement des digitalen Vertrauens
Die Erkenntnis, dass wir 98 Prozent unserer Entscheidungen unterbewusst treffen, ist eher ernüchternd, da wir uns für bewusst analytisch handelnde Menschen halten. Die Herrin der unbewussten Entscheidungsverfahren ist unser Stammhirn. Dort sind alle Lernerfahrungen des Men-schen gespeichert, die er seit der Entwicklung des Stammhirns vor 500 Millionen Jahren gesammelt hat. Nur im Unterbewusstsein ist diese enorme Rechenleistung möglich, die unser Gehirn jede Sekunde vollbringt. Darüber hinaus kann Energie gespart werden und gleichzeitig sind noch Kapazitäten frei, um andere Tätigkeiten umzusetzen und Signale wahrzunehmen.
Die Menge an Informationen, die uns heute zur Entscheidungsfindung nicht zur Verfügung stehen, hat massiv zugenommen. Gleichzeitig müssen wir Entscheidungen in digitalen Welten treffen, in denen wir nur auf biographische Lernerfahrungen zurückgreifen können. Wir haben also die Möglichkeit, uns unbefangen und auch naiv in die Flut der sich selbst überholenden technologischen Innovationen zu stürzen. Eine andere Option wäre die Umsetzung der kognitiven Dissonanz. Dieser Vorgang ist zum Beispiel jedem Raucher sehr geläufig. Er weiß, das Rauchen schädlich ist, ignoriert dies aber und raucht trotzdem. Die dritte Option wäre, kritisch die digitalen Tools und Systeme auszuwählen und sie genauso kritisch und vorsichtig anzuwenden. Selbst bei aller kritischen Analyse wäre die Umsetzung dieser Option kaum möglich. Vielleicht schaffen wir es, die AGBs auch mal wirklich zu lesen und mithilfe eines befreundeten Juristen auch zu verstehen. Ob das digitale Tool nicht doch weit über die eigenen „AGBs“ hinausgeht und Daten von uns sammelt und möglicherweise unsere digitale Identität verändert, können wir, ohne uns die Codierung anzusehen, nicht prüfen, weil nur sehr wenige Software-Hersteller uns dies erlauben würden. Im beruflichen Angestelltenverhältnis haben wir keine Wahl, sondern müssen die vorhandenen Systeme anwenden. Wäre es nicht für uns viel einfacher, für die Nutzung von digitalen Tools und Systemen bewusst zu entscheiden, wenn diese von einer unabhängigen übergeordneten Stelle fortlaufend bezüglich der IT-Sicherheit, des Datenschutzes, der AGBs und Malware geprüft werden und uns einfach und nachvollziehbar die Risiken mittels, zum Beispiel Ampelfarben mitgeteilt werden? Die Experimente im Rahmen der wissenschaftlichen Arbeit haben gezeigt, dass eine solche Entscheidungsunterstützung von den Nutzern sehr gerne angenommen wird, und dass sich die Nutzer die digitale Lösung schneller aneignen, sie häufiger und länger nutzen und auch dabei zufriedener sind.
Dem Menschen ähnlicher bedeutet: die Umsetzung eines erweiterten Sicherheitsbegriffs für digitale Technologie.
Das 2. bis 5. Kernelement des digitalen Vertrauens
Wir wissen, wie sich ein bedrohtes Tier verhält. Wir wissen, wie ein Baum sich verhält, wann er uns Schutz bietet und wann er uns zum Beispiel bei Sturm bedroht. Wir wissen, wie sich Menschen verhalten, auch wenn wir ihre Sprache nicht verstehen. Wir können Mimik und Gestik interpretieren oder, wie wir heute sagen, decodieren. Wie sich ein Algorithmus verhält, insbesondere wenn dieser selbstlernend ist, wissen wir nicht. Dazu fehlen uns die Daten, die zu Signalen werden, die wir interpretieren können.
Menschen lieben Eindeutigkeit, Transparenz, Verantwortung und Haftung, da diese Eigenschaften uns die erforderliche Sicherheit auf Gebieten geben, auf denen wir zu wenig Informationen haben und diese auch nicht beschaffen können.
Gibt es eine Qualitätssicherung im Sinne einer Richtigkeitsprüfung auf Nachrichtenportalen und in sozialen Netzwerken? Woran erkennen wir, ob ein Beitrag auf einem Nachrichtenportal oder einem sozialen Netzwerk von einem Bot geschrieben, oder an mich, den Nutzer, zum Beispiel auch durch Psychometrie angepasst worden ist? Warum kann der Nutzer nicht mitentscheiden, ob dieser möchte, dass mir spezifische Inhalte gezeigt werden, von denen diverse Algorithmen meinen, dass diese interessieren? Das Unternehmen würde gemäß den Forschungsergebnissen, bezogen auf die Nutzerquoten profitieren, da der Nutzer sein Bedürfnis nach Kontrolle und Selbstwirksamkeitserwartung leben kann. Bietet ein soziales Netzwerk wie Facebook nur eine Plattform an? Wer ist für die Inhalte verantwortlich? Oder liegen die Entscheidungen eines antrainierten Priorisierungsalgorithmus nicht eben doch in der Verantwortung der Programmierer? Wer soll die juristische Verantwortung für diese Entscheidungen tragen? Der Programmierer, der Hersteller, der Eigner der Hardware, der Nutzer der Software, der Eigner der Software? Woher weiß ich, dass ein Algorithmus mir zum Beispiel bestimmte Finanzprodukte oder Nachrichten gar nicht zeigt, weil ich zum Beispiel die „falsche“ Hautfarbe oder die „falsche“ Religion“ habe? Oder wenn Kl-gorithmen Entscheidungen treffen – auf welchen Grundlagen erfolgen diese? Wenn es sich um ein lernendes System handelt, wie sieht die Lernumgebung des Systems eines autonomen fahrenden Autos aus? Hat die Basis eines selbstlernenden Systems nur in städtischen Räumen in Italien gelernt oder auch im Winter auf dem Land in Norwegen? Welcher kulturellen Ethik folgt das System? Woher weiß der Nutzer welche Sensoren tatsächlich in einer Hardware-Lösung verbaut worden sind?
Um Technologie dem Menschen ähnlicher zu gestalten und es ihm leichter zu machen, digitales Vertrauen aufzubauen, wäre die Umsetzung der folgenden fünf Maßnahmen sinnvoll.
1. Systeme, Algorithmen, Bots etc. könnten für den User nachvollziehbar gekennzeichnet sein. Das heißt, er muss in die Lage versetzt werden, diese zu erkennen und wissen, auf welcher Basis diese arbeiten und welche Faktoren relevant sind.
2. Algorithmen, Bots etc. könnten frei von Diskriminierung sein und dies kann auch dem Nutzer sichtbar und verständlich kommuniziert werden.
3. Schaffung der „digitalen Person“ als haftende Institution. Die Beziehung zwischen Unternehmen und den Algorithmen und zwischen Menschen und Algorithmen könnten geregelt werden. Diese Regeln könnten soziale Netzwerke, webbasierte Kommunikationsplattformen, das gesamte Internet global umfassen.
4. Schließung vorhandener Lücken im IT-Recht auf nationaler und internationaler Ebene inklusive Umsetzung. Diese Regeln könnten auf einfache Weise kommuniziert werden.
5. Schaffung einer wirksamen Corporate Media Policy, wie es beispielsweise von Julia Jäkel, Verlagschefin von Gruner & Jahr und vielen anderen Medienschaffenden gefordert wird.
Auch hier war in Experimenten festzustellen, dass das Stressniveau der Nutzer deutlich sinkt, wenn diese Maßnahmen umgesetzt werden. Es hört sich gewaltig an, aber diese fünf Maßnahmen sind durchaus umsetzbar. Das Maß an digitalem Vertrauen ließe sich dadurch enorm steigern.
Selbstwirksamkeit und Beherrschung zu der Situation erleben, ist für uns wichtig.
Das 6. Kernelement des digitalen Vertrauens
Zurzeit steht der Nutzer bei vielen digitalen Tools und Systemen vor der Entscheidung, entweder stimme ich der Nutzung meiner Daten durch den Anbieter zu oder ich kann das Tool nicht oder nur sehr eingeschränkt nutzen. Das ist bei Facebook, WhatsApp sowie bei vielen Health- und Banking-Apps der Fall. Selbstbestimmtheit und Kontrolle über die eigene Situation ist ein wichtiger Faktor, der das Überleben des Menschen seit Beginn der menschlichen Evolution sichert. Deshalb fühlt sich jeder Mensch sicherer, wenn er das Maß der Verwendung seiner Daten selbst steuern kann, ihm dies immer wieder bestätigt wird und er das auch mit seinen Sinnen erlebt. Darüber hinaus steigert die Erfahrung, etwas zu tun und, dass dieses Tun zur direkten Wahrnehmung führt, Gestalter der eigenen Situation zu sein, deutlich die Zufriedenheit. Der Nutzer hat das Gefühl, dass er das System beherrscht und nicht diesem ausgeliefert ist. Diese Wahrnehmungen fördern deutlich das digitale Vertrauen beim Nutzer.
Eine pragmatische Lösung liefert zum Beispiel die jüngst veröffentlichte Studie des Bundesministeriums für Verkehr und Infrastruktur zum Thema „Eigentumsordnung für Mobilitätsdaten“. Hier wird vorgeschlagen, dass Plattformen, die Daten erfassen und ökonomisch verwerten, auch andere Bezahlsysteme als nur die „Bezahlung“ mit persönlichen Nutzerdaten anbieten.
Fünf Sinne haben wir oder warum sich Alexa, Cortana und Siri sich durchsetzen werden, wenn sie dem Menschen ähnlicher werden.
Das 7. Kernelement des digitalen Vertrauens
Wenn wir den Laptop oder das Tablet nutzen, nehmen wir 99 Prozent aller Informationen visuell entweder durch Lesen oder Bild- bzw. Icon-Interpretation wahr. Für diesen Vorgang braucht unser Gehirn sehr viel Energie und diese Investitionsleistung erbringt es deshalb eher ungern. Darüber hinaus greifen wir bei allem, was wir tun, auf unser Stammhirn zurück. Um es greifbarer zu verdeutlichen: Wenn die Zeit, seitdem der Mensch in seiner Evolution sprechen kann, 24 Stunden sind, dann ist die Zeit, seitdem er lesen kann, acht Minuten. Sprache wenden wir schon viel länger an als das Lesen und haben dies somit viel häufiger geübt. Aus diesem Grund fallen uns das Sprechen und das Hören von Sprache leichter als das Lesen und Schreiben. Deshalb bevorzugen wir Informationsaufnahme durch Hören und Informationsweitergabe durch Sprechen. Richtig gut sind wir darin, über Mimik und Gesten zu kommunizieren, weil wir dies noch länger beherrschen als das Sprechen. Deshalb wird unter Hochdruck daran gearbeitet, dass digitale Assistenten wie Siri, Alexa und Cortana auch dies bald beherrschen. Mit dieser Fähigkeit werden solche Assistenten dem Menschen ähnlicher und es fällt uns leichter, dieser Technologie zu Vertrauen, weil sie sich so verhält wie wir es tun. Wie sich eine digitale Technologie verhält, gerade wenn sie Entscheidungen trifft, wissen wir noch nicht. Deshalb macht uns künstliche Intelligenz (KI) trotz aller Vorteilen auch Angst. Diese Angst besteht weiter, auch wenn wir wissen, dass Fehlerquoten um ein Vielfaches geringer sein können, wenn ein KI-System anstelle eines menschlichen Lokführers einen Zug steuert.
28 Vertrauensbedingungen überprüft jeder vor einer Entscheidung.
Das 8. Kernelement des digitalen Vertrauens
Jeder hat 28 Vertrauensbedingungen, die je nach Situation, Persönlichkeit und Biografie unterschiedlich stark angesprochen werden müssen. Eine Bedingung ist zum Beispiel die Vertrauensdisposition. Diese ist meist frühkindlich erworben und schwer veränderbar. Wenn frühkindlich wenig stabile und emotional positive Bezugspersonen da waren und/oder Gewalt erfahren worden ist, wird dieser Mensch als Erwachsener eine Vertrauensdisposition haben, die ihn nur sehr schwer Vertrauen aufbauen lässt. Er wird sehr vorsichtig agieren. Das bedeutet, dass dieser Menschen sehr viel glaubwürdige Sicherheit erfahren muss, bis er eine Entscheidung treffen kann. Je besser es Unternehmen oder Organisationen aller Art gelingt, die Vertrauensbedingungen der Menschen in der erforderlichen Qualität, Intensität und Frequenz anzusprechen, desto erfolgreicher werden diese sein. Zu diesem Zweck sind Daten der Nutzer oder potenziellen Nutzer, die im Netz erfasst werden können, durchaus hilfreich. Je besser es gelingt, die Vertrauensbedingungen eines Menschen zu erfassen und zu adressieren, desto stärker hat dieser das Gefühl, dass er verstanden wird. Es fällt ihm somit leichter, digitales Vertrauen aufzubauen. Zu dieser Methodik gehört u.a. die Psychometrie. Diese kennen wir primär aus deren Anwendung während des letzten Wahlkampfes um das Präsidentenamt in den USA. Teil eines „Code of Conduct“ im Cyberspace könnte es sein, dass man die Anwendung dieser Methodik für den Nutzer kenntlich macht.
Jedem Typus seine Funktionalitäten
Das 9. und 10. Kernelement des digitalen Vertrauens
Für etwas mehr Systematik habe ich in der wissenschaftlichen Arbeit die am häufigsten vorkommenden. Schwerpunkte der 28 Vertrauensbedingungen in (bislang elf) Vertrauenstypen zusammengefasst. Jeder Vertrauenstypus spricht auf spezifische Funktionalitäten an. Mit diesen Funktionalitäten kann ein digitales Produkt oder System ergänzt werden, mit dem Ziel, dass diese beim Nutzer die Wahrscheinlichkeit deutlich erhöhen, die entsprechenden Emotionen auszulösen. Dies können Emotionen sein wie „Schafft Zugang“ (zum Beispiel zu einer Gruppe oder gesellschaftlichen Schicht) oder „Nimmt Sorgen“, „Weckt positive Erinnerungen“.
186 kognitive Biases – oder sonderlich objektiv sind wir wirklich nicht.
Das 11. und 12. Kernelement des digitalen Vertrauens
Jede unserer Entscheidungen kann durch eine oder mehrere der insgesamt 186 kognitiven Biases (kognitive Biase = kognitive Verzerrung), jenen Heuristiken, denen der menschliche Entscheidungsprozess unterworfen ist, deutlich beeinflusst werden. Eine dieser Verzerrungen ist das im letzten Bundestagswahlkampf viel diskutierte „Framing“. Demnach ist der erlebte, visuelle oder auch verbale Rahmen für die Entscheidung sehr wichtig und kann zur Verzerrung führen. Wenn wir einer fremden Person zum Beispiel auf dem Uni-Gelände begegnen und diese Person einen Anzug trägt, werden wir ihr wahrscheinlich eher vertrauen, als wenn dieselbe Person uns in der U-Bahn in Jeans und T-Shirt anspricht.
Die Vorteile von menschlicher Technologie beziehungsweise der Umsetzung von digitalem Vertrauen
Technologie menschlicher zu gestalten und somit digitales Vertrauen umzusetzen, hat viele Vorteile. Die Vorteile für Institutionen und Unternehmen sind unter anderem:
Die Mitarbeiterzufriedenheit bei der Nutzung eines digitalen Tools habe ich halbblind durch Kameraaufnahmen ermittelt, d.h. der Nutzer wusste nichts von den Aufnahmen. Wenn wir am PC arbeiten, kontrollieren wir meist unsere Mimik nicht und der Gesichtsausdruck gibt deutliche Infor-mationen über die aktuelle Gefühlslage. Diese Gefühlslage ist deutlich davon beeinflusst, ob die Mitarbeiter wissen, dass sie wirklich in einer sicheren technologischen Umgebung arbeiten. Das Engagement der Mitarbeiter kann auch gemessen werden. Hier sind u.a. folgende Werte relevant: Zeit der Führungskräfte, diese in Einzelgesprächen mit ihren Mitarbeitern verbringen; Mit wie vielen Kollegen aus höheren Hierarchieebnen arbeiteten die Mitarbeitern zusammen; Wie hoch ist das Verhältnis zwischen Meetings und eigener Arbeitszeit?; Wie häufig haben die Mitarbeiter zwei und mehr Stunden Zeit sich ihren Aufgaben ohne Unterbrechung zu widmen? etc.
Der Artikel ist von der Fachzeitschrift IT-Sicherheit in der Dezember Ausgabe 2017 veröffentlicht worden. Das Copyright liegt bei der Autorin.
All Rishts reserved | Digital Trust Analytics GmbH