In seiner aktuellen Studie zum Vertrauen zwischen Menschen und Computern stellt das Information Management Institut (IMI) der TH Aschaffenburg einen neuen Ansatz vor. Weil ein persönliches Vertrauen zu einem IT-System nicht möglich ist, muss an dessen Stelle ein sogenanntes „Institutionenvertrauen“ treten. Das ist praktisch umsetzbar, indem KI- oder Cloud-Systeme als „Marke“ aufgebaut und präsentiert werden.
An der TH Aschaffenburg veranstaltet das „Kompetenzzentrum Künstliche Intelligenz“ im laufenden Sommersemester 2023 seine Ringvorlesung „Wollen wir einer Künstlichen Intelligenz (KI) vertrauen?“ Die Vorträge finden noch bis zum 26. Juni immer montags von 16 bis 17:30 Uhr sowohl in Präsenz (Geb. 20, Raum 116) als auch online statt. Künstliche Intelligenz, als Schlüsseltechnologie der Zukunft, ist in vielen Lebensbereichen inzwischen nicht mehr wegzudenken. Doch wie steht es um die Vertrauenswürdigkeit von KI-Entscheidungen? Welche Zertifizierungen und Regulierungen stehen zur Verfügung und welche Leitlinien gibt es für diese Systeme?
Am 22. Mai 2023 fragte Professor Dr. Georg Rainer Hofmann, Direktor des IMI, in seinem Beitrag zur Ringvorlesung: „(Wie) kann man Künstlicher Intelligenz (jemals) vertrauen?“ Können KI-Systeme – also „Daten und Algorithmen“ – die Menschen (als Nutzerinnen und Nutzer, Kundinnen und Kunden, Patientinnen und Patienten, etc.) so verstehen, dass Menschen den Systemen wirklich persönlich vertrauen können? Können IT-Systeme das ihnen von Menschen entgegengebrachte Vertrauen gar spüren und erwidern? „Das erscheint absurd – diese Ebene gegenseitigen Verstehens und persönlichen Vertrauens ist Maschinen nicht möglich“, so Professor Hofmann. Ein quasi „persönliches“ Vertrauensverhältnis eines Menschen zu einem IT-System sei lediglich eine anthropomorphe Projektion und stelle keine Grundlage vertretbarer Akzeptanz dar. Ebenso absurd sei die umgekehrte Annahme, dass ein IT-System wiederum seinen Nutzern tatsächlich „persönlich“ vertrauen könne.
Brauchbar sind laut Hofmann hingegen Analogieschlüsse aus dem bekannten Markenvertrauen – als eine Form des Institutionenvertrauens – auf die Anwendungsszenarien von IT-Systemen. Auf dieser Basis lasse sich eine Akzeptanzverbesserung entwickeln. Vertrauenswürdige Szenarien von IT-Anwendungen mit ihrem sozio-ökonomischen Kontext werden so darstellbar.
Als schädlich für ein Markenvertrauen konnten im Rahmen der Studie eine Anonymität der Anbietenden, oder auch ein direkter Einfluss Dritter auf die Anbietenden identifiziert werden, so dass die bilaterale Beziehung zwischen Anbietenden und Kundschaft beeinflusst oder gestört wird. Ebenfalls negativ auf das Vertrauen in die Marke wirke sich ein unkalkulierbares Verhalten des Anbietenden aus, wenn Kundinnen und Kunden nicht wissen können, warum welche Entscheidungen getroffen worden sind.
Als nötig für ein Markenvertrauen erscheint hingegen, dass die Anbietenden zeigen, dass sie etwas verlieren, wenn sie als Vertrauensnehmende enttäuschen, und dass die Anbietenden glaubhaft darstellen, dass sie die Kundensituation verstanden haben. Ebenso förderlich ist laut der Studie eine definierte Qualität, auf die sich die Kundin bzw. der Kunde verlassen kann, oder auch ein offener Austausch mit letzteren.
Als eher neutral für ein Markenvertrauen schätzt Professor Hofmann eine (fehlende) „Transparenz“ ein, da bei vielen Produkten mit hohem Markenvertrauen eine Darstellung der Herstellungsprozesse nicht weiter von Belang sei. Eine explizite Offenlegung der Algorithmen und der Trainingsdaten für ein KI-System scheint von daher überbewertet zu werden.
Die erwähnte Studie findet sich unter https://www.imi.bayern/publikationen/2023/ im Netz zum Gratis-Download.