Vertrauen oder nicht vertrauen - wenn KI menschlich wird
In den letzten Jahren sind KI-Systeme immer komplexer und scheinbar "menschlicher" geworden. Doch wie wirkt sich diese wahrgenommene Menschlichkeit auf unser Vertrauen in solche Systeme aus – und welche Gestaltungsmerkmale sind dafür besonders entscheidend? Ein Beitrag von Muriel Reuter
Zu Beginn der Promotion stand zunächst für mich an, mich umfassend und intensiv mit meinem Forschungsthema der nächsten Jahre zu beschäftigen. Dafür habe ich eine systematische Literaturrecherche (ein so genanntes Scoping-Review) durchgeführt. Ziel des Scoping-Reviews war es, den Forschungsstand zur Beziehung zwischen Anthropomorphismus, also dem Zuschreiben menschlicher Eigenschaften an nicht-menschliche Systeme, und Vertrauen zusammenzutragen. Dabei zeigte sich, dass sich die Studien nicht nur stark in ihren Definitionen von Anthropomorphismus und Vertrauen unterscheiden, sondern auch in der Art und Weise, wie die jeweiligen Merkmale als Variablen umgesetzt und gemessen werden. Häufig werden Bilder (von Computer-Icons bis zu Avataren) eingesetzt, seltener die Stimme oder der Kommunikationsstil untersucht. Auch die Erhebungsinstrumente variieren: Neben etablierten Fragebögen nutzen manche Arbeiten eigens entwickelte Maße oder objektive Verhaltensmessungen. Insgesamt ließen sich daher aus der bisherigen Literatur keine einheitlichen Empfehlungen ableiten – es besteht also ein klarer Forschungsbedarf an systematischen Vergleichen verschiedener anthropomorpher Merkmale.
Was folgte: Conjoint-Analysen
Um herauszufinden, welche Gestaltungsmerkmale von KI die Wahrnehmung von "Menschlichkeit" und Vertrauen am stärksten beeinflussen, habe ich zwei online Conjoint-Analysen durchgeführt. Eine Conjoint-Analyse ist ein Verfahren, bei dem Personen wiederholt aus verschiedenen Kombinationen von Merkmalen wählen müssen – so lässt sich herausfinden, welche bei Entscheidungen besonders wichtig sind.
Dabei wurden vier Merkmale systematisch variiert: Name, Aussehen, Kommunikationsstil und Stimme. Teilnehmende mussten in mehreren Entscheidungssituationen wählen, welches System sie als menschlicher bzw. vertrauenswürdiger einschätzten. Aus diesen Präferenzen lassen sich die relativen Bedeutungen jedes Merkmals ableiten.
Entgegen der Erwartung, dass das Aussehen am stärksten ins Gewicht fällt, erwiesen sich vor allem Stimme und Kommunikationsstil als entscheidend. Eine natürliche, menschliche Stimme hatte den stärksten Einfluss auf die Einschätzung von "Menschlichkeit", dicht gefolgt von einem extrovertierten Sprachstil, wie man ihn von ChatGPT kennt. Name und Aussehen spielten demgegenüber eher eine untergeordnete Rolle.
Vertrauenswürdigkeit
Auch hier waren Stimme und Kommunikationsstil die wichtigsten Faktoren. Systeme mit menschlicher Stimme und extrovertiertem Sprachstil wurden als deutlich vertrauenswürdiger bewertet. Name und Aussehen hatten zwar ebenfalls einen Einfluss (menschliche Namen und Avatare erhöhten das Vertrauen), dieser fiel jedoch vergleichsweise schwach aus.
Was bedeutet das für die Gestaltung von KI-Systemen
Die Ergebnisse zeigen, dass nicht nur ein "menschenähnliches" Aussehen wichtig ist, damit ein System als menschlich wahrgenommen wird. Durch den zunehmenden Fortschritt der Technik scheint die Kommunikation wichtiger zu werden. Das spiegelt sich auch in der wahrgenommenen Vertrauenswürdigkeit wider. Besonders in sicherheitskritischen Bereichen ist die Vermenschlichung von KI-Systemen aber mit Vorsicht einzusetzen, damit es nicht zu einem zu hohen oder zu niedrigen Vertrauen kommt – beides kann problematisch sein. Bei einem zu hohen Vertrauen kann es dazu kommen, dass ein System über dessen Grenzen hinaus genutzt wird, man verlässt sich fälschlicherweise auf das System. Bei zu niedrigem Vertrauen kann es sein, dass ein System nicht genutzt wird, obwohl es angebracht wäre.
Zukünftig möchte ich mir in Laborstudien die tatsächliche Interaktion mit einer (menschenähnlichen) KI-Arbeitsassistenz anschauen. Dabei wird mein Fokus neben dem Vertrauen in die KI auf Faktoren wie der Erwartungshaltung gegenüber dem System und dem Flow-Erleben während der Interaktion liegen.
Zitiervorschlag
Reuter, Muriel: Vertrauen oder nicht vertrauen - wenn KI menschlich wird, In: Künstliche Intelligenz [online]. Dortmund: Bundesanstalt für Arbeitsschutz und Arbeitsmedizin. Verfügbar unter: https://www.baua.de/DE/Forschung/Projektblogs/KI-Blog/Artikel/KI-Vertrauen