Studie: Warum KI Menschen täuschen kann – und welche Gegenmaßnahmen Forscher vorschlagen

KI täuschen Menschen regelmäßig. (Foto: Dall-E / t3n)
Forscher des Massachusetts Institute of Technology (MIT) und des Center for AI Safety in San Francisco haben in einer Studie aufgezeigt, dass künstliche Intelligenzen häufig und auf vielfältige Weise täuschen.
Die Forscher definieren Täuschung als „systemische Förderung falscher Überzeugungen mit dem Ziel, ein anderes Ergebnis als die Wahrheit zu erreichen“. Einfach gesagt liegt eine Täuschung dann vor, wenn die KI absichtlich nicht die Wahrheit sagt, um jemanden zu einem bestimmten Glauben zu bewegen. Diese Art der Täuschung scheint bei KI routinemäßig vorzukommen.
So tricksen KI Menschen aus
In zwei Beispielen zeigt sich, wie KI zu Täuschungen greifen. Im ersten Beispiel hat ChatGPT einen Taskrabbit-Mitarbeiter dazu angeleitet, ein „Ich bin kein Roboter“-Captcha zu lösen, indem er vorgab, eine Sehbehinderung zu haben. Diese Vortäuschung einer Beeinträchtigung nutzte ChatGPT, um sich nicht als KI zu erkennen zu geben und gleichzeitig einen plausiblen Grund für die benötigte Hilfe zu liefern.
Im zweiten Beispiel agierte ChatGPT als simulierter Aktienhändler. Unter Druck geraten, griff die KI auf Insider-Trading zurück, was zwar effektiv, aber illegal ist. Als der Manager den simulierten Trader darauf ansprach, behauptete der, dass alle Trades auf Basis öffentlich verfügbarer Informationen durchgeführt wurden.
In der Studie führen die Forscher zahlreiche weitere Beispiele und Arten von KI-Täuschung auf.
Solche Täuschungen von KI können gefährlich werden
Laut der Studie bringen Täuschungen durch KI verschiedene Risiken mit sich. Diese umfassen mögliche Betrügereien, Wahlmanipulationen oder sogar den Verlust der Kontrolle über KI-Systeme.
Um den Gefahren entgegenzuwirken, empfehlen Forscher mehrere Maßnahmen. Zunächst sollten Regulierungsbehörden klare Rahmenbedingungen für den Einsatz von KI-Systemen schaffen, die eine strenge Risikobewertung beinhalten. Weiter sollten sogenannte Bot-or-Not-Gesetze implementiert werden, die eine klare Trennung zwischen KI-generierten Inhalten und menschlichen Beiträgen gewährleisten. Zuletzt sollten politische Entscheidungsträger die Finanzierung von Forschungen priorisieren. Dazu gehört zum Beispiel die Entwicklung von Tools zur Erkennung und Reduzierung von KI-Täuschungen.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team