Blog

KulturProf. Simone Natale

Prof. Simone Natale

Professore associato Dipartimento degli studi Umanistici c/o Universita degli Studi di Torino

Ein Großteil der aktuellen Diskussion dreht sich um die Frage, ob Maschinen so intelligent wie Menschen oder noch intelligenter werden können und welche Risiken damit verbunden sind. Es gibt aber noch ein anderes Risiko, nämlich die Tatsache, dass Maschinen immer mehr in der Lage sind, Menschen gegenüber intelligent zu erscheinen. Das ist etwas, das oft übersehen wird, es kann jedoch enorme Konsequenzen haben. Selbst wenn die Maschinen nicht das Niveau von menschlicher Intelligenz erreichen, könnten sie den Nutzern, die mit Technologien wie ChatGPT oder Sprachassistenz kommunizieren, so lebendig erscheinen, als hätten Sie ein Bewusstsein und fühlten etwas.
In dieser Richtung muss noch mehr Arbeit geleistet werden. Schon jetzt gibt es viele Tools, die darauf abzielen, dem Menschen wie soziale Partner oder Liebespartner zu erscheinen. Das könnte immer mehr ausgenutzt werden, vor allem, wenn diese Technologie die menschliche Kommunikation immer besser imitiert. Wenn man bei Nutzern Empathie und andere Gefühle hervorruft, kann man sie leichter zu etwas überreden, z. B. im Marketing oder in der politischen Kommunikation.
Ich möchte nicht darüber urteilen, dass Menschen für Chatbots oder Sprachassistenten etwas empfinden können. Ich denke jedoch, die Kontrolle muss in den Händen der Nutzer liegen. Wir brauchen Regulierung und auch Protokolle für die Mensch-Computer-Interaktion, um sicherzustellen, dass anthomorphisierende Effekte so eingesetzt werden, dass sie den Nutzern nützt, nicht schadet.

Entscheidend sind auch Aspekte des Designs dieser KI-Technologien, die auf den ersten Blick banal und unbedeutend scheinen. Wenn Sie beispielsweise das Pronomen in der ersten Person verwenden, können Sie ein hohes Maß an Anthropomorphisierung bei den Nutzern hervorrufen, was sich auf die Interaktion auswirken kann.
 
In meiner Arbeit behaupte ich, dass Betrug und Täuschung, alltäglich, »banal« werden: wir wissen zwar, dass wir mit einer Maschine und nicht mit einem Mensch reden, projizieren aber auf die Maschine soziale Gewohnheiten und Modelle, die wir in der alltäglichen Interaktion mit Leuten anwenden. Das gilt auch für Technologien wie Chatbots und Sprachassistenten, mit denen wir im Alltag interagieren, ohne darüber nachzudenken.
Diese Entwicklung soll aber nicht nur negativ aufgefasst werden. Es gibt viele Bereiche des Lebens, wo wir in die Dynamik des Spiels der Selbsttäuschung eintreten, weil es uns einen gewissen Wert bietet, uns bereichert – denken Sie an die emotionalisierende Wirkung von Filmen. Das ist ein Wert für uns, weil wir diese Art der Selbsttäuschung genießen.
Auf ähnliche Weise können wir etwa Sprachassistenten einfacher im Alltag einsetzen, weil wir eine Kontinuität mit der menschlichen Kommunikation empfinden.
 
Es wird also darum gehen, die Grenzen zwischen zulässiger Selbsttäuschung und schädlichem Betrug zu finden. Das wird etwas sein, das ambivalent bleibt, und ich selbst bin diesbezüglich ambivalent.

EN Original:

A lot of the discussion focuses on the question if machines can become intelligent like humans or more intelligent than humans and the risks that are associated with that. But I think that there is also another risk, which is basically the fact that, yeah, machines become more and more able to appear intelligent to humans. And this is something that is often overlooked. But it can have a huge consequences. We can imagine, for instance, what can happen if we will be unable to distinguish machines from humans even if machines don’t reach levels of conscience, empathy, feelings, they might appear to users who communicate with technology such as ChatGPT or or voice assistance, for instance, as if they are conscient, alive and feeling things.

So I think that more work needs to be done in this direction. Already now there are a lot of tools that are aimed at appearing like a social partner or romantic partner to humans. And this can be more and more exploited, especially as this technology become more effective in imitating human communication. Also, inviting empathy and other feelings from users can have an effect in in terms of persuasion, for instance, if these technologies are used in marketing or in political communication.

I’m not judgmental about the possibility that people start to feel something even for chat bots or voice assistance. However, I just think that users need will need to be protected from potential exploitation of these dynamics. Control needs to be in the hands of users. We will need regulation and also protocols in human-computer interaction to make sure that anthromorphism is used in ways that benefit users and does not harm users. There is also a wider implication. Even if General AI will not be developed, we might still feel in the future that we are sharing our social world with machines. It is harder to predict what will happen in this regard.

I think that what we can probably find in the future is that we will have like technologies such as ChatGPT or voice assistance, there will be will continue to be used, perhaps even primarily for professional duties- but the same technologies cannot might also be applied for attracting and inviting social participation and engagement from users. Also, the even apparently insignificant aspect of the design on these technologies can invite empathy. For instance, if you use the first person pronoun, you might quite easily invite a high degree of anthropomorphization from users and this can still have impact on the on the interaction.

When watch a movie we can participate emotionally in what happens in the film.
It’s something that is a is a value for us because it allows us to enjoy. I think there is space for keeping such experiences in the context of play of something that actually can enrich people.
We can make a lot of examples where we enter in dynamics of the of play of the self-deception that provides some value to us. So the issue will be to try to navigate the boundaries, and it will not be easy. I think it will be something that remains ambivalent. I myself am ambivalent about that.

Back To Top

human ist das Leitmedium für strategische Entscheider:innen und alle, die mit KI arbeiten und leben werden. Wir stellen den Menschen in den Mittelpunkt. Für eine lebenswerte Zukunft aller.

Folgen Sie unserer Einladung zum Dialog – werden Sie Teil einer spannenden Reise…

Social