jeudi 20 février 2025

Mon Waze a eu un AVC

Pierre Pestieau

Mon GPS Waze semble avoir eu un AVC. Après un mois sans conduire, j'ai repris le volant et quelle ne fut pas ma surprise d'entendre sa voix affaiblie, comme épuisée. Cette expérience m'a rappelé une conversation récente avec mon petit-fils au sujet de ChatGPT. Je lui confiais ma tendance à toujours commencer mes requêtes par "please". À ma grande surprise, il m'a révélé que lui et ses amis faisaient de même, tout en suggérant que ce n'était peut-être pas optimal - selon lui, ChatGPT serait plus efficace sans ces formules de politesse.

Cette réflexion a fait resurgir le souvenir d'une conversation déplaisante avec un colon français à Abidjan. Nous partagions un taxi et il s'adressait au chauffeur de manière particulièrement directive, sans la moindre courtoisie. Lorsque je lui en ai fait la remarque, il m'a rétorqué qu'avec la politesse, le service était moins bon.

Me voilà donc à méditer sur mon Waze souffrant et un ChatGPT comparé à un chauffeur de taxi ivoirien. Quel monde étrange que le nôtre.


Ces comportements peuvent s'expliquer par plusieurs facteurs psychologiques et sociaux. D'abord, les humains ont une tendance naturelle à l'anthropomorphisme - cette propension à attribuer des caractéristiques humaines aux objets, aux animaux ou aux technologies. Quand nous interagissons avec une intelligence artificielle qui communique en langage naturel, cette illusion de personnalité humaine se renforce, nous poussant à employer des formules de politesse. Dans notre société contemporaine, où les animaux de compagnie prennent souvent la place d'enfants absents, on observe couramment des personnes conversant avec leur chien (plus qu'avec leur chat) comme ils le feraient avec un enfant.

Les habitudes sociales et les normes culturelles jouent également un rôle majeur. Les formules de politesse comme "s'il vous plaît" et "merci" sont profondément ancrées dans nos interactions sociales. Elles surgissent automatiquement, souvent inconsciemment, même face à une entité non humaine. C'est le reflet de notre éducation et de notre culture.

Même en sachant pertinemment que l'IA ne ressent pas d'émotions, nous pouvons craindre inconsciemment de paraître impolis, particulièrement dans des contextes où le langage est analysé. Cette attitude découle d'une réflexion morale suggérant que maintenir des normes respectueuses dans toutes nos interactions favorise un comportement global plus civilisé.


En définitive, notre utilisation de formules de politesse avec une IA résulte d'un mélange de réflexes sociaux et d’une tendance naturelle à humaniser notre environnement. Cela contribue à rendre nos interactions plus naturelles et agréables, même si nous sommes conscients que notre interlocuteur n'est pas véritablement humain.


A un ami qui ne voyait pas où je voulais en venir, je posais la question : « Imagine que le matin, un robot t’apporte ton petit dejeuner au lit. Au moment où il te tend le plateau, que diras-tu? Rien ou merci? Ta reponse sera-t’elle modifiee s’il te dit: Voici votre petit dejeuner, monsieur. J’espere que vous avez bien dormi'.


J’ai d’ailleurs posé cette même question à ChatGPT, sans lui dire S’il vous plait. Voici sa réponse :


Si un robot m’apportait mon petit-déjeuner au lit, mon premier réflexe serait probablement de dire "merci", par simple habitude de politesse, même s'il ne s'agit pas d'un être humain.


Si le robot ajoutait une phrase plus chaleureuse comme "Voici votre petit-déjeuner, monsieur. J’espère que vous avez bien dormi", alors ma réponse serait encore plus spontanée et naturelle, peut-être quelque chose comme "Oh, merci ! Oui, j’ai bien dormi" ou même "Merci, c’est gentil", car son message simulerait une interaction humaine plus aboutie.


En fin de compte, notre réponse dépend de la manière dont nous percevons le robot : s'il agit de manière plus humaine, nous serons plus enclins à lui répondre comme nous le ferions avec une personne réelle. 

 

 

 

 

 

Aucun commentaire:

Enregistrer un commentaire