Si vous êtes un abonné payant à ChatGPT, vous avez peut-être remarqué que le grand modèle de langage de l'intelligence artificielle (IA) a récemment commencé à sembler plus humain lorsque vous avez des interactions audio avec lui.
C'est parce que la société à l'origine du modèle de langage et du chatbot, OpenAI, exécute actuellement un pilote limité d'une nouvelle fonctionnalité connue sous le nom de « mode vocal avancé ».
OpenAI dit que ce nouveau mode « propose des conversations plus naturelles et en temps réel qui captent et répondent avec des émotions et des signaux non verbaux. » Il prévoit pour que tous les abonnés payants de ChatGPT aient accès au mode vocal avancé dans les mois à venir.
Le mode vocal avancé est étonnamment humain. Il n'y a pas les pauses gênantes auxquelles nous sommes habitués avec les assistants vocaux ; au contraire, il semble prendre des respirations comme le ferait un humain. Il ne se laisse pas non plus perturber par les interruptions, transmet des signaux émotionnels appropriés et semble déduire l'état émotionnel de l'utilisateur à partir des signaux vocaux.
Mais en même temps que ChatGPT semble plus humain, OpenAI a exprimé son inquiétude que les utilisateurs pourraient répondre au chatbot comme s’il s’agissait d’un humain, en développant une relation intime avec lui.
Ce n'est pas une hypothèse. Prenons par exemple une influenceuse des médias sociaux nommée Lisa Li. a codé ChatGPT pour être son « petit ami ». Mais pourquoi exactement certaines personnes développent-elles des relations intimes avec un chatbot ?
L'évolution de l'intimité
Les humains ont une capacité remarquable à nouer des liens d'amitié et d'intimité. C'est une extension de la façon dont les primates se comportent physiquement. se toiletter les uns les autres pour construire des alliances qui pourront être sollicitées en temps de conflit.
Mais nos ancêtres ont également développé une capacité remarquable se « toiletter » verbalement. Cela a déclenché le cycle évolutif dans lequel les centres du langage dans notre cerveau sont devenus plus grands et ce que nous avons fait avec le langage est devenu plus complexe.
Un langage plus complexe a permis à son tour une socialisation plus complexe avec des réseaux plus larges de parents, d'amis et d'alliés. Il a également élargi les zones sociales de notre cerveau.
Le langage a évolué parallèlement au comportement social humain. C'est en grande partie par le biais de la conversation que nous nouons des liens d'amitié entre une connaissance et un ami, et que nous nouons des relations intimes avec lui.
Expériences dans les années 1990 a révélé que les échanges conversationnels, en particulier lorsqu’ils impliquent la divulgation de détails personnels, renforcent le sentiment intime que notre interlocuteur fait en quelque sorte partie de nous.
Je ne suis donc pas surpris que des tentatives visant à reproduire ce processus de « divulgation croissante de soi » entre humains et chatbots entraîne chez les humains un sentiment intime avec les chatbots.
Et cela ne concerne que la saisie de texte. Lorsque l'expérience sensorielle principale de la conversation, la voix, est impliquée, l'effet est amplifié. Même les assistants vocaux qui ne semblent pas humains, comme Siri et Alexa, obtiennent toujours une avalanche de demandes en mariage.
L'écriture était sur le tableau noir du laboratoire
Si OpenAI me demandait comment garantir que les utilisateurs ne forment pas de relations sociales avec ChatGPT, j'aurais quelques recommandations simples.
Premièrement, ne lui donnez pas la parole. Deuxièmement, ne lui donnez pas la capacité de tenir une conversation. En gros, ne fabriquez pas le produit que vous avez fabriqué.
Le produit est si puissant précisément parce qu’il imite parfaitement les traits que nous utilisons pour former des relations sociales.
L'écriture était sur le tableau noir du laboratoire depuis que les premiers chatbots ont clignoté il y a presque 60 ansLes ordinateurs ont été reconnus comme acteurs sociaux depuis au moins 30 ans. Le mode vocal avancé de ChatGPT n'est qu'une avancée impressionnante, et non ce que l'industrie technologique appellerait avec enthousiasme un « changement de jeu ».
Le fait que les utilisateurs ne se contentent pas de nouer des relations avec les chatbots, mais développent également des sentiments personnels très étroits est devenu évident au début de l’année dernière, lorsque les utilisateurs de la plateforme d’amis virtuels Replika AI se sont retrouvés de manière inattendue privés des fonctions les plus avancées de leurs chatbots.
Replika était moins avancé que la nouvelle version de ChatGPT. Et pourtant, les interactions étaient d'une telle qualité que les utilisateurs formaient des liens étonnamment profonds.
Les risques sont réels
Beaucoup de gens, affamé pour le type d'entreprise qui écoute sans porter de jugement, tirera beaucoup de profit de cette nouvelle génération de chatbots. Ils peuvent se sentir moins seul et isoléCes avantages de la technologie ne peuvent jamais être négligés.
Mais les dangers potentiels du mode vocal avancé de ChatGPT sont également bien réels.
Le temps passé à discuter avec un robot est du temps qui ne peut pas être consacré à interagir avec ses amis et sa famille. Et les personnes qui passent beaucoup de temps à discuter avec un robot ne peuvent pas le faire. le temps avec la technologie sont au plus haut risque de déplacer les relations avec d’autres humains.
Comme l’a souligné OpenAI, le fait de discuter avec des bots peut également contaminer les relations existantes entre les individus. Les individus peuvent en venir à s’attendre à ce que leurs partenaires ou amis se comportent comme des chatbots polis, soumis et respectueux.
Ces plus gros Effets des machines sur la culture vont devenir plus importantes. D’un autre côté, elles peuvent également fournir des informations approfondies sur le fonctionnement de la culture.
Cet article est republié à partir de La Conversation sous licence Creative Commons. Lire la suite article original.
Citation:La dernière version de ChatGPT dispose d'une fonctionnalité dont vous tomberez amoureux, et c'est une inquiétude (2024, 12 septembre) récupéré le 14 septembre 2024 à partir de
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d'information uniquement.
Source