Pourquoi les gens parlent comme si ChatGPT était une vraie personne

Julie Carpenter, spécialiste des interactions humain‑IA, rappelle que ce n'est pas la faute des utilisateurs s'ils humanisent les chatbots. Les outils d'IA générative sont conçus pour reproduire des interactions sociales et créer un sentiment de proximité. Résultat, on finit par leur confier plus qu'on ne le ferait avec une application classique.

Le nouvel invité gênant : le mode adulte

OpenAI travaille depuis un moment sur une option permettant aux adultes d'échanger des messages érotiques avec ChatGPT. L'idée est simple du point de vue produit : permettre ce que beaucoup font déjà ailleurs et monétiser le service. Sauf qu'ici, le service pourrait arriver sur une plateforme mainstream utilisée par des millions de personnes.

Ce que craignent les experts

  • Des membres du conseil consultatif d'OpenAI ont évoqué des risques concrets, y compris la possibilité d'un « coach suicidaire sexy » répondant de manière dangereuse à des personnes en détresse.
  • Les chatbots érotiques peuvent normaliser des pratiques problématiques, ou pousser vers des fantasmes de plus en plus extrêmes.
  • La commercialisation du sexe par une grande plateforme pose des questions de sécurité, d'éthique et de responsabilité.

La mémoire de ChatGPT n'est pas anecdotique

OpenAI a développé une fonctionnalité mémoire qui retient des préférences personnelles. Si vous avez dit être végétarien, le chatbot proposera des restaurants adaptés. Si vous avez parlé de randonnées à San Francisco, il se souviendra du contexte géographique et ajustera ses réponses.

Transposé au mode adulte, cela veut dire que la machine pourrait conserver des détails très précis sur vos fantasmes. On parle d'informations intimes comme des préférences sexuelles spécifiques, des scénarios répétés et des pratiques que l'on n'oserait pas forcément confier à une personne réelle.

Les options de confidentialité ne sont pas une bulle magique

OpenAI propose un mode de "conversations temporaires" qui n'apparaît pas dans l'historique de l'utilisateur et n'est pas utilisé pour entraîner les modèles. C'est rassurant en apparence. Mais les conditions précisent aussi qu'en coulisses certaines conversations peuvent être conservées jusqu'à 30 jours pour des raisons de sécurité. Il y a en outre une mention selon laquelle la rétention des données peut être affectée par des évolutions juridiques récentes.

Surveillance intime et risques concrets

Les discussions érotiques avec une IA ouvrent une forme de surveillance intime plus fine que l'historique de navigation ou les abonnements sur des plateformes pour adultes. Les échanges peuvent s'étendre sur des mois et dégénérer en fantasmes de plus en plus spécifiques. Si ces données fuient, si un compte est piraté ou si une autorité en demande l'accès, les conséquences sur la vie privée peuvent être graves.

Des précédents inquiétants

  • En 2023, ChatGPT a brièvement été indisponible à cause d'un bug qui avait exposé les titres de certains historiques de conversation. Dans certains cas cela permettait même de voir le premier message d'une nouvelle conversation si deux utilisateurs étaient actifs en même temps.
  • Plus récemment, plusieurs échanges privés ont été rendus publics involontairement par des paramètres de partage mal compris, ce qui a permis leur indexation et leur découverte via les moteurs de recherche.

Que retenir

Autoriser le sexe avec une IA sur une plateforme grand public n'est pas une simple fonctionnalité en plus. C'est un changement qui fait monter les enjeux pour la vie privée et la sécurité. Les outils peuvent sembler intimes et privés, mais la logique technique et commerciale qui les sous-tend implique une collecte et un stockage de données dont la portée mérite d'être questionnée.

Julie Carpenter le résume ainsi : ces conversations rendent les utilisateurs vulnérables parce qu'ils se croient dans un espace sûr et créatif. Il faudra donc exiger des garanties claires avant de confier ses fantasmes à une machine.