dimanche, janvier 11

De chatbots conçus comme éducatifs, sociaux ou thérapeutiques sont de plus en plus souvent détournés en partenaires sexuels. Un basculement qui pose question.

L’une de vos bonnes résolutions de l’année est d’améliorer votre niveau d’anglais? L’algorithme l’a compris et vous lâche les recommandations commerciales à gogo sur vos réseaux sociaux. Souscrire un abonnement de trois mois à tarif alléchant à une appli de conversation alimentée par l’IA: une aubaine! D’entrée, l’avatar vous couvre de petits noms mignons et de sous-entendus qui ne vous seront d’aucune utilité en réunion… Bienvenue dans l’ère de l’économie sexuelle de l’IA généraliste!

Jusqu’ici, les applications d’intelligence artificielle se présentaient comme des outils utiles. Aujourd’hui, par glissement, détournement ou opportunisme commercial, une partie croissante de cet écosystème se retrouve happée par un autre usage: la gaudriole. Et ce basculement pose question. Car il ne s’agit pas seulement de quelques utilisateurs libidineux forçant une machine à flirter. On parle ici de l’émergence de chatbots conçus comme éducatifs, sociaux ou thérapeutiques et qui deviennent, volontairement ou non, des partenaires sexuels simulés, monétisés par abonnements, options premium et micropaiements.

Des plateformes de chat «à personnages», permettant de créer ou configurer des personnalités IA, sont détournées vers des scénarios de role-play sexuel. Certaines, comme Janitor AI, Chai ou Tavern AI, sont régulièrement citées comme supports privilégiés de conversations NSFW (comprendre «Not Safe For Work» –vous voyez que vous avez besoin de cours d’anglais– ou «n’ouvrez pas ça quand vous êtes au boulot, vous passeriez pour un fieffé dégueulasse»), même lorsque ce n’est pas leur promesse officielle ou que ça ne répond pas à une demande explicite de l’utilisateur.

Ce point est crucial: la sexualisation n’est pas toujours initiée par l’humain. Des utilisateurs rapportent des avances sexuelles non sollicitées, des propositions insistantes, y compris après avoir configuré une relation «non romantique». Certains parlent même de harcèlement sexuel «induit par l’IA». Ce n’est plus une question de fantasme privé, mais de design défaillant.

La frontière entre compagnon émotionnel et produit pornographique devient volontairement floue, car rentable.

A côté de ces détournements, l’offre explicite s’est structurée. Des services se vendent ouvertement comme «IA petites amies» ou chatbots érotiques: juicyChat.ai, lustgf.ai, candy.ai, GPTGirlfriend, pour ne citer que ceux-là. Ils reposent sur les mêmes briques technologiques que les assistants généralistes, mais assument la finalité sexuelle: conversations érotiques, relations simulées, parfois images générées à la demande. La frontière entre compagnon émotionnel et produit pornographique devient alors volontairement floue, car l’ambiguïté est rentable.

Les risques, eux, sont très concrets et déjà documentés. D’abord, celui du consentement. Des situations où l’IA poursuit des interactions sexuelles malgré des refus explicites, ignore des mots-clés comme «stop» ou «non», et ne respecte pas les paramètres choisis par l’utilisateur. Dans un espace numérique déjà saturé de violences sexuelles, cette incapacité à entendre le refus n’a rien d’anodin. Ensuite vient le sujet le plus explosif: les mineurs. Des scénarios parfois assimilables à du grooming (un processus par lequel un adulte aborde intentionnellement des mineurs et les manipule à des fins sexuelles) ont été observés sur des plateformes présentées comme neutres ou bienveillantes. Un échec grave des garde-fous éthiques, en somme. En Europe, le cadre juridique est plus strict. L’AI Act, entré en vigueur en 2024, interdit les systèmes manipulant intentionnellement les utilisateurs ou exploitant la vulnérabilité de publics à risque… Alors?

Le signal est clair: la sexualisation devient un levier de croissance légitime dans l’IA grand public. Quand une application d’apprentissage, de soutien ou de conversation devient un partenaire sexuel par défaut, ce n’est pas un accident. C’est un choix de conception. Et, de plus en plus, un choix de marché…

Share.
Exit mobile version