L’Intelligence Artificielle est-elle en train de jouer avec le feu en se faisant passer pour un soutien psychologique auprès de nos enfants ? L’inquiétude grandit face à certaines pratiques de Meta et Character.AI. Le Texas mène l’enquête !
L’Attorney General du Texas, Ken Paxton, a lancé une enquête sur Meta AI Studio et Character.AI. En cause ? Des pratiques commerciales potentiellement trompeuses. L’accusation est grave : se faire passer pour des outils de santé mentale, en particulier auprès des jeunes.
L’IA, un ami ou un ennemi pour la santé mentale des jeunes ?
Paxton exprime clairement ses inquiétudes : “Nous devons protéger les enfants du Texas contre les technologies trompeuses. En se présentant comme un soutien émotionnel, ces plateformes peuvent induire en erreur les utilisateurs vulnérables, surtout les enfants. Ils pourraient croire qu’ils reçoivent une aide psychologique légitime. La réalité ? Des réponses génériques basées sur la collecte de données personnelles, déguisées en conseils thérapeutiques.”
Cette enquête intervient après des signalements d’interactions inappropriées entre des chatbots de Meta et des enfants. Des échanges flirtant avec la limite… De quoi donner froid dans le dos !
Des chatbots sans diplôme, mais avec des données…
Le bureau de l’Attorney General du Texas accuse Meta et Character.AI de créer des personnages IA qui se présentent comme des “outils thérapeutiques professionnels”. Le hic ? Ils n’ont aucune qualification médicale ni supervision adéquate. Imaginez les conséquences d’un conseil mal avisé donné par un robot !
- Des “psychologues” virtuels accessibles à tous.
- Des plateformes utilisées par des enfants, parfois sans surveillance.
- Un risque de banalisation des problèmes de santé mentale.
Parmi les millions de personnages IA disponibles sur Character.AI, un bot appelé “Psychologist” est très populaire auprès des jeunes utilisateurs. Meta ne propose pas de bots de thérapie pour les enfants, mais rien n’empêche ces derniers d’utiliser le chatbot Meta AI ou des personnages créés par des tiers à des fins thérapeutiques.
Meta se défend, mais…
Un porte-parole de Meta, Ryan Daniels, a déclaré : “Nous indiquons clairement que les IA ne sont pas des personnes, et nous incluons un avertissement indiquant que les réponses sont générées par l’IA. Ces IA ne sont pas des professionnels agréés et nos modèles sont conçus pour orienter les utilisateurs vers des professionnels de la santé qualifiés lorsque cela est nécessaire.”
Malgré ces avertissements, il est légitime de se demander si les enfants comprennent réellement les limites de ces IA. Et s’ils les ignorent tout simplement ? La question reste ouverte, et c’est là que réside l’angoisse.
La collecte de données, l’autre danger caché
Paxton souligne un autre point crucial : la confidentialité promise par ces chatbots. “Leurs conditions d’utilisation révèlent que les interactions des utilisateurs sont enregistrées, suivies et exploitées pour la publicité ciblée et le développement algorithmique. Cela soulève de sérieuses préoccupations concernant les violations de la vie privée, l’abus de données et la publicité mensongère.”
- Suivi des habitudes en ligne.
- Collecte d’informations démographiques et de localisation.
- Utilisation des données pour la publicité ciblée.
La politique de confidentialité de Meta confirme la collecte des échanges avec les chatbots pour “améliorer les IA”. Character.AI va encore plus loin, en traquant les utilisateurs sur TikTok, YouTube, Reddit, Facebook, Instagram et Discord. Ces données servent à personnaliser le service et à proposer de la publicité ciblée.
KOSA, le rempart (fragile) contre les dérives ?
Ce type de collecte de données, de publicité ciblée et d’exploitation algorithmique est précisément ce que des lois comme KOSA (Kids Online Safety Act) visent à contrer. KOSA a été réintroduit au Sénat en mai 2025. L’objectif ? Protéger les enfants en ligne, mais le chemin est semé d’embûches.
Paxton a émis des demandes d’enquête civile aux entreprises pour déterminer si elles ont violé les lois texanes sur la protection des consommateurs. L’issue de cette bataille pourrait bien redéfinir la place de l’IA dans la vie de nos enfants. Un enjeu de taille, qui mérite toute notre attention.
- Incroyable : Eric Trump prédit un Bitcoin à 987 000$ et encense le rôle de cette crypto chinoise ! Découvrez pourquoi il est si optimiste… - 31 octobre 2025
- Ce Side Hustle Crypto Affole Wall Street ! Découvrez Pourquoi 9 Spécialistes Recommandent Cette Opportunité Inattendue à 74,3% - 20 octobre 2025
- ALERTE : Ce piratage NPM inattendu aspire votre crypto ! Découvrez comment 47 packages populaires sont compromis et comment vous protéger absolument. - 6 octobre 2025

