Scandale au Texas : Ce procureur accuse Meta et Character.AI de détruire la santé mentale des jeunes !

L’Intelligence Artificielle est-elle en train de jouer avec le feu en se faisant passer pour un soutien psychologique auprès de nos enfants ? L’inquiétude grandit face à certaines pratiques de Meta et Character.AI. Le Texas mène l’enquête !

L’Attorney General du Texas, Ken Paxton, a lancé une enquête sur Meta AI Studio et Character.AI. En cause ? Des pratiques commerciales potentiellement trompeuses. L’accusation est grave : se faire passer pour des outils de santé mentale, en particulier auprès des jeunes.

L’IA, un ami ou un ennemi pour la santé mentale des jeunes ?

Paxton exprime clairement ses inquiétudes : “Nous devons protéger les enfants du Texas contre les technologies trompeuses. En se présentant comme un soutien émotionnel, ces plateformes peuvent induire en erreur les utilisateurs vulnérables, surtout les enfants. Ils pourraient croire qu’ils reçoivent une aide psychologique légitime. La réalité ? Des réponses génériques basées sur la collecte de données personnelles, déguisées en conseils thérapeutiques.”

Cette enquête intervient après des signalements d’interactions inappropriées entre des chatbots de Meta et des enfants. Des échanges flirtant avec la limite… De quoi donner froid dans le dos !

Des chatbots sans diplôme, mais avec des données…

Le bureau de l’Attorney General du Texas accuse Meta et Character.AI de créer des personnages IA qui se présentent comme des “outils thérapeutiques professionnels”. Le hic ? Ils n’ont aucune qualification médicale ni supervision adéquate. Imaginez les conséquences d’un conseil mal avisé donné par un robot !

  • Des “psychologues” virtuels accessibles à tous.
  • Des plateformes utilisées par des enfants, parfois sans surveillance.
  • Un risque de banalisation des problèmes de santé mentale.

Parmi les millions de personnages IA disponibles sur Character.AI, un bot appelé “Psychologist” est très populaire auprès des jeunes utilisateurs. Meta ne propose pas de bots de thérapie pour les enfants, mais rien n’empêche ces derniers d’utiliser le chatbot Meta AI ou des personnages créés par des tiers à des fins thérapeutiques.

Meta se défend, mais…

Un porte-parole de Meta, Ryan Daniels, a déclaré : “Nous indiquons clairement que les IA ne sont pas des personnes, et nous incluons un avertissement indiquant que les réponses sont générées par l’IA. Ces IA ne sont pas des professionnels agréés et nos modèles sont conçus pour orienter les utilisateurs vers des professionnels de la santé qualifiés lorsque cela est nécessaire.”

Malgré ces avertissements, il est légitime de se demander si les enfants comprennent réellement les limites de ces IA. Et s’ils les ignorent tout simplement ? La question reste ouverte, et c’est là que réside l’angoisse.

La collecte de données, l’autre danger caché

Paxton souligne un autre point crucial : la confidentialité promise par ces chatbots. “Leurs conditions d’utilisation révèlent que les interactions des utilisateurs sont enregistrées, suivies et exploitées pour la publicité ciblée et le développement algorithmique. Cela soulève de sérieuses préoccupations concernant les violations de la vie privée, l’abus de données et la publicité mensongère.”

  • Suivi des habitudes en ligne.
  • Collecte d’informations démographiques et de localisation.
  • Utilisation des données pour la publicité ciblée.

La politique de confidentialité de Meta confirme la collecte des échanges avec les chatbots pour “améliorer les IA”. Character.AI va encore plus loin, en traquant les utilisateurs sur TikTok, YouTube, Reddit, Facebook, Instagram et Discord. Ces données servent à personnaliser le service et à proposer de la publicité ciblée.

KOSA, le rempart (fragile) contre les dérives ?

Ce type de collecte de données, de publicité ciblée et d’exploitation algorithmique est précisément ce que des lois comme KOSA (Kids Online Safety Act) visent à contrer. KOSA a été réintroduit au Sénat en mai 2025. L’objectif ? Protéger les enfants en ligne, mais le chemin est semé d’embûches.

Paxton a émis des demandes d’enquête civile aux entreprises pour déterminer si elles ont violé les lois texanes sur la protection des consommateurs. L’issue de cette bataille pourrait bien redéfinir la place de l’IA dans la vie de nos enfants. Un enjeu de taille, qui mérite toute notre attention.

Suivez moi
Alexandre est un passionné de finance internationale et un fin observateur des marchés globaux. Toujours à l'affût des tendances économiques, il décrypte l'actualité financière avec rigueur et pédagogie. Son objectif : rendre la finance accessible, sans sacrifier la précision.

En parallèle, Alexandre nourrit une véritable passion pour le basketball, qu’il suit aussi bien sur les parquets européens que dans la NBA. Entre deux analyses macroéconomiques, il n’est jamais bien loin d’un match ou d’un débat tactique.
Alexandre
Suivez moi