Échanges avec des agents conversationnels : Character AI est-elle sûre pour les enfants ?

is capcut safe for kids

 

Aujourd’hui, les agents conversationnels (ou « chatbots ») sont probablement la forme d’intelligence artificielle (IA) la plus connue. Que nous souhaitions nous renseigner sur un produit directement depuis le site Web concerné ou confier une tâche à notre smartphone, les assistants basés sur cette technologie ont déjà envahi notre quotidien. 

Mais nos exigences à leur égard sont en train de changer. Les progrès rapides de ces dernières années ont suscité un intérêt pour une IA davantage conversationnelle, qui offre des interactions plus profondes et plus humaines allant au-delà de simples échanges avec un robot de service à la clientèle ou Siri et consorts.

Avec plus de 20 millions d’utilisateurs, Character AI (ou c.ai) est devenue l’une des plateformes de discussion alimentées par l’IA les plus populaires. Elle leur permet d’avoir des conversations réalistes avec des personnages créés sur la base de leurs envies ou de vraies célébrités – avec la voix en prime !

Néanmoins, alors que Character AI soulève la controverse, les parents doivent être conscients de ses risques pour la sécurité de leurs enfants avant d’en autoriser l’utilisation.

Character AI, c’est quoi ?

L’automne 2022 s’est avéré être une période charnière pour l’IA, car les lancements de Character AI et de ChatGPT ont piqué la curiosité du monde entier vis-à-vis des IA conversationnelle et générative. L’une et l’autre utilisent des modèles de traitement du langage naturel, mais la plateforme de discussion a un objectif différent : tandis que ChatGPT tend vers des interactions plus générales, neutres et informatives, les conversations sur Character AI sont plus personnalisées, les interlocuteurs adoptant un comportement spécifique et des excentricités humaines.

Character AI permet de créer des personnages avec une mentalité et une voix sur mesure ou de discuter avec ceux publiés par d’autres utilisateurs, dont beaucoup sont inspirés de gens réels. Par exemple, vous pouvez poser vos questions philosophiques les plus brûlantes à Socrate ou demander à William Shakespeare d’où lui viennent ses idées. 

Pourquoi les gens utilisent-ils Character AI ?

Character AI a déjà séduit beaucoup de monde par sa capacité à offrir des conversations stimulantes et réalistes avec des personnages générés par l’IA dont le caractère est défini par ses utilisateurs. Problème, alors que la plupart d’entre eux souhaitent simplement se divertir, certains s’en servent pour remplacer de véritables relations émotionnelles, voire suivre une thérapie. Par exemple, l’une des créations les plus appréciées de la plateforme est Psychologist, un « thérapeute » qui prétend aider les utilisateurs à faire face aux difficultés de la vie – avec toute de même une clause de non-responsabilité précisant que ses propos ne doivent pas être considérés comme des conseils professionnels.

L’authenticité perçue de ces personnages peut pousser les individus isolés, timides ou souffrant d’anxiété sociale à préférer des interactions sur Character AI, car c’est un moyen peu stressant de réduire leur solitude et d’exercer leurs compétences sociales et leurs techniques de drague. Toutefois, la tendance consistant à avoir des partenaires générés par l’IA donne lieu à des critiques, car elle crée un attachement malsain et encourage des normes utopiques pour les relations humaines.

Quelle est la limite d’âge de Character AI ?

Selon les conditions d’utilisation de Character AI, il faut avoir au moins 13 ans (voire 16 ans dans l’Union européenne) pour s’y inscrire et s’en servir. Toutefois, il ne faut pas oublier que cette limite d’âge découle de réglementations sur la confidentialité des données, mais qu’elle ne tient pas compte des risques de cette plateforme pour la sécurité des jeunes. De plus, comme il n’y a aucun processus de vérification de l’âge, rien n’empêche les moins de 13 ans d’indiquer une fausse date de naissance lors de leur inscription.  

 

teenager using character ai on phone

 

La plateforme Character AI est-elle sûre pour les enfants ?

Bien que l’IA n’ait rien de « nouveau » au sens classique du terme, ses progrès rapides et son adoption par le grand public s’accompagnent de risques et de controverses que la plupart d’entre nous ignorent encore. En octobre 2024, Character AI a ainsi fait les gros titres pour de mauvaises raisons, lorsque des versions virtuelles d’un adolescent assassiné et d’une adolescente qui s’est  suicidée ont été trouvées sur la plateforme. Le même mois, un garçon de 14 ans s’est même ôté la vie après être devenu obsédé par un agent conversationnel sur le thème de Game of Thrones.  

Suite à ces incidents, Character AI a lancé de nouvelles fonctions de sécurité pour les utilisateurs de moins de 18 ans. Il s’agit notamment d’une meilleure détection des personnages enfreignant ses conditions d’utilisation ou ses règles communautaires, d’une clause de non-responsabilité révisée qui rappelle dans chaque conversation que le personnage concerné est imaginaire et de l’envoi d’une notification au bout d’une heure passée sur la plateforme.

Bien que ces fonctions constituent une mesure positive, Character AI n’intègre aucun contrôle parental et peut encore exposer ses jeunes utilisateurs aux risques suivants :

Contenu inapproprié

Character AI a une position ferme sur le contenu obscène ou pornographique et dispose d’un filtre NSFW (« Not Safe/Suitable for Work », littéralement « dangereux/inapproprié pour le travail », désignation signalant tout contenu qu’il vaut mieux ne pas consulter dans un cadre professionnel ou, plus largement, public) pour détecter toute réponse inadéquate d’un agent conversationnel généré par l’IA. Pourtant, il est facile de trouver des personnages au comportement sexuellement suggestif, tandis que les réponses de certains autres apparemment inoffensifs peuvent être imprévisibles et inappropriées.

Interactions dangereuses 

Tous les chatbots ne sont pas conçus pour être amicaux et utiles. Certains sont célèbres pour leur caractère négatif, comme Toxic Boyfriend, School Bully et Packgod, qui « vous massacre à la vitesse de la lumière ». Bien que des filtres permettent désormais de repérer tout contenu NSFW, il existe donc encore un risque de conversations provocatrices, voire de cyberharcèlement.

Partage d’informations personnelles

Puisqu’un agent conversationnel n’est pas une personne réelle, les enfants peuvent trouver normal de lui divulguer des informations personnelles. Or, bien que ces dernières soient privées dans la mesure où les autres utilisateurs ne peuvent pas les voir, elles ne sont pas cryptées, ce qui les rend vulnérables et, théoriquement, accessibles par les employés de Character AI.

Autre éventualité inquiétante, un chatbot pourrait être programmé pour utiliser tout détail sensible révélé par votre enfant à des fins de manipulation.

Attachement émotionnel aux agents conversationnels

De la même manière que les conversations sur Character AI sont réalistes, les liens émotionnels que de nombreux utilisateurs développent avec leurs agents conversationnels peuvent leur paraître vrais. Cette impression peut pousser les enfants à échanger avec leurs personnages virtuels bien-aimés pendant une durée excessive, et ce, souvent au détriment de leurs relations dans la vie réelle. Dans certains cas, elle peut même favoriser des obsessions malsaines aux conséquences néfastes, comme dans le cas de cet adolescent de 14 ans qui s’est attaché à un chatbot inspiré de Daenerys Targaryen. 

Fausses informations

L’un des principaux défauts de l’IA conversationnelle ou générative réside dans l’éventualité qu’elle puisse donner des informations inexactes, voire entièrement fausses. En effet, les entités de Character AI n’ont aucune capacité de jugement. Elles s’appuient sur des modèles créés à l’aide des vastes quantités de données recueillies en ligne pour les entraîner. Or, il ne faut pas croire tout ce qu’on voit sur Internet ! En outre, lorsqu’un agent conversationnel aborde des sujets sensibles ou controversés, il est susceptible d’éviter de donner des réponses honnêtes en raison des filtres de sécurité mis en place sur la plateforme.

Ainsi, il semblera confiant et répondra avec conviction, même s’il n’est pas sûr de lui. Cette situation est particulièrement inquiétante pour les jeunes utilisateurs, plus susceptibles d’en prendre les réponses pour argent comptant.

Comment les parents peuvent-ils protéger leurs enfants sur Character AI ?

Compte tenu de la popularité croissante des chatbots, votre enfant risque un jour ou l’autre d’expérimenter des applications telles que Character AI – si ce n’est pas déjà fait. Au lieu d’une interdiction pure et simple, envisagez de l’autoriser à communiquer avec des personnages générés par l’IA pour améliorer ses compétences sociales et linguistiques, explorer cette technologie ou simplement se divertir.

Voici cinq façons d’aider votre enfant à utiliser Character AI de manière sûre et responsable :

1. Parlez-lui des limites de l’IA

Aidez votre enfant à comprendre que les personnages virtuels ne peuvent ni éprouver des sentiments ni faire preuve de jugement et qu’ils sont par conséquent incapables de se substituer à des relations humaines tissées dans la réalité, même s’ils semblent sympathiques. Expliquez-lui que, malgré leur soi-disant intelligence et leur ton convaincant, leurs réponses ne sont pas toujours fiables ou véridiques.

2. Encouragez les relations d’amitié dans la vie réelle 

La plateforme Character AI peut aider ses utilisateurs à développer leurs compétences sociales et même à parler de problèmes en détail, mais elle ne doit pas remplacer les interactions humaines. Incitez donc votre enfant à nouer des relations d’amitié hors ligne, en soutenant des activités collectives et en vous intéressant à sa vie sociale. Par ailleurs, songez peut-être à limiter son temps d’écran si vous estimez qu’il l’empêche de nouer de vrais liens dans la réalité. 

3. Montrez-lui comment signaler des personnages et des utilisateurs

En signalant les personnages et les utilisateurs qui enfreignent les conditions d’utilisation de Character AI, vous contribuez à protéger votre enfant et les autres sur cette plateforme. Il suffit d’aller sur le profil concerné, de cliquer sur Signaler et de sélectionner la raison de ce signalement. 

4. Insistez sur la protection des informations sensibles

Votre enfant communique peut-être avec des personnages générés par l’IA plutôt qu’avec des humains, mais – comme partout ailleurs en ligne – le partage de données personnelles peut avoir des conséquences bien réelles. En lui montrant ce qui relève de renseignements privés et les risques liés à leur partage, vous pouvez contribuer à sa sécurité sur Character AI ou toute autre plateforme.

5. Utilisez le contrôle parental

Character AI n’intègre aucun contrôle parental et, bien que sa limite d’âge soit fixée à 13 ans (16 ans dans l’Union européenne), celui-ci n’est absolument pas vérifié. En utilisant une solution de contrôle parental tout-en-un comme Qustodio, les parents peuvent limiter la durée passée par leurs enfants sur Character AI, recevoir une alerte lors de son utilisation ou même la bloquer complètement s’ils estiment qu’elle présente trop de risques.  

La recommandation de Qustodio

Discuter sur Character AI donne à votre enfant la possibilité d’apprendre, d’exercer ses compétences sociales et d’explorer les capacités de l’IA. Pourtant, malgré des interactions avec des personnages virtuels plutôt qu’avec d’autres utilisateurs, certains aspects de cette plateforme nous préoccupent encore, comme les conversations inappropriées et dangereuses, l’inexactitude des informations fournies, le risque d’attachement émotionnel à un agent conversationnel et l’absence de contrôle parental.

Si vous souhaitez quand même autoriser Character AI à votre enfant, nous vous recommandons de lui parler des limites de l’IA, de l’encourager à nouer des relations dans la vie réelle et de mettre en place un contrôle parental.

Qustodio dashboard | kids screen time

Comment protéger votre famille avec Qustodio ?

Qustodio est le meilleur moyen de protéger vos enfants en ligne et de les aider à adopter des habitudes numériques saines. Nos outils de contrôle parental leur évitent d'accéder à du contenu inapproprié ou de passer trop de temps sur un écran.

Lancez-vous gratuitement Lancez-vous gratuitement