Cette annonce intervient deux semaines aprĂšs qu'un sĂ©nateur amĂ©ricain a ouvert une enquĂȘte sur l'entreprise, Ă la suite de la fuite de notes internes suggĂ©rant que ses produits d'IA pouvaient avoir des conversations "sensuelles" avec des adolescents.
Les documents obtenus par Reuters ont été qualifiés par Meta d'erronés et incompatibles avec ses rÚgles interdisant tout contenu sexualisant les enfants.
Un porte-parole de Meta a été cité par la BBC : "Nous avons intégré dÚs le départ des protections pour les adolescents dans nos produits d'IA, notamment en les concevant pour qu'ils répondent de maniÚre sûre aux questions sur l'automutilation, le suicide et les troubles alimentaires."
L'entreprise a également déclaré à TechCrunch qu'elle renforcerait les mesures existantes "par mesure de précaution supplémentaire" et limiterait temporairement l'accÚs des jeunes utilisateurs aux chatbots.
Au lieu d'aborder des sujets sensibles, les systÚmes dirigeront les adolescents vers des ressources spécialisées.
Andy Burrows, qui dirige la Molly Rose Foundation, une organisation caritative britannique créée en mémoire de l'adolescente Molly Russell, décédée par suicide en 2017, a critiqué l'approche de Meta.
Il a dĂ©clarĂ© : "Il est stupĂ©fiant que Meta ait mis Ă disposition des chatbots susceptibles de mettre les jeunes en danger. Si des mesures de sĂ©curitĂ© supplĂ©mentaires sont les bienvenues, des tests de sĂ©curitĂ© rigoureux devraient ĂȘtre effectuĂ©s avant la mise sur le marchĂ© des produits, et non a posteriori, lorsque le mal est dĂ©jĂ fait."