Instagram a annoncé jeudi qu’il commencerait à avertir les parents lorsque leurs enfants effectuent à répétition des recherches de termes clairement associés au suicide ou à l’automutilation. Les alertes ne seront envoyées qu’aux parents inscrits au programme de supervision parentale d’Instagram.
Instagram affirme déjà bloquer ce type de contenu afin qu’il ne figure pas dans les résultats de recherche des comptes des adolescents et orienter les utilisateurs vers des lignes d’assistance.
Cette annonce intervient alors que Meta traverse deux procédures judiciaires liées aux dommages causés aux enfants. Un procès en cours à Los Angeles remet en question si les plateformes de Meta favorisent délibérément l’addiction et nuisent aux mineurs. Un autre procès, au Nouveau-Mexique, vise à déterminer si Meta n’a pas protégé les enfants contre l’exploitation sexuelle sur ses plateformes. Des milliers de familles — ainsi que des districts scolaires et des entités gouvernementales — ont poursuivi Meta et d’autres sociétés de médias sociaux, affirmant qu’elles conçoivent délibérément leurs plateformes pour qu’elles soient addictives et qu’elles échouent à protéger les enfants face à des contenus pouvant conduire à la dépression, aux troubles alimentaires et au suicide.
Les dirigeants de Meta, dont le directeur général Mark Zuckerberg, contestent que les plateformes provoquent l’addiction. Pendant l’interrogatoire par l’avocat des plaignants à Los Angeles, Zuckerberg a déclaré qu’il maintenait son accord avec une déclaration antérieure selon laquelle le corpus scientifique existant n’a pas démontré que les réseaux sociaux causent des dommages à la santé mentale.
Les alertes seront envoyées par courrier électronique, par SMS ou par WhatsApp, selon les informations de contact disponibles du parent, ainsi qu’une notification sur le compte Instagram du parent.
« Notre objectif est de permettre aux parents d’intervenir lorsque les recherches de leur adolescent suggèrent qu’il pourrait nécessiter un soutien. Nous voulons aussi éviter d’envoyer ces notifications inutilement, car un envoi excessif risquerait de les rendre globalement moins utiles », a déclaré Meta dans un billet de blog.
Meta a également indiqué qu’il travaille sur des notifications similaires destinées aux parents concernant les interactions de leurs enfants avec l’intelligence artificielle (IA).
« Celles-ci avertiront les parents si un adolescent tente d’engager certaines conversations liées au suicide ou à l’automutilation avec notre IA », a déclaré Meta. « C’est un travail important et nous aurons d’autres informations à partager dans les mois à venir. »