Instagram prévoit d’avertir les parents si les adolescents recherchent à plusieurs reprises des termes liés au suicide

27 février 2026


Instagram a annoncé jeudi qu’il commencerait à avertir les parents lorsque leurs enfants effectuent à répétition des recherches de termes clairement associés au suicide ou à l’automutilation. Les alertes ne seront envoyées qu’aux parents inscrits au programme de supervision parentale d’Instagram.

Instagram affirme déjà bloquer ce type de contenu afin qu’il ne figure pas dans les résultats de recherche des comptes des adolescents et orienter les utilisateurs vers des lignes d’assistance.

Cette annonce intervient alors que Meta traverse deux procédures judiciaires liées aux dommages causés aux enfants. Un procès en cours à Los Angeles remet en question si les plateformes de Meta favorisent délibérément l’addiction et nuisent aux mineurs. Un autre procès, au Nouveau-Mexique, vise à déterminer si Meta n’a pas protégé les enfants contre l’exploitation sexuelle sur ses plateformes. Des milliers de familles — ainsi que des districts scolaires et des entités gouvernementales — ont poursuivi Meta et d’autres sociétés de médias sociaux, affirmant qu’elles conçoivent délibérément leurs plateformes pour qu’elles soient addictives et qu’elles échouent à protéger les enfants face à des contenus pouvant conduire à la dépression, aux troubles alimentaires et au suicide.

Les dirigeants de Meta, dont le directeur général Mark Zuckerberg, contestent que les plateformes provoquent l’addiction. Pendant l’interrogatoire par l’avocat des plaignants à Los Angeles, Zuckerberg a déclaré qu’il maintenait son accord avec une déclaration antérieure selon laquelle le corpus scientifique existant n’a pas démontré que les réseaux sociaux causent des dommages à la santé mentale.

Les alertes seront envoyées par courrier électronique, par SMS ou par WhatsApp, selon les informations de contact disponibles du parent, ainsi qu’une notification sur le compte Instagram du parent.

« Notre objectif est de permettre aux parents d’intervenir lorsque les recherches de leur adolescent suggèrent qu’il pourrait nécessiter un soutien. Nous voulons aussi éviter d’envoyer ces notifications inutilement, car un envoi excessif risquerait de les rendre globalement moins utiles », a déclaré Meta dans un billet de blog.

Meta a également indiqué qu’il travaille sur des notifications similaires destinées aux parents concernant les interactions de leurs enfants avec l’intelligence artificielle (IA).

« Celles-ci avertiront les parents si un adolescent tente d’engager certaines conversations liées au suicide ou à l’automutilation avec notre IA », a déclaré Meta. « C’est un travail important et nous aurons d’autres informations à partager dans les mois à venir. »


Thomas Leroy

Thomas Leroy

Je m’appelle Thomas Leroy et je suis le rédacteur de Placebo. Médecin de formation et passionné par le journalisme, j’ai choisi de créer ce média pour apporter une information claire et indépendante sur la santé et les addictions. Chaque jour, je m’engage à rendre accessibles des sujets complexes afin d’aider chacun à mieux comprendre et agir.