Instagram commencera à avertir les parents si leurs adolescents recherchent à plusieurs reprises des termes liés au suicide ou à l’automutilation sur la plateforme.
Ceci selon les mises à jour partagées dans son article de blog officiel.
La nouvelle fonctionnalité sera déployée dans les semaines à venir aux parents inscrits aux outils de supervision parentale de la plateforme.
Plus d’histoires
Chioma Okoli dépose une requête sans suite dans l’affaire du concentré de tomate Erisco
26 février 2026
Le FG inaugure le conseil d’administration de CREDICORP après la distribution de 37 milliards de N en crédits à la consommation en 1 an
26 février 2026
Ce qu’a dit Instagram
Selon Instagram, les recherches pouvant déclencher une alerte incluent des phrases encourageant le suicide ou l’automutilation, des phrases suggérant qu’un adolescent pourrait être en danger, ainsi que des termes généraux tels que « suicide » ou « automutilation ».
« Les alertes seront envoyées aux parents par email, SMS ou WhatsApp, en fonction des informations de contact disponibles, ainsi que par une notification in-app. En cliquant sur la notification, un message en plein écran s’ouvrira pour expliquer que leur adolescent a tenté à plusieurs reprises de rechercher sur Instagram des termes associés au suicide ou à l’automutilation dans un court laps de temps. Les parents auront également la possibilité de consulter des ressources d’experts conçues pour les aider à aborder des conversations potentiellement sensibles avec leur adolescent », ont-ils déclaré.
« Pour trouver cet équilibre important, nous avons analysé le comportement de recherche sur Instagram et consulté des experts de notre groupe consultatif sur le suicide et l’automutilation », a indiqué la société dans un article de blog.
Ils ont ajouté que le seuil pour les alertes nécessite plusieurs recherches dans un court laps de temps, tout en visant à éviter des notifications inutiles qui pourraient réduire leur efficacité.
Contexte
La décision intervient dans un contexte de scrutin juridique et public accru concernant le bien-être des adolescents en ligne, notamment en ce qui concerne le contenu nuisible, la conception addictive et l’absence d’outils de protection efficaces.
Ces derniers mois, Meta a fait face à plusieurs procès aux États-Unis l’accusant de ne pas protéger les enfants sur ses plateformes et de concevoir des systèmes contribuant à l’addiction et aux dommages psychologiques.
Les dirigeants de la société, dont le responsable d’Instagram Adam Mosseri, ont été interrogés sur le déploiement des fonctionnalités de sécurité et le défi d’équilibrer vie privée et protection des enfants.
Dans une autre affaire devant le tribunal supérieur du comté de Los Angeles, une recherche interne de Meta présentée en cour suggérait que les outils de supervision parentale avaient un impact limité sur l’utilisation compulsive des médias sociaux chez les enfants. L’étude indiquait également que les enfants confrontés à des événements stressants étaient plus susceptibles de lutter pour réguler leur usage.
Plus de détails
Les alertes commenceront à être déployées la semaine prochaine aux États-Unis, au Royaume-Uni, en Australie et au Canada, avec d’autres régions à suivre plus tard dans l’année.
Instagram a également indiqué qu’il prévoit d’étendre cette fonctionnalité à l’avenir pour déclencher des notifications lorsqu’un adolescent tente d’utiliser les outils d’intelligence artificielle de l’application dans des conversations liées au suicide ou à l’automutilation.
La société a maintenu qu’elle continuera à surveiller les retours et à affiner le système pour équilibrer la sensibilisation parentale et la vie privée des utilisateurs.
Ce que vous devez savoir
La décision d’Instagram d’alerter les parents s’appuie directement sur les réformes de sécurité que la société a commencé à déployer plusieurs mois plus tôt, alors que la surveillance de la protection des jeunes s’intensifiait.
En septembre 2024, Meta Platforms a lancé les comptes pour adolescents sur Instagram, déplaçant automatiquement les utilisateurs de moins de 18 ans vers des comptes privés avec des contrôles plus stricts. La refonte a limité qui pouvait envoyer des messages ou taguer les adolescents, réduit leur exposition à du contenu sensible dans Explore et Reels, activé des filtres anti-harcèlement renforcés, introduit des rappels de temps quotidiens, et activé le « mode sommeil » nocturne pour couper les notifications.
D’autres géants des médias sociaux font l’objet d’enquêtes similaires. TikTok, propriété de ByteDance, fait face à des procès de plusieurs États américains alléguant que son algorithme est conçu pour garder les enfants accrochés afin de maximiser les revenus publicitaires. La plateforme a également été accusée de ne pas protéger adéquatement les mineurs contre le contenu nuisible et l’exploitation.
YouTube a également été scruté quant à l’impact de ses systèmes de recommandation sur les enfants. En 2021, des législateurs ont critiqué Instagram et YouTube pour la promotion de comptes présentant du contenu sur la perte de poids extrême et les régimes auprès des jeunes utilisateurs.
Ajoutez Nairametrics sur Google News
Suivez-nous pour les dernières actualités et l’intelligence de marché.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Instagram alertera les parents si les adolescents recherchent du contenu sur le suicide ou l'automutilation
Instagram commencera à avertir les parents si leurs adolescents recherchent à plusieurs reprises des termes liés au suicide ou à l’automutilation sur la plateforme.
Ceci selon les mises à jour partagées dans son article de blog officiel.
La nouvelle fonctionnalité sera déployée dans les semaines à venir aux parents inscrits aux outils de supervision parentale de la plateforme.
Plus d’histoires
Chioma Okoli dépose une requête sans suite dans l’affaire du concentré de tomate Erisco
26 février 2026
Le FG inaugure le conseil d’administration de CREDICORP après la distribution de 37 milliards de N en crédits à la consommation en 1 an
26 février 2026
Ce qu’a dit Instagram
Selon Instagram, les recherches pouvant déclencher une alerte incluent des phrases encourageant le suicide ou l’automutilation, des phrases suggérant qu’un adolescent pourrait être en danger, ainsi que des termes généraux tels que « suicide » ou « automutilation ».
Ils ont ajouté que le seuil pour les alertes nécessite plusieurs recherches dans un court laps de temps, tout en visant à éviter des notifications inutiles qui pourraient réduire leur efficacité.
Contexte
La décision intervient dans un contexte de scrutin juridique et public accru concernant le bien-être des adolescents en ligne, notamment en ce qui concerne le contenu nuisible, la conception addictive et l’absence d’outils de protection efficaces.
Ces derniers mois, Meta a fait face à plusieurs procès aux États-Unis l’accusant de ne pas protéger les enfants sur ses plateformes et de concevoir des systèmes contribuant à l’addiction et aux dommages psychologiques.
Les dirigeants de la société, dont le responsable d’Instagram Adam Mosseri, ont été interrogés sur le déploiement des fonctionnalités de sécurité et le défi d’équilibrer vie privée et protection des enfants.
Dans une autre affaire devant le tribunal supérieur du comté de Los Angeles, une recherche interne de Meta présentée en cour suggérait que les outils de supervision parentale avaient un impact limité sur l’utilisation compulsive des médias sociaux chez les enfants. L’étude indiquait également que les enfants confrontés à des événements stressants étaient plus susceptibles de lutter pour réguler leur usage.
Plus de détails
Les alertes commenceront à être déployées la semaine prochaine aux États-Unis, au Royaume-Uni, en Australie et au Canada, avec d’autres régions à suivre plus tard dans l’année.
Instagram a également indiqué qu’il prévoit d’étendre cette fonctionnalité à l’avenir pour déclencher des notifications lorsqu’un adolescent tente d’utiliser les outils d’intelligence artificielle de l’application dans des conversations liées au suicide ou à l’automutilation.
La société a maintenu qu’elle continuera à surveiller les retours et à affiner le système pour équilibrer la sensibilisation parentale et la vie privée des utilisateurs.
Ce que vous devez savoir
La décision d’Instagram d’alerter les parents s’appuie directement sur les réformes de sécurité que la société a commencé à déployer plusieurs mois plus tôt, alors que la surveillance de la protection des jeunes s’intensifiait.
YouTube a également été scruté quant à l’impact de ses systèmes de recommandation sur les enfants. En 2021, des législateurs ont critiqué Instagram et YouTube pour la promotion de comptes présentant du contenu sur la perte de poids extrême et les régimes auprès des jeunes utilisateurs.
Ajoutez Nairametrics sur Google News
Suivez-nous pour les dernières actualités et l’intelligence de marché.