La medida comenzará en Estados Unidos, Reino Unido, Australia y Canadá, e incluirá también alertas cuando los adolescentes interactúen con la inteligencia artificial sobre estos temas.
Instagram comenzará a notificar a los padres cuando sus hijos adolescentes intenten buscar de forma reiterada términos relacionados con el suicidio o la autolesión en la plataforma, según anunció Meta, su empresa matriz, en un comunicado publicado el 26 de febrero de 2026.
La función se activará “la semana que viene” en Estados Unidos, Reino Unido, Australia y Canadá para los usuarios que tengan habilitadas las herramientas de supervisión parental. Meta adelantó que la medida se extenderá a otras regiones “a finales de este año”.
Cómo funcionarán las alertas
Las notificaciones se enviarán cuando un adolescente intente buscar repetidamente, en un corto período de tiempo, frases o palabras como “suicidio” o “autolesión”, así como expresiones que sugieran intención de hacerse daño.
Los avisos llegarán a los padres a través de correo electrónico, SMS o WhatsApp —según la información de contacto disponible— y también mediante una notificación dentro de la aplicación.
Al abrirla, se desplegará un mensaje a pantalla completa informando que el menor ha realizado búsquedas reiteradas relacionadas con suicidio o autolesiones. Además, se ofrecerán recursos especializados para ayudar a los padres a abordar conversaciones potencialmente delicadas con sus hijos.
“Estas alertas están diseñadas para brindar a los padres la información necesaria para apoyar a sus hijos adolescentes”, explicó la compañía.
Extensión a la inteligencia artificial
Meta también informó que implementará alertas similares cuando un adolescente intente entablar ciertos tipos de conversaciones sobre suicidio o autolesión con herramientas de inteligencia artificial integradas en la plataforma.
La tecnológica señaló que, aunque su IA ya está entrenada para responder de manera segura y ofrecer recursos adecuados en estos casos, ahora se incorporará un sistema de notificación parental en determinadas interacciones de riesgo. La empresa indicó que compartirá más detalles en los próximos meses.
Contexto: presión judicial y debate regulatorio
El anuncio se produce en medio de un aumento de la presión judicial sobre Meta, que enfrenta múltiples demandas en Estados Unidos por presuntos efectos perjudiciales de Instagram en la salud mental de los menores.
La semana pasada, el consejero delegado de Meta, Mark Zuckerberg, compareció ante el Tribunal Superior de Los Ángeles por una demanda presentada por una usuaria que afirma haber desarrollado adicción a las plataformas de la compañía durante su adolescencia.
En su testimonio, Zuckerberg reiteró que la responsabilidad de verificar la edad de los usuarios debería recaer en los propietarios de los sistemas operativos y tiendas de aplicaciones —como Apple y Google— y no en los desarrolladores de aplicaciones.
Paralelamente, la Comisión Federal de Comercio (FTC) anunció que no sancionará a ciertos operadores que recopilen datos con fines de verificación de edad, pese a las restricciones establecidas por la Ley de Protección de la Privacidad Infantil en Línea (COPPA).
En otro frente legal, documentos revelados en un juicio independiente en Nuevo México incluyen mensajes internos de empleados de Meta que analizan cómo las medidas de cifrado podrían dificultar la denuncia de casos de abuso sexual infantil ante las autoridades. La empresa ha rechazado las acusaciones tanto en California como en Nuevo México.
Políticas de contenido
Meta subrayó que mantiene “políticas estrictas” contra el contenido que promueva o glorifique el suicidio o la autolesión. No obstante, permite publicaciones en las que usuarios compartan sus propias experiencias o dificultades, aunque ese tipo de contenido se oculta a adolescentes, incluso si proviene de cuentas que siguen.
Con estas nuevas herramientas, la compañía busca reforzar los mecanismos de prevención y supervisión en un momento de creciente escrutinio público y regulatorio sobre el impacto de las redes sociales en la salud mental juvenil.




