Instagram y los adolescentes: ¿una plataforma social o un entorno de riesgo digital?
Un nuevo informe denuncia que Meta falla sistemáticamente en proteger a menores en Instagram, mientras la empresa insiste en que sus herramientas son efectivas
Instagram en el ojo del huracán: ¿fracaso estructural o negligencia deliberada?
En un entorno digital donde las grandes plataformas tecnológicas aseguran trabajar día a día para hacer sus redes más seguras, un reciente informe ha lanzado una fuerte acusación sobre Instagram, la red social insignia de Meta. Ex empleados, investigadores universitarios y organizaciones no gubernamentales advierten que los mecanismos de protección para adolescentes son ineficaces, inconsistentes y en ocasiones peligrosos.
El informe, elaborado por el exempleado de Meta y denunciante Arturo Bejar, en colaboración con entidades como Cybersecurity for Democracy (Universidad de Nueva York y Northeastern University), la Molly Rose Foundation, Fairplay y ParentsSOS, es demoledor: de las 53 herramientas de seguridad dirigidas a adolescentes que Instagram promociona, solo 8 funcionan sin limitaciones.
Más allá del marketing: promesas que no se cumplen
Desde 2019, Meta ha invertido numerosos recursos en campañas para demostrar que protege a sus usuarios más jóvenes. Las funcionalidades para “cuentas adolescentes” y los controles parentales —como la limitación de mensajes o filtros sobre contenido sensible— han sido promovidos como avances significativos. No obstante, según el estudio, muchas de estas herramientas han desaparecido, fallan en su diseño o no tienen impacto medible.
“Lo más preocupante no es la falta de herramientas, sino que Meta da una falsa sensación de seguridad a padres e hijos”, denuncia el informe.
A modo ilustrativo, los investigadores crearon cuentas ‘test’ de adolescentes, así como perfiles de adultos con comportamientos inapropiados, para experimentar con las funciones de seguridad. ¿El hallazgo más alarmante? Adultos desconocidos siguen pudiendo comunicarse con menores gracias a sugerencias automáticas del algoritmo, como los Reels o la pestaña “personas que podrías conocer”.
Mensajes efímeros y recompensas: ¿premio al riesgo?
Otra función bajo la lupa es la de mensajes que desaparecen, que según Instagram fomenta conversaciones “espontáneas y privadas”. Sin embargo, el informe alerta que esta opción facilita situaciones de acoso o grooming sin dejar rastro. Además, se incita a su uso mediante animaciones de recompensa, lo cual banaliza las implicaciones de este tipo de comunicación para adolescentes.
Contenido inapropiado y poca moderación automatizada
Meta asegura que su sistema bloquea o evita mostrar contenido sobre autolesiones, trastornos alimenticios o suicidio. No obstante, los investigadores hallaron “descripciones sexuales explícitas mediante dibujos, violencia gráfica y desafíos de autodaño” recomendados incluso a cuentas de 13 años en adelante. En algunos casos, los testigos fueron miniaturas de vídeos en los que personas eran atropelladas o se precipitaban desde alturas, con la parte final del impacto cuidadosamente recortada para evitar la censura automatizada.
El análisis no se detiene allí. La función para filtrar insultos o acoso, supuestamente activa para cuentas jóvenes, falló en múltiples ocasiones. Entre los ejemplos más alarmantes, se permitió el envío de mensajes con hashtags de suicidio y lenguaje extremadamente misógino sin advertencias ni bloqueo alguno.
Meta responde con escepticismo (y sin datos duros)
Desde Menlo Park, la reacción de Meta no se hizo esperar. A través de un comunicado oficial, la tecnológica calificó el informe como “peligrosamente especulativo” y “engañosa en la representación de nuestras herramientas”. Según la compañía:
“Los adolescentes bajo los niveles actuales de protección ven menos contenido sensible, experimentan menos contactos indeseados y pasan menos tiempo en la app durante la noche.”
No obstante, Meta no proporciona ningún dato estadístico sobre cuántos padres efectivamente usan estas herramientas, ni sobre la frecuencia real de uso de las mismas. Tampoco se detallan cifras sobre contenidos bloqueados o reportados. Para muchas familias —especialmente aquellas con menores que usan Instagram sin supervisión activa— los controles parentales son más aspiracionales que efectivos.
El factor diseño vs. moderación de contenido
Un punto que el informe insiste en subrayar es la diferencia entre “diseño” y “moderación”: no se trata de censurar, sino de construir ecosistemas que no faciliten los comportamientos dañinos. El abuso sexual, el acoso, el grooming o los desafíos de autoagresión no nacen del contenido publicado únicamente, sino de cómo la plataforma lo recomienda y permite su proliferación.
Según Cybersecurity for Democracy:
“Evaluar las herramientas de seguridad y exigir que Meta cumpla sus promesas no es un ataque a la libertad de expresión. Es una exigencia legítima de responsabilidad corporativa.”
Niños menores de 13: un problema creciente
Pese a que las políticas de Instagram establecen que el mínimo de edad para usar la app son 13 años, el informe encontró cuentas activas de niños de tan solo 6 años. Peor aún, algunos de estos perfiles eran incentivados por el algoritmo para realizar bailes o gestos sexualizados para ganar visibilidad.
Las recomendaciones incluyen:
- Realizar pruebas periódicas que simulen ataques o intentos de contacto inapropiado (“red-team testing”).
- Facilitar un sistema fácil y eficaz para denunciar conductas sospechosas, especialmente en mensajes directos.
- Monitorear y publicar estadísticas sobre la experiencia de adolescentes en temas como contenido sensible o acoso.
- Garantizar que las recomendaciones para cuentas de 13 años se mantengan “razonablemente PG-rated”.
Un patrón repetido: dinero y reputación por encima de la seguridad
El informe se suma a una serie de críticas que Meta ha recibido durante los últimos años. En 2021, Frances Haugen, otra exempleada, filtró decenas de documentos internos en lo que luego se conoció como “los Papeles de Facebook”. Uno de los datos más impactantes era que la propia compañía sabía que Instagram empeoraba los problemas de autoestima en adolescentes, especialmente niñas de entre 13 y 17 años.
Según datos de Pew Research Center, el 59% de los adolescentes estadounidenses usan Instagram con regularidad, y un 37% dice usarlo “casi constantemente”. Las cifras son similares en otros países de América Latina y Europa. Esta presencia masiva plantea una obligación moral para Meta, que aún parece distar de cumplirse.
La respuesta legal no se hace esperar
El fiscal general de Nuevo México, Raúl Torrez, interpuso una demanda contra Meta alegando que sigue permitiendo que adultos exploten sexualmente a menores en sus plataformas. En sus palabras:
“Es desafortunado ver cómo Meta gasta más esfuerzo en convencer a padres e hijos de que la plataforma es segura, que en hacerla realmente segura.”
Esta postura es compartida por funcionarios en otros estados, y promete escalar a nivel federal si no se reforman sustancialmente los entornos digitales.
¿Un punto de inflexión o solo un escándalo más?
El informe cierra con una advertencia: sin pasos concretos y cambios estructurales en cómo se prioriza la seguridad de los adolescentes, Instagram seguiría siendo una plataforma peligrosa para miles de jóvenes.
“Hasta que veamos acciones significativas, las cuentas para adolescentes seguirán siendo una oportunidad desaprovechada para proteger a la juventud.”
Y para quienes ven en las redes sociales solo una herramienta lúdica o comunicacional, vale preguntarse: ¿cuánto daño oculto se está gestando detrás de cada ‘me gusta’?