YouTube quiere saber tu edad: ¿el inicio de una nueva era de control digital?

Con una tecnología basada en inteligencia artificial, la plataforma de videos ahora prueba en EE.UU. un sistema que detecta si eres menor de edad según lo que ves. ¿Avance en protección infantil o riesgo para la privacidad?

Una nueva jugada de YouTube con IA

YouTube, propiedad de Google desde hace casi dos décadas, dio un nuevo paso para blindar su plataforma frente al uso infantil inadecuado. A partir de esta semana, la gigante de videos empezará a probar en Estados Unidos un sistema de verificación etaria basado en inteligencia artificial (IA), el cual analizará el historial de visualización para determinar si el usuario es o no menor de edad.

Este sistema entrará en acción solamente cuando el usuario esté logueado en su cuenta, y lo que lo distingue de métodos previos es que no tomará en cuenta la edad declarada en el perfil. En cambio, evaluará el tipo de contenido consumido para hacer una inferencia tecnológica de la edad del espectador. Si el algoritmo considera que el usuario tiene menos de 18 años, se le aplicarán de inmediato los controles y restricciones destinados a proteger a menores. Esto incluye filtros de contenido, bloqueo de ciertas recomendaciones y la supresión de anuncios personalizados.

¿Qué motiva este cambio?

La presión política y social ha ido escalando durante años. El punto cúlmine llegó tras la decisión de la Corte Suprema de EE.UU. en junio de 2024, que respaldó una ley de Texas que exige a las plataformas digitales verificar de forma más rigurosa la edad de los usuarios para impedir que menores accedan a pornografía en línea.

Desde entonces, plataformas como YouTube han estado bajo la lupa. Legisladores e instituciones públicas exigen que se tomen más medidas para garantizar un entorno seguro para niños y adolescentes. Por su parte, algunas empresas han argumentado que la carga de verificar edades debería recaer en las tiendas de aplicaciones de Apple y Google —una postura que ha sido ampliamente criticada por activistas y expertos legales.

¿Cómo funciona la inteligencia artificial para detectar edades?

La herramienta de IA de YouTube, desarrollada junto con la empresa matriz Google, utiliza técnicas de machine learning para examinar patrones de consumo de video. No se basa solamente en el contenido visualizado, sino en toda la interacción del usuario con la plataforma: tiempo de permanencia, likes, comentarios, tipo de videos en lista de reproducción, entre otros elementos. Todo ello se compara con un vasto conjunto de datos históricos que asocian ciertos comportamientos con grupos etarios específicos.

Según James Beser, director de gestión de producto de YouTube, el objetivo es equilibrar dos factores clave:

  • Protección efectiva para menores, que impida el acceso a material no apto;
  • Privacidad de los adolescentes y usuarios jóvenes, evitando al máximo el uso de datos personales innecesarios.

Si, por error, se cataloga a un usuario adulto como menor, YouTube ofrece una vía de apelación que incluye la posibilidad de subir una identificación oficial, una tarjeta de crédito o un selfie como prueba de mayoría de edad.

¿Un sistema infalible? No tanto…

Distintos organismos de derechos digitales han levantado la voz con preocupaciones legítimas. La Electronic Frontier Foundation (EFF) y el Center for Democracy & Technology han señalado que el uso de inteligencia artificial para detectar edad es una medida que, aunque útil, puede traer graves consecuencias en privacidad y libertad de expresión.

Por ejemplo, si un adulto consume contenido de dibujos animados, documentales escolares o videos de estilo infantil, el sistema podría identificarlo incorrectamente como menor. Por otro lado, adolescentes que consumen material adulto —como debates políticos intensos, documentales crudos o videos musicales explícitos— podrían quedar fuera de su alcance, generando polémica en cuanto al derecho de acceso a la información.

La promesa de protección vs. la amenaza del control

Mientras YouTube destaca este sistema como parte de su “liderazgo en experiencias para jóvenes”, muchos se preguntan si esta pseudo vigilancia no está enmascarando una forma más profunda de clasificación algorítmica de usuarios. Cada vez más, la inteligencia artificial deja de ser una herramienta neutral para convertirse en un filtro de acceso al conocimiento.

Además, el hecho de que el sistema funcione únicamente con usuarios que están conectados a sus cuentas lleva a un efecto colateral: quienes evitan identificarse pierden acceso a varios contenidos. Esto aleja aún más el ideal de un internet libre y abierto.

Regulaciones en camino (¿o ya llegaron?)

La batalla por la verificación de edad en línea no es nueva. En Reino Unido, por ejemplo, se introdujo el "Age Appropriate Design Code" en 2021. Este código exige a las plataformas adaptar sus diseños y contenidos en función de la edad de los usuarios. Francia y Alemania también han impulsado normativas similares, dando nuevos poderes a organismos reguladores para exigir filtros efectivos para proteger a niños y adolescentes.

En EE.UU., el panorama es más complejo. La First Amendment protege la libertad de expresión con gran fuerza, lo que complica cualquier intervención estatal directa. Pero tras el fallo de la Corte Suprema y la creciente presión de las familias y asociaciones de padres, parece que un nuevo consenso está emergiendo: el contenido no debe ser completamente libre si los espectadores más vulnerables pueden verse afectados.

¿Qué significa esto para los usuarios?

Para los millones de usuarios de YouTube en EE.UU., el impacto inmediato será limitado. La fase inicial de pruebas apunta solo a una pequeña fracción de los usuarios en ese país. Sin embargo, si el sistema demuestra eficiencia —como ya lo ha hecho en otras regiones del mundo, según Google— es muy probable que se expanda.

Las familias podrían sentirse más tranquilas, pero las preocupaciones sobre privacidad, vigilancia algorítmica y restricciones generadas por errores en la clasificación seguirán latentes.

La pregunta clave es: ¿deberían las plataformas digitales decidir lo que es apropiado para ti basadas en patrones de comportamiento y sin preguntarte?

¿Protección o paternalismo digital?

Desde una mirada crítica, este innovador proyecto de YouTube puede ser visto como una respuesta necesaria a desafíos reales como la exposición de menores a contenido inapropiado. Pero también es un ejemplo claro del creciente poder de los algoritmos para regular no solo el contenido, sino también la identidad digital de los usuarios.

¿Qué pasa cuando la inteligencia artificial se equivoca? ¿Cuáles son las consecuencias de quedar fuera del sistema basados en una deducción algorítmica? ¿Y quién controla al sistema que controla?

Hay, ciertamente, un equilibrio delicado entre proteger y controlar. Y esta medida de YouTube, aunque bien intencionada, podría marcar un cambio permanente en la dinámica entre el usuario y las plataformas digitales. Estamos frente a una nueva forma de edad digital como mecanismo de acceso, donde la carta de identidad se convierte en una combinación de tus clics, tus elecciones y tus algoritmos favoritos.

La discusión está lejos de terminar.

Este artículo fue redactado con información de Associated Press