La vigilancia digital en escuelas de EE.UU.: ¿seguridad o criminalización infantil?

Miles de distritos escolares en Estados Unidos usan inteligencia artificial para monitorear a los estudiantes, pero los riesgos de abusos, falsas alarmas y violaciones de derechos civiles están a la vista

Una broma escolar, una noche en la cárcel

En agosto de 2023, una adolescente de 13 años fue arrestada tras hacer una broma de mal gusto en un chat escolar digital. El comentario, aunque imprudente, fue interpretado por un software de vigilancia como una amenaza real. Sin intervención humana previa, la situación derivó en su detención, un interrogatorio y hasta un registro invasivo por parte de las autoridades. La madre de la joven describió el episodio como "traumático" y denunció que se trató de un error provocado por una herramienta que "no entiende el contexto".

La vigilancia algorítmica en las aulas

Bienvenidos a la nueva normalidad en muchas escuelas estadounidenses: gracias a software de inteligencia artificial como Gaggle y Lightspeed Alert, los mensajes, correos, documentos y hasta publicaciones privadas de estudiantes son supervisados en tiempo real. Esta tecnología promete anticipar casos de violencia, acoso o pensamientos suicidas, y actuar antes de que sea demasiado tarde.

Pero detrás de esta promesa se encuentra una incómoda verdad: los algoritmos se equivocan. Según una investigación de Associated Press, más del 60% de las alertas generadas por Gaggle en el distrito escolar de Lawrence, Kansas, fueron falsos positivos o malinterpretaciones, muchas veces derivadas de trabajos escolares o conversaciones sin intención de conflicto.

"Detectando" amenazas falsas: alumnos en la mira

Estudiantes de secundaria han sido llamados a declarar, escoltados por policías e incluso arrestados tras que el software detectara palabras que consideró inapropiadas. En una clase de fotografía, por ejemplo, varios alumnos fueron investigados por "desnudez" en imágenes artísticas, pese a que más tarde se comprobó que no existía contenido ofensivo. Estas erróneas detecciones generan desconfianza y ansiedad entre los alumnos.

Natasha Torkzaban, estudiante y periodista escolar en Lawrence, contó que fue señalada por ayudar a corregir un ensayo que mencionaba salud mental: "Fue solo por eso. Ni siquiera hicimos nada malo. No se puede hablar sobre cosas verdaderas sin riesgo a que te vigilen". Ella y un grupo de compañeros han presentado una demanda constitucional contra su distrito escolar.

¿Cuidar la salud mental o patologizarla?

Aunque las escuelas justifican estas tecnologías como herramientas preventivas, su uso ha generado consecuencias severas y traumáticas en diversas ocasiones. En el condado de Polk, Florida, los software de vigilancia fueron pieza clave para iniciar 72 hospitalizaciones involuntarias bajo la Ley Baker, que permite detener a personas que supuestamente representan un riesgo para sí mismas o terceros.

Sam Boyd, abogado del Southern Poverty Law Center, advierte que este tipo de intervenciones muchas veces "no ayudan, sino que causan más daño emocional". Muchos adolescentes que han sido hospitalizados forzosamente no entienden lo sucedido ni cuentan con suficiente apoyo psicológico tras el episodio.

Fracaso en el contexto: palabras sin intención, castigos sin piedad

Una estudiante de arte en West Palm Beach reveló que dos compañeros fueron retirados del aula minutos después de escribir algo ofensivo sobre un profesor, y que luego habían eliminado. Lightspeed Alert recuperó el mensaje y notificó a las autoridades. "Es increíble lo rápido que actúan: ni sabían que les estaban vigilando", relató.

La abogada de educación Shahar Pasch expresó su preocupación ante este fenómeno: "Los adolescentes creen que sus redes privadas lo son realmente, pero estos sistemas monitorean sin pausa. Es una forma de vigilancia perpetua".

¿Un mal necesario? Opiniones divididas

Las autoridades escolares que defienden el uso de esta tecnología alegan que ya ha evitado múltiples casos de intentos de suicidio o violencia escolar. Anne Costello, miembro de la Junta Educativa de Lawrence, afirmó en una sesión pública: "A veces hay que elegir el bien mayor, aunque implique ciertos sacrificios individuales".

Pero ¿cuál es el precio de este "bien mayor"? ¿Vale la pena traumatizar a una adolescente por una frase sacada de contexto? Para Jeff Patterson, CEO de Gaggle, la respuesta está en la implementación: "Nuestro software está diseñado para intervenir antes, no para criminalizar. El problema no es la herramienta, sino cómo se usa".

La paradoja estadounidense: seguridad vs derechos civiles

La paradoja es evidente. En un país golpeado por frecuentes tiroteos escolares, la idea de una herramienta capaz de detectar indicios de violencia es seductora. Sin embargo, el uso de inteligencia artificial en entornos educativos plantea un conflicto complejo entre seguridad y libertad individual, entre prevención y vigilancia opresiva.

Elizabeth Laird, directora en el Center for Democracy and Technology, lo plantea con claridad: "Esto ha institucionalizado la presencia de cuerpos policiales en la vida de los estudiantes, incluso dentro de sus propios hogares".

¿Un futuro con más cámaras y menos privacidad?

Mientras los debates siguen creciendo, la tendencia parece inclinarse por más intervención tecnológica. Las cifras muestran que más de 12,000 distritos escolares en Estados Unidos utilizan algún tipo de software de vigilancia impulsado por IA. En algunos casos, esta tecnología también se ha integrado en programas de reconocimiento facial o seguimiento de movimientos en campus escolares.

No obstante, los expertos en derechos digitales piden frenar esta expansión sin supervisión. "Estamos dotando a máquinas de la capacidad de definir qué es una amenaza sin tener en cuenta el contexto emocional, cultural o humano de las palabras", sostiene Shahar Pasch.

Alternativas humanas para desafíos humanos

La madre de la joven arrestada en 2023 lo dijo con crudeza: "Mi hija fue tratada como una criminal por una broma tonta. ¿Qué clase de sistema educativo es ese?". Según relató, el único alivio llegó en la escuela alternativa a la que fue enviada por orden judicial. Allí, docentes y profesionales abrían cada jornada con círculos de confianza donde los estudiantes compartían sentimientos sin juicio alguno.

"Nos estamos olvidando de que son solo niños. No soldados, no delincuentes, solo seres humanos confundidos, en etapa de formación", dijo entre lágrimas.

Una nueva alfabetización digital es urgente

Lo cierto es que el impacto social de estas herramientas no se limita a su función técnica. Al eliminar los matices humanos en la interpretación del lenguaje, y aplicar castigos extremos por errores adolescentes, corremos el riesgo de destruir la confianza entre alumnado y escuela.

Es urgente una alfabetización digital crítica que no solo enseñe el uso de tecnologías, sino que también prepare a estudiantes, docentes y padres para comprender cómo funciona la vigilancia digital, qué límites debería tener y cómo proteger los derechos de los más jóvenes.

Mientras tanto, cada falso positivo, cada estudiante traumatizado, y cada abogado que levanta la voz sirve como advertencia: el algoritmo puede mirar, pero no siempre entiende.

Este artículo fue redactado con información de Associated Press