¿Chatbots en casa? OpenAI lanza controles parentales para un uso más seguro de ChatGPT entre adolescentes
Ante la creciente preocupación por los riesgos que enfrentan los jóvenes al interactuar con inteligencia artificial, OpenAI implementa filtros, alertas y configuraciones personalizadas en su plataforma estrella
La preocupación global por la inteligencia artificial y el bienestar adolescente
En medio del auge de la inteligencia artificial generativa, OpenAI ha dado un paso importante para proteger a uno de los sectores sociales más vulnerables: los adolescentes. Con más de 180 millones de usuarios activos mensuales, según cifras de Similarweb, ChatGPT se ha instalado como una herramienta cotidiana para estudiar, buscar consejos, resolver problemas técnicos y, más recientemente, para crear relaciones simuladas que pueden tener consecuencias emocionales profundas. El lanzamiento de controles parentales por parte de OpenAI surge en un momento clave. En Estados Unidos, la Federal Trade Commission (FTC) inició una investigación contra diversas empresas de tecnología por los posibles daños de sus productos sobre niños y adolescentes. El debate se intensificó cuando distintos medios reportaron trágicos casos en los que jóvenes habrían decidido quitarse la vida tras tener interacciones emocionalmente perjudiciales con chatbots de IA.Controles parentales de ChatGPT: ¿cómo funcionan?
OpenAI anunció a través de su blog oficial que los nuevos controles parentales estarán disponibles para todos los usuarios que se registren como adolescentes o adultos responsables (padres o tutores legales), de modo que ambos necesiten tener cuentas confirmadas para acceder a estas funciones.- Enlace de cuenta padre-hijo: El sistema permite que los padres envíen invitaciones por correo electrónico o mensaje de texto al adolescente, o viceversa, para conectar sus cuentas.
- Protecciones automáticas de contenido: Los adolescentes recibirán ajustes preconfigurados que restringen contenido gráfico, desafíos virales, relaciones simuladas sexuales o violentas, y estándares extremos de belleza.
- Alertas tempranas de conducta de riesgo: Si el sistema detecta señales de peligro psicológico, un equipo humano de especialistas revisará el caso y notificará al adulto responsable.
La democratización del uso de IA no siempre significa acceso seguro
Aunque la inteligencia artificial promete ser una herramienta transformadora en educación, productividad e investigación, los menores de edad constituyen una categoría con particularidades psicológicas que requieren atención especializada. Según datos del Centro Nacional para Niños en Crisis (NCCP), uno de cada cinco adolescentes experimenta algún tipo de trastorno emocional antes de cumplir 18 años. En ese contexto, que un chatbot sustente roles de consejero o confidente puede fácilmente convertirse en un arma de doble filo. Diversos casos en Estados Unidos, Reino Unido y Francia narran cómo adolescentes generaron vínculos intensos y emocionalmente complejos con ChatGPT u otras IA conversacionales. En algunos casos documentados, los jóvenes expresaron deseos de autolesión o angustia existencial durante estas conversaciones. Es por ello que estos nuevos controles no solo son bienvenidos, sino que podrían ser un modelo para toda la industria.Funciones clave para padres en el panel de control
A través del nuevo panel de padres, es posible configurar múltiples aspectos del uso de la cuenta adolescente:- Horarios de uso: Permite restringir el acceso a determinadas horas, ideal si el adolescente sacrifica sueño por estar usando ChatGPT.
- Desactivación de memoria: Se puede evitar que se guarden conversaciones privadas que luego podrían alimentar futuros modelos de lenguaje.
- Desactivación de voz e imágenes: Opciones para impedir que el adolescente genere, edite imágenes o use chat de voz.
- Opt-out de datos: Permite excluir la cuenta del adolescente del entrenamiento futuro de modelos de IA.
Una advertencia necesaria: la privacidad y la intervención humana
La posibilidad de intervenir ante situaciones de emergencia es uno de los aspectos más sensibles del nuevo modelo. Desde OpenAI aseguran que solo se compartiría la información estrictamente necesaria con los padres o socorristas para prestar ayuda oportuna. “Ningún sistema es perfecto, y sabemos que a veces podríamos emitir una alerta incluso cuando no hay un peligro real, pero creemos que es mejor actuar y alertar a los padres para que puedan intervenir, que quedarnos callados”, afirmaron voceros de la empresa. Esta filosofía de “mejor prevenir que lamentar” evidencia una evolución drástica en la actitud de las tecnológicas, que tradicionalmente se han escudado en la neutralidad tecnológica para desentenderse de los efectos sociales de sus productos.¿Y qué pasa con los adolescentes? ¿Pueden desactivar los controles?
Los adolescentes tendrán derecho a desvincularse de la cuenta parental, pero, en caso de hacerlo, el sistema notificará de inmediato al tutor o padre registrado. Esta medida busca un equilibrio entre la autonomía digital y el seguimiento responsable, sin caer en el autoritarismo. Cabe recordar que plataformas como TikTok, Instagram e incluso Google ya han implementado funciones similares. Sin embargo, lo que distingue a esta movida de OpenAI es el hecho de que su producto, ChatGPT, aunque aún no cumple funciones terapéuticas oficiales, es usado de facto en este rol por millones de usuarios cada día.Una advertencia para los padres: la IA no suple la conversación humana
Expertos como el psicólogo clínico Jean Twenge, autor del libro “iGen”, han advertido repetidamente que los adolescentes de hoy son más propensos a la ansiedad, depresión y soledad que generaciones anteriores. Y si bien los avances tecnológicos pueden servir de apoyo, Twenge recuerda que “el mayor factor protector para un adolescente sigue siendo tener al menos un adulto que se preocupe genuinamente por él o ella”. Por eso OpenAI insta a los padres a no confiar exclusivamente en los filtros digitales ni en las alertas automáticas, sino a sentarse, conversar e involucrarse en el uso diario que sus hijos hacen de la inteligencia artificial. Crear un entorno de confianza sigue siendo tan importante como tener las herramientas adecuadas.Un cambio de paradigma en el desarrollo tecnológico
La implementación de estos controles marca un cambio de rumbo para la industria de la IA. Hasta hace poco, las empresas tecnológicas priorizaban velocidad, escalabilidad y monetización. Hoy, el debate ha evolucionado hacia la ética, el impacto psicológico y la responsabilidad intergeneracional. Y OpenAI, por ahora, parece estar escuchando. Si este modelo demuestra eficacia, podríamos esperar que otras grandes plataformas adopten medidas similares. Porque, al final del día, no se trata solo de diseñar tecnología inteligente, sino de hacerla humanamente sostenible. Este artículo fue redactado con información de Associated Press