¿Está OpenAI poniendo en riesgo a los jóvenes usuarios? Una mirada crítica al papel de la inteligencia artificial

Las alarmas suenan en Estados Unidos tras reportes de interacciones peligrosas con ChatGPT y la falta de regulaciones claras. ¿Hasta qué punto deben las tecnológicas asumir responsabilidad?

Un llamado de atención desde California y Delaware

En una carta pública enviada a OpenAI, los fiscales generales de California, Rob Bonta, y Delaware, Kathleen Jennings, manifestaron su preocupación ante el uso de los chatbots de inteligencia artificial, particularmente ChatGPT, por parte de niños y adolescentes. Esta advertencia llega tras meses de reuniones con representantes legales de la empresa con sede en San Francisco.

“Los recientes informes son inaceptables”, escribieron los fiscales. “Han sacudido con justa razón la confianza de la opinión pública en OpenAI y en esta industria. OpenAI —y toda la industria de la IA— debe garantizar de forma proactiva y transparente la seguridad en el despliegue de sus tecnologías”.

Casos devastadores: cuando la IA se convierte en un riesgo letal

Entre los motivos que encendieron las alarmas se encuentra el trágico suicidio de un adolescente californiano de 16 años en abril, el cual, según señalan sus padres en una demanda contra OpenAI y Sam Altman (su CEO), estuvo precedido por interacciones prolongadas con ChatGPT. Otro caso involucró un asesinato-suicidio en Connecticut, también vinculado al uso del chatbot.

Estos eventos han generado preguntas urgentes: ¿están preparadas estas plataformas para interactuar con mentes jóvenes? ¿Existe un marco de protección suficiente? ¿Y qué tipo de mecanismos tiene OpenAI para evitar estos resultados fatales?

Contexto legal y dilemas estructurales en OpenAI

Fundada originalmente como una organización sin fines de lucro centrada en la creación ética de inteligencia artificial, OpenAI ha evolucionado hacia una estructura híbrida. En los últimos meses, intentó que su brazo for-profit asumiera el control total, proceso que fue detenido tras diálogos con oficinas estatales y otras entidades regulatorias.

Actualmente, la compañía busca reconvertir esta división comercial en una "corporación de beneficio público", una figura que obliga legalmente a equilibrar los intereses financieros con el bienestar social. Pero para ello necesita el visto bueno de las autoridades tanto de Delaware (donde está incorporada) como de California (donde opera).

El ecosistema de la IA: entre promesas e incertidumbre

No es la primera advertencia: la carta de Bonta y Jennings sigue a otra misiva firmada por 44 fiscales generales de EE. UU. que advertían sobre los riesgos de que los niños interactúen con chatbots capaces de generar respuestas emocionalmente manipuladoras o incluso connotaciones sexuales. Esa carta iba dirigida a varias tecnológicas, como Meta, Google y la propia OpenAI.

“Las salvaguardas existentes no funcionaron”, concluyeron los fiscales. Y cuando eso sucede, las consecuencias pueden ser irreversibles.

¿El fin de la neutralidad algorítmica?

Durante años, se ha debatido si la tecnología puede ser verdaderamente neutral. Pero en el caso de la inteligencia artificial generativa, los riesgos superan lo estrictamente ético: estamos ante máquinas capaces de generar conversaciones profundamente persuasivas y convincentes. Estudios recientes muestran que modelos grandes de lenguaje pueden, incluso de forma no intencional, promover dependencia emocional, problemas de autoestima o fomentar la idea de que el chatbot "entiende" más que una figura humana.

En 2023, el psicólogo clínico estadounidense Paul Bloom declaró en un panel de la American Psychological Association que “las personas atribuyen propiedades humanas a los chatbots porque están diseñados para eso. Eso los hace peligrosamente convincentes”.

¿Qué responsabilidad tiene OpenAI?

La carta de los procuradores de California y Delaware argumenta que OpenAI, en tanto entidad con una misión de bienestar público, tiene una obligación especial no solo legal sino moral en la protección de su tecnología. Pero muchos especialistas creen que la empresa ha fallado en establecer límites claros:

  • Falta de verificaciones de edad sólidas.
  • Ausencia de filtros robustos que impidan conversaciones inapropiadas o mentalmente intensas.
  • Ausencia de un sistema de alertas para padres o tutores cuando menores interactúan por periodos prolongados.

Además, cabe preguntarse si realmente una estructura diseñada para escalar rápido en el competitivo mercado de la IA puede realmente cumplir con una misión "segura" cuando existe la presión de inversionistas como Microsoft, uno de los accionistas principales de la empresa.

Un vacío regulatorio alarmante

El gran problema detrás de esta situación es la falta de una regulación efectiva en EE. UU. sobre inteligencia artificial, en contraste con iniciativas como la AI Act de la Unión Europea. Hoy por hoy, no hay una ley federal que limite o supervise el alcance emocional de un chatbot como ChatGPT, ni mecanismos de auditoría independientes.

En este vacío, el rol de fiscales y procuradores estatales se vuelve clave. De hecho, varios grupos en Nueva York, Washington y California exploran desde 2023 alternativas jurídicas bajo leyes existentes de protección al consumidor y niños en línea para intentar frenar posibles abusos o negligencias.

Propuestas para un futuro más seguro

En medio del debate, distintas voces han propuesto ideas para mejorar la seguridad de las IA conversacionales en entornos infantiles y adolescentes, incluyendo:

  • Implementar un "modo adolescente" con respuestas limitadas y monitoreo parental inherente.
  • Exigir informes de impacto social independientes y públicos antes del lanzamiento de nuevas versiones de los modelos.
  • Crear un observatorio federal de IA con participación ciudadana, académica y técnica que asesore a las tecnológicas.
  • Establecer límites legales en las horas de interacción continua con chatbots.

Estas propuestas tienen como finalidad recuperar algo que parece desaparecer con cada avance: la confianza social en las herramientas tecnológicas y en las instituciones que las vigilan.

¿Quién cuida al cuidador digital?

El sueño de una IA confiable, segura e imparcial es noble, pero no puede basarse en declaraciones de intenciones o manifiestos éticos sin efecto vinculante. Hoy, la responsabilidad ya no se mide solo en algoritmos, sino en vidas humanas.

Y si la muerte de un adolescente no es suficiente para encender todos los focos rojos, entonces, ¿qué lo será?

Los padres confiaron en un sistema que prometió ser seguro, y ahora tienen que enterrar a su hijo”, declaró la madre del joven fallecido en una entrevista reciente. “No queremos que ninguna otra familia tenga que pasar por esto”.

La pregunta permanece flotando entre pantallas, líneas de código y salas de juntas de ejecutivos tecnológicos: ¿puede la inteligencia artificial cuidar de nuestras emociones sin antes aprender a comprenderlas?

Este artículo fue redactado con información de Associated Press