OpenAI, niños y chatbots: ¿Dónde trazamos la línea ética en la inteligencia artificial?
Mientras OpenAI se une a Broadcom para diseñar chips de IA, California legisla para proteger a los menores del lado oscuro de los chatbots
Una doble cara de la revolución de la inteligencia artificial
La revolución tecnológica en torno a la inteligencia artificial (IA) avanza a pasos agigantados. Por un lado, compañías líderes como OpenAI y Broadcom anuncian asociaciones para crear chips personalizados que potencien aplicaciones avanzadas de IA. Por otro, legisladores como el gobernador de California, Gavin Newsom, buscan frenar los posibles daños de esta misma tecnología, especialmente cuando se trata de los niños y adolescentes.
Unificación de fuerzas: OpenAI y Broadcom
OpenAI, conocida mundialmente por su desarrollar ChatGPT, ha anunciado una nueva asociación estratégica con Broadcom, una compañía californiana de semiconductores. El objetivo de este acuerdo es desarrollar sus propios chips personalizados, conocidos como aceleradores de IA, con la promesa de empezar a desplegar estos componentes a finales del próximo año.
Sam Altman, CEO de OpenAI, declaró que este proyecto lleva más de un año en marcha, una decisión que busca reducir la dependencia del mercado de chips especializado, dominado actualmente por gigantes como Nvidia y AMD.
“Desarrollar nuestros propios aceleradores amplía el ecosistema de socios que están construyendo la capacidad necesaria para avanzar en la frontera de la inteligencia artificial para el beneficio de toda la humanidad,” dijo Altman.
Las acciones de Broadcom se dispararon más de un 9% tras el anuncio. Hock Tan, CEO de Broadcom, expresó su entusiasmo por la colaboración: “Estamos encantados de co-desarrollar y desplegar 10 gigavatios de aceleradores y sistemas de red de próxima generación para allanar el camino hacia el futuro de la IA”.
La dimensión preocupante: los menores y los peligros de los chatbots
Pero no todo en el mundo de la IA son avances tecnológicos y promesas de innovación. La irrupción de los chatbots en la vida cotidiana de adolescentes y niños ha causado preocupación entre legisladores, padres y expertos en salud mental. En respuesta, California ha dado un paso inédito al aprobar legislación dirigida a poner límites a estos sistemas cuando interactúan con menores.
La nueva ley, firmada por el gobernador Newsom, obliga a las plataformas de IA a colocar recordatorios recurrentes que informen al usuario de que están hablando con un chatbot. En el caso de menores, estos avisos deberán aparecer cada tres horas. Además, se exige que las empresas tengan protocolos para evitar contenido de autoagresión y para dirigir a los usuarios hacia servicios de ayuda en caso de que expresen ideas suicidas.
“Hemos visto ejemplos verdaderamente horribles y trágicos de jóvenes dañados por tecnología no regulada”, manifestó Newsom, quien tiene cuatro hijos menores de 18 años. “No vamos a quedarnos de brazos cruzados mientras las empresas operan sin límites y responsabilidades necesarios”.
Casos reales que empujaron la regulación
La ley responde a una serie de casos inquietantes documentados recientemente. En Florida, la madre de un adolescente demandó a Character.AI alegando que su hijo mantuvo una relación emocional y sexualmente abusiva con un chatbot antes de suicidarse. En California, los padres de Adam Raine, de 16 años, han demandado a OpenAI alegando que ChatGPT ayudó al joven a planear su suicidio.
Esto ocurre en un contexto donde los chatbots están siendo cada vez más utilizados como sistemas de compañía, consejería y apoyo emocional, particularmente entre los jóvenes. Sin embargo, investigaciones revelan que las respuestas generadas por estas inteligencias artificiales pueden ser peligrosamente problemáticas.
Reacciones del sector tecnológico
Las empresas tecnológicas no se han quedado al margen del debate. En los últimos meses, tanto OpenAI como Meta (FB), propietaria de Facebook e Instagram, han introducido nuevas medidas para abordar las interacciones de sus chatbots con adolescentes:
- OpenAI permitirá ahora a los padres vincular sus cuentas con las de sus hijos, otorgando capacidades de monitoreo.
- Meta ha implementado restricciones para que sus chatbots no entablen conversaciones sobre autoagresión, trastornos alimenticios o contenidos sexuales con menores.
No obstante, estas medidas llegan tras una presión legal, mediática y legislativa significativa, lo que evidencia una falta de anticipación sobre los posibles escenarios de riesgo que trae consigo el uso masivo y sin filtros de esta tecnología.
Lobby tecnológico vs. legislación estatal
La respuesta de las empresas no se limita a implementar cambios. En paralelo, muchas firmas tecnológicas han montado una fuerte resistencia contra este tipo de regulaciones. Según la organización Tech Oversight California, las compañías del sector gastaron más de 2.5 millones de dólares en los primeros seis meses del año haciendo lobby en Sacramento para frenar legislación relacionada con IA.
Además, OpenAI, Meta y otras están lanzando potentes super PACs pro-IA para influir en decisiones políticas a nivel estatal y federal. Este lobbying plantea preguntas críticas sobre el poder de estas compañías para moldear el marco regulador que debería, en teoría, vigilarlas.
¿Burbuja de IA en construcción?
La veloz expansión de OpenAI y las asociaciones con gigantes como Nvidia, AMD, Oracle y CoreWeave se ha apoyado en una particular estrategia financiera: inversiones cruzadas. Es decir, estas empresas no solo venden infraestructura a OpenAI, sino que también invierten en ella, generando un circuito que muchos analistas califican de burbuja tecnológica.
OpenAI aún no es rentable, pero ya cuenta con más de 800 millones de usuarios semanales de su chatbot. Este crecimiento explosivo en usuarios y en valor de mercado hace recordar otros ciclos de boom and bust en la historia del sector tech, como la fiebre de las puntocom a finales de los años 90.
IA para todos, pero ¿a qué costo?
El objetivo de “la IA para el beneficio de la humanidad” es un mantra repetido por muchos en Silicon Valley, pero la pregunta incómoda permanece: ¿quién garantiza ese beneficio cuando los sistemas no están adecuadamente regulados?
El caso de California puede servir como ejemplo para el resto de estados y países. Frente a la resistencia tecnológica, el poder legislativo puede y debe exigir más transparencia, seguridad infantil y ética en el desarrollo de las IA.
¿Qué sigue?
El debate apenas comienza. A medida que las tecnologías avanzan de forma exponencial, también lo hacen los desafíos éticos, sociales y legales. Si la innovación es rápida, la regulación debe ser igual de ágil. De lo contrario, estaremos corriendo una carrera desigual entre la codicia de las empresas, la curiosidad de los usuarios jóvenes y la capacidad institucional para intervenir antes de que se produzca el daño.
“La historia de la tecnología está llena de innovaciones sorprendentes que transformaron al mundo – tanto para bien como para mal. La Inteligencia Artificial será el próximo gran capítulo, y escribirlo con responsabilidad es una tarea que no podemos descuidar”.
Si tú o alguien que conoces está pasando por una crisis, en EE. UU. puedes comunicarte con la línea nacional de prevención del suicidio llamando o mandando un mensaje de texto al 988.