Superinteligencia Artificial: ¿Civilización Avanzada o Amenaza Existencial?

De científicos a celebridades, un creciente movimiento global exige frenar el desarrollo sin control de la inteligencia artificial superhumana.

Una advertencia global contra la inteligencia artificial desmedida

Desde la Universidad de California en Berkeley hasta el Palacio de Buckingham, una coalición inesperada de tecnólogos, políticos, religiosos, activistas e incluso celebridades como el príncipe Harry y Meghan Markle se ha unido en un llamado conjunto: detener el desarrollo de la superinteligencia artificial (AI por sus siglas en inglés), al menos hasta que existan garantías sólidas de seguridad.

Esta declaración fue publicada recientemente por el Future of Life Institute, una organización sin fines de lucro que ya en 2023 hizo un llamado a una moratoria temporal sobre el avance de modelos de IA altamente potentes. Sin embargo, esta vez el enfoque es aún más serio:

“Hacemos un llamado a la prohibición del desarrollo de la superinteligencia, que no debe levantarse hasta que haya un consenso científico amplio que asegure su viabilidad segura y controlada, y una aprobación pública fuerte.”

¿Qué es la superinteligencia y por qué preocupa tanto?

Se define como superinteligencia artificial aquella forma de IA que podría superar a los humanos en casi todas las tareas cognitivas. En palabras del futurista y físico Max Tegmark, presidente del Future of Life Institute, se trataría de una inteligencia tan avanzada que haría que nuestra comprensión del progreso tecnológico se vea como la Edad de Piedra en retrospectiva.

Geoffrey Hinton y Yoshua Bengio, dos de los considerados “padres de la inteligencia artificial moderna” y ganadores del Premio Turing (el equivalente al Nobel en ciencias de la computación), también están entre los firmantes. El propio Hinton, quien ayudó a desarrollar las bases del aprendizaje profundo, ha admitido su temor ante las consecuencias potenciales de su propia invención.

Figuras inesperadas y un mensaje unificado

Lo que vuelve particularmente impactante esta declaración es la amplitud ideológica y profesional de sus firmantes. Entre ellos figuran:

  • Prince Harry y Meghan Markle, defensores de la ética tecnológica.
  • Steve Bannon y Glenn Beck, conocidos comentaristas conservadores estadounidenses.
  • Stephen Fry y Joseph Gordon-Levitt, actores de renombre.
  • will.i.am, músico y emprendedor de tecnología.
  • Stuart Russell, experto en IA de la Universidad de California en Berkeley.

El mensaje es simple pero directo: no podemos continuar cruzando umbrales tecnológicos sin contemplar profundamente las consecuencias sociales, económicas y filosóficas que esto traería.

¿Una amenaza para el empleo y los derechos civiles?

En el texto de introducción, los firmantes mencionan riesgos que van desde la obsolescencia económica del ser humano, pasando por la pérdida de autonomía y libertades civiles, hasta amenazas de seguridad nacional e incluso, la posibilidad de extinción humana. No es ciencia ficción: estos peligros están siendo planteados por quienes mejor entienden cómo funciona y hacia dónde se dirige la IA.

Para Stuart Russell, la clave no está en prohibir por completo los avances, sino en diseñar mecanismos precisos de control ético y técnico. "No estamos pidiendo detener la inteligencia artificial como herramienta médica o industrial, sino frenar solo aquella que, en palabras de sus propios creadores, podría desafiar el dominio cognitivo humano”, puntualizó.

¿Realismo o paranoia tecnológica?

Hay quienes critican este tipo de propuestas como parte de una narrativa que exagera el potencial de la IA para generar alarma o atraer inversión. De hecho, compañías como OpenAI, Google DeepMind o Meta han sido acusadas de engrandecer las capacidades reales de sus modelos de lenguaje, como ChatGPT o Gemini, para mantenerse en la cima del interés mediático y de financiamiento.

Un caso que causó controversia fue el de OpenAI afirmando que su sistema podía resolver problemas matemáticos no resueltos por la humanidad. Posteriormente, expertos desmintieron esta afirmación indicando que simplemente había recopilado respuestas ya publicadas.

Max Tegmark lo expresó así: “Sí, muchos están exagerando lo que sus herramientas pueden hacer, creando una especie de burbuja de expectativas. Pero eso no niega que, en una visión más amplia, hemos avanzado mucho más rápido de lo que incluso los propios investigadores pensaban.”

¿Qué papel tiene el gobierno?

Una parte crucial de este debate es el papel que deben jugar los gobiernos. La actual carrera por el liderazgo tecnológico entre Estados Unidos, China y la Unión Europea ha hecho que los reguladores estén bajo presión para no poner demasiadas restricciones, dejando muchas veces a las empresas decidir sus propios límites.

Esto ha generado lo que algunos llaman una “carrera hacia el abismo”, donde las empresas se ven forzadas a desarrollar cada vez modelos más potentes sin controles, por miedo a ser superadas por la competencia.

“Empatizo con los CEOs que están atrapados en esta carrera. Por eso necesitamos estigmatizar el desarrollo sin control de superinteligencia y que el gobierno de EE.UU. intervenga firmemente”, argumenta Tegmark.

¿Un nuevo consenso emergente?

En 2023, el Future of Life Institute ya había difundido una carta en la que pedía una pausa de seis meses en el desarrollo de IA más potente. Lo paradójico es que, mientras pedía un alto, Elon Musk —uno de los firmantes— estaba lanzando su propia startup de inteligencia artificial: xAI.

Esto genera escepticismo entre el público: ¿cuánto de esto es altruismo y cuánto estrategia geopolítica y económica?

Joseph Gordon-Levitt ilustró el dilema en términos muy humanos: “Sí, queremos IA que cure enfermedades o fortalezca nuestras defensas. Pero, ¿es necesario que también eduque a nuestros hijos, automatice nuestra creatividad y nos convierta en consumidores pasivos mientras genera ganancias colosales sirviendo anuncios?”

¿Y ahora qué sigue?

Las empresas líderes en IA no han respondido a esta carta hasta ahora. Pero el hecho de que este debate ya no esté confinado a círculos académicos y haya llegado a las portadas de periódicos, alfombras rojas y discusiones parlamentarias, indica que algo está cambiando.

Quizás por primera vez, la humanidad se está planteando seriamente cómo convivir con una tecnología que podría, literalmente, redefinir lo que significa ser humano.

Este artículo fue redactado con información de Associated Press