La nueva excusa del poder: por qué culpar a la IA se ha vuelto tan tentador (y peligroso)

Desde presidentes hasta ministros, la inteligencia artificial se ha convertido en el chivo expiatorio perfecto de nuestros tiempos modernos

Entre la desinformación y la conveniencia política

En una era marcada por la sobrecarga informativa y la creciente sofisticación tecnológica, la línea que separa la verdad de la mentira se ha difuminado peligrosamente. Y en ese terreno ambiguo, la inteligencia artificial (IA) se ha convertido en la excusa favorita de los poderosos cuando algo sale mal.

Donald Trump, expresidente y figura recurrentemente polémica, encarna perfectamente esta táctica emergente. Ante un video viral en el que se mostraba algo siendo arrojado por una ventana de la Casa Blanca, su respuesta fue clara y casi automática: “Eso probablemente es IA”.

Ya no se trata solo de negar los acontecimientos con el clásico argumento de “eso no pasó”; ahora se recurre a la IA como coartada universal: una tecnología tan poderosa como incomprendida por el público en general.

El dividendo del mentiroso: cuando todo puede ser falso, nada es confiable

Este fenómeno ha sido bautizado por académicos como Danielle K. Citron (Universidad de Boston) y Robert Chesney (Universidad de Texas) como “el dividendo del mentiroso”. ¿Qué significa? En pocas palabras, cuando el público deja de confiar en lo que ve y escucha, quien más poder y más visibilidad tiene —como un político o un líder empresarial— se beneficia del escepticismo.

En un ensayo publicado en la California Law Review, los autores explican: “Si la verdad se vuelve subjetiva, el poder fluye hacia quienes tienen opiniones más prominentes, fortaleciendo a las autoridades en el proceso”. Esta desconfianza sistémica nace de la creciente capacidad de la IA para alterar la realidad a través de deepfakes, generación de audio falso, y manipulación de imágenes.

Trump y la narrativa moldeable de la IA

Trump ha sido un maestro en aprovechar las ilusiones digitales. No es la primera vez que culpa a la inteligencia artificial. En 2023, acusó al Lincoln Project —una organización anti-Trump— de usar IA para hacerle ver “débil y patético” en un anuncio de televisión. No había evidencia de que así fuera, y la organización aseguró que todo el material era auténtico.

El expresidente también ha dicho en entrevistas que la IA podría ser una herramienta útil... “si no se usa contra mí”, en tono jocoso.

Además, su estrategia de desacreditar la prensa comenzó mucho antes de popularizarse el concepto de la IA generativa. En 2016, la periodista Leslie Stahl de 60 Minutes reveló que Trump confesó haber usado el término “noticias falsas” (“fake news”) como táctica deliberada para minar la confianza en los medios.

La peligrosa normalización del “todo es falso”

Hany Farid, profesor de la Universidad de California en Berkeley y experto en ciberseguridad, ha advertido durante años sobre la amenaza de los deepfakes. Pero su mayor preocupación va más allá de las recreaciones visuales y auditivas: “Cuando entras a un mundo donde todo puede ser falso, entonces nada tiene que ser real”, explicó en una reciente entrevista. “Eso deja la verdad al arbitrio de quien más influencia tiene.”

Incluso si existen evidencias concretas, ahora basta con decir “eso fue IA” para sembrar la duda. Esta tendencia socava uno de los pilares fundamentales de cualquier sociedad democrática: la responsabilidad.

IA como fenómeno cultural y político

La expansión de la IA no solo se ha dado en laboratorios y empresas de tecnología. Está infiltrándose cada vez más en nuestras vidas cotidianas, decisiones políticas e incluso narrativas personales. En 2024, según una encuesta de Pew Research Center, la mitad de los adultos estadounidenses se sienten “más preocupados que entusiasmados” ante la creciente presencia de la IA en la vida diaria.

Una encuesta de Quinnipiac en abril del mismo año reveló que tres cuartas partes de los encuestados solo confiarían “algunas veces” o “casi nunca” en información generada por IA. Además, el 60% expresó preocupación de que políticos utilicen estas herramientas para distribuir información falsa.

No es paranoia colectiva: es una realidad respaldada por actos constantes de manipulación. Ya no basta con tener la verdad de tu lado. Ahora hay que convencer de que es verdad.

El caso de Venezuela y la internacionalización del discurso

El uso de la IA como excusa no es exclusivo de Estados Unidos. El ministro de Comunicaciones de Venezuela, Freddy Ñáñez, también se subió al tren del escepticismo digital al ver un video difundido en redes sociales por funcionarios de EE.UU., donde se mostraba un supuesto bombardeo a una lancha vinculada al grupo Tren de Aragua. Ñáñez afirmó que el video tenía “animación casi caricaturesca” y que muy probablemente “había sido generado con IA”.

Si esto es verdad o no, es irrelevante en esta narrativa posmoderna. Lo importante es que la duda ya está sembrada. Mientras más países adopten este tipo de retórica, más difícil será sostener una conversación informativa basada en evidencia verificable.

La cena de los titanes: política, negocios y narrativa digital

La Casa Blanca lo sabe, y por eso ha convocado a los más influyentes líderes tecnológicos del mundo a una cena “estratégica”. El pasado jueves, Trump organizó un evento que reunió a los CEOs de Microsoft, Apple, Meta, Google y otros gigantes de la IA como OpenAI y Palantir.

El lugar: el Jardín de Rosas de la Casa Blanca, remodelado con mesas y sombrillas al estilo de Mar-a-Lago, su club privado. El evento formó parte del lanzamiento de una nueva “Fuerza de Tarea de Educación en IA”, presidida por la primera dama, Melania Trump.

¿El objetivo oficial? Educar a los jóvenes. ¿La meta real? Posicionar a EE.UU. como “el líder moral” en el desarrollo de la inteligencia artificial antes de que China o la Unión Europea definan los estándares globales.

Un futuro sin responsables

Toby Walsh, investigador y profesor de IA en la Universidad de Nueva Gales del Sur (Australia), advierte sobre el alcance de esta tendencia: “Lleva a un futuro oscuro donde ya no responsabilizamos a nadie por lo que dice o hace”, explicó vía correo electrónico. “Antes, si te atrapaban en video diciendo algo, tenías que hacerte responsable. Ahora no.”

Ese escenario no es distópico; ya estamos viviendo en él. Y si la palabra “responsabilidad” se vuelve irrelevante, también lo hará el concepto de “verdad”.

¿Qué podemos hacer?

  • Educación mediática: Incluir programas escolares que enseñen a identificar información manipulada.
  • Transparencia tecnológica: Exigir a plataformas digitales y empresas IA etiquetas claras sobre contenido generado artificialmente.
  • Normativas legales: Implementar leyes que castiguen el uso de IA para desinformación deliberada.
  • Responsabilidad política: Obligar a los líderes a rendir cuentas y no permitir que se escuden en excusas tecnológicas.

En definitiva, no se trata de demonizar la IA, sino de comprender que su uso —como cualquier herramienta poderosa— requiere ética, supervisión y sobre todo, responsabilidad personal y colectiva.

Este artículo fue redactado con información de Associated Press