La nueva amenaza invisible: Cómo los deepfakes están hackeando la confianza en la era digital
Desde fraudes políticos hasta espionaje corporativo, el crecimiento de los deepfakes plantea una crisis de confianza sin precedentes
Marco Rubio ofreciendo cortar la conexión a Ucrania. Joe Biden desalentando a sus votantes por teléfono. Directores ejecutivos pidiendo transferencias urgentes. Todo falso.
Lo que comenzó como una curiosidad tecnológica hoy es una amenaza que compromete la seguridad nacional, manipula la política, socava el periodismo y penetra en los sistemas financieros globales. Nos referimos a los deepfakes: contenidos audiovisuales falsificados mediante inteligencia artificial (IA) para imitar personas reales con un realismo perturbador.
El sonido de una mentira: cuando la política se vuelve sintética
En pleno 2024, alguien se hizo pasar por el secretario de Estado de Estados Unidos, Marco Rubio, comunicándose por señales de texto, llamadas y la app Signal en nombre de la diplomacia norteamericana. Unos meses antes, otra voz sintética fingía ser Susie Wiles, jefa de gabinete de Donald Trump.
Estos no fueron incidentes aislados. Según reportes del gobierno, estos deepfakes intentaban engañar a otros funcionarios de alto nivel, creando una puerta directa a secretos diplomáticos y estrategias militares.
“Ya no se trata de hackear un servidor, se trata de hackear la confianza”, anunció Brian Long, CEO de Adaptive Security.
La situación ya captó la atención del Congreso estadounidense. Steven Kramer, un consultor político, incluso admitió que fue él quien organizó un robocall falso emulando a Joe Biden, con el objetivo de abrir los ojos del electorado sobre lo fácil que es manipular el sistema usando estas herramientas. Lo hizo por tan solo 500 dólares.
Deepfakes como herramienta de guerra psicológica
Hoy en día, Rusia y China llevan años utilizando estas herramientas de desinformación para desestabilizar democracias. Aunque las campañas de desinformación no son nuevas, ahora se han vuelto más convincentes. En 2023, miles de votantes en New Hampshire recibieron una llamada telefónica con una voz idéntica a la del presidente Biden pidiéndoles que no acudieran a las urnas. Aunque fue una táctica de “advertencia”, muestra cuán vulnerables son los sistemas democráticos.
¿Y si no fueran 500 dólares? Kramer mismo lo advirtió: “¿Imaginan lo que podría hacer el gobierno de China con este tipo de tecnología?”
La industria financiera en la mira
No solo los gobiernos están en la línea de fuego. Las corporaciones también están sufriendo las consecuencias de una tecnología tan persuasiva.
Jennifer Ewbank, ex subdirectora de la CIA, declaró que la banca y el sector financiero son objetivos prioritarios. “Incluso aquellos que se conocen desde hace años han sido engañados para transferir millones de dólares”, explicó.
En casos crecientes de espionaje corporativo, empleados creen estar cumpliendo órdenes del CEO cuando en realidad son víctimas de una imitación digital. En otros escenarios, candidatos falsos logran pasar entrevistas de trabajo con avatares y voces sintéticas para infiltrarse y luego plantar ransomware.
Corea del Norte y el fraude descentralizado
Los servicios de inteligencia de EE.UU. han encontrado que miles de profesionales TI norcoreanos están operando en el extranjero usando identidades falsas. Su misión: obtener empleos en compañías tecnológicas occidentales y, eventualmente, robar secretos o instalar puertas traseras en los sistemas.
“La mayoría se hace pasar por ciudadanos coreanos del sur o chinos”, indicó un informe del Departamento de Estado. Esto no solo les genera salario, sino que también les permite extorsionar a las compañías con ataques informáticos futuros. Se estima que este modelo ha generado miles de millones de dólares para el gobierno norcoreano.
Según Adaptive Security, para el año 2027, 1 de cada 4 solicitudes de empleo será falsa.
El desafío de legislar la verdad
¿Cómo se regula algo tan invisible y difuso? Legisladores de distintos países están evaluando exigir que las plataformas digitales etiqueten los contenidos generados con IA. Otros buscan medidas más drásticas, como penas de cárcel para los responsables de crear deepfakes con fines delictivos o políticos.
Pero el reto es doble: no solo se trata de crear un marco legal, sino de desarrollar tecnología capaz de detectar estas falsificaciones de forma automatizada y a gran escala.
IA contra IA: la guerra tecnológica interna
Firmas como Pindrop Security han desarrollado soluciones que utilizan IA para combatir deepfakes en audio, sobre todo en llamadas empresariales o entrevistas laborales. Su sistema analiza millones de microdatos en la voz humana para reconocer si está “clonada”.
“Como humanos, somos inherentemente engañables, pero las máquinas no”, afirma Vijay Balasubramaniyan, CEO de Pindrop. Él cree que, así como vencimos al spam en los correos electrónicos, también podremos frenar a los deepfakes.
Hoy, incluso existen plataformas como Sensity AI, Deepware o Reality Defender que escanean millones de contenidos al día para determinar si han sido modificados con técnicas de síntesis de imagen o audio.
Sin embargo, la tecnología avanza tan rápido que la detección va un paso atrás de la creación. Algunas de las últimas herramientas de clonación de voz son indetectables por el oído humano e incluso confunden a sistemas automatizados.
La alfabetización digital: una defensa ciudadana
En paralelo con las herramientas tecnológicas, expertos proponen una estrategia educativa como barrera de defensa. Tal como aprendimos a detectar correos fraudulentos, deberíamos aprender a reconocer patrones sintéticos en videos o audios: movimientos casi imperceptibles, parpadeos irregulares, voces sin dinámica emocional.
Las campañas masivas de alfabetización digital comienzan a cobrar protagonismo en EE.UU., Reino Unido y Alemania. Se trata de hacer conscientes a las personas de que ver y oír ya no es creer.
Confianza: la moneda del siglo XXI
En un ecosistema donde un simple audio falsificado de 15 segundos puede desencadenar una guerra o un crash bursátil, la verdad ya no es un concepto sólido. Como señala Kinny Chan, CEO de QiD, “lo que buscan los atacantes no es solo acceso a información, sino romper el tejido de la confianza entre personas, gobiernos y empresas”.
Al igual que en los inicios de internet, cuando las cadenas de correos y las páginas de virus crearon una paranoia masiva, hoy vivimos esa nueva era de incertidumbre. Pero entonces supimos construir tecnologías de defensa, y lo volveremos a hacer.
“Puedes adoptar una visión derrotista y pensar que seremos esclavos de la desinformación”, dijo Balasubramaniyan. “Pero eso no va a suceder”.
Una reflexión final: ¿y si nosotros mismos somos un deepfake?
Por más ciencia ficción que suene, ya no es descabellado preguntarse: ¿Dónde termina la verdad y dónde empieza la ilusión calculada? La humanidad ha construido sistemas complejos pero frágiles alrededor de un solo principio: la confianza.
Y hoy, más que nunca, necesitamos luchar para preservarla.