Tecnología con doble filo: el dilema ético de la IA militar en empresas como Microsoft
Protestas, contratos secretos y dilemas morales: una mirada crítica al rol de Microsoft en la carrera armamentista de la inteligencia artificial
¿Hasta qué punto una empresa de tecnología puede declararse ética mientras colabora, directa o indirectamente, en conflictos militares? Esta pregunta resuena con fuerza luego de la protesta protagonizada por una activista pro-Palestina durante el evento conmemorativo del 50 aniversario de Microsoft, donde el CEO de su división de inteligencia artificial, Mustafa Suleyman, presentaba las novedades de Copilot, su asistente de IA.
Un aniversario eclipsado por la controversia
El evento se llevó a cabo en la sede de Microsoft en Redmond, Washington, y fue diseñado como una celebración del legado e innovación futura de la compañía. En medio de una presentación clave frente a figuras como Bill Gates y Steve Ballmer, la calma se rompió cuando una mujer en la audiencia interrumpió gritando: “Mustafa, shame on you. Dices que te importa el bien común, pero Microsoft vende armas de IA al ejército israelí”.
El momento fue capturado en directo, lo que llevó a una cobertura inmediata en redes sociales y medios de todo el mundo. Mientras Suleyman respondió, “Gracias por tu protesta, te escucho”, la manifestante continuó denunciando los supuestos vínculos de Microsoft con el conflicto en Gaza.
El uso militar de la inteligencia artificial: ¿futuro distópico o realidad presente?
La denuncia no es una acusación aislada. Según una investigación revelada este año, modelos de IA desarrollados por Microsoft y OpenAI habrían sido empleados por el ejército israelí como parte de un sistema de selección de objetivos para bombardeos. El informe menciona el uso de sistemas de reconocimiento y análisis predictivo, herramientas clave en conflictos recientes tanto en Gaza como en Líbano.
Uno de los hechos más desgarradores reportados fue el bombardeo erróneo de un vehículo civil en 2023, en el que murieron tres niñas libanesas y su abuela. El ataque habría sido autorizado por un sistema automatizado de selección de blancos, basado en IA.
La narrativa de Microsoft: innovación con responsabilidad
En respuesta al incidente, Microsoft emitió una declaración afirmando: “Ofrecemos muchas vías para que todas las voces sean escuchadas... pero pedimos que no se interrumpan nuestras actividades de negocio”. La compañía reitera su compromiso con prácticas éticas y estándares elevados; no obstante, ha sido criticada por su falta de transparencia en los contratos con organismos militares.
En febrero pasado, cinco empleados fueron expulsados de una reunión con el CEO Satya Nadella por protestar contra estos vínculos. A diferencia de aquella ocasión privada, el evento de abril fue transmitido globalmente, lo que amplificó el eco de la denuncia.
La militarización de la inteligencia artificial: actores, contratos y riesgos
El creciente uso de la IA en el ámbito militar no es exclusivo de Israel o Microsoft. Estados Unidos, China y otros países invierten miles de millones en este sector, generando una carrera armamentista tecnológica sin precedentes. Empresas como Google, Amazon y Palantir también han estado bajo la lupa por contratos con el Pentágono y agencias de defensa.
Según el Centro para una Nueva Seguridad Estadounidense (CNAS), solo en 2023 se firmaron más de 300 contratos entre el Departamento de Defensa de EE.UU. y empresas tecnológicas para proyectos relacionados con IA, visión computarizada y robótica autónoma.
La paradoja del progreso: IA para la guerra o para el bien común
Mustafa Suleyman ha sido una figura prominente en el mundo de la inteligencia artificial ética. Cofundador de DeepMind (adquirida por Google en 2014), ha defendido repetidamente el uso responsable de la IA. En 2019, escribió en una columna de The Economist: “Debemos garantizar que la IA no sea usada para el mal”. Su rol actual en Microsoft, sin embargo, es ahora blanco de duras críticas por parte de activistas y antiguos colegas.
La manifestante del evento acusó directamente a Suleyman y a Microsoft de tener “las manos manchadas de sangre”. Más allá del dramatismo de la escena, plantea una pregunta urgente: ¿pueden las grandes tecnológicas evitar que sus herramientas sean utilizadas en contextos bélicos sin renunciar a contratos multimillonarios?
Las voces internas: empleados en pie de protesta
Movimientos como #TechWontBuildIt y Microsoft Workers 4 Good han surgido en los últimos años como asociaciones informales de empleados que exigen mayor ética corporativa. En 2018, empleados de Google lograron que la compañía se retirara del Proyecto Maven, un contrato con el Departamento de Defensa que buscaba aplicar visión computarizada en drones militares. ¿Podría verse un escenario semejante en Microsoft?
En entrevistas recopiladas por medios como The Verge y Wired, empleados anónimos de Microsoft expresan “preocupación creciente” sobre el doble discurso de la empresa. Uno de ellos declaró: “Nos dicen que estamos construyendo el futuro, pero a veces parece que estamos programando su destrucción”.
IA y guerra: precedentes históricos y sombras del porvenir
El uso militar de tecnologías emergentes tiene antecedentes claros. Internet nació como un proyecto del Departamento de Defensa estadounidense; los drones, primero pensados para labores de vigilancia, se convirtieron en herramientas letales. La inteligencia artificial no es diferente. Si bien su potencial para mejorar diagnósticos médicos, predecir catástrofes o optimizar transporte es inmenso, su aplicación militar plantea dilemas sin precedentes.
Expertos como Stuart Russell, pionero en IA y profesor en la Universidad de California, han advertido repetidamente sobre los riesgos de una IA no regulada al servicio de fines armamentistas. En su conferencia TED de 2021 pidió a los gobiernos: “Prohibamos ahora las armas autónomas antes de que se conviertan en un estándar incontrolable”.
¿Qué sigue para las grandes tecnológicas?
La creciente presión pública, interna y mediática lleva a pensar que la etapa de desarrollo "a ciegas" ha llegado a su fin. Empresas como Microsoft deberán definir con mayor precisión sus límites éticos y su política frente a contratos militares. La sugerencia más poderosa para ello podría venir, paradójicamente, desde dentro: de sus propios ingenieros, investigadores y desarrolladores.
En palabras de la activista que interrumpió el evento: “No hay progreso tecnológico si se construye sobre ruinas humanas”.