Tecnología bajo la lupa: el auge económico de la IA... y sus peligros legales

Microsoft y Meta reportan grandes ganancias gracias a la inteligencia artificial, pero también enfrentan una creciente ola de demandas por desinformación generada por sus chatbots

El ascenso imparable de la inteligencia artificial

La inteligencia artificial (IA) continúa siendo el principal impulsor del crecimiento económico en las grandes tecnológicas, y los resultados financieros de Microsoft y Meta en el primer trimestre de 2024 lo confirman de forma rotunda. Sin embargo, este boom de la IA también ha venido acompañado de controversias legales, éticas y de percepción pública.

En este análisis exploraremos cómo Microsoft y Meta lograron obtener cifras récord impulsadas por su enfoque en la IA y la computación en la nube, y cómo los riesgos asociados —en especial los errores de los chatbots generativos— se traducen en demandas y posible regulación.

Microsoft: beneficios sólidos gracias a la nube y la IA

Microsoft reportó ingresos de $70.1 mil millones para el periodo de enero a marzo de 2024, un crecimiento del 13% respecto al mismo trimestre del año anterior (Fuente: Microsoft). Su beneficio neto fue de $25.8 mil millones, o $3.46 por acción, superando ampliamente las expectativas de Wall Street ($3.22 por acción).

Una parte fundamental de este crecimiento proviene del segmento de computación en la nube, especialmente Azure, cuya facturación saltó un 21% hasta alcanzar los $26.8 mil millones.

“Este trimestre muestra la solidez del negocio aliada a nuestra inversión en inteligencia artificial generativa. Azure y Copilot continúan liderando la transformación de nuestros clientes”, declaró Satya Nadella, CEO de Microsoft.

El negocio de computación personal, que incluye el sistema operativo Windows, también subió un 6%, incluso en medio de la incertidumbre del mercado de hardware y los costes asociados a tarifas comerciales.

Meta: fuerte arranque de año con ganancias, pero problemas con su IA

No solo Microsoft está cosechando éxitos. Meta, la empresa matriz de Facebook e Instagram, reportó un beneficio neto de $16.64 mil millones en el mismo trimestre, un aumento del 35% frente al año anterior. Los ingresos totales alcanzaron los $42.31 mil millones, superando las estimaciones de los analistas.

Mark Zuckerberg celebró los resultados como una “señal positiva para lo que será un año clave”, destacando que Meta AI ya cuenta con casi 1,000 millones de usuarios activos mensuales. Además, la compañía lanzó recientemente una app independiente de inteligencia artificial con una función llamada 'discover', diseñada para mostrar cómo otros utilizan la tecnología.

Sin embargo, no todo son buenas noticias. Una demanda reciente contra Meta demuestra que el desarrollo acelerado de IA puede tener consecuencias imprevistas y peligrosas.

El caso Robby Starbuck: ¿puede una IA difamarte?

En un giro que pone en evidencia los riesgos legales de la IA, el activista conservador Robby Starbuck presentó una demanda por difamación contra Meta luego de que el chatbot de la empresa generara contenido falso que lo vinculaba a los disturbios del Capitolio del 6 de enero de 2021.

Según Starbuck, supo del incidente cuando perseguía políticas “despiertas” en Harley-Davidson y un concesionario compartió una captura de pantalla con afirmaciones erróneas generadas por Meta AI. El contenido decía que había participado en el asalto al Capitolio, negado el Holocausto y se había declarado culpable de un crimen, pese a que nunca ha sido arrestado ni acusado en su vida.

“Esto va más allá de mí. Las falsedades de la IA de Meta podrían cambiar votos o arruinar la reputación de cualquier ciudadano. Podrías ser el próximo objetivo”, escribió Starbuck en X.

Meta responde, pero no convence

Meta respondió reconociendo el error, con su ejecutivo de asuntos globales Joel Kaplan calificando la situación como “inaceptable”. Aunque eliminaron el nombre de Starbuck de las respuestas de la IA, él sostiene que esto no resolvió el problema de raíz, ya que su nombre sigue vinculado a artículos noticiosos, lo que permite nuevos errores.

La demanda, presentada en Delaware, busca una indemnización superior a los $5 millones y solicita reformas en los sistemas de control y calidad de la IA de Meta. Starbuck asegura que intentó contactar a ejecutivos y abogados de la empresa, sin éxito.

¿Un patrón emergente?

No es el único caso. En 2023, un locutor conservador presentaba una demanda similar contra OpenAI, alegando que ChatGPT lo vinculó de forma falsa a un fraude contra una organización pro-armas. Este tipo de demandas podrían multiplicarse a medida que se popularicen los asistentes de inteligencia artificial con capacidad de generar lenguaje natural.

Este fenómeno plantea interrogantes clave: ¿quién es responsable cuando una IA difunde información falsa? ¿La empresa dueña del modelo? ¿El usuario que solicita la información?

Riesgos sistémicos: IA, política y elecciones

Las implicaciones de estas fallas son especialmente graves en un año electoral. En palabras de Robby Starbuck:

“Las mentiras de Meta AI podrían cambiar un voto. Imagina si esto le pasa a un candidato. Estamos hablando de manipulación electoral con apariencia de neutralidad tecnológica.”

Esto se alinea con preocupaciones globales sobre deepfakes, falsificaciones hiperrealistas generadas por IA que ya han sido usadas en campañas de desinformación política en países como India, Ucrania y Estados Unidos.

Lo bueno, lo malo y lo urgente de la IA

  • Lo positivo: Microsoft y Meta están liderando transformaciones económicas colosales. La inteligencia artificial está impulsando aumentos de productividad sin precedentes, tanto en el sector empresarial como en el consumo masivo.
  • Lo negativo: Los errores de los sistemas generativos distan de ser triviales. Cuando afectan la reputación o integridad de una persona, las consecuencias legales son ineludibles.
  • Lo urgente: Las empresas deben implementar mecanismos sólidos de verificación, transparencia y rendición de cuentas para sus modelos de IA. Ya no es suficiente con decir que están “mejorando continuamente” sus sistemas: la confianza está en juego.

¿Qué puede venir? Regulación y ética algorítmica en el horizonte

Europa ya lleva la delantera con su Ley de Inteligencia Artificial, la primera legislación integral del mundo sobre IA, que clasifica los usos de la tecnología por niveles de riesgo. Estados Unidos aún no tiene algo equivalente, aunque hay iniciativas en curso.

Las propias empresas pueden anticiparse a la regulación aplicando auditorías internas, validando datos de entrenamiento y abriendo sus sistemas de revisión al escrutinio externo. No hacerlo podría costar miles de millones y mucha reputación perdida.

En conclusión, la IA es la gallina de los huevos de oro... y también un agente de caos si no se maneja con responsabilidad.

Este artículo fue redactado con información de Associated Press