Cómo construye Europa sus normas para inteligencia artificial

Cómo construye Europa sus normas para inteligencia artificial
ARCHIVO - Un texto de la página de ChatGPT en el sitio web OpenAI se ve en una foto tomada en Nueva York, el 2 de febrero de 2023. Legisladores europeos incluyeron detalles sobre sistemas de inteligencia artificial como ChatGPT en el primer borrador del mundo normas sobre inteligencias artificiales. (AP Foto/Richard Drew, Archivo)

LONDRES (AP) — Las autoridades en todo el mundo se apresuran a redactar normas para inteligencia artificial. También en la Unión Europea, donde un borrador de legislación pasó por una votación crucial el jueves.

Un comité del Parlamento Europeo votó a favor de reforzar el borrador de la destacada propuesta, dentro de un proceso de varios años para marcar los límites a la inteligencia artificial. Esos esfuerzos han cobrado más urgencia ante el rápido avance de ChatGPT, que destaca los beneficios que puede traer esa tecnología incipiente y los peligros que plantea.

A continuación, un vistazo a la Ley de Inteligencia Artificial de la UE:

¿CÓMO FUNCIONAN LAS NORMAS?

El proyecto, propuesto por primera vez en 2021, regirá cualquier producto o servicio que emplee un sistema de inteligencia artificial. La ley clasificará los sistemas en cuatro niveles de riesgo, de mínimo a inaceptable. Las solicitudes que se consideren de más riesgo tendrán requisitos más estrictos, como presentar datos más transparentes y precisos. Funcionaría como un “sistema de gestión de riesgo para IA”, dijo Johann Laux, experto del Oxford Internet Institute.

¿CUÁLES SON LOS RIESGOS?

Uno de los principales objetivos es vigilar contra cualquier amenaza de las IA para la salud y la seguridad y proteger los derechos y valores fundamentales.

Eso implica que algunos usos quedan absolutamente vedados para las IA, como los sistemas de “puntuación social” que juzgan a la gente en función de su comportamiento o sistemas que pretenden manipular, como juguetes interactivos parlantes que fomentan un comportamiento peligroso.

Los negociadores reforzaron la propuesta al votar la prohibición de herramientas policiales predictivas, que revisan datos para predecir dónde se cometerán crímenes y quién los cometerá. También apoyaron una prohibición generalizada del reconocimiento facial remoto salvo por algunas pequeñas excepciones de seguridad, como prevenir una amenaza terrorista específica. Esa tecnología escanea a las personas que pasan por un lugar y utiliza inteligencia artificial para buscar sus rostros en una base de datos. La votación del jueves decidirá hasta dónde llega esa prohibición.

El objetivo es “evitar una sociedad controlada basada en la IA”, explicó el miércoles a la prensa Brando Benifei, legislador italiano, uno de los líderes en los esfuerzos de la eurocámara para legislar este campo. “Creemos que estas tecnologías podrían utilizarse para el mal además de para el bien, y consideramos que los riesgos son demasiado altos”.

Los sistemas de IA en categorías de alto riesgo, como empleo y educación, que afectan a la trayectoria vital de una persona, tendrán duros requisitos como ser transparentes con los usuarios y establecer evaluaciones de riesgo y medidas de compensación.

El ejecutivo de la UE dice que la mayoría de los sistemas de IA, como videojuegos o filtros de spam, caen en las categorías de bajo o ningún riesgo.

¿QUÉ HAY DE CHATGPT?

La propuesta original de 108 páginas apenas mencionaba los chatbots, y tan sólo requería que estuvieran identificados para que los usuarios supieran que estaban interactuando con una máquina. Los negociadores añadieron después cláusulas para cubrir sistemas de inteligencia artificial con fines generales como ChatGPT, que los somete a algunos de los mismos requisitos que los sistemas de alto riesgo.

Un elemento clave que se ha añadido es el requisito de documentar de forma meticulosa cualquier contenido protegido por derechos de autor empleado para enseñar a las IA a generar textos, imágenes, videos o música que parezcan una creación humana. Eso permitiría a los creadores de contenido saber si sus publicaciones en blogs, libros digitales, artículos científicos o canciones pop se han utilizado para entrenar a los algoritmos con los que funcionan sistemas como ChatGPT. Entonces podrían decidir si su obra ha sido copiada y pedir indemnizaciones.

¿POR QUÉ SON TAN IMPORTANTES LAS NORMAS DE LA UE?

La Unión Europea no es una región líder en el desarrollo de inteligencias artificiales de vanguardia. Ese rol lo juegan Estados unidos y China. Pero Bruselas a menudo abre camino con regulaciones que en la práctica se convierten en el estándar global.

“A nivel global, los europeos son bastante acomodados y hay muchos de ellos”, de modo que las empresas y organizaciones suelen decidir que el tamaño del mercado único del bloque, con 450 millones de consumidores, hace más fácil aceptar sus límites que desarrollar productos diferentes para regiones diferentes, indicó Laux.

Pero no es sólo una cuestión de prohibiciones. Al establecer normas comunes para la inteligencia artificial, Bruselas también intenta desarrollar el sistema al dar confianza a los usuarios, dijo Laux.

“La idea es que si puedes convencer a la gente para que confíe en la inteligencia artificial y las aplicaciones, también las utilizará más”, dijo Laux. “Y cuando la utilicen más, desbloquearán el potencial económico y social de la IA”.

¿Y SI SE INCUMPLEN LAS NORMAS?

Las infracciones supondrán multas de hasta 30 millones de euros (33 millones de dólares) o el 6% de los ingresos anuales globales de la compañía, que en el caso de firmas tecnológicas como Google o Microsoft podrían ascender a miles de millones.

¿QUÉ VIENE DESPUÉS?

Podrían pasar años hasta que las normas entren en vigencia. Los legisladores de la UE votarán el borrador en una sesión plenaria a mediados de junio. El texto pasará después a negociaciones a tres bandas con los 27 estados miembros, el Parlamento y la Comisión Europea, en las que experimentar más cambios en el tira y afloja entre las diferentes partes. La autorización final se espera para final de año o principios de 2024 como tarde, lo que se vería seguido por un periodo de gracia para que compañías y organizaciones se adapten a la norma, que suele tomar unos dos años.

Publicado en Inicio » Tecnología »