California y la inteligencia artificial: ¿pionera en regulación o freno a la innovación?
La nueva ley californiana impone controles a los modelos de IA más potentes para evitar catástrofes, mientras otros dudan de su impacto en la industria tecnológica.
Una regulación histórica en la cuna de Silicon Valley
El gobernador de California, Gavin Newsom, ha firmado una ley que coloca al estado a la vanguardia del mundo en lo que respecta a la regulación de la inteligencia artificial (IA). Con esta medida, el estado toma una postura firme frente a los posibles riesgos catastróficos derivados del uso irresponsable de modelos avanzados de IA, al tiempo que intenta proteger su poderosa industria tecnológica.
Según Newsom, esta legislación logra "el equilibrio entre la protección de nuestras comunidades y el impulso a la innovación". Considerando que 32 de las 50 principales compañías de IA del mundo tienen sede en California, no parece una afirmación menor.
¿Qué dice la nueva ley?
La legislación establece requisitos estrictos para las empresas que desarrollan modelos de IA denominados frontera, cuya potencia se mide en función de la capacidad computacional que utilizan. Estas empresas deberán:
- Implementar protocolos de seguridad.
- Divulgar públicamente esas medidas.
- Reportar a las autoridades estatales cualquier incidente crítico en un plazo máximo de 15 días.
- Asumir multas de hasta un millón de dólares por violación.
Además, se protegen los derechos de los trabajadores como denunciantes (whistleblowers) y se propone una nube pública para fomentar la investigación y permitir acceso a herramientas a quienes no pertenecen a grandes corporaciones.
¿Por qué era necesaria esta ley?
En un entorno donde la IA evoluciona con rapidez, el vacío legislativo dejaba una ventana abierta para un posible mal uso de la tecnología. Algunos de los escenarios que la ley busca evitar incluyen:
- La creación de armas biológicas utilizando IA generativa.
- Hackeos a infraestructuras críticas como redes eléctricas o financieras.
- Manipulación política mediante deepfakes en campañas electorales.
La norma define como riesgo catastrófico cualquier evento impulsado por IA que ocasione más de 50 muertes o lesiones, o más de mil millones de dólares en daños económicos.
Fei-Fei Li y la influencia experta
Para elaborar la normativa final, Newsom creó un comité de expertos, entre los que se encontraba la reconocida pionera en IA Fei-Fei Li. La académica ha sido una voz esencial al defender el uso ético y humanista de la tecnología.
Gracias a la colaboración de este grupo y las críticas constructivas de la industria, se logró una legislación menos rígida que su versión anterior, la cual fue vetada por el propio Newsom en 2023.
Industria tecnológica: ¿apoyo o resistencia?
Algunas compañías expresaron su preocupación. Argumentaron que la regulación estatal podría fragmentar el desarrollo de la IA y crear barreras innecesarias frente a la competencia global. Sin embargo, Anthropic, una startup centrada en IA segura, celebró la ley afirmando que:
"Los desarrolladores pueden competir sin dejar de ser transparentes sobre las capacidades de la IA que ponen en riesgo la seguridad pública. La divulgación obligatoria nivela el campo de juego".
Esta opinión contrasta con la de otros gigantes de Silicon Valley, que abogan por una regulación federal uniforme en lugar de enfoques estatales.
¿Dónde está el gobierno federal?
Los demócratas y republicanos en el Congreso estadounidense no han logrado avances significativos en materia de regulación de inteligencia artificial. De hecho, algunos legisladores republicanos incluso intentaron bloquear cualquier posibilidad de regulación local durante una década, medida que fracasó.
Ante esta inercia, los estados han optado por tomar la delantera, aprobando leyes sobre el uso de IA en contextos como:
- Atención médica y terapias sin supervisión humana.
- Protección infantil ante chatbots.
- El uso de deepfakes en campañas electorales.
California no solo está legislando: también está usando IA generativa para detectar incendios forestales y mejorar la seguridad vial. En otras palabras, lidera tanto en uso como en regulación.
El problema de los umbrales técnicos
Uno de los aspectos más debatidos de la legislación es el criterio técnico para considerar que un modelo es "frontera". Actualmente, esto se mide con base en la cantidad de operaciones computacionales ("flops") necesarias para entrenarlos, pero los legisladores admiten que estos umbrales son apenas un punto de partida.
El temor radica en que los modelos actuales, como GPT-4 de OpenAI, podrían parecer seguros hoy, pero una nueva versión podría desencadenar consecuencias imprevistas. El carácter evolutivo y acelerado de la tecnología plantea desafíos normativos significativos.
Balance entre seguridad e innovación
El senador estatal Scott Wiener, autor del proyecto de ley, defendió la flexibilidad del texto. Señaló que las startups no enfrentarán las mismas exigencias que los líderes del sector, evitando así sofocar la innovación en sus primeras etapas. "California vuelve a dar un paso al frente como líder global tanto en innovación como en seguridad tecnológica", dijo.
Esta diferenciación no significa menos responsabilidad, sino reconocer la asimetría de capacidades entre una empresa emergente y un gigante como Google o Meta.
California, modelo internacional
Si bien Europa ha sido reconocida por su enfoque proactivo con iniciativas como la Ley de IA de la Unión Europea, California podría convertirse en un referente para las democracias liberales que busquen un equilibrio entre derechos humanos, seguridad nacional e incentivos al desarrollo tecnológico.
La diferencia está en que la capital mundial de la tecnología está en California, y cualquier legislación que emane desde este núcleo tiene un eco directo en el corazón del desarrollo de la IA.
¿A quién beneficia realmente esta ley?
Desde una mirada crítica, algunos analistas sugieren que la nueva ley puede servir como instrumento reputacional tanto para empresas como para el gobierno estatal. En un entorno de creciente escepticismo público frente a la IA, mostrar compromiso con la ética y la seguridad podría ser un movimiento estratégico que beneficie tanto a empresas como a legisladores.
Por otro lado, hay quienes sostienen que sería mejor que estas directrices surgieran desde un consenso nacional o incluso internacional. Fragmentar el enfoque normativo podría provocar confusión regulatoria y aumentar los costes de cumplimiento.
Una pregunta sin respuesta: ¿será suficiente?
Si bien la legislación representa un hito y un intento serio por acotar la peligrosa frontera de la IA sin frenar la innovación, sigue abierta la incógnita de si estas medidas serán suficientes ante un desarrollo tecnológico que no espera por legisladores o comités.
La historia de la tecnología demuestra que la regulación casi siempre llega tarde. Pero quizás, solo quizás, esta vez sea diferente. Como dijo Newsom: "Hemos demostrado que podemos proteger a nuestras comunidades y seguir desarrollando la industria". El tiempo dirá si tenía razón.