Tecnología fuera de control: ¿Hasta dónde puede llegar el racismo algorítmico en EE.UU.?

El caso de Porcha Woodruff expone las profundidades de un sistema de justicia que confía en herramientas tecnológicas con sesgos peligrosos

Una herramienta con grietas peligrosas

En febrero de 2023, Porcha Woodruff, una mujer afroamericana embarazada de ocho meses, fue arrestada injustamente en Detroit por un robo de auto que no cometió. Su crimen: haber sido identificada erróneamente a través de tecnología de reconocimiento facial. Pasó 10 horas en la cárcel, separada de sus hijos, humillada y víctima de un sistema que cada vez más descansa en criterios algorítmicos para tomar decisiones críticas.

Este hecho no es aislado y representa una profunda crisis ética, tecnológica y social en los Estados Unidos. Aunque el juez Judith Levy reconoció que la detención fue "preocupante por muchas razones", desestimó la demanda de derechos civiles interpuesta por Woodruff, argumentando que el oficial encargado del arresto no sabía que existía evidencia exculpatoria y que tenía suficiente causa probable.

Reconocimiento facial: ¿tecnología del futuro o nueva forma de discriminación?

El caso de Porcha es uno de varios en los que la tecnología de reconocimiento facial, especialmente utilizada por departamentos de policía como el de Detroit, ha mostrado fallas y sesgos considerables. Un estudio de 2019 del National Institute of Standards and Technology (NIST) concluyó que los sistemas de reconocimiento facial tienen tasas de error mucho mayores con personas de piel más oscura, particularmente mujeres afroamericanas y asiáticas.

Para ser más específicos, el estudio del NIST determinó que ciertos algoritmos llegan a tener hasta 100 veces más probabilidades de cometer una falsa coincidencia con una persona afroamericana o asiática que con una persona blanca. Esto crea una tormenta perfecta cuando se utilizan estas herramientas para decisiones legales como arrestos.

Detroit: ciudad pionera y problemática en vigilancia tecnológica

Detroit ha sido históricamente una de las primeras ciudades en incorporar vigilancia basada en inteligencia artificial (IA). Bajo su sistema Project Green Light, cámaras de seguridad de alta resolución transmiten en tiempo real a estaciones de policía, y muchas de estas están equipadas con reconocimiento facial.

Pero las fallas no se hicieron esperar. En 2021, la ciudad pagó $300,000 a Robert Williams, un hombre identificado erróneamente como sospechoso de un robo gracias a esta tecnología. El caso de Porcha se suma a este patrón peligroso.

Las promesas de la IA y su realidad discriminatoria

Empresas como Amazon, Microsoft y IBM han puesto en pausa o cancelado proyectos de reconocimiento facial debido a los sesgos demostrados. Microsoft, por ejemplo, respondió a las críticas limitando el acceso a estas tecnologías a la policía. Las promesas de la inteligencia artificial solo se mantienen si su uso respeta los derechos humanos y no institucionaliza el racismo con apariencia de objetividad algorítmica.

En el caso de Porcha, un oficial usó una imagen suya previa en una alineación de fotos basada en la coincidencia que arrojó el sistema de reconocimiento facial, y la víctima del robo la identificó entre otras imágenes. No se corroboró con más investigación, a pesar de que Porcha ni siquiera se ajustaba a la descripción física de la sospechosa.

¿Qué dicen los defensores de los derechos civiles?

El abogado de Woodruff, Ivan Land, afirma que aún planean apelar la decisión y que existe una clara negligencia al depender exclusivamente de tecnología sin verificar su precisión. "Estamos impactados por la decisión del juez. La policía debió investigar más a fondo y no confiar tanto en el reconocimiento facial", señaló en declaraciones a los medios.

La Unión Americana de Libertades Civiles (ACLU) ha advertido en múltiples ocasiones del uso desproporcionado de esta tecnología en comunidades negras y latinas, y ha exigido una legislación federal que regule su implementación. “El reconocimiento facial automatizado representa un riesgo fundamental a nuestras libertades civiles”, afirma el abogado senior Nathan Freed Wessler de la organización.

¿Hay marcha atrás?

Tras el escándalo y el daño mediático por los errores consecutivos, el Departamento de Policía de Detroit anunció que ya no realizará arrestos solamente con base en los resultados del reconocimiento facial. Además, dijo que no arrestará a personas basándose en alineaciones de fotos generadas por este tipo de búsqueda.

Sin embargo, estas promesas solo llegaron después de múltiples fallas ya ampliamente documentadas. Y los costos —emocionales, económicos, reputacionales— los han pagado inocentes como Porcha Woodruff.

¿Hacia una regulación federal?

Desde el Senado y la Cámara de Representantes de EE.UU. han surgido diversos proyectos de ley que buscan limitar o incluso prohibir el uso de tecnologías de reconocimiento facial por parte de entidades gubernamentales. Uno de los más relevantes es el Facial Recognition and Biometric Technology Moratorium Act, que busca imponer una moratoria sobre el empleo federal de esta tecnología.

Sin embargo, el lobby tecnológico y las divisiones partidistas continúan entorpeciendo estos debates, en un país que aún busca conciliar sus avances científicos con los principios democráticos que lo fundan.

Una historia, miles de rostros

La historia de Porcha Woodruff no es única. Representa a miles de personas vulnerables a ser criminalizadas no por sus actos sino por el sesgo de una cámara. Su caso ilustra lo que muchos expertos llaman “racismo algorítmico”, una nueva forma de discriminación oculta en la objetividad aparente del código.

Mientras Estados Unidos debate sobre el papel de la inteligencia artificial en la vida cotidiana, casos como estos nos recuerdan que ningún algoritmo es neutral. Está entrenado con datos humanos, y esos datos a menudo llevan el legado de nuestra historia más oscura: la discriminación estructural.

Hasta que no se legisle con urgencia y responsabilidad, el reconocimiento facial seguirá siendo un arma de doble filo que puede arruinar vidas inocentes.

Este artículo fue redactado con información de Associated Press