Dilema de tecnológicas: vigilar discurso sin violar derechos

Dilema de tecnológicas: vigilar discurso sin violar derechos
ARCHIVO - Foto de archivo, 11 de agosto de 2019, de una página de Facebook en un iPhone. Las redes sociales reciben reclamos enérgicos y a veces contradictorios de Washington de supervisar lo que aparece en el internet sin violar los derechos constitucionales de libertad de expresión. (AP Foto/Jenny Kane, File)

WASHINGTON (AP) — Quitar el mensaje. Volver a publicarlo. Dejar de vigilar el discurso. Acallar a los extremistas.

Es apenas una muestra de los reclamos imperiosos y frecuentemente contradictorios que reciben las empresas tecnológicas y sus redes sociales en su intento de supervisar el contenido del internet sin violar los derechos constitucionales de libertad de expresión. El péndulo se ha inclinado últimamente por limitar el discurso de odio que pudiera generar violencia, tras una masacre en Texas precedida por la publicación online de un manifiesto racista del presunto autor.

Para Facebook, Google, Twitter y otros, es una situación imposible, con el fondo de un coro incesante del presidente Donald Trump y sus aliados que acusan a las redes de tendenciosidad contra la derecha. Ahora que los reguladores y legisladores en Washington pasan el peine fino a sus prácticas empresarias, las compañías tecnológicas se cuidan de dar pasos en falso, pero se encuentran con críticas a cada vuelta de la esquina.

“Hay un límite tenue entre el discurso repugnante u ofensivo y el discurso político que a uno no le gusta. Esas líneas se difuminan”, dijo Jerry Ellig, exfuncionario de la Comisión Federal de Comercio y ahora profesor en el Centro de Estudios Regulatorios de la Universidad George Washington.

Por mucho tiempo las empresas que manejan las plataformas de redes sociales han gozado de amplia inmunidad por el contenido que publican. La Ley de Decencia en las Comunicaciones de 1996 les proporciona un escudo legal tanto para lo que publican como para eliminar lo que consideran ofensivo. Sean mensajes, videos, comentarios de usuarios sobre restaurantes o médicos, o avisos clasificados, la protección que gozan de las demandas y acusaciones ha sido un pilar de las redes sociales e indudablemente ha contribuido a su crecimiento.

Pero en el clima reinante de hostilidad hacia las grandes empresas del sector, esa protección legal es objeto de estudio.

El senador Josh Hawley, un republicano de derecha sin pelos en la lengua, presentó hace unos meses un proyecto de ley que obligaría a las empresas a demostrar a los reguladores que no hay tendenciosidad política en la filtración de su contenido. A falta de una certificación oficial de ausencia de tendenciosidad, la red social perdería su inmunidad frente a una medida judicial. Resta por verse si semejante sistema es acorde con la Primera Enmienda constitucional, que garantiza la libertad de expresión.

El proyecto de Hawley recibió la respuesta enérgica de Michael Beckerman, titular de la gran cámara industrial Internet Association. Dijo que obliga a las plataformas a “efectuar una elección imposible: aceptar discurso objetable pero protegido por la Primera Enmienda o perder las protecciones legales que les permiten atemperar el contenido ilegal como el tráfico de seres humanos y el extremismo violento. Eso no debería ser una alternativa”.

El problema de la tendenciosidad persigue a Silicon Valley desde hace años, aunque no hay pruebas contundentes de que afecte los algoritmos de búsqueda en Google o lo que ven los usuarios en Facebook, Twitter o YouTube.

Pero eso no satisface a los críticos de derecha, incluso la Casa Blanca, donde Trump prometió el mes pasado en una “cumbre de redes sociales” explorar “todas las soluciones regulatorias y legislativas para proteger la libertad de expresión y los derechos de libertad de expresión de todos los estadounidenses”. Aunque nadie entró en detalles, la declaración apunta en la dirección del proyecto de Hawley.

Algunos críticos dicen que los males del sector son en parte culpa suya. Como campeones de la libertad de expresión, dicen, los usuarios no estaban preparados para la realidad de que en ocasiones se aplicarán restricciones al discurso.

“Insistían en que eran neutrales, solo plataformas tecnológicas”, dijo el profesor de derecho Eric Goldman, de la Universidad de Santa Clara.

Era un argumento persuasivo, hasta que llegó la decepción. “Con el tiempo se derrumbó, y los consumidores dejaron de confiar en ellos”, dijo Goldman.

Otros observan que el sector tiene problemas bien documentados que no se pueden atribuir a Washington. Han recibido críticas sobre la diversidad, el trato a las mujeres y cómo responden al acoso sexual y la discriminación, tanto online como offline. En ocasiones, las protestas de los empleados, muchos de los cuales son ingenieros bien remunerados, han desembocado en medidas espectaculares como una huelga global con manifestaciones callejeras de los empleados de Google en noviembre del año pasado. La respuesta de la empresa en esa ocasión consistió en cambiar la manera como investiga las denuncias de faltas de conducta y simplificar el proceso de presentación de quejas.

También están los escándalos en torno a la escasa privacidad de los datos y la influencia extranjera rampante, que ha absorbido tanta atención en Washington desde la elección de 2016.

Una campaña rusa de influencia masiva utilizó mensajes falsos en Facebook y otras redes sociales para sembrar la discordia entre los millones de estadounidenses que los vieron. Presionadas por los legisladores, las empresas tecnológicas están elaborando protecciones contra videos “deepfake”, falsos pero de apariencia realista, y otras manipulaciones online que pudieran utilizarse para afectar la elección de 2020.

Convocados por el Congreso, directivos de Facebook, Twitter y Google han detallado sus normas: prohibición de livestream (transmisión en vivo) para los violadores de las normas, suspensión de las cuentas por promoción del terrorismo, prohibición de conducta engañosa en búsquedas, noticias y video.

“Nuestros esfuerzos incluyen crear numerosos equipos para identificar y tomar medidas contra los actores maliciosos”, dijo Derek Slater, director de políticas de información de Google, en una audiencia en la Cámara de Representantes. “Al mismo tiempo, debemos tener en cuenta que nuestras plataformas reflejan una amplia gama de fuentes e información y que existen consideraciones importantes relativas a la libertad de expresión. No hay remedios mágicos, pero seguiremos trabajando para hacerlo bien”.

Quizá ninguna empresa ha recibido críticas tan fuertes por sus políticas de contenido que Twitter, la red social predilecta de Trump.

Ante las quejas de que le permiten a Trump publicar mensajes incendiarios que de otro modo serían eliminados, Twitter ha buscado una posición intermedia. Bajo una nueva norma anunciada en junio, los tuits relacionados con asuntos que considera de interés público, pero que violan sus normas, estarán cubiertos por una advertencia que explicará la violación. El usuario que quiera leer el mensaje deberá cliquear sobre la advertencia.

Es una medida sutil que tal vez no satisfaga a nadie. Llamar a alguien “delincuente”, “perro” o “PERDEDOR total” como ha hecho Trump tal vez no constituya una violación. Pero la reiteración de insultos a alguien podría constituir acoso prohibido.

Twitter dijo que los tuits recientes de Trump que preguntaban cómo la gente podía vivir en un lugar “repugnante” e “infestado de roedores” como Baltimore no violaban sus normas sobre “lenguaje deshumanizante” dirigido a grupos étnicos específicos, ya que se trataba de gente que vive en un lugar determinado.

“Es un paso en la dirección correcta”, dijo Keegan Hankes, analista del Southern Poverty Law Center especializado en la propaganda extremista de derecha. Pero, añadió, en esencia Twitter sostiene que “el discurso de odio puede ser de interés público. Yo sostengo que el discurso de odio jamás es de interés público”.

___

Marcy Gordon está en http://www.twitter.com/mgordonap

Publicado en Inicio » Tecnología »