La otra cara de la censura digital: cómo las plataformas están silenciando el debate sobre el aborto

Organizaciones y profesionales de la salud reproductiva denuncian la eliminación de publicaciones informativas en redes sociales, incluso en países donde el aborto es legal. ¿Estamos ante una nueva forma de censura algorítmica?

Un derecho legal, una voz silenciada

En un mundo donde cada vez más conversaciones esenciales suceden en línea, las redes sociales se han convertido en una herramienta clave para compartir información sobre derechos reproductivos, incluyendo el aborto. Sin embargo, organizaciones defensoras del derecho al aborto, clínicas y creadores de contenido han notado un fenómeno preocupante: publicaciones informativas están desapareciendo de plataformas como Facebook, Instagram, TikTok e incluso LinkedIn, sin una explicación clara.

Aunque empresas como Meta –matriz de Facebook e Instagram– aseguran que sus políticas no han cambiado, muchos defensores de los derechos digitales afirman que estas medidas tienen un efecto escandalosamente disuasivo. ¿La razón? La transición hacia una moderación de contenido automatizada que, aunque más barata y escalable, falla dramáticamente en interpretar contexto, matices y zonas grises.

Del algoritmo al apagón informativo

Según la Electronic Frontier Foundation (EFF), una organización de defensa de los derechos digitales, cerca de 100 casos de remociones de contenido han sido documentados recientemente entre usuarios, clínicas y activistas tanto en Estados Unidos como en América Latina. Algunas publicaciones eliminadas ni siquiera violaban explícitamente las políticas de uso.

“Nuestro objetivo era entender la magnitud del problema: quiénes son los afectados, cuáles son las consecuencias, y buscar mayor transparencia en las prácticas de moderación”, aseguró Jennifer Pinsof, abogada del personal de la EFF.

La organización se dio a la tarea de reunir evidencia de esta tendencia acelerada de silenciamiento digital, con el objetivo de exigir responsabilidad a las plataformas y detener lo que consideran una forma moderna de censura de información crítica para la salud pública.

Ejemplos reales de una problemática creciente

En uno de los casos más llamativos, Brenna Miller, una creadora de contenido en TikTok y trabajadora del sector de salud reproductiva, compartió un video informativo desempaquetando pastillas abortivas de la organización carafem. Habló sobre su contenido y cómo funcionaba el proceso de aborto en casa. A pesar del tono educativo, el video fue eliminado por presunta violación de las normas comunitarias.

“Intenté apelar, pero el sistema me bloqueó. Me decían que no tenía opción de apelar, y cuando traté de contactar a alguien, solo recibía respuestas automáticas durante meses”, contó Miller.

Finalmente, el video fue restaurado sin explicación alguna. Pero el daño, asegura Miller, ya estaba hecho: “Se está suprimiendo información médica precisa. La gente tiene miedo, cuando lo que necesitan es acceso a contenido confiable para cuidar de su salud”.

El caso de Meta y su doble discurso

Meta sostiene que permite publicaciones y anuncios sobre servicios de salud como abortos, siempre que cumplan las políticas establecidas. Sin embargo, los hechos cuentan otra historia.

Un ejemplo claro es el de la Red River Women’s Clinic en Minnesota, que publicó una imagen de mifepristona, junto a un mensaje sobre los servicios legales que ofrecen. Al intentar promocionar la publicación como anuncio, su cuenta fue suspendida.

“No ofrecíamos venta de pastillas, solo informábamos sobre servicios legales. Eso fue alarmante. Que una empresa como Meta siga los vientos políticos de turno y censure información legítima es muy preocupante”, señaló Tammi Kromenaker, directora de la clínica.

Aborto, desinformación y algoritmos ciegos

Para Sara Redd, investigadora de la Universidad de Emory y directora del programa RISE (Centro para la Investigación en Salud Reproductiva del Sureste), el problema va más allá de censurar publicaciones: “Con el aumento del uso de redes sociales, también ha crecido la desinformación sobre temas de salud. Nosotros compartimos contenido basado en evidencia científica, y aún así nos suspenden”.

Su cuenta en Instagram fue bloqueada por publicar información sobre la mifepristona, señalando su uso médico válido. La apelación fue rechazada y la cuenta eliminada, aunque luego fue restaurada tras contactar a alguien dentro de Meta.

La paradoja de la automatización

Laura Edelson, profesora de ciencia computacional en la Universidad de Northeastern, lo explica con claridad:

“El problema no es solo de políticas deficientes, sino de cómo se implementan. Meta ha recortado drásticamente su presupuesto de moderación, y los algoritmos no pueden manejar contenido con matices como el aborto. Lo que esté cerca de la línea roja, será eliminado sin compasión”.

De hecho, desde que Meta terminó con su programa de verificación de hechos en enero, la vigilancia algorítmica se intensificó. Menos seres humanos, más inteligencia artificial; menos contexto, más errores arbitrarios.

El impacto en América Latina: ¿silencio impuesto o autocensura?

Si bien gran parte de los casos documentados provienen de Estados Unidos, organizaciones en América Latina también han comenzado a denunciar prácticas similares. En países donde el aborto ha sido recientemente despenalizado o legalizado, la falta de información clara puede poner en peligro la salud de miles de personas. En Argentina, México y Colombia, grupos feministas han resaltado cómo sus cuentas han sido temporal o permanentemente sancionadas por compartir información sobre el uso seguro de fármacos abortivos.

¿Quién controla la conversación digital sobre nuestros cuerpos?

El problema va más allá de un post eliminado. Se trata de quién toma las decisiones sobre qué información es visible y cuál no. Una clínica bloqueada, una creadora silenciada, una ONG sin acceso a sus seguidores... Cada caso representa una herida a la libertad de expresión y al derecho a la información sobre temas sanitarios legalmente permitidos.

La información sobre aborto no es contenido marginal: es información de vida o muerte. Impedir que llegue a quien más lo necesita puede tener consecuencias trágicas.

¿Censura deliberada o negligencia algorítmica?

Expertos no descartan que muchas de estas remociones provengan de un exceso de celo algorítmico, no necesariamente de malicia corporativa. Pero eso no exime de responsabilidad a las plataformas, mucho menos cuando las rutas de apelación son laberínticas, confusas o inexistentes.

Al margen de sus intenciones, el resultado sigue siendo el mismo: una fuerte disuasión al activismo digital. El temor al castigo, a perder una cuenta o a ser etiquetado como “violento” o “desinformador” lleva a muchos a la autocensura.

Transparencia, responsabilidad y derechos digitales

Jennifer Pinsof lo resume así: “Necesitamos que estas plataformas sean más transparentes, rindan cuentas y entiendan que no pueden delegar en máquinas la toma de decisiones sobre contenido sensible. Las personas deben tener mecanismos claros, rápidos y humanos para defender su derecho a informar”.

En plena era digital, donde los algoritmos deciden qué vemos y qué no, el acceso a información sobre derechos reproductivos no puede estar a merced de una política ambigua o de una IA sin capacidad de empatía.

La lucha por el derecho a decidir también se libra en el terreno de los bits y los píxeles, y el silencio forzado, aunque digital, sigue siendo opresión.

Este artículo fue redactado con información de Associated Press