Esta semana, Meta, la empresa matriz de Facebook, anunció modificaciones en sus procesos de moderación de contenido, generando inicialmente expectativas de que estas medidas podrían fortalecer la libertad de expresión en sus plataformas. Desde hace años, diversas organizaciones y defensores de derechos humanos han abogado por una revisión de las políticas de moderación, especialmente en lo que respecta a grupos vulnerables como la comunidad LGBTQ+, disidencias políticas y trabajadores sexuales. Si bien el anuncio incluyó ciertas mejoras en las políticas de desinformación y la reducción del uso de herramientas automatizadas, pronto se hizo evidente que las reformas estaban dirigidas en otra dirección.
Según informes, Meta ha ajustado su política de conducta de odio para permitir declaraciones deshumanizadoras sobre ciertos grupos vulnerables, lo que plantea preocupaciones sobre un posible aumento de discursos de odio, especialmente contra la comunidad LGBTQ+. Las nuevas pautas permiten expresiones que previamente podrían haber sido censuradas, incluidas alegaciones de enfermedades mentales basadas en la orientación sexual, así como discursos que abogan por la exclusión de personas de ciertos ámbitos, como el militar o el educativo.
Expertos en derechos digitales advierten que, aunque la empresa prometió reducir los errores en la moderación y disminuir la dependencia de sistemas automatizados, la implementación de estas políticas muestra una clara tendencia hacia una mayor permisividad del discurso de odio. Esta nueva dirección es vista por muchos como un intento de alinearse con una administración política entrante en Estados Unidos, lo que susurra un retroceso en avances logrados por la comunidad de derechos humanos.
Por otro lado, el enfoque de Meta para tratar la desinformación se ha criticado por ser superficial y, a menudo, llevar a la censura de expresiones legítimas. La falta de transparencia en sus prácticas de moderación también se ha señalado como un grave problema, exacerbando el efecto desproporcionado que las decisiones de moderación pueden tener sobre las comunidades más vulnerables.
La situación se complica aún más para aquellos que buscan expresar posturas sobre temas controvertidos, como el aborto. La moderación excesiva ha resultado en la eliminación de contenido educativo y político fundamental, lo que limita el acceso a información esencial en un momento de aumento en la legislación restrictiva en este ámbito.
En definitiva, mientras algunos esperaban que Meta avanzara hacia un marco de moderación más inclusivo, la realidad sugiere que las modificaciones podrían estar perjudicando aún más a los grupos que históricamente han sido silenciados. La necesidad de reformas reales y sinceras en la moderación de contenido es más crucial que nunca para proteger a los usuarios marginados y fomentar un entorno digital que refleje verdaderamente la diversidad de voces y opiniones.
Fuente: EFF.org