Internet

Los serios problemas idiomáticos de Facebook

2021-10-25

Las críticas, las sátiras e incluso cualquier mención de grupos que figuran en...

Por ISABEL DEBRE y FARES AKRAM

DUBÁI, Emiratos Árabes Unidos (AP) — En Gaza y Siria, periodistas y activistas creen que Facebook los censura y cataloga publicaciones inofensivas en árabe como contenido terrorista. En India y Myanmar, organizaciones políticas usan Facebook para incitar a la violencia. Con frecuencia estas cosas no son detectadas por los encargados de vigilar las plataformas de las redes sociales de Facebook por la escasez de personal que habla lenguas locales y entiende los contextos culturales.

Documentos internos de la empresa difundidos por la exdirectora de productos Frances Haugen revelan que los problemas que enfrenta Facebook en relación con su contenido son sistémicos y que la firma está al tanto de esta situación desde hace años y no ha hecho mucho por resolverla.

Sus plataformas no han logrado generar soluciones basadas en la inteligencia artificial, capaces de pillar el contenido nocivo en distintos lenguajes. Como resultado de esto, el contenido terrorista o que promueve la intolerancia prolifera en algunas de las regiones más volátiles del mundo. En otras, el desconocimiento del lenguaje por parte de la empresa hace que se excluyan expresiones cotidianas.

Este despacho, junto con otros publicados el lunes, se basa en las denuncias de la exejecutiva de Facebook Frances Haugen ante la Comisión de Bolsa y Valores de Estados Unidos, que también fueron entregadas al Congreso, en versiones escritas redactadas por el equipo legal de Haugen. Las versiones redactadas recibidas por el Congreso fueron obtenidas por un grupo de organizaciones periodísticas, incluida The Associated Press.

En una declaración entregada a la AP, un portavoz de Facebook dijo que en los dos últimos años la empresa ha reclutado más personal con conocimientos de dialectos locales y expertos en cada país para mejorar su vigilancia del contenido en todo el mundo.

En lo que respecta al contenido en árabe, sobre todo, la compañía admite que “todavía queda mucho por hacer”.

Los documentos, no obstante, revelan que el problema no es solo con el árabe. En Myanmar, donde desinformación difundida por Facebook ha sido asociada en numerosas ocasiones con episodios de violencia étnica, el informe interno de la empresa indica que no supo controlar la difusión de publicaciones en contra de la minoría musulmana gitana.

En la India, los documentos indican que el personal de Facebook jamás frenó la difusión de publicaciones antimusulmanas del partido nacionalista hindú de derecha del primer ministro Narendra Modi porque no tenía suficiente personal ni filtros automáticos con conocimiento del hindi y el bengalí.

El árabe es la tercera lengua más usada en Facebook y plantea desafíos particulares para el personal de vigilancia y los sistemas automáticos de la empresa, que tienen dificultades para comprender dialectos regionales y cuyo vocabulario está lleno de expresiones alusivas a eventos históricos o con contextos culturales. La plataforma ganó popularidad en la región durante la Primavera Árabe del 2011, pero su reputación como foro donde reina la libertad de expresión ha cambiado desde entonces en una región llena de gobiernos autocráticos.

Cantidades de periodistas palestinos dicen que les eliminaron sus cuentas. Desaparecieron los archivos sobre la guerra civil de Siria. Durante la guerra de 11 días en Gaza en mayo, Instagram (una aplicación de Facebook) prohibió temporalmente el hashtag #AlAqsa, alusivo a la Mezquita de Al-Aqsa, en la parte vieja de Jerusalén, que fue uno de los detonantes del conflicto. La empresa dijo que ofreció una disculpa y que había confundido el tercer monumento más sagrado del Islam con una organización terrorista.

Las críticas, las sátiras e incluso cualquier mención de grupos que figuran en una lista de Individuos y Organizaciones Peligrosas pueden ser eliminados.

Un documento afirma que errores en la forma de combatir el contenido terrorista hacen que “se limite la participación de los usuarios en el discurso político, afectando su derecho a la libertad de expresión”.

La lista negra de Facebook incluye a Hamas (la organización que gobierna Gaza) y Hezbollah (agrupación paramilitar con bancas en el parlamento libanés), así como otros grupos que representan amplios sectores de la población y territorios en el Medio Oriente.

Los déficits relacionados con el lenguaje hacen que muchos piensen que Facebook favorece a los gobiernos y perjudica a las minorías.

Los organismos de seguridad y otras agrupaciones israelíes bombardean Facebook con miles de órdenes de eliminar cuentas y publicaciones palestinas en sus esfuerzos por combatir la incitación a la violencia.

“Inundan nuestros sistemas y los desbordan totalmente”, dijo Ashraf Zeitoon, exdirector de políticas hacia el Medio Oriente y el norte de África de Facebook, quien se fue de la empresa en el 2017.

En Afganistán, Facebook no traduce las publicaciones que propagan intolerancia y desinformación al dari y el pashto, los dos principales idiomas del país. Tampoco cuenta con un banco de datos con expresiones de intolerancia en Afganistán, por lo que no puede crear filtros automáticos para pillar esas expresiones.

En las Filipinas, la patria de muchas empleadas domésticas que trabajan en el Medio Oriente, los documentos de Facebook dicen que su personal se las ve en figurillas para detectar denuncias de abusos por parte de los empleadores porque la empresa no tiene gente que hable tagalog, el principal idioma del país.

En el Medio Oriente, Facebook apela a filtros de inteligencia artificial que cometen muchos errores, según un documento. Personal poco capacitado, que a veces usa el traductor de Google, no analiza con rigor el contenido. La mayoría son marroquíes que no están en condiciones de traducir la treintena de dialectos que hay en árabe.

El informe dice que el 77% del contenido catalogado como terrorista es totalmente inofensivo.



aranza