Tras Bambalinas

Facebook, muéstranos el desorden

2021-10-28

Sé que parte de eso, o todo, suena a fantasía. Las organizaciones tienen razones...

Shira Ovide | The New York Times

Un montón de comunicaciones internas nos ha permitido dar un vistazo poco común y sin adornos a las autoevaluaciones y deliberaciones de Facebook acerca de la influencia que tienen las decisiones y los diseños de productos de la compañía sobre las personas.

Quizás el público y Facebook se beneficiarían si estos pequeños vistazos no fueran tan inusuales. Facebook y otras potencias de internet podrían ayudarnos a comprender el mundo mostrándonos un poco más de la desordenada realidad de alojar reuniones virtuales para miles de millones de humanos.

Algo que me ha sorprendido gratamente de los informes sobre los documentos recopilados por Frances Haugen, la ex gerente de producto de Facebook, es la cantidad de atención y cuidado que los empleados de Facebook parecen haberle dedicado a evaluar las aplicaciones de la compañía y las maneras en las que moldean lo que la gente hace y cómo se comportan las comunidades y las sociedades. Facebook, ¡muéstranos este lado tuyo!

Casey Newton, escritor especializado en tecnología, planteó un argumento al respecto el mes pasado: “¿Qué pasaría si Facebook publicara de forma rutinaria sus hallazgos y permitiera que sus datos fueran auditados? ¿Qué pasaría si la compañía les facilitara mucho más a los investigadores calificados el estudio de la plataforma de forma independiente?”.

Y, ¿qué pasaría si otras compañías en el sector de tecnología hicieran lo mismo?

Imaginemos qué habría pasado si Facebook hubiera explicado de forma clara las dificultades que enfrentó para restringir las publicaciones con información falsa sobre fraude tras las elecciones presidenciales de Estados Unidos de 2020, y si ese proceso tuvo el riesgo de silenciar debates políticos legítimos.

¿Qué habría pasado si Facebook hubiera compartido públicamente sus evaluaciones privadas sobre cómo las funciones para compartir con facilidad muchas publicaciones amplificaron publicaciones de odio o intimidación?

Imaginemos qué pasaría si los empleados de Facebook involucrados en cambios importantes en el diseño de productos pudieran —del mismo modo que los jueces de la Corte Suprema de Estados Unidos— escribir opiniones disidentes y explicar sus desacuerdos al público.

Sé que parte de eso, o todo, suena a fantasía. Las organizaciones tienen razones legítimas para guardar secretos, entre ellas proteger a sus empleados y clientes.

Pero Facebook no es una organización cualquiera. Forma parte de una pequeña cantidad de corporaciones cuyos productos ayudan a moldear la manera en que se comportan los humanos y lo que creemos.

Aprender más sobre lo que Facebook sabe del mundo ayudaría a mejorar nuestra comprensión de nosotros mismos y de Facebook. Les daría a quienes ven desde afuera una oportunidad de validar, desafiar y aportar a las autoevaluaciones de Facebook. Y también podría lograr que la compañía fuera un poco más confiable y comprendida.

Facebook ya ha dicho que cree que los informes sobre sus comunicaciones internas carecen de contexto y matices. Parte de su reacción ha incluido tomar medidas drásticas en las deliberaciones internas para minimizar las filtraciones. En mis conversaciones con personas vinculadas a la industria de la tecnología esta semana, salió a relucir el temor de que la reacción de Facebook, YouTube, Twitter y otras compañías a estas semanas de cobertura incesante sobre Facebook sea investigar menos los efectos de sus productos u ocultar más lo que descubran.

Sin embargo, otra alternativa sería ser más transparentes y revelar mucho más. Y eso no sería algo descabellado para Facebook.

En 2015, la compañía publicó y debatió una investigación realizada por sus científicos de datos que encontró que la red social no empeoraba el problema de los “filtros burbuja”, en el que las personas solo ven información que confirma sus creencias. En 2018, Mark Zuckerberg publicó un extenso escrito en el que detallaba el análisis de la compañía sobre cómo respondían las personas en Facebook a material obsceno u ofensivo. Ese mismo año, Facebook reveló un ambicioso plan para compartir grandes cantidades de datos de usuario y publicaciones con investigadores externos para estudiar la información dañina.

Estos esfuerzos no fueron para nada perfectos. En particular, el consorcio independiente de investigación se vio afectado por datos erróneos y disputas sobre la preservación de la privacidad de las personas. Pero la iniciativa muestra que Facebook, a ratos, ha querido ser más transparente.

Nathaniel Persily, profesor de la Facultad de Derecho de la Universidad de Stanford que anteriormente fue copresidente del consorcio de investigación, redactó hace poco un texto para legislación que podría otorgarles a los investigadores independientes acceso a información sobre el funcionamiento interno de las compañías de internet.

Persily me dijo que consideraba al consorcio de investigación un “animal atropellado en la carretera hacia algo glorioso”. Eso glorioso sería una transparencia tanto voluntaria como forzada por parte de las grandes compañías de internet. Persily elogió a Twitter, que publicó la semana pasada un análisis de las maneras en que sus sistemas informáticos en algunos casos amplificaban más las opiniones políticas de derecha que de izquierda.

La investigación de Twitter estaba incompleta. La compañía dijo que no sabía por qué algunos mensajes circulaban más que otros. Pero Twitter fue honesto acerca de lo que sabía y lo que no, y les brindó al público y a los investigadores oportunidades para investigar más al respecto. Es decir, nos mostró el desorden.



aranza