Internet

Facebook, un laboratorio social con pocos límites

2014-07-04

La directora de operaciones de Facebook, Sheryl Sandberg, dijo el miércoles durante un viaje...

Reed Albergotti, The Wall Street Journal

Miles de usuarios de Facebook recibieron un mensaje perturbador hace dos años: sus cuentas iban a ser bloqueadas porque la empresa creía que eran robots o que usaban nombres falsos. Para volver a ingresar, los usuarios debían demostrar que eran personas reales.

Facebook sabía que la mayoría de los usuarios eran legítimos. El mensaje fue una prueba diseñada para intentar mejorar las medidas antifraude de la red social. Al final, ningún usuario perdió acceso de forma permanente.

El experimento fue producto del equipo de Ciencias de Datos de Facebook, un grupo de más de 30 personas con acceso exclusivo a uno de los tesoros más ricos del mundo: los movimientos, reflexiones y emociones de 1.300 millones de usuarios.

El poco conocido grupo ocupó el centro de la atención esta semana tras la divulgación de informes sobre un experimento en el que el muro de Noticias de cerca de 700.000 usuarios de Facebook fue manipulado para mostrar publicaciones más positivas o negativas. El estudio halló que las personas que veían contenido más positivo eran más propensas a escribir cosas positivas y viceversa.

La directora de operaciones de Facebook, Sheryl Sandberg, dijo el miércoles durante un viaje a India que el estudio fue "parte de investigaciones constantes que las compañías hacen para probar diferentes productos" y fue "mal comunicado".

La empresa afirmó que tras las reacciones acerca del estudio está "realizando una evaluación seria de este proceso para realizar más mejorías".

Hasta hace poco, el grupo de Ciencia de Datos operaba con pocos límites, según un ex miembro del equipo e investigados externos. En una universidad, los investigadores probablemente habrían tenido que obtener el consentimiento de los participantes en un estudio como ese. Facebook, en cambio, se apoyó en la aceptación de los usuarios de sus Términos de Servicio, que en ese entonces estipulaban que los datos podrían ser utilizados para mejorar los productos de Facebook. Esos términos ahora dicen que la información de los usuarios podría ser usada para investigaciones.

"No hay un proceso de evaluación de por sí", dice Andrew Ledvina, quien se desempeñó como científico de datos en Facebook entre febrero de 2012 y julio de 2013. "Cualquiera en ese equipo podía conducir una prueba", cuenta. "Siempre están tratando de alterar el comportamiento de la gente".

Recuerda un experimento pequeño en el que él y un gerente de producto llevaron a cabo una prueba sin contarle a nadie más en la empresa. Las pruebas se realizaban con tanta frecuencia que a algunos científicos de datos les preocupaba que los mismos usuarios, cuya información era anónima, pudieran ser usados en más de un experimento, lo que afectaría los resultados.

Facebook aseguró que, desde que condujo el estudio sobre las emociones, ha implementado directrices más estrictas para el equipo de investigación de Ciencia de Datos. A partir de al menos el inicio del año, las investigaciones más allá de las pruebas rutinarias de productos son evaluadas por un panel de un grupo de 50 expertos internos en campos como la privacidad y la seguridad de datos. Facebook no quiso nombrarlos.

Los estudios de la empresa destinados a ser publicados en revistas académicas reciben una evaluación adicional de expertos internos en investigación académica. Algunos de esos expertos integran también el equipo de Ciencia de Datos, dijo Facebook, si bien no quiso nombrar a los miembros del panel.

Un vocero dijo que Facebook evalúa otros cambios.

Desde su creación en 2007, el grupo de Ciencia de Datos ha llevado a cabo cientos de pruebas. Un estudio publicado deconstruyó la forma en que se comunican las familias, mientras que otro analizó las causas de la soledad. Una prueba evaluó cómo los comportamientos sociales se propagan a través de redes. En 2010, el grupo midió cómo "mensajes de movilización política" enviados a 61 millones de personas llevaron a usuarios de redes sociales a votar en las elecciones legislativas de Estados Unidos en 2010.

Muchos de los científicos de datos de Facebook poseen títulos de doctorado de grandes universidades en campos como ciencias de la computación, inteligencia artificial y biología computacional. Algunos trabajaron en estudios académicos antes de sumarse a Facebook.

Adam Kramer, el autor principal del estudio sobre las emociones, dijo en una entrevista en 2012 en el sitio web de Facebook que entró a la compañía en parte porque era "el campo de estudio más grande en la historia del mundo". Kramer, quien tiene un doctorado en psicología social de la Universidad de Oregón, explicó que en un entorno académico habría tenido que conseguir que publicaran sus estudios y luego esperar que alguien los viera. En Facebook, "simplemente mando un mensaje a alguien en el equipo adecuado y mi investigación tiene un impacto en unas semanas, si no en días".

Muchas investigaciones de Facebook son menos polémicas que el estudio acerca de las emociones, tales como pruebas para hacer que los usuarios pasen más tiempo en la red social y hagan clic en más anuncios publicitarios. Otras empresas de Internet, entre ellas Yahoo Inc., Microsoft Corp. , Twitter Inc. y Google Inc., conducen investigaciones sobre sus usuarios y datos.

El reciente alboroto es "un vistazo fugaz a una amplia práctica", asevera Kate Crawford, profesora visitante en el Centro para Medios Cívicos del Instituto Tecnológico de Massachusetts (MIT) y principal investigadora de Microsoft Research. Las empresas "realmente ven a los usuarios como un banco de pruebas experimentales dispuesto" a ser usado a su discreción.

El equipo de Facebook ha atraído un interés especial debido a que a menudo publica sus trabajos en revistas académicas.

"Facebook merece mucho reconocimiento por poner tantas investigaciones a disposición del público", señala Clifford Lampe, profesor adjunto de la Escuela de Información de la Universidad de Michigan, quien ha trabajado en unos 10 estudios con investigadores de Facebook. Si la empresa dejara de publicar los estudios, "sería una verdadera pérdida para la ciencia", expresa.

Lampe dice que ha estado en contacto con miembros del equipo de Ciencia de Datos desde que se desató la controversia. "Han estado escuchando los argumentos y los toman muy seriamente", dice.

Ledvina, el ex científico de datos de Facebook, indcia que algunos investigadores debatieron los méritos de un estudio similar al que acusaba a los usuarios de ser robots, pero que no hubo una evaluación formal y que ninguno de los usuarios en el estudio fue notificado de que se trataba de un experimento.

"Estoy seguro que algunas personas se enojaron mucho en alguna parte", dice. "Internamente, uno se insensibiliza un poco a eso".



EEM
Utilidades Para Usted de El Periódico de México