Ciencia y Tecnología

¿Quieren regular ‘el algoritmo’? No será fácil

2021-12-23

Otros, incluida la tan esperada ley federal de privacidad, evitan por completo el tema de la...

Editorial | The Washington Post

Desde que la delatora de Facebook Frances Haugen reveló un tesoro de documentos en la arena pública, los legisladores estadounidenses han estado obsesionados con una cosa: “el algoritmo”. Estos legisladores tienen razón al darse cuenta de que los modelos de aprendizaje automático que alimentan las plataformas son clave para saber qué ve cada usuario. Pero se equivocan al pensar que centrarse en la amplificación algorítmica facilitará la regulación de las redes sociales.

A inicios de diciembre, el Comité de Energía y Comercio de la Cámara de Representantes de Estados Unidos celebró una audiencia sobre una lista de proyectos de ley aparentemente diseñados para hacer que las plataformas sean más seguras. Las cuatro propuestas discutidas, más otras en ambas cámaras del Congreso, apuntan a la Sección 230 de la Ley de Decencia en las Comunicaciones, que otorga inmunidad a las empresas tecnológicas por el contenido que se publica en sus plataformas. Antes, los legisladores buscaban crear categorías de discurso de las que creían que estas plataformas deberían ser responsables. Ahora, piensan que han encontrado una manera de lidiar con las preocupaciones de la Primera Enmienda planteadas por esos esfuerzos: hacer que los sitios sean responsables solo por lo que recomiendan o promueven.

A primera vista, la idea tiene sentido. Las plataformas sin duda son más responsables del material cuya difusión facilitan que del material que simplemente existe en su propiedad, sin que nadie lo haya tocado excepto su autor. Sin embargo, resulta que escribir reglas para la publicidad algorítmica conlleva los mismos problemas que escribir reglas para la publicaciones comúnes y corrientes. Lo más atroz son los esfuerzos para castigar a las plataformas por amplificar contenido que de otro modo sería legal, como la desinformación. No solo es poco probable que los tribunales vean con buenos ojos esta solución constitucional, sino que decirle a las plataformas que están en problemas por amplificar cierto tipo de contenido podría persuadirlos de que prohiban la amplificación por completo, para reducir el riesgo. Las sanciones por publicar contenido ilegal, dependiendo de su forma, son más prometedoras. Sin embargo, incluso estas medidas podrían provocar que las plataformas con sospecha de demanda prohiban más discursos legales de los que ya prohiben.

Por supuesto, algunos críticos de Facebook esperan que el hecho de eliminar las protecciones de la Sección 230 para el material promocionado algorítmicamente haga más que alterar el tipo de contenido que amplifican las plataformas. Esperan que tal movimiento acabe con la amplificación por completo. Por muy tentador que parezca en un mundo plagado de desinformación viral, el cambio podría resultar insidioso. La capacidad de las plataformas para clasificar el contenido a menudo privilegia el sencionalismo, pero también puede darle prioridad a la información de alta calidad, o a la personalización que hace que las redes sean más divertidas. Sin duda, esto es lo que le permite a Google posicionar los resultados de búsqueda más útiles en la parte superior, o a Yelp las reseñas de restaurantes más detalladas. Un Facebook donde todas las publicaciones estén ordenadas cronológicamente bien podría ser un Facebook menos atractivo (por no decir lleno de spam). Una internet donde todo esté ordenado cronológicamente sería prácticamente inservible.

Entonces, ¿qué puede hacer el Congreso? Algunas medidas se ocupan directamente de la amplificación pero sin tantos efectos negativos: por ejemplo, poner interruptores automáticos obligatorios que eviten que las publicaciones se vuelvan virales antes de que las plataformas tengan la oportunidad de revisarlas en función de sus términos de servicio, o implementar requisitos de transparencia sobre el tipo de material que los algoritmos utilizan habitualmente. Otros, incluida la tan esperada ley federal de privacidad, evitan por completo el tema de la moderación del contenido, pero podrían hacer todo lo posible para mantener a las personas seguras.



aranza