Formato de impresión


Los rincones oscuros de la red auguran el futuro ruin de la inteligencia artificial


2024-01-08

Stuart A. Thompson  / NYT

En manos de internautas anónimos, las herramientas de inteligencia artificial pueden crear olas de material acosador y racista. Ya está ocurriendo en el foro de mensajes anónimos 4chan. (Daniel Zender/The New York Times)

En manos de internautas anónimos, las herramientas de inteligencia artificial pueden crear olas de material acosador y racista. Ya está ocurriendo en el foro de mensajes anónimos 4chan. (Daniel Zender/The New York Times)

Cuando el consejo de libertad condicional de Luisiana se reunió en octubre para debatir la posible liberación de un asesino convicto, recurrió a una médica con años de experiencia en materia de salud mental para hablar sobre el recluso.

El consejo de libertad condicional no fue el único grupo que prestó atención.

Un grupo de troles en línea realizó capturas de pantalla con la imagen de la doctora, tomadas de una transmisión en línea de su testimonio, y editaron las imágenes con herramientas de inteligencia artificial para hacerla aparecer desnuda. Luego, compartieron los archivos manipulados en 4chan, un foro de mensajes anónimo conocido por fomentar el acoso, así como por difundir contenido de odio y teorías conspirativas.

Según Daniel Siegel, estudiante de posgrado de la Universidad de Columbia que investiga la explotación de la inteligencia artificial con fines malintencionados, fue una de las numerosas veces que los usuarios de 4chan utilizaron herramientas nuevas de IA, como editores de audio y generadores de imágenes, para difundir contenidos racistas y ofensivos sobre personas que habían comparecido ante el consejo de libertad condicional. Siegel realizó una crónica de la actividad en el sitio durante varios meses.

Según Siegel, las imágenes y el audio manipulados no han trascendido los confines de 4chan. Sin embargo, los expertos que vigilan los foros de mensajes marginales afirman que esas actividades ofrecen una idea de cómo los usuarios más nefastos de internet podrían emplear herramientas sofisticadas de IA con el fin de potenciar las campañas de acoso y odio en línea en los próximos meses y años.

Callum Hood, director de investigación del Centro para Contrarrestar el Odio Digital, dijo que sitios marginales como 4chan —quizás el más infame de todos— a menudo daban señales tempranas de cómo se utilizaría la nueva tecnología con el objetivo de proyectar ideas extremas. Esas plataformas, dijo, están llenas de jóvenes que “adoptan nuevas tecnologías de manera muy rápida”, como en el caso de la IA, para “proyectar su ideología en espacios dominantes”.

A menudo, algunos usuarios adoptan esas tácticas de plataformas en línea más populares, según explicó Hood.

A continuación, varios problemas derivados de las herramientas de IA que los expertos descubrieron en 4chan y lo que los reguladores y las empresas tecnológicas están haciendo al respecto.

Imágenes artificiales y pornografía creada con Inteligencia Artificial

Herramientas de IA como Dall-E y Midjourney generan imágenes novedosas a partir de simples descripciones de texto. Pero una nueva ola de generadores de imágenes de IA se fabrica con el propósito de crear pornografía falsa, incluso la eliminación de ropa de imágenes existentes.

“Pueden utilizar la IA para crear una imagen de exactamente lo que quieren”, afirmó Hood sobre las campañas de odio y desinformación en internet.

No hay ninguna ley federal que prohíba la creación de imágenes falsas de personas, por lo que grupos como el consejo de libertad condicional de Luisiana se apresuran a determinar qué se puede hacer. El consejo abrió una investigación en respuesta a los hallazgos de Siegel en 4chan.

“Definitivamente tomaremos en cuenta cualquier imagen creada en la que nuestros miembros o cualquier participante de nuestras audiencias sea representado de manera negativa”, comentó Francis Abbott, director ejecutivo del Consejo de Indultos de Luisiana y del Comité de Libertad Condicional. “Pero debemos apegarnos a la ley y otra instancia tendrá que encargarse de señalar si se infringen leyes o no”.

Illinois amplió su ley sobre pornografía vengativa para permitir que las víctimas de pornografía no consentida realizada mediante sistemas de inteligencia artificial puedan demandar a los creadores o distribuidores. California, Virginia y Nueva York también han aprobado leyes que prohíben la distribución o creación de pornografía generada por IA sin consentimiento.

La clonación de voces

A finales del año pasado, ElevenLabs, una empresa dedicada a la inteligencia artificial, lanzó una herramienta capaz de crear una réplica digital convincente de la voz de una persona diciendo cualquier cosa que se teclee en el programa.

Casi tan pronto como la herramienta se puso en marcha, los usuarios de 4chan hicieron circular clips de una falsa Emma Watson, actriz británica, leyendo el manifiesto de Adolf Hitler, “Mi lucha”.

Utilizando contenidos de las audiencias del consejo de libertad condicional de Luisiana, los usuarios de 4chan han compartido desde entonces clips falsos de jueces que pronuncian comentarios ofensivos y racistas sobre los acusados. Muchos de los clips fueron generados por la herramienta de ElevenLabs, según Siegel, que utilizó un identificador de voz de IA desarrollado por ElevenLabs para investigar sus orígenes.

ElevenLabs se apresuró a imponer límites, entre ellos exigir a los usuarios que paguen antes de poder acceder a las herramientas de clonación de voz. Pero los cambios no parecieron frenar la propagación de las voces creadas por IA, según los expertos. Decenas de videos con voces falsas de famosos han circulado por TikTok y YouTube, muchos de ellos difundiendo desinformación política.

Algunas de las principales empresas de redes sociales, como TikTok y YouTube, han exigido desde entonces etiquetas en algunos contenidos creados con IA.

El presidente Joe Biden emitió una orden ejecutiva en octubre en la que pedía a todas las empresas que etiquetaran esos contenidos y ordenaba al Departamento de Comercio que elaborara normas para poner marcas de agua y autenticar los contenidos de IA.

Herramientas personalizadas de IA

En su afán por afianzarse en la carrera de la inteligencia artificial, Meta ha adoptado la estrategia de poner su código de software a disposición de los investigadores. Este enfoque, conocido en líneas generales como “código abierto”, puede acelerar el desarrollo al dar a académicos y tecnólogos acceso a más materia prima para encontrar mejoras y desarrollar sus propias herramientas.

Cuando la empresa puso Llama, su gran modelo lingüístico, a disposición de investigadores seleccionados en febrero, el código se filtró rápidamente en 4chan. Allí la gente lo utilizó con distintos fines: modificaron el código para rebajar o eliminar las barreras de seguridad, creando nuevos chatbots capaces de producir ideas antisemitas.

La iniciativa sirvió de anticipo de cómo las herramientas de IA de código abierto y uso gratuito pueden ser modificadas por usuarios expertos en tecnología.

“Aunque el modelo no es accesible para todos y algunos han tratado de eludir el proceso de aprobación, creemos que la actual estrategia de publicación nos permite equilibrar la responsabilidad y la apertura”, aseguró un portavoz de Meta en un correo electrónico.

En los meses transcurridos desde entonces, se han desarrollado modelos lingüísticos que hacen eco de los temas de debate de la extrema derecha o que crean contenidos sexualmente más explícitos. Los usuarios de 4chan han retocado los generadores de imágenes para producir imágenes de desnudos o proporcionar memes racistas, eludiendo los controles impuestos por las grandes empresas tecnológicas.



aranza


� Copyright ElPeriodicodeMexico.com