|
Formato de impresión |
Taylor Swift no está vendiendo ollas Le Creuset
Tiffany Hsu and Yiwen Lu / NYT El gusto de Taylor Swift por Le Creuset es real: su colección de utensilios de cocina ha aparecido en una cuenta de Tumblr dedicada a la decoración del hogar de la estrella del pop, se evidencia en los regalos de boda que le dio a una fan y en un documental de Netflix que apareció destacado en la página de Facebook de Le Creuset. Lo que no es real: el patrocinio de Swift hacia los productos de la empresa, que en las últimas semanas han aparecido en anuncios publicados en Facebook y otros medios en los que sale su cara y su voz. Los anuncios son una de las muchas estafas centradas en famosos que la inteligencia artificial ha hecho mucho más convincentes. En una sola semana de octubre, el actor Tom Hanks, la periodista Gayle King y la personalidad de YouTube MrBeast dijeron que se habían utilizado versiones de sí mismos hechas con inteligencia artificial, sin permiso, para promociones falaces de planes dentales, ofertas de regalos de iPhone y otros anuncios. En el caso de Swift, según los expertos, la tecnología de inteligencia artificial ayudó a crear una versión sintética de la voz de la cantante, que se combinó con imágenes suyas y videos de ollas Le Creuset. En varios anuncios, la voz clonada de Swift se dirigía a los “swifties”, sus seguidores, y decía que estaba “encantada” de regalar utensilios de cocina. Todo lo que había que hacer recibir los utensilios era pulsar un botón y responder a unas preguntas antes del final del día. Le Creuset dijo que no colaboraba con la cantante en ningún sorteo. La empresa instó a los compradores a revisar sus cuentas oficiales en línea antes de hacer clic en anuncios sospechosos. Los representantes de Swift, que fue nombrada persona del año por la revista Time en 2023, no respondieron a las solicitudes de comentarios. Los famosos han prestado su fama a los anunciantes desde que existe la publicidad. A veces, sin querer. Hace más de tres décadas, Tom Waits demandó a Frito-Lay —y ganó casi 2,5 millones de dólares— después de que la empresa de papas fritas imitara la voz del cantante en un anuncio de radio sin su permiso. La campaña de estafa con Le Creuset también incluía versiones falsas de Martha Stewart y Oprah Winfrey, quien en 2022 publicó un video exasperado sobre la prevalencia de anuncios falsos en redes sociales, correos electrónicos y sitios web que afirmaban falsamente que ella patrocinaba unas gomitas para adelgazar. En el último año, los grandes avances en la inteligencia artificial han hecho que sea mucho más fácil producir una réplica digital no autorizada de una persona real. Las falsificaciones de audio han sido especialmente fáciles de producir y difíciles de identificar, según Siwei Lyu, profesor de informática que dirige el Laboratorio Forense de Medios de la Universidad de Búfalo, en Nueva York. Es probable que la campaña de estafa de Le Creuset se creó con un servicio de conversión de texto a voz, explicó Lyu. Estas herramientas suelen traducir un guion en una voz generada por inteligencia artificial, que luego puede incorporarse a secuencias de video ya existentes mediante programas de sincronización labial. “Hoy en día, estas herramientas son muy accesibles”, afirmó Lyu, quien añadió que es posible hacer un “video de calidad decente” en menos de 45 minutos. “Se está volviendo muy fácil y por eso estamos viendo más”. Decenas de diversos anuncios de estafa de Le Creuset, pero similares en los que sale Swift —muchos de ellos publicados este mes— eran visibles desde finales de la semana pasada en la biblioteca pública de anuncios de Meta. (La compañía es la propietaria de Instagram y Facebook). La campaña también se publicó en TikTok. Los anuncios remitían a los usuarios a sitios web que imitaban medios legítimos, como el Food Network, en los que se mostraban noticias falsas sobre la oferta de Le Creuset junto con testimonios de clientes inventados. Se pedía a los participantes que pagaran una “pequeña tarifa de envío de 9,96 dólares” por la batería de cocina. Los que cumplían se enfrentaban a cargos mensuales no declarados sin recibir nunca la batería de cocina prometida. Algunos de los anuncios falsos de Le Creuset, como uno que imitaba a la diseñadora de interiores Joanna Gaines, tenían un engañoso brillo de legitimidad en las redes sociales gracias a las etiquetas que los identificaban como publicaciones patrocinadas o que procedían de cuentas verificadas. En abril, la Better Business Bureau advirtió a los consumidores de que las estafas de celebridades falsas hechas con IA eran “más convincentes que nunca”. Las víctimas se encontraban a menudo con cargos más altos de lo esperado y sin rastro del producto que habían pedido. Los banqueros también han denunciado intentos de estafadores de utilizar grabaciones de voz ultrafalsas o réplicas sintéticas de la voz de personas reales, para cometer fraudes financieros. Un portavoz de TikTok dijo que la política de anuncios de la aplicación requiere que los anunciantes obtengan el consentimiento para “cualquier medio sintético que contenga una figura pública” y añadió que las normas de la comunidad de TikTok requieren que los creadores revelen cuando haya “medios sintéticos o manipulados que muestren escenas realistas”. Meta dijo que tomó medidas sobre los anuncios que violaban sus políticas, las cuales prohíben el contenido que utiliza figuras públicas de manera engañosa para tratar de estafar a los usuarios. La empresa señaló que había emprendido acciones legales contra algunos autores de este tipo de estafas, pero añadió que los anuncios maliciosos solían eludir los sistemas de revisión de Meta camuflando su contenido. Al no haber leyes federales que aborden las estafas de IA, los legisladores han propuesto leyes para limitar sus daños. Dos proyectos de ley presentados en el Congreso el año pasado —la Deepfakes Accountability Act en la Cámara de Representantes y la No Fakes Act en el Senado— exigirían salvaguardas como etiquetas de contenido o permiso para utilizar la voz o la imagen de alguien. aranza |
|
� Copyright ElPeriodicodeMexico.com |