Ciencia y Tecnología

Debemos hablar de lo mucho que está mejorando la inteligencia artificial

2022-08-25

No te pido que tomes partido en este debate. Lo único que digo es que deberías...

Kevin Roose | The New York Times

Durante los últimos días, he estado jugando con DALL-E 2, una aplicación desarrollada por la empresa OpenAI de San Francisco que convierte las descripciones de texto en imágenes hiperrealistas.

OpenAI me invitó a probar DALL-E 2 (el nombre es un juego de palabras sobre WALL-E de Pixar y el artista Salvador Dalí) durante su periodo beta y rápidamente me obsesioné. Pasé horas pensando en indicaciones extrañas, divertidas y abstractas para alimentar la IA: “Una representación en 3D de una casa suburbana con forma de cruasán”, “Un retrato en daguerrotipo de la década de 1850 de la Rana René”, “Un boceto al carboncillo de dos pingüinos bebiendo vino en un bistró parisino”. En cuestión de segundos, DALL-E 2 producía un puñado de imágenes que mostraban lo que había solicitado, a menudo con un realismo asombroso.

Lo impresionante de DALL-E 2 no es solo el arte que genera. Es cómo genera arte. Estos no son compuestos hechos a partir de imágenes existentes de internet: son creaciones completamente nuevas realizadas a través de un proceso complejo de IA conocido como “difusión”, que comienza con una serie aleatoria de píxeles y los refina repetidamente hasta que coincide con una descripción de texto dada. Y está mejorando rápidamente: las imágenes de DALL-E 2 son cuatro veces más detalladas que las imágenes generadas por el DALL-E original, que se presentó el año pasado.

DALL-E 2 llamó mucho la atención cuando se anunció este año, y con razón. Es una tecnología impresionante con grandes implicaciones para cualquiera que se gane la vida trabajando con imágenes: ilustradores, diseñadores gráficos, fotógrafos, etc. También plantea cuestiones importantes sobre el uso que se dará a todo este arte generado por la IA y sobre si debemos preocuparnos por un aumento de la propaganda sintética, de los ultrafalsos hiperrealistas o incluso de la pornografía no consentida.

Sin embargo, el arte no es el único ámbito en el que la inteligencia artificial ha hecho grandes progresos.

En los últimos diez años —un periodo al que algunos investigadores de la IA han empezado a referirse como “Década Dorada”— ha producido una oleada de avances en muchas áreas de investigación de la IA, impulsada por el auge de técnicas como el aprendizaje profundo y la llegada de hardware especializado para ejecutar modelos de IA enormes y de alta carga computacional.

Algunos de esos avances han sido lentos y constantes: modelos más grandes con más datos y potencia de procesamiento que producen resultados ligeramente mejores.

No obstante, otras veces, es como activar un interruptor: actos de magia imposibles que de repente se hacen posibles.

Por ejemplo, hace apenas cinco años, la historia más importante en el mundo de la IA era AlphaGo, un modelo de aprendizaje profundo construido por DeepMind de Google que podía vencer a los mejores humanos del mundo en el juego de mesa “Go”. Entrenar a una IA para que ganara torneos de “Go” era un truco de fiesta divertido, pero no era exactamente el tipo de progreso que le interesa a la mayoría de la gente.

Pero el año pasado, AlphaFold de DeepMind —un sistema de IA que proviene del que juega “Go”— hizo algo realmente profundo. Utilizando una red neuronal profunda entrenada para predecir las estructuras tridimensionales de las proteínas a partir de sus secuencias de aminoácidos unidimensionales, básicamente resolvió lo que se conoce como el “problema del plegado de las proteínas”, que había frustrado a los biólogos moleculares durante décadas.

Este verano, DeepMind anunció que AlphaFold había hecho predicciones para casi todos los 200 millones de proteínas conocidas, lo que produjo un tesoro de datos que ayudará a los investigadores médicos a desarrollar nuevos medicamentos y vacunas en los próximos años. El año pasado, la revista Science reconoció la importancia de AlphaFold, por lo que lo nombró como el mayor avance científico del año.

O mira lo que está ocurriendo con el texto generado por la IA.

Hace solo unos años, los chatbots de IA tenían dificultades incluso para mantener conversaciones rudimentarias, por no hablar de las tareas lingüísticas más difíciles.

Pero ahora, grandes modelos lingüísticos como el GPT-3 de OpenAI se utilizan para escribir guiones, redactar correos electrónicos de mercadotecnia y desarrollar videojuegos. (Incluso utilicé el GPT-3 para escribir la reseña de un libro para este periódico el año pasado y, si no hubiera avisado a mis editores de antemano, dudo que hubieran sospechado algo).

La IA también está escribiendo código: más de un millón de personas se han inscrito para utilizar Copilot de GitHub, una herramienta lanzada el año pasado que ayuda a los programadores a trabajar más rápido terminando automáticamente sus fragmentos de código.

También está LaMDA de Google, un modelo de inteligencia artificial que llegó a los titulares de las noticias hace un par de meses cuando Blake Lemoine, un ingeniero sénior de Google, fue despedido tras afirmar que se había vuelto sensible.

Google rebatió las afirmaciones de Lemoine y muchos investigadores de IA han discutido sus conclusiones. Pero si se elimina la parte de la sensibilidad, una versión más débil de su argumento —que LaMDA y otros modelos lingüísticos de última generación se están volviendo extrañamente buenos para mantener conversaciones de texto similares a las humanas— no habría causado tanta indignación.

De hecho, muchos expertos te dirán que la IA está mejorando en muchos aspectos actualmente, incluso en áreas, como el lenguaje y el razonamiento, en las que antes parecía que los humanos tenían la ventaja.

Todavía hay mucha IA mala y descompuesta, desde chatbots racistas hasta sistemas de conducción automática defectuosos que provocan accidentes y lesiones. E incluso cuando la IA mejora rápidamente, a menudo tarda en filtrarse en productos y servicios que la gente realmente utiliza. Un avance de la IA en Google u OpenAI hoy no significa que tu Roomba será capaz de escribir novelas mañana.

Pero los mejores sistemas de IA son ahora tan capaces —y mejoran a un ritmo tan rápido— que la conversación en Silicon Valley está empezando a cambiar. Cada vez son menos los expertos que predicen con confianza que tenemos años o incluso décadas para prepararnos para una ola de IA que cambie el mundo; muchos creen ahora que los grandes cambios están a la vuelta de la esquina, para bien o para mal.

Para ser justos, hay muchos escépticos que dicen que las afirmaciones sobre el progreso de la IA son exageradas. Dirán que la IA no está ni mucho menos cerca de llegar a ser sensible o de sustituir a los humanos en una amplia variedad de trabajos. Dirán que modelos como GPT-3 y LaMDA no son más que loros glorificados, que regurgitan ciegamente sus datos de entrenamiento, y que aún faltan décadas para crear una verdadera IGA —inteligencia general artificial— que sea capaz de “pensar” por sí misma.

También hay optimistas tecnológicos que creen que el progreso de la IA se está acelerando y que quieren que se acelere más. Creen que acelerar el ritmo de mejora de la IA nos dará nuevas herramientas para curar enfermedades, colonizar el espacio y evitar desastres ecológicos.

No te pido que tomes partido en este debate. Lo único que digo es que deberías prestar más atención a los desarrollos reales y tangibles que lo alimentan.

Es un cliché, en el mundo de la IA, decir cosas como “debemos tener una conversación social sobre el riesgo de la IA”. Ya hay un montón de paneles de Davos, charlas TED, grupos de reflexión y comités de ética de la IA que esbozan planes de contingencia para un futuro distópico.

Lo que falta es una forma compartida y neutral de hablar sobre lo que son realmente capaces de hacer los sistemas actuales de IA, así como qué riesgos y oportunidades específicas presentan esas capacidades.

Creo que hay tres cosas que podrían ayudar en este sentido.

En primer lugar, los reguladores y los políticos deben ponerse al día.

Debido a la novedad de muchos de estos sistemas de IA, pocos funcionarios públicos tienen experiencia de primera mano con herramientas como GPT-3 o DALL-E 2 y no comprenden la rapidez con que se avanza en la frontera de la IA.

Hemos visto algunas iniciativas para cerrar la brecha —por ejemplo, el Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford organizó recientemente un “campamento de entrenamiento de IA” de tres días para miembros del personal del Congreso—, pero necesitamos que más políticos y reguladores se interesen por la tecnología. (Y no me refiero a que tengan que empezar a avivar el miedo a un apocalipsis de la IA, al estilo de Andrew Yang. Incluso la lectura de un libro como “The Alignment Problem” de Brian Christian o la comprensión de algunos detalles básicos sobre el funcionamiento de un modelo como el GPT-3 representaría un enorme progreso).

De lo contrario, podríamos terminar con una repetición de lo que sucedió con las empresas de medios sociales después de las elecciones de 2016: una colisión del poder de Silicon Valley y la ignorancia de Washington, que no resultó más que en un bloqueo y audiencias irritantes.

En segundo lugar, las grandes empresas tecnológicas que invierten miles de millones en el desarrollo de la IA —las empresas similares a Google, Meta y OpenAI del mundo— deben explicar mejor en qué están trabajando, sin endulzar ni suavizar los riesgos. En la actualidad, muchos de los modelos de IA más importantes se desarrollan a puerta cerrada, utilizando conjuntos de datos privados que únicamente prueban equipos internos. Cuando la información sobre ellos se hace pública, a menudo es diluida por las relaciones públicas de la empresa o enterrada en documentos científicos incomprensibles.

Restar importancia a los riesgos de la IA para evitar reacciones negativas puede ser una estrategia inteligente a corto plazo, pero las empresas tecnológicas no sobrevivirán a largo plazo si se considera que tienen una agenda de IA oculta que está en desacuerdo con el interés público. Y si estas empresas no se abren voluntariamente, los ingenieros de IA deberían sortear a sus jefes y hablar directamente con los responsables políticos y los periodistas.

En tercer lugar, los medios de comunicación deben explicar mejor los avances de la IA a los inexpertos. Con demasiada frecuencia, los periodistas —y admito que yo he sido uno de los culpables— se basan en una taquigrafía anticuada de ciencia ficción para traducir lo que ocurre en la IA a un público general. A veces, comparamos los grandes modelos lingüísticos con Skynet y HAL 9000 y reducimos los prometedores avances del aprendizaje automático a titulares de pánico que nos amenazan con que “¡Vienen los robots!”. En ocasiones, traicionamos nuestra ignorancia al ilustrar artículos sobre modelos de IA basados en software con fotos de robots de fábrica basados en hardware, un error tan inexplicable como poner una foto de un BMW en un artículo sobre bicicletas.

En un sentido más amplio, la mayoría de la gente piensa en la IA de forma restringida en lo que se refiere a nosotros —¿Me quitará el trabajo? ¿Es mejor o peor que yo en la habilidad X o en la tarea Y?— en lugar de tratar de entender todas las formas en que la IA está evolucionando y lo que eso podría significar para nuestro futuro.

Yo aportaré mi granito de arena escribiendo sobre la IA en toda su complejidad y rareza, sin recurrir a la hipérbole ni a los tropos de Hollywood. Pero todos tenemos que empezar a ajustar nuestros modelos mentales para dejar espacio a las nuevas e increíbles máquinas que nos rodean.
 



aranza