Formato de impresión


Los caminos más inteligentes para la inteligencia artificial


2018-06-25

Steve Lohr, The New York Times


Durante los últimos cinco años, lo más novedoso en el estudio de la inteligencia artificial ha sido una rama conocida como “aprendizaje profundo”. La técnica estadística sirve, en pocas palabras, para que las computadoras aprendan por medio del procesamiento de enormes cantidades de información. Gracias al aprendizaje profundo, las computadoras pueden identificar rostros y reconocer palabras habladas, lo que pareciera poner al alcance de la mano otras formas de inteligencia similares a la humana.

Empresas como Google, Facebook y Microsoft han invertido grandes cantidades de dinero en el aprendizaje profundo. Las empresas emergentes que buscan desde curas para el cáncer hasta la automatización administrativa proclaman su pericia en el aprendizaje profundo. Y las habilidades de percepción y para encontrar concordancias de patrones de esta tecnología se utilizan para mejorar el progreso en campos como el descubrimiento de fármacos y los vehículos autónomos.

Sin embargo, ahora algunos científicos están cuestionando si el aprendizaje profundo en verdad es tan profundo.

“No veo una verdadera inteligencia”, dijo Michael I. Jordan, un profesor de la Universidad de California, campus Berkeley, y el autor de un ensayo publicado en abril que tiene como objetivo moderar las expectativas en torno a la inteligencia artificial. “Y creo que confiar demasiado en estos algoritmos de fuerza bruta es depositar nuestra fe en un lugar equivocado”.

Los algoritmos del aprendizaje profundo se entrenan con un lote de datos relacionados, como fotos de rostros humanos, y después se alimentan de una cantidad cada vez mayor de información, lo cual mejora de forma constante la precisión de la concordancia de patrones del software. Aunque la técnica ha tenido éxito, los resultados se han limitado principalmente a campos donde esos inmensos conjuntos de datos ya están disponibles y las tareas están bien definidas, como catalogar imágenes o transcribir palabras habladas a un texto.

La tecnología tiene problemas en los terrenos más abiertos de la inteligencia: es decir, en el significado, razonamiento y en el uso del sentido común. A pesar de que el software de aprendizaje profundo puede identificar millones de palabras al instante, no entiende conceptos como “justicia”, “democracia” o “interferencia”. E investigadores han demostrado que se puede engañar con facilidad al aprendizaje profundo: si revuelves un puñado de píxeles, la tecnología puede confundir una tortuga con un rifle o una señal de estacionamiento con un refrigerador.

Y si el alcance del aprendizaje profundo es limitado, tal vez el dinero y las mentes capaces dedicados a este son excesivos, dijo Oren Etzioni, director ejecutivo del Allen Institute for Artificial Intelligence, un laboratorio sin fines de lucro con sede en Seattle. “Corremos el riesgo de no ver otros conceptos y caminos importantes para que avance la inteligencia artificial”, afirmó.

En medio del debate, algunos grupos de investigadores, empresas emergentes y computólogos están mostrando más interés en enfoques hacia la inteligencia artificial que abordan algunas de las debilidades del aprendizaje profundo. En febrero, el Instituto Allen anunció que en los próximos tres años invertirá 125 millones de dólares fundamentalmente en la investigación para enseñar a las máquinas a generar conocimiento del sentido común —una iniciativa llamada Project Alexandria—.

Aunque ese programa y otras iniciativas son variados, su meta común es una inteligencia más amplia y más flexible que el aprendizaje profundo. Del mismo modo, lo más usual es que tengan mucha menos hambre de datos; suelen utilizar el aprendizaje profundo como un ingrediente más de su receta.

“No estamos en contra del aprendizaje profundo”, opinó Yejin Choi, investigadora del Instituto Allen y computóloga de la Universidad de Washington. “Intentamos aumentar las expectativas de la inteligencia artificial, no criticar herramientas”.

Las herramientas que no son de aprendizaje profundo suelen ser técnicas antiguas que se emplean de nuevas formas. En Kyndi, una empresa emergente de Silicon Valley, los computólogos escriben código en Prolog, un lenguaje de programación que data de la década de los setenta. Fue diseñado para aquella parte de la inteligencia artificial enfocada en la representación del razonamiento y el conocimiento, la cual procesa hechos y conceptos e intenta completar tareas que no siempre están bien definidas. El aprendizaje profundo proviene del lado estadístico de la inteligencia artificial, conocido como aprendizaje automático.

Benjamin Grosof, un investigador que se ha especializado en la inteligencia artificial desde hace tres décadas, es el director científico en Kyndi. Comentó que estaba impresionado con el trabajo realizado por Kyndi sobre “las nuevas formas de unir las dos ramas de la inteligencia artificial”.

Kyndi y otras empresas están apostando a que por fin ha llegado el momento de aceptar algunos de los desafíos más intimidantes de la inteligencia artificial. Esto reproduce la trayectoria del aprendizaje profundo, que durante décadas había progresado poco antes de que la reciente explosión de los datos digitales y las computadoras cada vez más veloces impulsara avances en el rendimiento de las llamadas redes neuronales. Estas redes son capas digitales vagamente análogas a las neuronas biológicas. Lo “profundo” se refiere a muchas capas.

Hay otras señales esperanzadoras en el campo más allá del aprendizaje profundo. El otoño pasado, Vicarious, una empresa emergente que desarrolla robots que pueden cambiar de una tarea a otra como los humanos, publicó una investigación promisoria en la revista Science. A partir de relativamente pocos ejemplos, su tecnología de inteligencia artificial aprendió a imitar la inteligencia visual de los humanos, usando la información de manera trescientas veces más eficaz que los modelos de aprendizaje profundo. El sistema también logró superar las defensas de las “captcha”, las pruebas de identificación con letras que usan los sitios web para detener a los intrusos de los software.

El brazo de investigación del Pentágono, la Agencia de Proyectos de Investigación Avanzados del Departamento de Defensa (DARPA), también ha propuesto un programa para financiar investigación universitaria y ofrecer una red no comercial para compartir ideas sobre tecnología que pueda emular el razonamiento humano del sentido común. Si se aprueba el programa, Machine Common Sense, comenzaría a usarse este otoño con un financiamiento cercano a los 60 millones de dólares.

“El problema es más grande que cualquier empresa o grupo de investigación”, comentó David Gunning, quien dirigió el programa de asistentes personales de la DARPA, el cual terminó hace una década y produjo la tecnología que se convirtió en Siri, de Apple.



Jamileth


� Copyright ElPeriodicodeMexico.com