Formato de impresión


Equipo de OpenAI se centrará en los procesos democráticos del software de inteligencia artificial


2024-01-16

Por Anna Tong

SAN FRANCISCO,(Reuters) - El laboratorio de inteligencia artificial OpenAI está formando un nuevo equipo para crear procesos democráticos que den forma a cómo debe gobernarse su software de IA para abordar la parcialidad y otros factores, informó el martes la empresa respaldada por Microsoft en una entrada de blog.

El equipo de "Alineación Colectiva" es una continuación del trabajo de un programa de subvenciones para financiar experimentos de procesos democráticos que se anunció en mayo de 2023, dijo la empresa con sede en San Francisco.

El programa concluyó recientemente.

"A medida que avanzamos en nuestra misión de crear modelos superinteligentes que puedan llegar a ser parte integrante de nuestra sociedad, es importante dar a la gente la oportunidad de contribuir directamente", declaró a Reuters Tyna Eloundou, ingeniera de investigación y miembro fundadora del nuevo equipo de OpenAI.

Para garantizar, por ejemplo, que sólo los humanos puedan votar, OpenAI podría asociarse con Worldcoin, un proyecto de criptomoneda fundado por el presidente ejecutivo de OpenAI, Sam Altman, que ofrece una forma de diferenciar entre humanos y robots de inteligencia artificial, explicó Teddy Lee, director de producto y otro miembro del equipo de dos personas.

Lee señaló que el equipo aún no ha hecho planes concretos para integrar Worldcoin.

Desde que OpenAI lanzó ChatGPT a finales de 2022, la tecnología de IA generativa capaz de hilar una prosa increíblemente autorizada a partir de mensajes de texto ha cautivado al público, convirtiendo el programa en una de las aplicaciones de más rápido crecimiento de todos los tiempos.

Sin embargo, preocupa la capacidad de la IA para crear imágenes "deepfake" y otro tipo de desinformación, sobre todo ahora que se acerca la campaña electoral estadounidense de 2024.

Los críticos afirman que los sistemas de IA como ChatGPT tienen un sesgo inherente debido a los datos utilizados para dar forma a sus puntos de vista, y los usuarios han encontrado ejemplos de resultados racistas o sexistas del software de IA.



Jamileth


� Copyright ElPeriodicodeMexico.com