Ciencia y Tecnología
Estados Unidos dice que principales empresas de Inteligencia Artificial se unen a consorcio de seguridad para abordar riesgos
Por | David Shepardson
WASHINGTON, 8 feb (Reuters) - El Gobierno del presidente de Estados Unidos, Joe Biden, anunció el jueves que las principales empresas de inteligencia artificial se encuentran entre las más de 200 entidades que se unen a un nuevo consorcio en el país para apoyar el desarrollo y despliegue seguros de la IA generativa.
La Secretaria de Comercio, Gina Raimondo, anunció el Consorcio del Instituto de Seguridad de la IA de Estados Unidos (AISIC), que incluye a OpenAI, Google de Alphabet, Anthropic y Microsoft, junto con Facebook de Meta Platforms, Apple, Amazon.com, Nvidia, Palantir, Intel, JPMorgan Chase y Bank of America.
"El gobierno de Estados Unidos tiene un importante papel que desempeñar en el establecimiento de las normas y el desarrollo de las herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial", dijo Raimondo en un comunicado.
El consorcio, en el que también participan BP, Cisco Systems, IBM, Hewlett Packard, Northop Grumman, Mastercard, Qualcomm, Visa e importantes instituciones académicas y agencias gubernamentales, se albergará bajo el nombre de U.S. AI Safety Institute (USAISI).
El grupo se encargará de trabajar en las acciones prioritarias descritas en la orden ejecutiva sobre IA del presidente Biden de octubre, "incluido el desarrollo de directrices para las simulaciones de ataques, las evaluaciones de capacidad, la gestión de riesgos, la seguridad y la protección, y la marca de agua de los contenidos sintéticos".
Las principales empresas de IA se comprometieron el año pasado a poner marcas de agua a los contenidos generados por IA para hacer más segura la tecnología. La simulación de ataques ha sido utilizada durante años en el sector de la ciberseguridad para identificar nuevos riesgos, bajo la denominación "equipo rojo", una referencia a la designación del enemigo en los simulacros estadounidenses durante la Guerra Fría.
La orden de Biden ordenaba a los organismos que establecieran normas para esas pruebas y abordaran los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad relacionados.
En diciembre, el Departamento de Comercio declaró que estaba dando el primer paso hacia la redacción de normas y orientaciones clave para el despliegue y las pruebas seguras de la IA.
El consorcio representa el mayor conjunto de equipos de pruebas y evaluación y se centrará en sentar las bases de una "nueva ciencia de la medición en materia de seguridad de la IA", según el Departamento de Comercio.
La IA generativa -que puede crear textos, fotos y videos en respuesta a instrucciones abiertas- ha suscitado tanto entusiasmo como temores de que pueda dejar obsoletos algunos puestos de trabajo, alterar las elecciones y superar potencialmente a los humanos con efectos catastróficos.
Mientras el gobierno de Biden busca salvaguardias, los esfuerzos del Congreso por aprobar leyes sobre IA se han estancado a pesar de las numerosas propuestas de foros de alto nivel y legislativas.
aranza
Notas Relacionadas
- La Inteligencia Artificial da un nuevo salto para ser capaz de actuar al margen de la intervención humana
- Investigadores dicen que herramienta de transcripción con IA usada en hospitales inventa textos
- Estados Unidos mira hacia energía nuclear ante creciente demanda de electricidad y energía más limpia
- Google recurre a la energía nuclear para alimentar a sus centros de datos de IA
- Google y Open AI firman el pacto de inteligencia artificial de la UE, que evitan Meta o X