OpenAI y Anthropic acordaron permitir que el gobierno de EE. UU. acceda a nuevos modelos clave de IA antes de su lanzamiento para ayudar a mejorar su seguridad.
Las empresas firmaron memorandos de entendimiento con el Instituto para la Seguridad de la Inteligencia Artificial de EE. UU. para brindar acceso a los modelos antes y después de su lanzamiento al público. La agencia anunció El gobierno dijo que la medida les ayudará a trabajar juntos para evaluar los riesgos de seguridad y mitigar problemas potenciales. La agencia estadounidense dijo que proporcionaría comentarios sobre las mejoras de seguridad, en cooperación con su homólogo del Reino Unido.
Compartir el acceso a los modelos de IA es un paso importante en un momento en que las legislaturas federales y estatales están considerando qué tipos de barreras colocar a la tecnología sin sofocar la innovación. El miércoles, los legisladores de California aprobaron la Ley de Innovación Segura para Modelos Líderes de IA (SB 1047), que exige que las empresas de IA de California tomen medidas de seguridad específicas antes de entrenar modelos de referencia avanzados. La ley provocó una reacción violenta de empresas de inteligencia artificial, incluidas OpenAI y Anthropic, que advirtieron que podría perjudicar a los desarrolladores de código abierto más pequeños, aunque ha sufrido algunos cambios desde entonces y todavía está esperando la firma del gobernador Gavin Newsom.
Elizabeth Kelly, directora del Instituto de Seguridad de la IA de EE. UU., dijo en un comunicado que los nuevos acuerdos «fueron sólo el comienzo, pero representan un hito importante a medida que trabajamos para ayudar a gestionar responsablemente el futuro de la inteligencia artificial».
More Stories
Decisión del Banco de Japón, PMI de China, resultados de Samsung
Las acciones suben a medida que la inteligencia artificial logra ganancias récord
Europa impone aranceles más altos a los coches eléctricos fabricados en China