noviembre 22, 2024

Telecentro di Bologna e dell'Emilia-Romagna

Manténgase al tanto de las últimas novedades de España sobre el terreno

Los legisladores de California votan sobre el proyecto de ley de seguridad de la IA en medio de la oposición de las empresas de tecnología

Los legisladores de California votan sobre el proyecto de ley de seguridad de la IA en medio de la oposición de las empresas de tecnología

Está previsto que los legisladores de California voten esta semana un proyecto de ley destinado a reducir el riesgo de que la inteligencia artificial se utilice con fines nefastos, como ataques cibernéticos o desarrollo de armas biológicas.

El proyecto de ley 1047 del Senado de California, redactado por el senador estatal Scott Wiener, sería el primero de su tipo en Estados Unidos en exigir a las empresas de inteligencia artificial que construyan modelos a gran escala para probar su seguridad.

Los legisladores de California están considerando en esta sesión decenas de proyectos de ley relacionados con la inteligencia artificial. Pero la propuesta de Weiner, llamada «Ley de Innovación Segura para Liderar Paradigmas de IA», ha captado la atención nacional debido a la intensa oposición de Silicon Valley, el principal bastión del desarrollo de la IA en Estados Unidos. Los opositores dicen que imponer requisitos tecnológicos onerosos y posibles multas en California sofocaría la innovación y la competitividad global del país.

OpenAI es el último desarrollador de IA en declarar su oposición y argumentar En un mensaje el miércoles que la regulación de la IA debería dejarse en manos del gobierno federal y afirma que las empresas abandonarán California si se aprueba la legislación propuesta.

La Asamblea Legislativa estatal ahora está programada para votar el proyecto de ley, que… El ganador ha sido modificado recientemente. En respuesta a las críticas de la industria tecnológica, dijo que el nuevo lenguaje no responde a todas las cuestiones planteadas por la industria.

«Este es un proyecto de ley razonable y liviano que no obstaculizará la innovación de ninguna manera, pero nos ayudará a superar los riesgos que acompañan a cualquier tecnología poderosa», dijo Weiner a los periodistas durante una conferencia de prensa el lunes.

¿Qué hará el proyecto de ley?

El proyecto de ley exige que las empresas que construyen grandes modelos de IA, aquellos cuyo entrenamiento cuesta más de 100 millones de dólares, mitiguen cualquier riesgo significativo en el sistema que encuentren mediante pruebas de seguridad. Esto incluye la creación de una capacidad de “apagado total”, o una forma de desconectar un modelo potencialmente inseguro en circunstancias catastróficas.

READ  Il CEO di Colonial Pipeline ci spiega perché ha pagato agli hacker un riscatto di 4,4 milioni di dollari

Los desarrolladores también deberán crear un plan técnico para abordar los riesgos de seguridad y conservar una copia de ese plan mientras el formulario esté disponible, más cinco años. Empresas como Google, Meta y OpenAI ya tienen importantes operaciones de IA Compromisos voluntarios Es posible que la administración Biden asuma la responsabilidad de gestionar los riesgos de la IA, pero la legislación de California impondría obligaciones legales y de aplicación de esas obligaciones.

Cada año, un auditor externo evalúa el cumplimiento de la ley por parte de una empresa. Además, las empresas deben documentar su cumplimiento de la ley e informar cualquier incidente de seguridad al Fiscal General de California. La Oficina del Procurador General puede imponer sanciones civiles de hasta $50,000 por las primeras violaciones y $100,000 adicionales por violaciones posteriores.

¿Cuáles son las críticas?

Gran parte de la industria tecnológica criticó el proyecto de ley por ser demasiado gravoso. Anthropic, una popular empresa de IA que se promociona como centrada en la seguridad, había argumentado que una versión anterior de la legislación habría creado obligaciones legales complejas que sofocarían la innovación en IA, como la capacidad del fiscal general de California de demandar por negligencia, incluso si no lo hace. Se produce un desastre de seguridad.

OpenAI sugirió que las empresas abandonarían California si se aprobara el proyecto de ley para evitar sus requisitos. También insistió en que la regulación de la IA debería dejarse en manos del Congreso para evitar que se promulgue una serie de leyes confusas en todos los estados.

Ganador ella respondió El Comité de Asuntos Exteriores del Senado de Estados Unidos calificó la idea de que las empresas huyan de California como un “argumento engorroso”, señalando que las disposiciones del proyecto de ley seguirían aplicándose a las empresas que prestan sus servicios a los residentes de California, incluso si sus oficinas centrales no están allí.

READ  Carolyn Ellison está programada para testificar como testigo estrella contra Bankman-Fried

La semana pasada, ocho miembros del Congreso de Estados Unidos anunciaron urgir El gobernador Gavin Newsom vetará el proyecto de ley del Senado 1047 debido a las obligaciones que impondría a las empresas que fabrican y utilizan inteligencia artificial. La representante Nancy Pelosi se unió a sus colegas de la oposición, llamar La medida es “bien intencionada pero mal considerada” (Weiner ha estado considerando el puesto de presidenta emérita de la Cámara de Representantes, lo que podría requerir un enfrentamiento futuro con su hija, Christine Pelosi). Según Politico.)

Pelosi y los miembros del Congreso apoyan a la “madrina de la inteligencia artificial”, la Dra. Vivi Li, científica informática de la Universidad de Stanford y ex investigadora de Google. En un artículo de opinión reciente, Lee dijo que la legislación «dañaría nuestro emergente ecosistema de IA», especialmente los desarrolladores más pequeños que «ya están en desventaja en comparación con las gigantescas empresas tecnológicas de hoy».

¿Qué dicen los seguidores?

El proyecto de ley recibió el apoyo de muchas empresas emergentes en el campo de la inteligencia artificial. Cofundador de noción Simon Last y los “padrinos” de la inteligencia artificial, Yoshua Bengio y Geoffrey Hinton. Bengio dijo que la legislación sería un “paso positivo y razonable” para hacer que la IA sea más segura y al mismo tiempo fomentar la innovación.

Sin medidas de seguridad adecuadas, los partidarios del proyecto de ley temen que las nefastas consecuencias de la IA no supervisada puedan plantear amenazas existenciales, como mayores riesgos para la infraestructura crítica y la creación de armas nucleares.

Weiner defendió su legislación «simple y de sentido común», señalando que sólo requeriría que las empresas de IA más grandes adoptaran medidas de seguridad. También elogió el liderazgo de California en la política tecnológica estadounidense, lo que generó dudas sobre si el Congreso aprobará alguna legislación sustantiva sobre inteligencia artificial en el futuro cercano.

READ  La última razón de Elon Musk para abandonar el acuerdo de Twitter

«California ha intervenido repetidamente para proteger a nuestros residentes y llenar el vacío dejado por la inacción del Congreso», respondió Weiner, señalando la falta de acción federal sobre la privacidad de los datos y la regulación de las redes sociales.

¿Qué sigue?

En su última declaración sobre el proyecto de ley, Weiner dijo que las últimas enmiendas tienen en cuenta muchas de las preocupaciones expresadas por la industria de la inteligencia artificial. La versión actual propone una sanción civil en lugar de una penal, como estaba originalmente en el proyecto de ley, por mentir al gobierno. También elimina una propuesta para crear un nuevo organismo regulador estatal que supervisaría los modelos de IA.

Antropía dijo En una carta a Newsom Los beneficios de la legislación modificada probablemente superen los daños potenciales a la industria de la IA, siendo los principales beneficios la transparencia con el público sobre la seguridad de la IA y lograr que las empresas inviertan en la mitigación de riesgos. Pero Anthropic sigue siendo cauteloso ante la posibilidad de restricciones amplias y requisitos de presentación de informes ampliados.

«Creemos que es fundamental que tengamos algún marco para gestionar sistemas de inteligencia artificial de vanguardia que cumpla aproximadamente con estos tres requisitos», dijo el director ejecutivo de Anthropic, Dario Amodei, al gobernador, ya sea que ese marco sea SB-1047 o no.

Los legisladores de California tienen hasta el 31 de agosto, al final de la sesión, para aprobar el proyecto de ley. Si se aprueba, pasará al gobernador Gavin Newsom para su aprobación final a finales de septiembre. El gobernador no ha indicado si planea firmar la legislación.