diciembre 25, 2024

Telecentro di Bologna e dell'Emilia-Romagna

Manténgase al tanto de las últimas novedades de España sobre el terreno

Google despidió al ingeniero Blake Lemoine, quien dijo que LaMDA estaba consciente

Google despidió al ingeniero Blake Lemoine, quien dijo que LaMDA estaba consciente

Suspensión

Blake Lemoine, un ingeniero de Google que Le dijo al Washington Post Que la IA de la compañía estaba consciente, la compañía dijo que lo despidió el viernes.

Lemoine dijo que recibió un correo electrónico de terminación de la compañía el viernes con una solicitud para una videoconferencia. Solicitó que un tercero asistiera a la reunión, pero dijo que Google se negó. Lemoine dice que está hablando con abogados sobre sus opciones.

Lemoine trabajaba para una organización responsable de inteligencia artificial en Google y, como parte de su trabajo, comenzó a hablar con LaMDA, el sistema de inteligencia artificial de la compañía para crear chatbots, en el otoño. Llegó a creer que la tecnología era consciente después de grabar para probar si la IA podía usar discursos discriminatorios o de odio.

Un ingeniero de Google que cree que se ha conseguido la inteligencia artificial de la empresa

En un comunicado, el portavoz de Google, Brian Gabriel, dijo que la compañía se toma en serio el desarrollo de IA y ha revisado LaMDA 11 veces, además de publicar un artículo de investigación que detalla los esfuerzos para el desarrollo responsable.

“Si un empleado comparte inquietudes sobre nuestro trabajo, como lo hizo Blake, las revisamos ampliamente”, agregó. «Encontramos que las afirmaciones de Blake de que LaMDA es sensible son completamente infundadas y trabajamos para aclarar esto con él durante varios meses».

Atribuyo las discusiones a la cultura empresarial abierta.

«Es desafortunado que, a pesar de su participación prolongada en el tema, Blake siga optando por violar constantemente políticas claras de empleo y seguridad de datos que incluyen la necesidad de proteger la información del producto», agregó Gabriel. «Continuaremos con nuestro riguroso desarrollo de modelos de lenguaje y le deseamos lo mejor a Blake».

El tiroteo de Lemoine se informó por primera vez en Boletín de grandes tecnologías.

limón entrevistas con lambda Desencadenó una extensa discusión sobre los avances recientes en inteligencia artificial, un malentendido general sobre cómo funcionan estos sistemas y la responsabilidad corporativa. Google despidió a los jefes de su departamento de inteligencia artificial ética, Margaret Mitchell y Timnit Gibrudespués Cuidado con los peligros asociado a esta tecnología.

Google ha contratado a Timnit Gebru como crítico abierto de la IA poco ética. Luego la despidieron por eso.

LaMDA utiliza los modelos de lenguaje grande más avanzados de Google, un tipo de inteligencia artificial que reconoce y crea texto. Los investigadores dicen que estos sistemas no pueden entender el lenguaje o el significado. Pero pueden producir un discurso engañoso que se parece al habla humana porque están entrenados en cantidades masivas de datos rastreados de Internet para predecir la siguiente palabra más probable en una oración.

Después de que LaMDA habló con Lemoine sobre el personaje y sus derechos, comenzó a investigar más a fondo. En abril, compartió un documento de Google con los directores ejecutivos titulado «¿LaMDA es sensible?» Que incluía algunas de sus conversaciones con LaMDA, en las que afirmó estar consciente. Dos ejecutivos de Google consideraron sus acusaciones y las desestimaron.

Big Tech construye IA con datos incorrectos. Así que los científicos buscaron mejores datos.

Lemoine fue puesto previamente en licencia administrativa pagada en junio por violar la política de confidencialidad de la compañía. El ingeniero, que ha pasado la mayor parte de sus siete años en Google trabajando en investigación proactiva, incluidos algoritmos de personalización, dijo que está considerando la posibilidad de crear su propia empresa de inteligencia artificial enfocada en videojuegos colaborativos para contar historias.