Lemoine trabajaba para una organización responsable de inteligencia artificial en Google y, como parte de su trabajo, comenzó a hablar con LaMDA, el sistema de inteligencia artificial de la compañía para crear chatbots, en el otoño. Llegó a creer que la tecnología era consciente después de grabar para probar si la IA podía usar discursos discriminatorios o de odio.
En un comunicado, el portavoz de Google, Brian Gabriel, dijo que la compañía se toma en serio el desarrollo de IA y ha revisado LaMDA 11 veces, además de publicar un artículo de investigación que detalla los esfuerzos para el desarrollo responsable.
“Si un empleado comparte inquietudes sobre nuestro trabajo, como lo hizo Blake, las revisamos ampliamente”, agregó. «Encontramos que las afirmaciones de Blake de que LaMDA es sensible son completamente infundadas y trabajamos para aclarar esto con él durante varios meses».
Atribuyo las discusiones a la cultura empresarial abierta.
«Es desafortunado que, a pesar de su participación prolongada en el tema, Blake siga optando por violar constantemente políticas claras de empleo y seguridad de datos que incluyen la necesidad de proteger la información del producto», agregó Gabriel. «Continuaremos con nuestro riguroso desarrollo de modelos de lenguaje y le deseamos lo mejor a Blake».
El tiroteo de Lemoine se informó por primera vez en Boletín de grandes tecnologías.
limón entrevistas con lambda Desencadenó una extensa discusión sobre los avances recientes en inteligencia artificial, un malentendido general sobre cómo funcionan estos sistemas y la responsabilidad corporativa. Google despidió a los jefes de su departamento de inteligencia artificial ética, Margaret Mitchell y Timnit Gibrudespués Cuidado con los peligros asociado a esta tecnología.
LaMDA utiliza los modelos de lenguaje grande más avanzados de Google, un tipo de inteligencia artificial que reconoce y crea texto. Los investigadores dicen que estos sistemas no pueden entender el lenguaje o el significado. Pero pueden producir un discurso engañoso que se parece al habla humana porque están entrenados en cantidades masivas de datos rastreados de Internet para predecir la siguiente palabra más probable en una oración.
Después de que LaMDA habló con Lemoine sobre el personaje y sus derechos, comenzó a investigar más a fondo. En abril, compartió un documento de Google con los directores ejecutivos titulado «¿LaMDA es sensible?» Que incluía algunas de sus conversaciones con LaMDA, en las que afirmó estar consciente. Dos ejecutivos de Google consideraron sus acusaciones y las desestimaron.
Lemoine fue puesto previamente en licencia administrativa pagada en junio por violar la política de confidencialidad de la compañía. El ingeniero, que ha pasado la mayor parte de sus siete años en Google trabajando en investigación proactiva, incluidos algoritmos de personalización, dijo que está considerando la posibilidad de crear su propia empresa de inteligencia artificial enfocada en videojuegos colaborativos para contar historias.
More Stories
Decisión del Banco de Japón, PMI de China, resultados de Samsung
Las acciones suben a medida que la inteligencia artificial logra ganancias récord
Europa impone aranceles más altos a los coches eléctricos fabricados en China