noviembre 22, 2024

Telecentro di Bologna e dell'Emilia-Romagna

Manténgase al tanto de las últimas novedades de España sobre el terreno

Italia prohíbe ChatGPT por riesgo de datos personales

Italia prohíbe ChatGPT por riesgo de datos personales

El regulador de datos de Italia bloqueó ChatGPT en el país y lanzó una investigación sobre el uso de datos personales por parte del chatbot respaldado por Microsoft.

El garantizado El regulador dijo que estaba preocupado por la gran cantidad de datos recopilados por ChatGPT de sus usuarios.

«No existe una base legal para justificar la recopilación y el almacenamiento agregados de datos personales con el fin de ‘entrenar’ los algoritmos que subyacen a la operación del sitio», dijo.

Italia es el primer país occidental en prohibir ChatGPT de OpenAI, que ha sido prohibido en países como China, Corea del Norte, Irán y Rusia.

Crédito de la imagen: Tara Winstead/Pexels

Filtración de datos

El 20 de marzo, el regulador notó un error de software en el chatbot que expuso partes de las conversaciones de los usuarios y la información de pago a otros usuarios durante unas nueve horas.

La brecha confirmó las advertencias anteriores de los observadores de la industria de que la información confidencial en los chatbots podría estar en riesgo.

Garante agregó que debido a que ChatGPT no tiene un mecanismo de verificación de edad, «revela respuestas que son completamente inapropiadas en comparación con el nivel de desarrollo y conciencia de los menores».

OpenAI tiene 20 días para responder a sus inquietudes o enfrentar una multa de hasta 20 millones de euros (18 millones de libras esterlinas) o el 4 por ciento de sus ingresos anuales, dijo.

Regulación de IA

OpenAI dijo que bloqueó ChatGPT en Italia y agregó que creía que cumplía con GDPR y otras leyes de protección de datos.

Dijo que trabajó para reducir los datos personales que utiliza para entrenar los sistemas de IA.

READ  Italia - Fattori da tenere d'occhio il 23 dicembre

“Creemos que la regulación de la IA es esencial, por lo que esperamos trabajar en estrecha colaboración con Garante y educarlos sobre cómo se construyen y utilizan nuestros sistemas”, dijo la compañía.

En febrero, Italia prohibió Replika.ai, que es operado por la misma organización detrás de ChatGPT.

Riesgo de cumplimiento

La firma de seguridad Cyberhaven estimó en febrero que el 11 por ciento de los empleados empresariales que ingresan a ChatGPT contenían datos confidenciales, lo que genera riesgos de cumplimiento para las empresas que los utilizan.

El bufete de abogados de violación de datos del Reino Unido, Hayes Connor, dijo que debido a que ChatGPT está en sus «etapas de infancia», las firmas de modelos de lenguaje grande (LLM) están «en territorio desconocido en términos de cumplimiento de GDPR».

«Las empresas que usan ChatGPT sin la capacitación y advertencia adecuadas pueden exponerse sin saberlo a violaciones de datos de GDPR, lo que podría resultar en multas significativas, daños a la reputación y acciones legales en su contra», dijo el director legal de Hayes Connor, Richard Forrest.

«Por lo tanto, su uso como herramienta en el lugar de trabajo sin la capacitación adecuada y las medidas regulatorias es inapropiado».