El regulador de datos de Italia bloqueó ChatGPT en el país y lanzó una investigación sobre el uso de datos personales por parte del chatbot respaldado por Microsoft.
El garantizado El regulador dijo que estaba preocupado por la gran cantidad de datos recopilados por ChatGPT de sus usuarios.
«No existe una base legal para justificar la recopilación y el almacenamiento agregados de datos personales con el fin de ‘entrenar’ los algoritmos que subyacen a la operación del sitio», dijo.
Italia es el primer país occidental en prohibir ChatGPT de OpenAI, que ha sido prohibido en países como China, Corea del Norte, Irán y Rusia.
Filtración de datos
El 20 de marzo, el regulador notó un error de software en el chatbot que expuso partes de las conversaciones de los usuarios y la información de pago a otros usuarios durante unas nueve horas.
La brecha confirmó las advertencias anteriores de los observadores de la industria de que la información confidencial en los chatbots podría estar en riesgo.
Garante agregó que debido a que ChatGPT no tiene un mecanismo de verificación de edad, «revela respuestas que son completamente inapropiadas en comparación con el nivel de desarrollo y conciencia de los menores».
OpenAI tiene 20 días para responder a sus inquietudes o enfrentar una multa de hasta 20 millones de euros (18 millones de libras esterlinas) o el 4 por ciento de sus ingresos anuales, dijo.
Regulación de IA
OpenAI dijo que bloqueó ChatGPT en Italia y agregó que creía que cumplía con GDPR y otras leyes de protección de datos.
Dijo que trabajó para reducir los datos personales que utiliza para entrenar los sistemas de IA.
“Creemos que la regulación de la IA es esencial, por lo que esperamos trabajar en estrecha colaboración con Garante y educarlos sobre cómo se construyen y utilizan nuestros sistemas”, dijo la compañía.
En febrero, Italia prohibió Replika.ai, que es operado por la misma organización detrás de ChatGPT.
Riesgo de cumplimiento
La firma de seguridad Cyberhaven estimó en febrero que el 11 por ciento de los empleados empresariales que ingresan a ChatGPT contenían datos confidenciales, lo que genera riesgos de cumplimiento para las empresas que los utilizan.
El bufete de abogados de violación de datos del Reino Unido, Hayes Connor, dijo que debido a que ChatGPT está en sus «etapas de infancia», las firmas de modelos de lenguaje grande (LLM) están «en territorio desconocido en términos de cumplimiento de GDPR».
«Las empresas que usan ChatGPT sin la capacitación y advertencia adecuadas pueden exponerse sin saberlo a violaciones de datos de GDPR, lo que podría resultar en multas significativas, daños a la reputación y acciones legales en su contra», dijo el director legal de Hayes Connor, Richard Forrest.
«Por lo tanto, su uso como herramienta en el lugar de trabajo sin la capacitación adecuada y las medidas regulatorias es inapropiado».
«Estudiante. Sutilmente encantador experto en café. Practicante de televisión. Jugador. Especialista profesional en comida. Típico amante del alcohol».
More Stories
Las fuentes dicen que Italia se está preparando para una venta en el mercado de las participaciones de Monte dei Basque como plan a largo plazo.
Los hoteles y museos de Roma se unen para mostrar el patrimonio cultural de Italia
Los datos del PIB italiano decepcionan, la elasticidad comienza a desvanecerse | Fotografías