Actualidad

ChatGPT: Italia bloquea el acceso por no respetar la protección de datos

Compartir
El regulador del país restringe con «efecto inmediato» la popular aplicación de inteligencia artificial por una presunta violación de la normativa europea en la recopilación de información de los usuarios.
LMN

Italia ha bloqueado «con acceso inmediato» el acceso a ChatGPT y ha abierto una investigación contra el popular chatbot de inteligencia artificial (IA) por una presunta violación de las normas de recopilación de datos.

En un comunicado publicado este viernes, la agencia italiana de protección de datos ha decidido restringir provisionalmente el acceso a ChatGPT para que así no procese los datos de los usuarios del país hasta que se esclarezca si cumple o no con el Reglamento General de Protección de Datos (GDPR), la pionera ley europea de privacidad.

En el auto, el Garante de la Privacidad constata la falta de información a los usuarios y a todas las partes interesadas cuyos datos recoge OpenAI, pero sobre todo la ausencia de base jurídica que justifique la recogida y almacenamiento masivo de datos personales con el fin de «entrenar» los algoritmos que subyacen al funcionamiento de la plataforma», reza el comunicado del regulador

La autoridad nacional italiana también ha acusado a la aplicación de no comprobar la edad de sus usuarios. A priori, los menores de 13 años no podrían usar este sistema conversacional, pero el regulador sospecha que esa limitación podría ser papel mojado.

La empresa estadounidense, que no tiene ninguna oficina en la Unión Europea (UE), tiene un plazo de hasta 20 días para anunciar qué medidas adoptará para cumplir con la petición de las autoridades italianas. De no respetar la ley europea se le podría imponer una multa de hasta 20 millones de euros o hasta el 4% del volumen de negocios anual global, según explica el regulador en su comunicado.

Riesgos de ChatGPT

La restricción italiana se debe a motivos legales, pero estos generadores de texto también suponen problemas éticos. Uno de los principales riesgos es que sirva para amplificar la desinformación pues —por mucho que puedan simular el razonamiento humano— sus respuestas se basan en cálculos estadísticos de la información que extraen de internet, lo que hace que en multitud de ocasiones en errores y falsedades.

Esta misma semana, Europol,  la agencia policial de la UE, ha advertido en esa misma dirección y ha apuntado que ChatGPT también puede instrumentalizarse para lanzar campañas de manipulación y de ciberdelincuencia.

Esta misma semana, más de 1.000 personalidades del ámbito científico, empresarial y académico publicaron una carta abierta en la que piden parar durante seis meses el entrenamiento de programas de IA más potentes que GPT-4, la última generación del modelo de lenguaje que hay detrás de ChatGPT. Aunque la misiva bebe de la narrativa dr Silicon Valley que sobredimensiona las capacidades de esta tecnología, denuncia que se trata de una «peligrosa carrera» cuyas consecuencias son impredecibles.