ChatGPT: el primer bloqueo por incumplir la normativa de protección de datos

En pleno nacimiento y apogeo de la famosa herramienta ChatGPT, Italia ha decidido bloquear su uso. Esta decisión ha sido tomada por no respetar la normativa de protección de datos y por la falta de filtros de edad en su acceso. El Garante italiano para la Protección de Datos Personales ha declarado que esta suspensión finalizará cuando se regule la normativa. Además de que los derechos fundamentales se vean garantizados. Sigue leyendo para saber cómo ha pasado, en qué consiste esta suspensión de uso y a qué se enfrenta ChatGPT.

Qué ha incumplido ChatGPT

El pasado 20 de marzo, ChatGPT sufrió una pérdida de datos. Las autoridades indican como una “violación” de las conversaciones entre usario y chat y de los datos de pago de los suscriptores. Tras ello, el gobierno Italiano ha acusado a la herramienta de no haber respetado la ley de protección de datos de los consumidores. Además de no cumplir el reglamento europeo de protección de datos. También han acusado a la aplicación de no comprobar apenas la edad de sus usuarios. No hay un procedimiento de por medio para confirmar que sea el usuario mayor de trece años. Las autoridades han considerado que el acceso a cualquier tipo de información para estos menores son  «respuestas absolutamente inadecuadas en cuanto a su grado de desarrollo y autoconocimiento”.

Consecuencias por faltar a la normativa de protección de datos

Esta filtración de datos ha recordado al mundo que la comunicación de los usuarios con el chatbot de OpenIA se queda guardada en un servidor. Todo ello podría ser vulnerado los derechos de los usuarios ante hackers, robos de información y venta de datos. Con todo ello, la herramienta ha sido cuestionada por muchos.

De hecho, la Europol ha empezado a señalarles. La agencia policial de la Unión Europea ha comentado que esta herramienta podría ser instrumentalizada y lanzar campañas de manipulación o que ocurra ciberdelincuencia.

Sin embargo, Italia ha sido la primera en bloquear el uso de esta plataforma. El Garante para la Protección de Datos Personales (GPDP) de Italia ha asegurado que esta herramienta de OpenAI no dispone de una base jurídica para la recopilación y el almacenamiento masivos de datos personales para entrenar los algoritmos de ChatGPT. El organismo ha declarado que infringe los artículos 5, 6, 8, 13 y 25 del Reglamento.

Posible sanción a ChatGPT

OpenAI no dispone de una oficina en Italia, pero sí de un representante. Este, desde el 31 de marzo, tiene 20 días para preparar una buena defensa. Y es que este tiene que responder al Garante y explicar cómo pretende solucionar esta situación. En caso de incumplimiento, habrá una serie de sanciones penales y administrativas. 20 millones de euros o hasta un 4% de la facturación global anual de la empresa. Además de no poder proporcionar su servicio en territorio nacional.

Restringido hasta que se cumpla la normativa de protección de datos

Esta prohibición no es permanente. Es un proceso temporal mientras las autoridades investigan si cumplen o no el Reglamento General de Protección de Datos (GDPR) europeo.

Regulación por parte de la AEPD en España

España no se queda atrás. La Agencia Española de Protección de Datos (AEPD) ha empezado también a investigar a OpenAI. Esta consideran que el tratamiento de datos que emplean podría tener “un impacto grande en los derechos de las personas”. Es por ello que han pedido el apoyo del Comité Europeo de Protección de Datos para debatir el tema y coordinarse para proteger al ciudadano.

Con todo ello, el Comité ha decidido crear un grupo de trabajo: task force. El objetivo de este es fomentar la cooperación e “intercambiar información sobre las acciones llevadas a cabo por las autoridades de protección de datos.”

La Agencia, según ha comunicado a través de su nota de prensa, aboga por unas tecnologías avanzadas desde el “pleno respeto” a la legislación vigente. Y a declarado que debe ser “compatible con los derechos y libertades de las personas.”

Principales riesgos que se encuentran

La llegada ha sido muy rápida y masiva. Se encuentran muchos fallos en las respuestas de la herramienta que faltan en su totalidad a la normativa de protección de datos: 

  • No le ha dado tiempo a configurarse. 
  • La gente no ha tenido suficiente tiempo para aprender a usarla de manera ética y correcta. 
  • Los límites son invisibles e insuficientes.

El mayor problema que se identifica es la desinformación. Su base se da en cálculos estadísticos de información que recogen de Internet. Aunque sus respuestas sean sencillas, humanas y parezcan completas, muchas veces la herramienta cae en errores garrafales.

Medidas que se han tomado infligir la normativa de datos

Es por ello que muchas compañías, instituciones e incluso colegios han tenido que mediar. Han circulado imágenes del Papa lleno de tatuajes y usando un abrigo en tendencia. También una supuesta detención de Donald Trump. O Joe Biden con una metralleta. O la famosa imágenes de Yolanda Díaz y Pablo Iglesias juntos…

Con todo ello, el ambiente está muy caldeado. Es por ello que Future of Life Institute ha desplegado una carta firmada por personalidades y líderes de la industria de la tecnología. Elon Musk o Steve Wozniak están entre ellos. En ella se exige que se frene este proceso y que se entrene de manera controlada a estas inteligencias artificiales. Además, se mencionaba que la humanidad “necesitaba tomarse un tiempo para estudiar. Y añadía que comprender el «impacto» que podrían llegar a generar la inteligencia artificial más poderosa «es importante».

Por otro lado, la Unesco ha pedido de manera urgente que los países apliquen “sin demora” el Marco Ético Mundial. El objetivo es “maximizar los beneficios” de la IA y “reducir los riesgos” que esta conlleva. “El mundo necesita normas éticas más estrictas para la IA: este es el gran reto de nuestro tiempo”, señalaba la directora general de la Unesco, Audrey Azoulay.

Se avecinan retos de legislación con el avance de la Inteligencia Artificial. Igual que con ChatGPT, hay muchas situaciones que se nos presentan donde nuestros derechos fundamentales se ven afectados en el entorno digital. Es por ello que es importante asesorarte bien para una buena protección y que la normativa de protección de datos no se infrinja. 

Deja un comentario