logo

Italia, primer país en prohibir temporalmente ChatGPT por incumplir la normativa de privacidad

LetsLaw / Derecho Digital  / Italia, primer país en prohibir temporalmente ChatGPT por incumplir la normativa de privacidad
Italia, primer país en prohibir temporalmente ChatGPT por incumplir la normativa de privacidad

Italia, primer país en prohibir temporalmente ChatGPT por incumplir la normativa de privacidad

¿Por qué se ha prohibido ChatGTP en Italia?

Italia procedió a prohibir la herramienta temporalmente, por considerar que la misma lleva a cabo un tratamiento de datos contrario al Reglamento Europeo de Protección de Datos (RGPD), por incumplir los artículos 5, 6, 8, 13 y 25. Concretamente, el Garante per la Protezione dei Dati Personali, considera no válido utilizar la ejecución del contrato como la base de legitimación para la recopilación de datos personales de los usuarios, al menos de la herramienta gratuita. Asimismo, se considera por la Autoridad Italiana un incumplimiento al deber de información, obstaculización al ejercicio de los derechos de los interesados, así como la falta de sistemas de verificación de la edad de los menores.

  • En cuanto a la base de legitimación del tratamiento de los datos personales de los usuarios con el fin de entrenar los algoritmos y lenguaje de la IA, la Autoridad Italiana considera que la referencia a la ejecución de un contrato es inaceptable, y OpenIA como Responsable del Tratamiento debe justificar el tratamiento ante una base de legitimación adecuada. 
  • En cuanto al ejercicio de derechos de los interesados, tanto para los usuarios como para los no-usuarios, debe existir una vía para la solicitud de la cancelación y/o rectificación de los datos personales. Quizás donde se complica el asunto para OpenAI es que no sólo debe permitir el ejercicio de dichos derechos a los usuarios de la herramienta, sino a cualquier persona que solicite la oposición del tratamiento de sus datos personales cuando éstos hayan sido facilitados por un tercero a ChatGPT. 
  • Por carecer de sistemas de verificación de edad, a pesar de que la herramienta dispone de un disclaimer de edad mínima de su uso en sus términos y condiciones de uso de servicio, no lleva a cabo medida ninguna para la verificación de dichos 13 años, por lo que no sólo podría estar llevando a cabo el tratamiento de datos de menores, sino que también expone a los mismos a contenido no apto o adecuado a su edad. 

No es la primera vez que Italia recurre al procedimiento de urgencia contemplado en el RGPD, conforme al cual la Autoridad de Control interesada puede intervenir, bajo circunstancias excepcionales y cuando considere que es urgente intervenir para proteger los derechos y las libertades de interesados, podrá adoptar inmediatamente medidas provisionales destinadas a producir efectos jurídicos en su propio territorio, con un periodo de validez determinado que no podrá ser superior a tres meses.

Basándose en dicho mecanismo, el Garante per la Protezione dei Dati Personali ya procedió en 2021 al bloqueó temporal de TikTok por carecer de sistemas de verificación de edad adecuados, tras el fallecimiento de una menor italiana de tan sólo 10 años que participaba en un challenge de la plataforma.

Responsabilidad de ChatGPT tras el bloqueo

Por un lado, gracias a la prohibición parece que OpenIA ha modificado y mejorado la privacidad de la herramienta o, al menos de cara al usuario. El plazo otorgado por parte de la Autoridad Italiana a OpenIA para subsanar y cumplir con el checklist facilitado vencía el 30 de abril, enfrentándose a una posible sanción del 4% de su facturación anual o 20 millones. Parece ser que la medidas implementadas son positivas y es que a partir de ahora el usuario de ChatGPT podrá eliminar el historial de conversaciones así como Configurar el historial de las mismas para restringir el uso de los datos e información incluida en las conversaciones en el entrenamiento de la herramienta. En cuanto a la cuestionada base de legitimación, proceden a su modificación para amparar el tratamiento de los datos bajo el paragüas del interés legitimo.

Queda por ver el desarrollo de la exigida campaña de concienciación vía medios de comunicación (radio, televisión e Internet) cuyo plazo expira el próximo 15 de mayo, como último de los ‘’deberes’’ impuestos por parte de la Autoridad Italiana a OpenIA.

¿Qué implicaciones ha tenido esta prohibición?

Por otro lado, ha supuesto una llamada a la proactividad de otras Autoridades, en concreto del Comité Europeo. Ante la reciente acción de la autoridad italiana contra Open AI los miembros del EDPB has acordado crear un Grupo de Trabajo específico (Task Force) para resolver cuestiones relativas a ChatGPT y OpenIA. Es más, el propio Parlamento Europeo ha acelerado el alcance de un acuerdo político para la Propuesta de Reglamento de Inteligencia Artificial. Del mismo modo, otras Autoridades de Protección de Datos europeas han comenzado sus propias investigaciones, como es el caso de la Agencia Española de Protección de Datos (AEPD). 

Más allá de la Unión Europea, en Japón se procede a la publicación del Libro Blanco de la Inteligencia Artificial y Protección de datos en el que se desarrollan políticas para el uso de la IA en entornos del sector público y privado. Del otro lado del charco, Joe Biden y su administración se encuentran trabajando hacia una propuesta de ley para regular la IA, si bien la inquietud más allá de la protección de la privacidad parece ser la protección del mercado laboral. 

¿Qué supone este bloqueo para el desarrollo de IA?

Si bien en esta ocasión el centro de las miradas es OpenIA empresa desarrolladora de ChatGPT, las Autoridades de Control de Protección de Datos seguirán de cerca cómo las grandes plataformas incorporan la Inteligencia Artificial en sus herramientas, por ejemplo, en Bing.

Por otro lado y, alejándonos de una posición jurídicamente purista, por parte del sector empresarial y de emprendedores el bloqueo de la herramienta por parte de Italia supone una negación y entorpecimiento a la innovación y, más en vistas de que muchas empresas se encuentran implementando dicha herramienta en parte de sus procesos de producción o actividad de negocio. El tejido empresarial italiano ha reaccionado negativamente en redes sociales ante este bloqueo temporal, ya que desde una perspectiva comercial, la prohibición de la herramienta obstaculizar y retrasar la innovación a las empresas italianas, que sugieren que detrás de la excusa de privacidad subyace la preocupación por el peligro de los empleos y bienestar de la economía italiana. 

La amenaza a los puestos de trabajo por parte de la IA no es cuestión baladí, el pasado 22 de marzo de 2022, un Grupo de Expertos publicó una Carta para solicitar la paralización del desarrollo IA, al menos durante 6 meses para poder estudiar, consensuar y legislar el desarrollo de la IA en nuestra sociedad. Concretamente, advierten sobre los riesgos que suponen permitir un entrenamiento sesgado de la herramienta (entre los mismos, la difusión de deepfakes en nuestra sociedad democrática), permitir el desarrollo de inteligencia que sobrepase la humana y que innegablemente puedan reemplazarnos, así como advierten de la pérdida de control de la sociedad como consecuencia de permitir a las propias empresas tecnológicas la determinación del desarrollo de la IA. De momento, con firmas insuficientes para hacer efectiva la paralización a este fenómeno de la innovación que muchos ya señalan como la cuarta revolución industrial.

Sea como fuere, lo que es innegable es que la Inteligencia Artificial ha llegado para quedarse y su veloz desarrollo requiere no sólo rápidas tomas de decisión que acompasen su ritmo por las Autoridades para imponer los límites o control de su desarrollo, sino además unas Autoridades que dispongan del conocimiento técnico suficiente en materia de Inteligencia Artificial y jurídico.

Para cualquier duda sobre Inteligencia Artificial o implementación de la misma en tu empresa, no dudes en contactar con Letslaw by RSM ¡Estaremos encantados de asesorarte!

Contáctanos

    Al pulsar en "Enviar" aceptas nuestra Política de Privacidad - + Información, para tratar tus datos con la finalidad de tramitar las consultas que puedas plantearnos.

    Acepto recibir comunicaciones comerciales perfiladas por parte de LETSLAW, S.L. conforme a lo dispuesto en nuestra Política de Privacidad - + Información