Procesia

26.04.2023 / Noticias

Prohibición de ChatGPT en Italia. El GPDP infringe los artículos 5, 6, 8, 13 y 25 del Reglamento General de Protección de Datos europeo

Prohibición de ChatGPT en Italia. El GPDP infringe los artículos 5, 6, 8, 13 y 25 del Reglamento General de Protección de Datos europeo

La Autoridad de Protección de Datos Personales de Italia (GPDP) ha emitido una orden de prohibición inmediata del uso de una herramienta de inteligencia artificial desarrollada por OpenAI llamada «ChatGPT». El GPDP alega que la herramienta está recopilando datos personales de manera ilegal, lo que viola las regulaciones de protección de datos de la Unión Europea. La orden del regulador italiano prohíbe el tratamiento de datos de usuarios italianos hacia OpenAI y abre una investigación hacia la compañía detrás del servicio.

 

La Autoridad de Protección de Datos Personales de Italia (GPDP) ha declarado que OpenAI no tiene una base legal que justifique la recopilación y el almacenamiento masivos de datos personales para entrenar los algoritmos de ChatGPT. Además, el regulador italiano afirma que OpenAI no proporciona ninguna información a los usuarios, ni a los interesados cuyos datos han sido recopilados por la compañía.

 

El GPDP también ha señalado la ausencia de una base legal adecuada en relación con la recopilación de datos personales y su tratamiento con fines de formación de los algoritmos subyacentes al funcionamiento de ChatGPT. Asimismo, la autoridad nacional ha destacado que el servicio no dispone de ningún sistema para verificar la edad de los usuarios, pese a estar reservado a sujetos que hayan cumplido al menos 13 años, según los términos de uso publicados por OpenAI.

 

El GPDP considera que ChatGPT infringe varios artículos del Reglamento General de Protección de Datos europeo

 

El GPDP considera que ChatGPT infringe los artículos 5, 6, 8, 13 y 25 del Reglamento General de Protección de Datos europeo. Esta limitación en el servicio, con efecto inmediato a partir de la nueva disposición, queda supeditada al resultado de la investigación. En caso de incumplimiento de la medida dispuesta por el garante, el organismo apunta que se aplicarán las pertinentes sanciones penales y administrativas.

 

La situación actual ha llevado a figuras destacadas del sector tecnológico a pedir una pausa en el entrenamiento de sistemas de inteligencia artificial superiores a GPT-4. Elon Musk y otras personalidades del sector han pedido la paralización durante al menos seis meses de sistemas superiores a GPT-4 debido a la falta de protocolos que supongan garantías sobre el funcionamiento de la herramienta y la ausencia de regulación al respecto de la misma.

 

Italia es el primer país en tomar medidas contra OpenAI por violar el GDPR, pero otros países, como España, podrían seguir los mismos pasos. La Agencia Española de Protección de Datos (AEPD) sigue de cerca estos desarrollos tecnológicos que pueden afectar los derechos de las personas y no descarta una futura investigación a este respecto.

 

En conclusión, la Autoridad de Protección de Datos Personales de Italia ha prohibido el uso de una herramienta de inteligencia artificial llamada ChatGPT debido a supuestas violaciones de las regulaciones de protección de datos. Esta acción regulatoria destaca la importancia de cumplir con las normativas de protección de datos en el desarrollo de herramientas de inteligencia artificial, especialmente en lo que se refiere a la recopilación y el tratamiento de datos personales.

Los usuarios y las empresas deben ser conscientes de sus obligaciones legales y éticas al utilizar y desarrollar tecnologías de inteligencia artificial, para garantizar la privacidad y la protección de datos personales de los usuarios.

 

Además, esta acción regulatoria en Italia y el seguimiento de la Agencia Española de Protección de Datos pueden impulsar la necesidad de una regulación más estricta en el desarrollo y uso de tecnologías de inteligencia artificial en la Unión Europea y en todo el mundo. Es importante que las empresas de tecnología se comprometan a cumplir con los estándares éticos y legales en la recopilación y uso de datos personales, y que los reguladores apliquen sanciones efectivas en caso de violaciones de las normativas de protección de datos. De esta manera, se puede garantizar que las tecnologías de inteligencia artificial se desarrollen y se utilicen de manera responsable y ética para beneficio de la sociedad en su conjunto.

 

Si el contenido de este post ha sido de tu interés, no dudes en visitar nuestra sección de noticias. En la sección podrás encontrar información útil sobre el sector de la ciberseguridad y la transformación digital. Procesia se compromete en el día a día para lograr que ninguna empresa se quede atrás en este periodo de cambio que vivimos. Además, también puedes visitar nuestras redes sociales donde podrás encontrar todas las novedades del sector y podrás enterarte de todos los eventos importantes que se celebren en el ámbito digital.