Opinión

Las Autoridades de Control de Protección de datos se preocupan por el ChatGPT

Estos días, estamos viendo el exponencial uso de Chat GPT, el cual cabe recordar que es una aplicación desarrollada por OpenAI con un modelo de lenguaje que utiliza inteligencia artificial para responder a preguntas como si de una conversación humana se tratara, por lo que, destaca por su capacidad de comprensión y generación de lenguaje natural. 

Sin embargo, también estamos viendo que, al nutrirse de las preguntas de los usuarios, las cuales pueden contener datos de carácter personal, su posible difusión y, sobre todo, el tratamiento de un volumen de datos a gran escala de forma masiva, varias Autoridades de Control de Protección de Datos, están realizando investigaciones o, incluso la Autoridad italiana bloqueando su uso.

El pasado jueves 13, la Agencia Española de Protección de Datos, AEPD, ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa. Al igual que el Comité Europeo de Protección de Datos, que ha creado un grupo de trabajo sobre ChatGPT, el Task Force.

El objetivo del grupo de trabajo es promover la cooperación y el intercambio de información sobre posibles iniciativas para la aplicación del Reglamento Europeo de Protección de Datos, RGPD, llevadas a cabo por las distintas Autoridades de Protección de Datos, puesto que, es necesaria una acción coordinada al afectar a todos los países por igual, primero por uso en los respectivos territorios y, segundo, porque en todos ellos, se aplica la misma norma, el RGPD, independientemente de la norma nacional que desarrolle el mismo.

En este sentido, algunas de las cuestiones que se le están requiriendo son:

Facilita y poner a disposición en su sitio web una información transparente, que explique los métodos y la lógica que subyace en el procesamiento de los datos necesarios para el funcionamiento de ChatGPT. 

Siempre antes de completar el registro, se les debe solicitar que declaren que son mayores de edad, así como la implementación de un sistema de verificación de edad, capaz de excluir el acceso a usuarios menores de trece años y menores de edad que no tengan el consentimiento de los padres.

Debe haber herramientas útiles para permitir a los interesados, incluidos los no usuarios, solicitar la rectificación de los datos personales que les conciernen generados inexactamente por el servicio o la cancelación de los mismos, si la rectificación no es técnicamente posible. Además, deberá permitir a los no usuarios interesados ​​ejercer, de forma sencilla y accesible, el derecho a oponerse al tratamiento de sus datos personales utilizados para el ejercicio del algoritmo.

5.500 expertos de todo el mundo publicaron una carta abierta en la que abogaban por pausar durante un tiempo los experimentos con la IA más potente y avanzada —la llamada ‘generativa’ y que es capaz de crear textos o imágenes a partir de datos ya existentes— ante los riesgos que puede entrañar para la sociedad.

Posteriormente, investigadores de varias instituciones académicas y científicas, entre las que están las universidades de Cambridge, Harvard, Stanford, Shandong (China), la Politécnica de Valencia, el Imperial College London, el Instituto Tecnológico de Massachusetts (MIT) y varias empresas, entre ellas Google o la británica DeepMind, una de las mayores multinacionales del sector de la inteligencia artificial, afirman en la revista Science, que la Inteligencia Artificial no es la que genera sesgos, prejuicios o discriminaciones, pero sí que refleja los mismos, si las decisiones humanas llevadas a cabo para “entrenar” las respuestas del ChatGPT adolecen de ellos.

Te puede interesar