La autoridad de protección de datos de Francia (CNIL), presenta un plan de acción ante la Inteligencia Artificial generativa

La autoridad francesa de protección de datos (CNIL, por su abreviatura original), ha presentado un plan de acción en relación con el despliegue de los sistemas de IA, en particular de los basados en grandes modelos de lenguaje, como ChatGPT, a fin de establecer normas claras que protejan los datos personales de los ciudadanos europeos para contribuir al desarrollo de sistemas de IA respetuosos con la privacidad.

Este plan está impulsado por la creciente preocupación global despertada por el rapidísimo desarrollo de la IA generativa, los grandes modelos lingüísticos y sus aplicaciones derivadas (incluidos los chatbots). El vertiginoso desarrollo de esta IA durante los últimos meses, ya sea en el campo del texto y la conversación, a través de grandes modelos de lenguaje (LLM) como GPT-3, BLOOM o Megatron NLG y los chatbots derivados (ChatGPT o Bard), o en el campo de las imágenes (Dall-E, Midjourney, Stable Diffusion, etc.) o el habla (Vall-E), están dando lugar a su aplicación en diversos sectores. Sin embargo, la comprensión de su funcionamiento, sus posibilidades y sus límites, así como las cuestiones jurídicas, éticas y técnicas que rodean su desarrollo y utilización siguen siendo objeto de un amplio debate.

En particular, la protección de los datos personales es una cuestión primordial para el diseño y el uso de estas herramientas.

Por ello, este plan de acción presentada por la CNIL se basa en cuatro objetivos: 1. Comprender el funcionamiento de los sistemas de IA y su impacto en las personas; 2. permitir y supervisar el desarrollo de sistemas de IA que respeten la privacidad; 3. Federar y apoyar a los actores innovadores del ecosistema de la IA en Francia y en Europa y, 4. Auditar y controlar los sistemas de IA y proteger a las personas.

1. Comprender el funcionamiento de los sistemas de IA y su impacto en las personas

  • Las técnicas innovadoras utilizadas para el diseño y el funcionamiento de las herramientas de IA plantean nuevas cuestiones en materia de protección de datos, en particular:
  • La equidad y transparencia del tratamiento de datos subyacente al funcionamiento de estas herramientas
  • La protección de los datos accesibles al público en la web frente al uso del data harvesting, o scraping, para el diseño de herramientas
  • La protección de los datos transmitidos por los usuarios cuando utilizan estas herramientas, desde su recogida (a través de una interfaz) hasta su posible reutilización, incluido su tratamiento por algoritmos de aprendizaje automático;
  • Las consecuencias para los derechos de las personas sobre sus datos, tanto en lo que se refiere a los datos recogidos para el aprendizaje de modelos como a los datos que puedan proporcionar estos sistemas, como los contenidos creados en el caso de la IA generativa;
  • La protección contra los prejuicios y la discriminación que puedan surgir;
  • Las cuestiones de seguridad sin precedentes de estas herramientas.

2. Permitir y supervisar el desarrollo de una IA que respete los datos personales

Numerosos actores han informado a la CNIL de la incertidumbre que rodea la aplicación del RGPD a la IA, en particular para la formación de la IA generativa.

Lea también: Reforma de la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales de España

Para acompañar a estos actores en el ámbito de la inteligencia artificial y preparar la entrada en vigor del reglamento europeo sobre IA (actualmente en debate a nivel europeo y sobre el que la CNIL y sus homólogos europeos habían publicado un dictamen en 2021), la CNIL propone ya:

  • Unas primeras fichas informativas sobre la IA, publicadas en 2022 en cnil.fr, que incluyen en particular contenidos pedagógicos sobre los grandes principios de la IA y una guía de apoyo a los profesionales en su cumplimiento;
  • Una posición, también publicada en 2022, sobre el uso de la videovigilancia «aumentada» que utiliza la IA en imágenes del espacio público.

3. Federar y apoyar a los actores innovadores del ecosistema de la IA en Francia y en Europa

La regulación sobre la IA que propone la CNIL pretende ayudar a los actores del sector a surgir, promocionarse y prosperar en un marco fiel a los valores de protección de los derechos y libertades fundamentales franceses y europeos. Este apoyo, que ya está en marcha, adopta tres formas:

  • Hace dos años, la CNIL puso en marcha un entorno de pruebas controlado (sandbox) para apoyar proyectos y actores innovadores, lo que la llevó a centrarse en proyectos basados en la IA en los sectores de la salud y la educación. La CNIL abrirá próximamente una nueva convocatoria de proyectos para la edición de 2023, que versará especialmente sobre el uso de la inteligencia artificial en el sector público;
  • Ha puesto en marcha un programa específico de apoyo a los proveedores de videovigilancia «aumentada» en el marco de la experiencia prevista por la ley sobre los Juegos Olímpicos y Paralímpicos de 2024;
  • Por último, en 2023, la CNIL abrió un nuevo programa de «apoyo reforzado» para ayudar a las empresas innovadoras en su cumplimiento del RGPD: los primeros ganadores de este apoyo reforzado son empresas innovadoras en el campo de la IA.

4. Auditar y controlar los sistemas de IA y protección de las personas

En este sentido, la acción de control de la CNIL se centrará en particular en:

  • El cumplimiento de la posición sobre el uso de la videovigilancia «aumentada», publicada en 2022, por parte de los agentes públicos y privados
  • El uso de la inteligencia artificial en la lucha contra el fraude, por ejemplo en la lucha contra el fraude a la seguridad social, en lo que respecta a las cuestiones relacionadas con el uso de dichos algoritmos
  • La investigación de las denuncias presentadas ante la CNIL. Si es necesario aclarar el marco jurídico de la formación y utilización de la IA generativa, cosa que hará la CNIL, ya se han presentado denuncias.

En concreto, la CNIL ha recibido varias denuncias contra la empresa OpenAI, que gestiona el servicio ChatGPT, y ha abierto un procedimiento de control. Paralelamente, se ha creado un grupo de trabajo específico en el Comité Europeo de Protección de Datos (SEPD) para garantizar un enfoque coordinado de las autoridades europeas y un análisis armonizado del tratamiento de datos efectuado por la herramienta OpenAI.

FUENTE: Fernández, Carlos. »La autoridad de protección de datos francesa presenta un plan de acción ante la Inteligencia Artificial generativa» Diariolaley.laleynext.es. 16/05/2023. (https://diariolaley.laleynext.es/dll/2023/05/16/la-autoridad-de-proteccion-de-datos-francesa-presenta-un-plan-de-accion-ante-la-inteligencia-artificial-generativa).

Facebook
Twitter
LinkedIn
Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.