Expertos analizaron cómo usa ChatGPT los datos públicos de usuarios de Internet, ¿qué encontraron?

El grupo de trabajo encargado de determinar si los modelos de lenguaje grande (LLM, por sus siglas en inglés) de OpenAI, como ChatGPT, cumplen con un marco legal ha compartido unas conclusiones preliminares en relación con los datos públicos y la transparencia.

Esta primera aproximación a la legalidad de los LLM comparte algunas consideraciones sobre el procesamiento de los datos -que divide en cinco fases- y los derechos y las libertades fundamentales de los usuarios de la Unión Europea, en algunos casos con apuntes sobre las medidas adoptadas por la empresa tecnológica.

Las primeras tres fases, que abarcan desde la recogida de datos y el preprocesamiento de los datos hasta el entrenamiento, plantean riesgos a los derechos y las libertades fundamentales de los ciudadanos, ya que, según entiende el grupo de trabajo, los datos usados para el entrenamiento, muchas veces recogidos de publicaciones públicas en la web, pueden contener información personal, incluidos datos de categorías especiales recogidas en el RGPD como los que revelan el origen racial o étnico, las opiniones políticas, las convicciones religiosas, la afiliación sindical o incluso relativos a la salud y la orientación sexual.

Por ello, entienden la necesidad de que el proceso de recopilación debe encontrar un equilibrio en el que se tengan en cuenta tanto esos derechos y libertades de las personas como los intereses legítimos del responsable del tratamiento de los datos.

Lea también: IA y protección de datos

Y añaden la importancia de las medidas de seguridad y protección, que pueden incluir el establecimiento de un criterio para la recolección precisa de datos, así como evitar el procesamiento de categorías especiales de datos o incluso tecnologías para anonimizar los datos y eliminarlos si proceden de técnicas como el scraping o raspado, esto es, el uso de datos previamente recopilados en otros sitios web o aplicaciones.

Puntualizan, asimismo, el hecho de que algunos datos estén disponibles públicamente en la web no significa que la persona haya hecho esos datos públicos, y que por ello, para que su recopilación y procesamiento sean legales, especialmente en categorías especiales, es importante determinar si “tenía la intención, explícitamente y mediante una clara acción afirmativa, para que los datos personales en cuestión sean accesibles al público en general”.

El informe destaca, asimismo, que OpenAI permite el contacto directo vía ‘email’ para resolver cuestiones sobre sus derechos, y que los propios ajustes de la cuenta de usuario ya permiten ejercer algunos de los derechos de los ciudadanos.

Estas conclusiones preliminares llegan un mes después de que el Comité Europeo de Protección de Datos creada el grupo de trabajo centrado en ChatGPT en abril de 2023, siguiendo al anuncio de que autoridades nacionales en materia de protección de datos iban a investigar si OpenAI cumplía con la legalidad europea.

FUENTE: El Colombiano. »Expertos analizaron cómo usa ChatGPT los datos públicos de usuarios de Internet, ¿qué encontraron?» Elcolombiano.com. 28/05/2024. (https://www.elcolombiano.com/tecnologia/como-usa-chatgpt-datos-publicos-usuarios-internet-NL24588674).

Facebook
Twitter
LinkedIn
Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.