Neurodatos y neurotecnología, ¿Cómo afecta a la privacidad y Protección de Datos?

Nuestra sociedad cada vez se encuentra más avanzada, sobre todo en lo que a nivel tecnológico se refiere, lo cual conlleva la existencia de Inteligencias Artificiales (IA) como el internet de los cuerpos , encontrándose dentro de este los datos cerebrales o neurodatos, que según la propia Agencia Española de Protección de Datos (AEPD) podrían llegar a identificar a los individuos, inferir estados emocionales, pensamientos o sentimientos, y revelar otras categorías especiales de datos.

Aunque pueda parecer que estamos hablando de un futuro, ya existen en el mercado interfaces cerebro-computador o también conocidos como Brain Computer Interface (BCI), se trata de dispositivos que son capaces de llevar a cabo una interacción directa entre cerebro y ordenador. Lo indicado lo realizan recogiendo y midiendo tanto las señales como la actividad del cerebro, para lo cual es indispensable contar con el software adecuado de captura y procesamiento, siendo esta neurotecnología incluso capaz de extraer características de interés relacionadas con las intenciones y estado mental del usuario, pudiendo llegar incluso a ejecutar acciones en consecuencia.

Contenido relacionado: La ciencia de datos, una aliada de la ciberseguridad

Si bien es cierto que las primeras aplicaciones creadas a este respecto, BCI, fueron creadas para pacientes con diferentes problemas neurológicos, actualmente existen una serie de aplicaciones neuro tecnológicas en el mercado con diversos fines no clínicos (Por ejemplo: Nextmind, Neurosky, etcétera). No obstante, el mayor campo de actuación de esta tecnología (a nivel no clínico) se está centrando en el desarrollo de videojuegos, siendo el público en mayor parte de ellos menores de edad, con el tratamiento de datos especialmente protegidos que esto conlleva.

¿Entonces ha de cumplir la IA y los neurodatos, con la normativa en materia de protección de datos?

El sector de la protección de datos es uno de los más afectados por el desarrollo y despliegue de estas tecnologías, principalmente porque la IA utiliza los datos de carácter personales durante todo su proceso, tanto de desarrollo como de uso.

Siendo la normativa en materia de protección de datos actualmente en vigor:

Se entiende por parte de la autoridad de control (AEPD) que, si es de aplicación dicha normativa, pues a parte de como ya hemos adelantado tratar datos de menores de edad, siendo estos datos especialmente protegidos (Art. 9 RGPD), también la información del cerebro es única y personal y permite la identificación personal a través de su anatomía cerebral (de manera semejante a una huella dactilar). Por lo tanto, para su tratamiento sería necesario levantar la prohibición que establece el artículo 9 del RGPD con alguna de las excepciones que dicho artículo contempla (por ejemplo, el consentimiento explícito).

Los datos cerebralesneurodatos podrían utilizarse además para inferir estados emocionales y cognitivos, procesos asociados con la personalidad, pensamientos o sentimientos. Incluso podrían revelar significativamente más información que la que es necesaria para la finalidad para la se supone se ha recogido.

Lea también: Principales predicciones de ciberseguridad para 2023-2024, según Gartner

Por lo indicado podemos comprobar que se realiza un tratamiento de datos de carácter personal, lo que hace que se haya de cumplir con la normativa en materia de protección de datos anteriormente referenciada (RGPD y LOPDGDD) y con los principios primordiales de dicha normativa:

Principio de licitud y transparencia

Como ya hemos adelantado para todo tratamiento se ha de contar con bases jurídicas en las que basar el tratamiento, si bien es cierto que en el caso concreto de las IA el uso del consentimiento puede resultar complicado teniendo en cuenta que el mismo debe ser específico, granular y libre.

Por otro lado, el cumplimiento del principio de transparencia exige que la información relativa al tratamiento sea fácilmente accesible y sencilla de comprender, lo cual puede resultar complicado para los responsables del tratamiento que empleen sistemas de IA, teniendo en cuenta la dificultad a la hora de entender y explicar dicha tecnología.

Principio de limitación de la finalidad

El desarrollo y uso de sistemas de IA requiere el acceso a información, pero el problema viene cuando esta ha sido recabada con otros fines, esta reutilización de la información puede facilitar el análisis de los datos para los responsables de la tecnología, pero estaría contraviniendo el principio indicado.

Principio de minimización de datos

Tal y como ya hemos analizado, el uso de sistemas basados en IA requiere hacer uso de mucha información, lo cual podría llegar a dificultar la posibilidad de establecer desde el inicio que información será necesaria para que se pueda garantizar el cumplimiento del principio.

Principio de exactitud

En este sentido, resultaría necesario garantizar la fiabilidad de los datos personales tratados, así como su posible actualización. Este principio se trata de un gran reto para los sistemas de IA.

Principio de responsabilidad proactiva

El responsable del tratamiento ha de cumplir con los principios establecidos en la normativa y además debe contar con la capacidad de demostrar dicho cumplimiento. Podría darse cumplimiento a este principio documentando y recogiendo la información suficiente para acreditar todo lo realizado por parte del responsable (por ejemplo: Registro de Actividades del Tratamiento, procedimientos internos, etcétera).

Lo invitamos a leer: Paradigmas tecnológicos sobre protección de datos personales

Además, se considera de relevancia el hecho de que los datos genéticos, considerados como una categoría especial de datos de carácter personal en el artículo 9 RGPD, comparten características y cualidades con los datos cerebrales o neurodatos. Tal y como indica la AEPD “el cerebro será un identificador tan único como una huella dactilar o un genoma”. Ambos exponen aspectos únicos y personales, que en la mayoría de los casos no son observables o conocidos por el propio individuo, lo cual puede ser un arma de doble filo, pues por un lado puede ayudar en la predicción de enfermedades o de patrones de comportamiento, pero a su vez si se utiliza con finalidades que no traen consigo la buena fe pueden ser muy peligrosas para el individuo.

Por lo que siempre hemos de tener en cuenta que la neurotecnología tiene el potencial de afectar no solo nuestra privacidad, sino también los derechos fundamentales ligados a ella como la libertad de pensamiento, la libertad de expresión, la integridad corporal, personalidad, la dignidad de las personas, la no discriminación y la equidad y la justicia.

FUENTE: Pérez Bastardo, Sandra. »Neurodatos y neurotecnología, ¿cómo afecta a la privacidad y protección de datos?» Legaltoday.com. 12/04/23. (https://www.legaltoday.com/opinion/blogs/nuevas-tecnologias-blogs/blog-prodat/neurodatos-y-neurotecnologia-como-afecta-a-la-privacidad-y-proteccion-de-datos-2023-04-12/).

Facebook
Twitter
LinkedIn
Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.