- Bogota D.C - Calle 67 N° 7-94 Oficina 604
- 3138834959 - 601 7953297 Ext. 120
La Comisión Europea ha presentado hoy su legislación sobre Inteligencia Artificial. Se trata del primer marco legal sobre esta tecnología, que además llega acompañada de otra normativa sobre maquinaria y robots. Una nueva normativa sobre IA que quiere «garantizar la seguridad» y «fortalecer la inversión en IA en la Unión Europea», creando varios niveles de riesgo y prohibiendo el reconocimiento facial en determinadas situaciones.
Margrethe Vestager, comisaria europea de Competencia, explica que esta nueva legislación sobre IA actuará «cuando los derechos fundamentales estén en juego», apuntando que se regulan determinados usos de la IA pero prometiendo dejar margen para la innovación.
Aquí os explicamos cuál es el enfoque del nuevo marco sobre Inteligencia Artificial, qué se establece para el uso de tecnologías como el reconocimiento facial y qué dudas se plantean sobre esta nueva normativa.
La propuesta de la Comisión Europa para regular la inteligencia artificial establece cuatro niveles de riesgo e informa que las normas deberán ser implementadas por todos los Estados Miembros por igual, quedando excluidos de la normativa los usos de la IA a nivel militar.
En el máximo nivel se encuentra el «riesgo inaceptable». Se trata de aquellos sistema de IA considerados una «amenaza para la seguridad, los medios de vida y los derechos de las personas». Aquellos sistemas de IA que se engloben aquí serán prohibidos.
Entre los ejemplos que la Comisión expone está por ejemplo un sistema de IA que manipule el comportamiento humano e incite a la violencia, por ejemplo un juguete con asistencia de voz que fomente el comportamiento peligroso de los menores. También se incluye aquí un sistema de «puntuación social» por parte de los gobiernos para diferenciar a los ciudadanos.
En un segundo punto de «alto riesgo» se incluyen usos de la IA en infraestructuras críticas que puedan afectar a la salud de los ciudadanos, IA para afectar a la educación y por ejemplo permita hacer trampas en exámenes, componentes en cirugía, sistemas de reclutamiento de personal, servicios públicos, legislación, inmigración o IA para la administración o justicia.
En todos estos ámbitos, la IA deberá estar sujeta a obligaciones estrictas, entre las que se incluye un análisis de riesgos, trazabilidad de resultados, documentación detallada, supervisión humana y un alto nivel de robustez.
En un nivel más bajo, de «riesgo limitado» se incluyen los sistemas como chatbots, que deberán tener un mínimo nivel de transparencia y donde los usuarios deberán ser advertidos que están hablando con una máquina.
En el riesgo mínimo se engloba el resto de usos, para videojuegos, aplicaciones de imagen u otros sistemas de IA que no implican riesgos. En estos casos, la nueva normativa no especifica ninguna medida.
Europa quiere impulsar el desarrollo de estándares para la IA y propone a las distintas organizaciones nacionales que supervisen esta normativa. Adicionalmente, desde la Comisión invitan a la creación de códigos voluntarios de conducta para los sistema de IA sin riesgos.
La Eurocámara y los distintos gobiernos de la Unión Europea todavía tienen que aprobar este nuevo reglamento, un proceso que podría alargar más de un año la implementación de estas medidas.
Todos los sistemas de «identificación biométrica remota» serán considerados de alto riesgo. La Comisión Europea no ha decidido prohibir directamente los sistemas de reconocimiento facial, aunque sí describe que aplicará requisitos estrictos como los nombrados anteriormente.
La Comisión establece que el reconocimiento facial tendrá en principio prohibido su uso en zonas públicas y en directo como aplicación de la ley. Es decir, las autoridades no podrán utilizar el reconocimiento facial para prevenir posibles delitos, pero sí hay algunas excepciones: «por ejemplo, cuando sea estrictamente necesario para buscar un niño desaparecido, para prevenir una amenaza terrorista específica e inminente o para detectar, localizar, identificar o enjuiciar a un perpetrador o sospechoso de un delito grave«.
Estos usos concretos estarán «sujetos a la autorización de un órgano judicial u otro organismo independiente y a los límites adecuados en el tiempo, el alcance geográfico y las bases de datos buscadas».
La organización European Digital Rights (EDRi) expresa que es «una gran victoria que la Comisión reconozca la necesidad de líneas rojas«.
Respecto al reconocimiento facial, EDRi cree que cada vez era más difícil de justificar el no prohibir la vigilancia masiva biométrica y el hecho de prohibirlo en la calle significa que se han escuchado algunas solicitudes. Sin embargo, la prohibición tiene algunas excepciones y no va «suficiente lejos».
«Muchos de los usos más dañinos no están prohibidos, como la vigilancia policial predictiva, los usos de la IA para el control de la migración, la categorización biométrica de raza, género, sexualidad y también la vigilancia de los trabajadores, que siguen siendo de «alto riesgo»», explican desde EDRi.
La Comisión ha optado por crear un apartado específico para el reconocimiento facial. Un limbo entre la categoría de «alto riesgo» y la de «prohibido con excepciones».
Entre las dudas que surgen está la definición de «remoto» o «en tiempo real», que podría abrir la puerta a determinados sistemas de reconocimiento como por ejemplo vía drones cerca de los manifestantes, cámaras en los policías o sistemas que no sean en directo. En esta dirección, habrá que esperar hasta la implementación de la ley en las legislaciones nacionales para conocer mejor qué tipo de excepciones al reconocimiento facial serán legales.
Inscríbete ahora y sé el primero en recibir todas las novedades y actualizaciones exclusivas de nuestra página
Recibe información gratuita y personalizada
Protegemos el activo más importante de tu compañía: ¡Los Datos!