Claves en ciberseguridad de la Ley de Inteligencia Artificial

La nueva Ley de IA aprobada recientemente por el Parlamento Europeo establece un marco sin precedentes que impacta significativamente en la ciberseguridad y el desarrollo tecnológico. Tanto si se trata de escaneo de un currículum con sesgo de género, como de vigilancia omnipresente en el espacio público con cámaras impulsadas por IA, o de análisis invasivos de datos médicos que afectan a un seguro de salud, esta ley pretende establecer límites claros para su despliegue, de modo que los vendedores y desarrolladores dispongan de algunas directrices y límites.

Lea también: El Parlamento Europeo aprueba la primera ley de inteligencia artificial del mundo: claves de la regulación

Uno de sus aspectos más relevantes es que, dado el rápido desarrollo de tecnologías como ChatGPT y el establecimiento de estándares de transparencia y protección de derechos de autor, muestra la importancia de adaptarse a sistemas que aún no son imaginables en el futuro. Teniendo en cuenta estas nuevas regulaciones, Check Point Software destaca aspectos clave de la legislación de la UE sobre IA en relación con la ciberseguridad:

Directrices de desarrollo y despliegue más estrictas:

Los desarrolladores e implantadores de IA tendrán que seguir unas directrices estrictas, garantizando que los sistemas de IA se desarrollen pensando en la seguridad. Esto significa incorporar medidas de ciberseguridad desde el principio, centrarse en prácticas de codificación seguras y garantizar que los sistemas de IA sean resistentes a los ataques.

Responsabilidad en incidentes de seguridad:

Es probable que la Ley incluya disposiciones para responsabilizar a las empresas por brechas de seguridad que involucren sistemas de IA. Esto requeriría protocolos de respuesta ante incidentes más estrictos y que los sistemas de IA cuenten con mecanismos avanzados para detectar y reaccionar ante incidentes de ciberseguridad.

Prevención del uso malintencionado de la IA:

La Ley busca evitar el uso de la IA con fines malintencionados, como la creación de deepfakes o la automatización de ciberataques, regulando ciertos usos de la IA. Además, contribuye a que haya una estrategia de ciberseguridad más amplia que reduce el riesgo de que se utilice como herramienta en ciberguerra y cibercrimen.

Mitigación de sesgos y discriminación:

Al tratar los riesgos de sesgo y discriminación en los sistemas de IA, la Ley también beneficia indirectamente a la ciberseguridad. Los sistemas que son justos e imparciales tienen menos probabilidades de ser explotados a través de sus vulnerabilidades. Al abordar los riesgos de parcialidad y discriminación en los sistemas de IA, la Ley contribuye indirectamente a la ciberseguridad. Garantizar que los sistemas de IA se entrenen con conjuntos de datos diversos y representativos puede reducir el riesgo de ataques que exploten procesos de toma de decisiones sesgados.

Más transparencia:

Exigencia de una mayor transparencia en las operaciones de IA, especialmente para las de alto riesgo. Esto podría significar una divulgación más detallada de los datos utilizados para entrenar los sistemas de IA, los procesos de toma de decisiones de la IA y las medidas adoptadas para garantizar la privacidad y la seguridad. La transparencia ayuda a identificar vulnerabilidades y a mitigar posibles amenazas.

Auditorías de certificación y conformidad:

Los sistemas de IA de alto riesgo tendrán que someterse a rigurosas pruebas y certificaciones que garanticen que cumplen las normas de seguridad de la UE, incluida la ciberseguridad. Las auditorías de conformidad garantizarán además que los sistemas de IA se adhieran continuamente a estas normas a lo largo de su ciclo de vida.

Fomento de la investigación y colaboración:

La ley promueve la investigación y colaboración en IA y ciberseguridad, apoyando el desarrollo de tecnologías y estrategias para proteger contra amenazas emergentes.

“La transparencia se considera un principio básico del planteamiento de la UE, especialmente en lo que respecta a la IA generativa”, afirma Peter Sandkuijl, vicepresidente del departamento de ingeniería de EMEA de Check Point Software. “La atención inicial recaerá en las cuantiosas multas impuestas, sin embargo, ese no debe ser el foco principal; a medida que las leyes sean aceptadas, seguirán siendo probadas y juzgadas en los tribunales de justicia, sentando precedentes para futuros infractores. Tenemos que entender que esto tardará en materializarse, lo que en realidad puede ser más útil, aunque no sea un objetivo final”.

FUENTE: Seguridad. »Claves en ciberseguridad de la Ley de Inteligencia Artificial» Ituser.es. 18/03/2024 (https://www.ituser.es/seguridad/2024/03/claves-en-ciberseguridad-de-la-ley-de-inteligencia-artificial).

Facebook
Twitter
LinkedIn
Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.