La AEPD lanza una nueva versión de su herramienta Gestiona RGPD 

La AEPD ha lanzado una nueva versión de Gestiona RGPD, una herramienta que ayuda a gestionar tratamientos de datos personales, evaluar y gestionar los riesgos mediante un catálogo de medidas de privacidad y, en caso de que fuera necesario, asistir en la realización de evaluaciones de impacto. Gestiona RGPD está orientada a responsables y encargados del tratamiento, así como a delegados de protección de datos. La nueva versión amplía el catálogo de medidas de privacidad aplicables para mitigar los riesgos identificados en el tratamiento e incluye mejoras en la edición de los informes finales, entre otras posibilidades.  El Reglamento General de Protección de Datos (RGPD) establece que las organizaciones que tratan datos personales deben llevar un Registro de Actividades (RAT) e identificar y gestionar los riesgos que esos tratamientos pueden tener para los derechos y libertades de las personas cuyos datos se están tratando. El objetivo es seleccionar e implantar las medidas adecuadas para minimizar cada riesgo detectado. A la vez, cuando ese análisis revela que existe un riesgo alto para la protección de las personas, el RGPD establece que esas organizaciones deben llevar a cabo una evaluación de impacto en la protección de datos (EIPD). Podría interesarle: Bruselas ya tiene la opinión de empresas y expertos sobre cómo mejorar el RGPD tras 5 años en vigor, y muchas miradas se dirigen a Irlanda En la nueva versión de Gestiona se pasa de más de 500 medidas a casi 800 clasificadas en función de los factores de riesgo previamente identificados por la entidad, incluyendo también aspectos como la gobernanza, seguridad y brechas de datos. De esta forma, la selección factores de riesgo y medidas para mitigarlos constituyen un amplio punto de partida para los procesos de identificación y gestión del riesgo que son necesarios para cumplir con el enfoque de riesgos que recoge el RGPD. Asimismo, Gestiona es una herramienta de utilidad para aquellas organizaciones que necesitan iniciarse en la realización de Evaluaciones de Impacto en Protección de Datos personales cuando, del análisis de riesgos realizado se desprenda que el tratamiento puede suponer un alto riesgo para los derechos y libertades de las personas cuyos datos se tratan. La gestión del tratamiento se realiza en el dispositivo del usuario a través de su navegador, sin instalar ningún tipo de aplicación, almacenando la información de forma local, permitiendo gestionar los datos de distintos responsables y sin transmitir información a la Agencia, o a terceros, garantizando la confidencialidad. La información se puede almacenar en un archivo en el ordenador del usuario y recuperar después de cada sesión, permitiendo distintas versiones. La nueva versión incluye mejoras en la edición de los informes que arroja la herramienta cuando se culmina el proceso. Además, la Agencia ha realizado un análisis de las consultas que le han planteado los responsables de tratamiento y ha incluido respuestas a todas ellas en una nueva guía de usuario que incluye cuestiones relacionadas con el alcance de la herramienta, el almacenamiento y conservación de la información procesada o las medidas para mitigar de los factores de riesgo identificados. FUENTE: »La AEPD lanza una nueva versión de su herramienta Gestiona RGPD » Merca2.es. 23/05/2024. (https://www.merca2.es/2024/05/23/aepd-herramienta-gestiona-rgpd-1683993/).

IA y protección de datos

El extensivo uso de la inteligencia artificial (IA) en diferentes sectores, el boom de ChatGPT, la declaración de Bletchley sobre IA, la resolución adoptada en marzo de 2024 por la Asamblea General de la ONU sobre IA y el reciente Reglamento Europeo de Inteligencia Artificial, son algunos elementos que muestran el interés y los desafíos de la IA incluyendo los desafíos relacionados con la protección de datos personales. La IA significa en muchos casos recolección y análisis de grandes volúmenes de información. Esto implica tensiones y retos en relación con la protección de datos personales. La IA permite, por ejemplo, la toma de decisiones automatizada y dichas decisiones pueden ser erróneas o discriminatorias. También hay dudas sobre la vigilancia, y evaluación persistente de la información de las personas que ocurre con el uso de IA. Algunas técnicas avanzadas de IA incluso podrían identificar a individuos a partir de datos anonimizados Lea también: La importancia de la protección de datos personales en el uso de las redes sociales Además, puede haber tensiones respecto del requisito de la finalidad del tratamiento de la data personal teniendo en cuenta que con la IA los datos personales pueden ser tratados con finalidades distintas a las inicialmente autorizadas. También puede ser complejo explicar a los titulares de los datos el tratamiento al que van a ser o han sido sujetos sus datos personales bajo uso de IA o incluso en algunos casos no es posible saber cuál es el proceso de toma de decisiones de la IA. Así por ejemplo la Superintendencia de Industria y Comercio (SIC) inició en 2023 una investigación para establecer si ChatGPT cumple con la regulación colombiana respecto de la PDP. En todo caso, no son solamente ChatGPT y los gigantes tecnológicos los que usan IA. De acuerdo con un estudio de McKinesey publicado el 1 de agosto de 2023 sobre “El estado de la IA en 2023: El año clave de la IA generativa”, la mayoría de los encuestados afirman que en sus organizaciones han adoptado la IA. Ahora bien, en Colombia, no hay una regulación especifica sobre la protección de la iinformación bajo el uso de IA. En cualquier caso, la Red Iberoamericana de Protección de Datos, a la cual hace parte la SIC, publicó en 2019 unas recomendaciones para el tratamiento de datos en la IA. Podría interesarle: ¿Cómo Proteger la Voz de una Persona? En este contexto, las empresas deberían adoptar medidas y buenas prácticas para el tratamiento de datos en uso de la IA pensando en que los titulares del tratamiento de datos son sus stakeholders. Dentro de estas medidas, las empresas pueden, entre otros aspectos, (i) implementar evaluaciones para identificar riesgos de privacidad antes de usar IA, (ii) adoptar de códigos de conducta alineados con sus modelos de gobernanza e (iii) incluir la transparencia como principio rector. En todo caso, los desafíos de IA y el tratamiento de datos personales y las prácticas que se adopten deben tener una visión no solo local. Esto teniendo en cuenta que el tratamiento de datos en muchos casos puede tener implicaciones transfronterizas (transmisión y tratamiento de datos por ejemplo) e involucrar distintas jurisdicciones. FUENTE: Mahecha Parra, Daniela. »IA y protección de datos» Asuntoslegales.com. 22/05/2024. (https://www.asuntoslegales.com.co/analisis/daniela-perez-mahecha-2721442/ia-y-proteccion-de-datos-3865271).

La importancia de la protección de datos personales en el uso de las redes sociales

A partir del enorme crecimiento de las redes sociales, es importante tomar en cuenta el uso de las mismas en los sorteos en los que participamos a través de ellas, tomando en cuenta que muchas veces necesitamos inscribirnos compartiendo nuestros datos personales como nombres, documentos de identidad y formas de contacto (correos electrónicos y números celulares). Todo el proceso (la solicitud de la información) es materia de protección por parte de la ley, siendo necesario nuestro consentimiento el cual debe contener la finalidad para el uso de nuestros datos personales, la seguridad que se brindará a los mismos, entre otras cosas. Entonces, cuando estamos frente a sorteos realizados en redes sociales o en general haciendo uso del Internet, todo aquello debe cumplir con requisitos y obligaciones que están en la Ley de Protección de Datos Personales (Ley 29733), por lo que de percibir que nuestros datos están siendo utilizados con fines contrarios a nuestros deseos o intereses podemos acudir a la Autoridad Nacional de Protección de Datos Personales (ANPD) mediante una denuncia de manera presencial o virtual a través de un formulario que puedes encontrar en el enlace siguiente: https://www.gob.pe/9271-denunciar-el-mal-uso-de-datos-personales Lea también: Siete claves para garantizar la seguridad de los datos en una empresa Es importante considerar principalmente que, frente a un sorteo nuestro consentimiento debe ser expreso y sin lugar a dudas, además debemos conocer el cómo manejarán nuestra información, poder identificar plenamente a los organizadores, el plazo en el que serán conservados nuestros datos personales y una indicación clara de la manera en la que podamos hacer llegar nuestros reclamos o dudas al respecto. El uso no autorizado de nuestra información personal no es cosa de broma, solo en el sector educación (colegios, centros de idiomas, institutos superiores, universidades) desde el 2019 el monto de las multas supera los tres millones y medio de Soles por el mal uso de información personal (incluso imágenes) sin consentimiento. Las multas impuestas únicamente durante el 2023 superaron los siete millones de Soles. FUENTE: Balta, Pedro en Revista Economía. »La importancia de la protección de datos personales en el uso de las redes sociales» Revistaeconomia.com. 17/05/2024. (https://www.revistaeconomia.com/la-importancia-de-la-proteccion-de-datos-personales-en-el-uso-de-las-redes-sociales/).

Siete claves para garantizar la seguridad de los datos en una empresa

La seguridad de datos es crítica en la gestión empresarial moderna, abarcando prácticas y tecnologías para proteger contra accesos no autorizados, corrupción o robo. Sus desafíos son variados y están en constante evolución debido al avance tecnológico. En el último año, según un estudio de Kaspersky, las pequeñas y medianas empresas (pymes) peruanas han sido las más afectadas con al menos 9.6 millones de intentos de ataques de malware. Según el informe Global Cybersecurity Outlook 2023 del Foro Económico Mundial (WEF por sus siglas en inglés), más del 90 % de los expertos en seguridad y el 86 % de los líderes empresariales creen que es probable un «evento cibernético catastrófico y de gran alcance» en los próximos dos años. Hugo Sánchez, CEO de Qlever, sostiene que este dato puede evidenciar la urgente necesidad de adoptar estrategias efectivas de seguridad de datos. “Por ejemplo, en el caso de las pequeñas y medianas empresas (pymes), implementar robustas medidas de seguridad de datos no solo protege su información vital sino que también salvaguarda su reputación y viabilidad financiera. Asimismo, los desafíos en la seguridad de los datos son variados y están en constante evolución debido al avance tecnológico”, comenta. Consejos a tomar en cuenta Para las pymes elegir las soluciones adecuadas implica comprender sus necesidades específicas de seguridad, la naturaleza de los datos que manejan y los requisitos legales de su sector. La implementación de estas soluciones debe ser parte de una estrategia integral de seguridad que incluya tanto medidas tecnológicas como prácticas organizativas. En ese sentido, Sánchez explica siete soluciones clave que pueden servir como pilares fundamentales en la construcción de un entorno seguro para la gestión de datos: Lea también: ¿Qué son las Pruebas de Penetración (Pentest)? La creciente relevancia de la ciberseguridad destaca la necesidad de que las empresas inviertan más en protección contra ataques cibernéticos, ya que los ciberdelincuentes desarrollan métodos maliciosos exponencialmente. Para mitigar estos riesgos, es crucial considerar el uso de la nube y la modalidad Software as a Service (SaaS).  FUENTE: »Siete claves para garantizar la seguridad de los datos en una empresa» Andina.pe. 25/05/2024. (https://andina.pe/agencia/noticia-siete-claves-para-garantizar-seguridad-los-datos-una-empresa-986957.aspx).

Telefónica investiga la supuesta filtración de datos de 120.000 clientes y empleados

Telefónica está investigando una posible filtración de datos de 120.000 clientes y empleados que se habría producido en marzo y que no habría afectado a datos sensibles. El incidente se ha conocido porque un usuario en un foro de hackers ha comenzado a ofrecer la base de datos, que incluye más de 2,6 millones de registros, entre ellos nombres completos, números de teléfonos y direcciones físicas y de mails de los afectados, tal y como destapó la empresa de ciberseguridad HackManac en sus redes sociales y recoge El Mundo. Desde la compañía han confirmado y se está tratando de determinar el grado de exactitud de las afirmaciones del hacker, así como dónde se habría producido la supuesta brecha de seguridad, que podría ser en un tercer proveedor. En cualquier caso, la información presentada por el cibercriminal no incluye ningún tipo de registro sensible, como podrían ser las cuentas bancarias de los afectados, y la empresa no se encuentra en estos momentos afectadas por ningún ciberataque. Podría interesarle: «Escalofriante»: Científicos de todo el mundo denuncian que la Unión Europea amenaza con impulsar la «vigilancia masiva» en Internet De confirmarse la vulneración de estos datos, el de Telefónica sería el segundo caso de un ataque informático que afecta a una empresa del Ibex en el último mes. A mediados de mayo, Santander comunicó que había sufrido un «acceso no autorizado» a datos de clientes, así como de todos los empleados y algunos exempleados del grupo de sus filiales en España, Chile y Uruguay. La entidad reaccionó implementado «de inmediato medidas para gestionar el incidente, como el bloqueo del acceso a la base de datos y un refuerzo de la prevención contra el fraude para proteger a los clientes». En cualquier caso, Santander subrayó que el acceso afectó a «una base de datos de la entidad alojada en un proveedor» y que en ella no había «información transaccional ni credenciales de acceso o contraseñas de banca por internet que permitan operar con el banco», por lo que los clientes pudieron seguir operando con seguridad en todo momento. FUENTE: Expansión – Madrid. »Telefónica investiga la supuesta filtración de datos de 120.000 clientes y empleados» Larepublica.co. 28/05/2024. (https://www.larepublica.co/globoeconomia/telefonica-investiga-una-supuesta-filtracion-de-datos-de-120-000-clientes-y-empleados-3869731).

MinTic radicó un nuevo proyecto de Ley para transformar el uso de datos en el país

Este miércoles, el Ministerio de Tecnologías de la Información y Comunicaciones, radicó un nuevo proyecto de ley que busca transformar el uso de datos en el país. «Es un proyecto de ley muy importante para el país, realmente va a evolucionar todo el desarrollo tecnológico, porque la base para convertirnos en una potencia digital, pero en especial en ser un país líder en inteligencia artificial, tiene que tener un insumo muy importante que son, los datos», indicó el ministro, Mauricio Lizcano. De acuerdo con MinTic, es necesario contar con un acceso, uso y apropiación de la información y las tecnologías digitales, para avanzar en la formulación de políticas públicas, diseño de programas sociales, la investigación y el desarrollo social, económico y cultural. Podría interesarle: Estas son las estrategias nacionales de ciberseguridad de los países de Latinoamérica «Hoy presentamos un proyecto de Ley para desarrollar que todas las entidades públicas, tengan que producir datos: maestros, de referencia, geoespaciales y de otro tipo de que se necesitan para la toma de decisiones públicas, para la inteligencia artificial y para que sea un gobierno abierto de datos abiertos», agrega Lizcano. Según el ministerio, el objetivo de esta nueva ley es establecer normas para el uso y intercambio de la Infraestructura del Estado Colombiano, Idec, asegurar la interoperabilidad de los sistemas de información públicos, y gestionar la disponibilidad y gobernanza de la información básica, maestros, de referencia y abiertos del Estado. La Ley aplicará a las entidades que conforman la administración pública, según el artículo de la Ley 489 de 1998 y a los particulares que cumplen funciones administrativas, públicas o que administren recursos del Estado. Componentes para el uso e intercambio de datos y la interoperabilidad a) La estrategia y gobernanza de la infraestructura de información del Estado.b) Las herramientas técnicas y tecnológicas.c) La interoperabilidad de la infraestructura de la data.d) La seguridad y privacidad de la infraestructura de datose) El aprovechamiento de los datos Beneficios: FUENTE: »MinTic radicó un nuevo proyecto de Ley para transformar el uso de datos en el país» Larepublica.co. 22/05/2024. (https://www.larepublica.co/economia/mintic-radico-proyecto-de-ley-del-uso-de-datos-3865910).

Fintech: ¿Suficiente blindaje para la protección de datos?

Las fintech en México están reguladas por la CNBV y deben seguir estrictas normas de protección de datos y seguridad cibernética. Conoce más sobre las responsabilidades y las nuevas iniciativas legislativas para reforzar la ciberseguridad. Para operar como una Institución de Tecnología Financiera (ITF) o fintech, es necesario conseguir una autorización especial, otorgada por la Comisión Nacional Bancaria y de Valores (CNBV). Por tal motivo, la CNBV efectúa visitas de inspección a las ITF para revisar, verificar, comprobar y evaluar las actividades que realizan. Una vez implementada la Ley FinTech en 2018, este tipo de empresas adquirió un nuevo estatus legal. No solo se regularon sus servicios financieros, sino que fueron reconocidas como personas físicas o morales de carácter privado, responsables de diversos tratamientos de datos personales. Este cambio normativo implicó una serie de obligaciones, como dar cumplimiento a la normativa en protección de datos personales que establece la Ley Federal de Protección de Datos Personales en Posesión de Particulares y su Reglamento. De esta forma, las personas físicas o morales privadas que traten datos personales en sus actividades financieras deben cumplir una serie de obligaciones, con objeto de garantizar a los titulares el derecho a la protección de su información personal.  ¿Son adecuadas las medidas actuales para la protección de datos? Según Felipe Vallejo, presidente de la Asociación FinTech México, es necesario implementar medidas e iniciativas legislativas adicionales para fortalecer el marco regulatorio, especialmente en un contexto de constante evolución en ciberseguridad. Vallejo explicó que, aunque el cumplimiento de la ley es fundamental para que las empresas fintech protejan a los usuarios, la industria también debe adherirse a estándares internos, como los test de penetración, para garantizar una mayor seguridad. Podría interesarle: ¿Cómo Proteger la Voz de una Persona? Además, recomendó a los usuarios crear contraseñas más robustas para sus cuentas y verificar cuidadosamente a quiénes entregan sus datos personales, especialmente ante la creciente sofisticación de ataques como los de ingeniería social. ¿A qué están obligadas las fintech? Para operar como una Institución de Tecnología Financiera (ITF) o fintech, es necesario conseguir una autorización especial, otorgada por la Comisión Nacional Bancaria y de Valores (CNBV). Por tal motivo, la CNBV podrá efectuar visitas de inspección a las ITF con el objeto de revisar, verificar, comprobar y evaluar las actividades que estas realizan.  Las Instituciones de Tecnología Financiera (ITF) están obligadas a proporcionar información clara a sus clientes sobre los riesgos asociados con las operaciones que realizan con ellas o a través de ellas, de acuerdo con lo establecido en la Ley Fintech.  Además, deben informar de manera destacada, utilizando los medios de comunicación con los que contactan a sus clientes, que están autorizados, regulados y supervisados por las autoridades financieras.  En lo que respecta a la seguridad y protección de datos, se detallan algunas de las obligaciones generales para los dos tipos de fintech reguladas en México: Institución de financiamiento colectivo  Instituciones de Fondo de Pago Electrónico  Nuevas iniciativas en el horizonte  Actualmente, existen propuestas legislativas para reforzar las leyes de ciberseguridad y protección de datos, incluida la iniciativa de Ley Federal de Ciberseguridad presentada en el Senado de la República.  Mientras se concretan estas medidas, Felipe Vallejo indica que la Asociación Fintech ha establecido un comité de ciberseguridad dedicado a fomentar la transparencia y el intercambio de información sobre ciberataques, con el objetivo de mejorar la prevención y la capacidad de respuesta frente a estos desafíos. Adicionalmente, está en formación un grupo de respuesta inmediata que coordinará acciones en caso de ciberataques. FUENTE: David, Luis. »Fintech: ¿Suficiente blindaje para la protección de datos?» Liderempresarial.com. 08/05/2024. (https://www.liderempresarial.com/fintech-suficiente-blindaje-para-la-proteccion-de-datos/).

¿Cómo Proteger la Voz de una Persona?

Como abogado especializado en Propiedad Intelectual, me enfrento continuamente a las complejidades que trae consigo la era digital, especialmente en lo que respecta a la protección de atributos personales tan únicos como la voz. Protección Legal de la Voz en España Como abogado especializado en Propiedad Intelectual, pienso que la protección de la voz en España se encuentra en un momento legal complejo. No está muy claro si se resolverá a favor de una protección por Propiedad Intelectual o por Protección de Datos Personales (dependerá de los casos concretos). Pero vamos a ver cómo se aplica cada normativa y qué debes tener en cuenta: 1. Protección de Propiedad Intelectual Aunque la Ley de Propiedad Intelectual (Real Decreto Legislativo 1/1996) no reconoce expresamente la voz como objeto de propiedad intelectual, se argumenta que, una vez fijada en una grabación, podría protegerse si cumple con los requisitos de originalidad. Sin embargo, esta protección se aplica más a las grabaciones que a la voz per se. 2. Protección como Datos Personales Desde el punto de vista de los derechos fundamentales, la voz puede considerarse protegida indirectamente bajo la Ley Orgánica 3/2018, de Protección de Datos Personales y garantía de los derechos digitales, en tanto en cuanto puede constituir un dato personal identificable. El derecho al honor y a la propia imagen también ofrece un marco de protección relevante, especialmente contra el uso no autorizado de la voz que pueda afectar la dignidad de una persona. Algo a tener en cuenta, la voz es reconocida como dato personal en España, conforme al Reglamento General de Protección de Datos (RGPD) y la interpretación de la Agencia Española de Protección de Datos (AEPD), debido a su capacidad para identificar a individuos. Esto se aplica cuando la voz, sola o junto a otros datos, permite una identificación clara, convirtiéndose en objeto de protección bajo la legislación de datos personales. ¿Es la Voz un Dato Personal? La consideración de la voz como dato personal se activa especialmente en casos donde se usa para autenticación o se asocia a información identificativa en servicios de atención al cliente o redes sociales. El tratamiento de la voz requiere consentimiento explícito del sujeto, salvo excepciones permitidas por el Reglamento General de Protección de Datos (RGPD), y debe protegerse contra usos no autorizados, con obligaciones claras para quienes manejan estos datos. Lea también: Google creó una nueva función que permitirá proteger los datos personales de los usuarios: ¿De qué se trata? La clonación de voz nos lleva a pensar en la importancia de adaptar las leyes para proteger derechos individuales ante avances tecnológicos. Este enfoque busca equilibrar la innovación con la protección de la intimidad y otros derechos fundamentales relacionados con el uso de la voz. El «Right of Publicity» Al mirar más allá de nuestras fronteras, encontramos que algunos países, como Estados Unidos, tienen una protección más específica a través del «right of publicity», que incluye la voz entre los atributos personales protegidos contra usos comerciales no autorizados. El «derecho de publicidad» se refiere a la facultad de una persona para controlar y obtener beneficio económico del uso comercial de su identidad, incluyendo atributos como la voz. Mientras que en jurisdicciones como Estados Unidos este derecho está bien establecido y proporciona una base legal para controlar el uso comercial no autorizado de la voz, en España no existe un equivalente directo bajo este término. Esta diferencia muestra una protección más clara y directa en jurisdicciones que reconocen explícitamente el valor comercial de atributos personales como la voz, frente a la aproximación más indirecta y basada en interpretaciones que prevalece en España y, en gran medida, en Europa. El caso mencionado en el artículo de Copyright Lately trata sobre una demanda presentada por Carlin Estates, que representa los intereses del fallecido comediante George Carlin, contra SiriusXM por la difusión de un «especial de comedia falso» que incluía material inédito del comediante. La demanda fue presentada con base en la ley de «derecho de publicidad» del estado de California, argumentando que SiriusXM había utilizado sin autorización la voz de Carlin para crear contenido nuevo, infringiendo así los derechos post-mortem de publicidad que protegen el uso comercial de la identidad de una persona después de su muerte. Protecciones Similares al «Derecho de publicidad» en la Unión Europea Dentro de la Unión Europea, no existe una normativa unificada específica que se asemeje al «derecho de publicidad» estadounidense, pero hay mecanismos de protección que pueden aplicarse de manera similar: Necesitamos que la Ley proteja la Caracterización Personal La falta de legislación específica que aborde directamente la clonación de voz para fines publicitarios o de creación de contenidos plantea desafíos significativos. La tecnología avanza a pasos agigantados, y con ella, la capacidad de clonar voces con fines diversos, desde la publicidad hasta la creación de contenidos digitales. La justicia tiene que interpretar cómo los marcos legales se van a adaptar a las nuevas tecnologías. Las reformas serán importantes. La protección de la voz destaca porque tiene muchos peligros en contextos donde se clonen voces con fines comerciales y creativos. Conclusión: La Voz también debe protegerse En conclusión, mientras que en España la protección de la voz a través de la propiedad intelectual y derechos fundamentales es más una cuestión de interpretación que de legislación específica, la comparación con jurisdicciones como Estados Unidos ilustra la posibilidad de un marco legal más robusto y directo. Es imperativo para los legisladores y profesionales del derecho trabajar hacia reformas que reconozcan y protejan la voz frente a los desafíos planteados por la tecnología moderna, garantizando así el respeto a los derechos personales y creativos en la era digital. FUENTE: Correa Maza, Juan Pablo. »Cómo Proteger la Voz de una Persona» Lawandtrends.com. 04/05/2024. (https://www.lawandtrends.com/noticias/tic/como-proteger-la-voz-de-una-persona-1.html#gsc.tab=0).

El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial

El Consejo de Europa ha adoptado el primer tratado internacional jurídicamente vinculante destinado a garantizar el respeto de los derechos humanos, del Estado de derecho y las normas jurídicas democráticas en el uso de los sistemas de inteligencia artificial (IA). El tratado, que también está abierto a países no europeos, establece un marco jurídico que abarca todo el ciclo de vida de los sistemas de IA y que se ocupa de los riesgos que pueden plantear, a la vez que promueve la innovación responsable. El convenio adopta un enfoque basado en el riesgo para diseñar, desarrollar, usar y decomisar sistemas de IA, que exige considerar cuidadosamente cualquier posible consecuencia negativa del uso de sistemas de IA. El Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho, ha sido adoptado en Estrasburgo durante la reunión ministerial anual del Comité de Ministros del Consejo de Europa, que reúne a los ministros de Asuntos Exteriores de los 46 Estados miembros del Consejo de Europa. Podría interesarle: Dictamen del Comité Europeo de Protección de Datos sobre la validez del consentimiento en los modelos de pago para las grandes plataformas en línea El convenio es el resultado de dos años de trabajo de un órgano intergubernamental, el Comité sobre Inteligencia Artificial (CAI por sus siglas en inglés), que reunió para redactar el tratado a los 46 Estados miembros del Consejo de Europa, la Unión Europea y 11 Estados no miembros (Argentina, Australia, Canadá, Costa Rica, Estados Unidos, Israel, Japón, México, Perú, la Santa Sede y Uruguay), así como a representantes del sector privado, la sociedad civil y el mundo académico, que participaron como observadores. El tratado cubre el uso de sistemas de Inteligencia Artificial en el sector público -incluidas las compañías que actúan en su nombre- y en el sector privado. El convenio ofrece a las partes dos formas de cumplir sus principios y obligaciones a la hora de regular el sector privado: las partes pueden optar por quedar obligadas directamente por las disposiciones pertinentes del convenio o, como alternativa, adoptar otras medidas para cumplir con las disposiciones del tratado a la vez que se respetan plenamente sus obligaciones en materia de derechos humanos, democracia y Estado de derecho. Este enfoque es necesario dadas las diferencias entre los sistemas jurídicos de todo el mundo. Las demandas con el nuevo convenio sobre IA El convenio establece requisitos de transparencia y supervisión adaptados a contextos y riesgos específicos, incluida la identificación de contenidos generados por sistemas de IA. Las partes tendrán que adoptar medidas para identificar, evaluar, prevenir y mitigar posibles riesgos y evaluar la necesidad de una moratoria, una prohibición u otras medidas apropiadas en relación con el uso de sistemas de IA, cuando sus riesgos puedan ser incompatibles con las normas de los derechos humanos. También tendrán que garantizar la rendición de cuentas y la responsabilidad por el impacto negativo, y que los sistemas de IA respeten la igualdad, incluida la igualdad de género, la prohibición de la discriminación y el derecho a la intimidad. Además, las partes del tratado tendrán que garantizar la disponibilidad de recursos legales para las víctimas de violaciones de los derechos humanos relacionadas con el uso de sistemas de IA y de garantías procesales, incluida la notificación a todas las personas que interactúen con sistemas de IA de que están interactuando con estos sistemas. En cuanto a los riesgos para la democracia, el tratado requiere a las partes que adopten medidas para garantizar que los sistemas de IA no se utilicen para minar las instituciones y procesos democráticos, incluido el principio de separación de poderes, el respeto de la independencia judicial y el acceso a la justicia. Lea también: Las autoridades de control de protección de datos publican unas orientaciones para tratamientos que incorporen tecnologías de seguimiento Wi-Fi Las partes del convenio no estarán obligadas a aplicar las disposiciones del tratado a las actividades relacionadas con la protección de los intereses de la seguridad nacional, pero sí a garantizar que estas actividades respetan el derecho internacional y las instituciones y procesos democráticos. El convenio no se aplicará a asuntos de defensa nacional ni actividades de investigación y desarrollo, excepto cuando las pruebas de los sistemas de IA puedan interferir potencialmente con los derechos humanos, la democracia o el Estado de derecho. Para garantizar su aplicación efectiva, el convenio establece un mecanismo de seguimiento en forma de Conferencia de las Partes. Por último, el convenio exige que cada parte establezca un mecanismo de supervisión independiente para vigilar que se cumple con el convenio, que se sensibilice y estimule un debate público informado, y que se lleven a cabo consultas con múltiples partes interesadas sobre cómo debería ser utilizada la tecnología de la IA. El convenio marco se abrirá a la firma en Vilna (Lituania) el 5 de septiembre, coincidiendo con una conferencia de ministros de Justicia. FUENTE: Comité de Ministros. »El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial» Coe.int. 17/05/2024. (https://www.coe.int/es/web/portal/-/council-of-europe-adopts-first-international-treaty-on-artificial-intelligence).

¡No te pierdas nada!

Inscríbete ahora y sé el primero en recibir todas las novedades y actualizaciones exclusivas de nuestra página

Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.
×

Hola!

Recibe información gratuita y personalizada

× ¡Recibe info personalizada!