La autoridad de protección de datos de Francia (CNIL), presenta un plan de acción ante la Inteligencia Artificial generativa

La autoridad francesa de protección de datos (CNIL, por su abreviatura original), ha presentado un plan de acción en relación con el despliegue de los sistemas de IA, en particular de los basados en grandes modelos de lenguaje, como ChatGPT, a fin de establecer normas claras que protejan los datos personales de los ciudadanos europeos para contribuir al desarrollo de sistemas de IA respetuosos con la privacidad. Este plan está impulsado por la creciente preocupación global despertada por el rapidísimo desarrollo de la IA generativa, los grandes modelos lingüísticos y sus aplicaciones derivadas (incluidos los chatbots). El vertiginoso desarrollo de esta IA durante los últimos meses, ya sea en el campo del texto y la conversación, a través de grandes modelos de lenguaje (LLM) como GPT-3, BLOOM o Megatron NLG y los chatbots derivados (ChatGPT o Bard), o en el campo de las imágenes (Dall-E, Midjourney, Stable Diffusion, etc.) o el habla (Vall-E), están dando lugar a su aplicación en diversos sectores. Sin embargo, la comprensión de su funcionamiento, sus posibilidades y sus límites, así como las cuestiones jurídicas, éticas y técnicas que rodean su desarrollo y utilización siguen siendo objeto de un amplio debate. En particular, la protección de los datos personales es una cuestión primordial para el diseño y el uso de estas herramientas. Por ello, este plan de acción presentada por la CNIL se basa en cuatro objetivos: 1. Comprender el funcionamiento de los sistemas de IA y su impacto en las personas; 2. permitir y supervisar el desarrollo de sistemas de IA que respeten la privacidad; 3. Federar y apoyar a los actores innovadores del ecosistema de la IA en Francia y en Europa y, 4. Auditar y controlar los sistemas de IA y proteger a las personas. 1. Comprender el funcionamiento de los sistemas de IA y su impacto en las personas 2. Permitir y supervisar el desarrollo de una IA que respete los datos personales Numerosos actores han informado a la CNIL de la incertidumbre que rodea la aplicación del RGPD a la IA, en particular para la formación de la IA generativa. Lea también: Reforma de la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales de España Para acompañar a estos actores en el ámbito de la inteligencia artificial y preparar la entrada en vigor del reglamento europeo sobre IA (actualmente en debate a nivel europeo y sobre el que la CNIL y sus homólogos europeos habían publicado un dictamen en 2021), la CNIL propone ya: 3. Federar y apoyar a los actores innovadores del ecosistema de la IA en Francia y en Europa La regulación sobre la IA que propone la CNIL pretende ayudar a los actores del sector a surgir, promocionarse y prosperar en un marco fiel a los valores de protección de los derechos y libertades fundamentales franceses y europeos. Este apoyo, que ya está en marcha, adopta tres formas: 4. Auditar y controlar los sistemas de IA y protección de las personas En este sentido, la acción de control de la CNIL se centrará en particular en: En concreto, la CNIL ha recibido varias denuncias contra la empresa OpenAI, que gestiona el servicio ChatGPT, y ha abierto un procedimiento de control. Paralelamente, se ha creado un grupo de trabajo específico en el Comité Europeo de Protección de Datos (SEPD) para garantizar un enfoque coordinado de las autoridades europeas y un análisis armonizado del tratamiento de datos efectuado por la herramienta OpenAI. FUENTE: Fernández, Carlos. »La autoridad de protección de datos francesa presenta un plan de acción ante la Inteligencia Artificial generativa» Diariolaley.laleynext.es. 16/05/2023. (https://diariolaley.laleynext.es/dll/2023/05/16/la-autoridad-de-proteccion-de-datos-francesa-presenta-un-plan-de-accion-ante-la-inteligencia-artificial-generativa).
La OMS pide “cautela” para incorporar las IA como ChatGPT en el ámbito sanitario

La Organización Mundial de la Salud (OMS) ha pedido que “se actúe con cautela” en el uso de herramientas de inteligencia artificial (IA) como ChatGPT en el ámbito sanitario y que se “examinen cuidadosamente” cuáles pueden ser sus riesgos en esta materia. “Aunque la OMS está entusiasmada con el uso adecuado de las tecnologías para apoyar a los profesionales sanitarios, los pacientes, los investigadores y los científicos, preocupa que la cautela que normalmente se ejercería con cualquier tecnología nueva no se esté ejerciendo de forma coherente con estas IA”, ha advertido el organismo sanitario internacional de Naciones Unidas a través de un comunicado. Podría interesarle: El 86% de ejecutivos cree que la geopolítica podría provocar un acontecimiento catastrófico en ciberseguridad en 2025 En este contexto, la OMS alerta de que la “adopción precipitada” de estos sistemas de IA “podría dar lugar a errores por parte del personal sanitario, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de estas tecnologías en todo el mundo”. La OMS y sus consideraciones respecto a la seguridad de la información a través del uso de la Inteligencia Artificial La OMS apunta, por ejemplo, que los datos utilizados para entrenar la IA “pueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión”. Asimismo, indican que las respuestas de ChatGPT “pueden ser completamente incorrectas o contener errores graves, especialmente en el caso de las respuestas relacionadas con la salud”. De la misma forma, avisan de que estas IA “pueden no proteger los datos sensibles (incluidos los datos sanitarios) que un usuario proporciona para generar una respuesta”. Por último, la OMS señala que “pueden utilizarse indebidamente para generar y difundir desinformación muy convincente en forma de contenidos de texto, audio o vídeo que el público difícilmente puede diferenciar de contenidos sanitarios fiables”. Por todo ello, insisten en la necesidad de que estas IA “se utilicen de forma segura, eficaz y ética”. Así, piden a los responsables políticos que “garanticen la seguridad y la protección de los pacientes”. FUENTE: El Sol Network. »La OMS pide “cautela” para incorporar las IA como ChatGPT en el ámbito sanitario» Elsoldeflorida.com. 16/05/2023. (https://elsoldelaflorida.com/la-oms-pide-cautela-para-incorporar-las-ia-como-chatgpt-en-el-ambito-sanitario/).
Google deja a la UE fuera de su nueva inteligencia artificial

El gigante tecnológico Google lanza Bard en 180 territorios, pero no en el espacio comunitario, donde su rival ChatGPT está siendo investigada por vulnerar la privacidad de los usuarios. La inteligencia artificial de Google está ya disponible en 180 países o territorios, pero ninguno de ellos pertenece a la Unión Europea. El gigante tecnológico deja sin acceso a su nueva herramienta Bard al territorio comunitario, por lo menos en una primera etapa. Y aunque la empresa no ha ofrecido más detalles, la decisión se explica en los duros requisitos sobre privacidad que exige la UE para que la inteligencia artificial se implante en su territorio. Otras noticias: La Unión Europea inaugura en Bucarest centro para reforzar la ciberseguridad Bard, lanzada hace dos meses, fue concebida como la respuesta de Google a su rival OpenAI, que había irrumpido en la inteligencia artificial con la revolucionaria y exitosa ChatGPT, que en dos meses alcanzó los 100 millones de usuarios. Pero ChatGPT se ha topado con la Unión Europea. El 13 de abril, el Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) creó un grupo de trabajo que está estudiando el impacto de la aplicación de la inteligencia artificial en los derechos de las personas. En concreto, la UE indaga un posible incumplimiento de la normativa europea de privacidad. España, Italia y otros países de la Unión Europea que dieron una voz de alarma y que Google tomó en cuenta para restringir su herramienta en el viejo continente España fue uno de los primeros países en dar la voz de alarma. Hace un mes, la Agencia Española de Protección de Datos publicó un comunicado en el que abogaba «por el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde el pleno respeto a la legislación vigente» porque «sólo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas». En el fondo late el temor de la Unión Europea a que las empresas de inteligencia artificial vulneren en algún momento los derechos de los consumidores con la información que proporcionan los propios usuarios al hacer búsquedas. Previamente, Italia había tomado una decisión más drástica al bloquear el acceso a ChatGPT por el mismo motivo, violar la privacidad de los datos de los usuarios. El Gobierno de este país denunció que el chatbot violaba la ley de protección de datos de los consumidores después de que una falla en el sistema de seguridad de ChatGPT dejara al acceso público información personal de decenas de usuarios, como los pagos que realizaban. En el resto del mundo, sin embargo, la carrera de la inteligencia artificial avanza a toda velocidad desde que el 30 de noviembre ChatGPT, la aplicación de OpenAI, una empresa apoyada por Microsoft, irrumpiera como una herramienta para elaborar conversaciones y textos similares a los que realizaría un ser humano. De hecho, el 14 de marzo de 2023 ya tuvo su primera actualización, el ChatGPT-4. Microsoft, otro jugador dentro del desarrollo de tecnologías de Inteligencia Artificial La propia Microsoft actualizó su Bing, que ha pasado de ser un buscador casi testimonial a una nueva herramienta capaz de responder a preguntas para las que no existe ningún resultado obvio en Internet, como qué modelo de sillita comprar para un vehículo concreto, según informa Reuters. Ahora Google, con Bard, ha sido la siguiente en mover ficha. «Estamos reimaginando todos nuestros productos principales, incluida la búsqueda», dijo este miércoles Sundar Pichai, consejero delegado de Alphabet, durante la conferencia anual de Google I/O, celebrada este miércoles en Mountain View (California). Google quiere integrar la IA en su motor de búsqueda, pero también en el resto de sus productos, como Gmail, que puede crear borradores de mensajes, y Google Fotos, lo que permitirá hacer cambios en las imágenes. Actualmente, Bard está disponible en inglés, japonés y coreano, aunque Pichai anunció que pronto se podrá acceder en 40 idiomas, incluyendo el español. FUENTE: Soto, Álvaro. »Google deja a la UE fuera de su nueva inteligencia artificial» Elcorreo.com. 11/05/2023. (https://www.elcorreo.com/tecnologia/google-extiende-mundo-nueva-inteligencia-artificial-competir-20230510002857-ntrc.html?ref=https%3A%2F%2Fwww.google.com%2F).
La inteligencia artificial como arma de doble filo: ciberataques sofisticados y sistemas de vanguardia

La inteligencia artificial se ha convertido en una espada de doble filo en el ámbito de la ciberseguridad. A medida que evoluciona, se intensifican los ataques sofisticados y, al mismo tiempo, se potencian los sistemas existentes para defenderse de ellos. Según MarketsandMarkets, el sector de la inteligencia artificial crecerá un 23’3% anual hasta 2026 y se espera que genere ingresos de alrededor de unos 370.000 millones de euros para finales de 2027. Eso sí, en la actualidad y cuando se trata de aplicaciones de la vida real, la IA aún está en pañales. Sin embargo, esto no ha impedido que los ciberdelincuentes aprovechen esta tecnología para maximizar sus esfuerzos en los ataques cibernéticos. Con su avance, los atacantes también están aprovechando esta tecnología para llevar a cabo ataques más sofisticados. Puede ser utilizada para automatizar tareas como el phishing, el malware y el robo de datos y ayudar a los atacantes a detectar y explotar vulnerabilidades de manera más eficiente. Esto significa que los ataques ya se están volviendo más frecuentes y difíciles de detectar.Según el estudio Security Report 2023 de Check Point, los ciberataques globales aumentaron un 38% en 2022 en comparación con 2021. IA vs. IA: el nuevo enfrentamiento en el mundo de la ciberseguridad «Los ciberataques basados en IA pueden utilizar técnicas más avanzadas y sofisticadas. Por ejemplo, los atacantes pueden utilizar el aprendizaje automático para generar correos electrónicos de phishing más convincentes y personalizados, o utilizar redes neuronales para analizar patrones de tráfico de red y encontrar debilidades en la seguridad de la red», explica un experto de ciberseguridad. Pese a este lado negativo, puede ser usada como un arma definitiva para precisamente evitar este tipo y otros ataques. Un informe de Norton indica que las empresas necesitan 196 días en promedio para recuperarse de cualquier violación de datos. La inteligencia artificial mejora significativamente los sistemas de seguridad. Tiene la capacidad de analizar grandes cantidades de datos en tiempo real y detectar patrones y comportamientos anormales que pueden indicar un ataque en curso. Lea también: ChatGPT y el futuro de la ciberseguridad Esto ayuda a identificar y mitigar las amenazas de manera más rápida y precisa. Además, puede ser utilizada para desarrollar algoritmos de aprendizaje automático que mejoran continuamente la detección de amenazas a medida que se enfrentan a nuevos ataques. Todas estas tecnologías permiten a las empresas reducir los tiempos de respuesta a incidentes y cumplir con las mejores prácticas de seguridad. Es importante destacar que ciberseguridad es una carrera constante entre los atacantes y los defensores. A medida que los sistemas de seguridad se fortalecen y mejoran utilizando IA, los ciberdelincuentes también buscan y seguirán buscando formas de superar esas defensas. Por lo tanto, es crucial que los expertos en seguridad sigan investigando y desarrollando nuevas técnicas y normativas para mantenerse un paso por delante. FUENTE: Valenzuela González, Carolina. »La inteligencia artificial como arma de doble filo: ciberataques sofisticados y sistemas de vanguardia» Computerhoy.com. 15/05/2023. (https://computerhoy.com/tecnologia/impacto-ia-ciberseguridad-ataques-avanzados-defensas-mejoradas-1241912).
ChatGPT y el futuro de la ciberseguridad

En el mundo de la ciberseguridad, la incorporación de la inteligencia artificial (IA) y el aprendizaje automático (ML) ha abierto nuevas posibilidades y desafíos. Recientemente, ha surgido una nueva herramienta que promete transformar la forma en que los profesionales de la seguridad protegen las redes y los sistemas: ChatGPT. Este innovador modelo de IA ha llamado la atención de expertos y entusiastas de la tecnología, ya que tiene el potencial de mejorar significativamente los esfuerzos en ciberseguridad. En este artículo, exploraremos cómo ChatGPT está revolucionando la ciberseguridad y las diversas formas en que puede ayudar a los profesionales en este campo. ChatGPT: Un aliado para los analistas de seguridad Cuando se trata de la detección y respuesta de amenazas, ChatGPT ofrece un gran valor a los analistas de seguridad. Utilizando algoritmos de aprendizaje automático y técnicas de análisis de comportamiento, este modelo de IA puede identificar actividades anómalas y generar alertas para detectar posibles ataques. Lea también: La Unión Europea inaugura en Bucarest centro para reforzar la ciberseguridad Por otro lado, ChatGPT tiene la capacidad de comprender y generar consultas en herramientas especializadas como Splunk, simplificando el proceso de búsqueda y análisis de eventos de seguridad. Automatización de tareas y ahorro de tiempo Una de las ventajas más destacadas de ChatGPT es su capacidad para automatizar tareas diarias y rutinarias. Por ejemplo, en entornos con cientos de cuentas inactivas, ChatGPT puede construir scripts que identifiquen y desactiven estas cuentas de manera eficiente. Esto permite a los ingenieros y administradores de sistemas ahorrar tiempo y concentrarse en tareas más avanzadas y estratégicas. Potenciando la colaboración entre equipos Otra aplicación fascinante de ChatGPT es su capacidad para impulsar la colaboración entre los equipos de seguridad. Mediante el concepto de «purple teaming», donde los equipos de ataque (red team) y defensa (blue team) trabajan juntos, ChatGPT puede generar ejemplos de scripts que los respondables por el Examen de penetración pueden utilizar para probar la seguridad de una organización. Al mismo tiempo, el equipo de defensa puede aprovechar esta información para comprender mejor cómo lucen las herramientas de ataque y mejorar sus mecanismos de alerta. Límites y Reflexiones A pesar de los múltiples beneficios que ofrece ChatGPT, es importante reconocer que existen límites en su utilidad. Aunque la IA ha avanzado rápidamente, aún carece de la capacidad para emular por completo el pensamiento humano y la toma de decisiones complejas basadas en experiencias reales. Por otro lado, las falsas alarmas generadas por ChatGPT deben ser revisadas y validadas por profesionales humanos, ya que la interpretación de contextos específicos es un desafío para los modelos de IA. La Evolución Constante de la Ciberseguridad con ChatGPT A pesar de las limitaciones, ChatGPT representa un avance significativo en el campo de la ciberseguridad. A medida que la tecnología continúa evolucionando, es probable que veamos mejoras y avances en su capacidad para comprender el contexto y tomar decisiones más precisas. Podría interesarle: Ciberseguridad industrial: ¿qué es y por qué implementarla? La automatización de tareas repetitivas y mundanas proporciona un alivio para los profesionales de seguridad, permitiéndoles enfocarse en actividades más estratégicas y creativas. Esto no solo aumenta la eficiencia y productividad, sino que también fomenta el desarrollo y la innovación en el campo de la ciberseguridad. Aún así recordemos que todo tiene dos lados en esta vida. Gente que no sabía programar está creando scripts para robar datos de otros por email y redes sociales, y eso también es obra de ChatGPt y otras herramientas generativas que han ido apareciendo. FUENTE: Polo, Juan Diego. »CHATGPT Y EL FUTURO DE LA CIBERSEGURIDAD» Wwwhatsnew.com. 15/05/23. (https://wwwhatsnew.com/2023/05/15/chatgpt-y-el-futuro-de-la-ciberseguridad/).
¿Qué países están intentando regular la Inteligencia Artificial?

El rápido desarrollo de la Inteligencia Artificial ha provocado llamamientos urgentes para la creación de una regulación efectiva. Esto es lo que algunos países están haciendo o planean. Los rápidos avances en inteligencia artificial (IA), como el popular chatbot ChatGPT de OpenAI, respaldado por Microsoft, están complicando los intentos de los Gobiernos para acordar leyes que regulen el uso de esta tecnología. Estos son los últimos pasos que están tomando las autoridades nacionales e internacionales respecto a las herramientas de esta tecnología. Australia El Gobierno australiano solicitó asesoramiento sobre cómo responder a la IA del principal organismo asesor científico del país y está considerando sus próximos pasos, comentó el pasado mes de abril un portavoz del ministro de Industria y Ciencia. China El regulador del ciberespacio de China dio a conocer también en abril un borrador de medidas para administrar los servicios de inteligencia artificial generativa. Declaró que quería que las empresas presentaran evaluaciones de seguridad a las autoridades antes de lanzar ofertas al público. Lea también: El regulador europeo de privacidad crea un grupo de trabajo sobre ChatGPT Pekín anunció, a través de su oficina de Economía y Tecnología de la Información, que apoyará a las empresas líderes en la construcción de modelos de IA que puedan desafiar a ChatGPT. Unión Europea La Organización Europea de Consumidores (BEUC) se unió al coro de preocupaciones sobre ChatGPT y otros chatbots de inteligencia artificial. Ha pedido a las agencias de protección al consumidor de los 27 que investiguen la tecnología y el daño potencial a las personas. Doce europarlamentarios instaron a los dirigentes mundiales en abril a celebrar una cumbre para encontrar formas de controlar el desarrollo de sistemas avanzados de inteligencia artificial, alegando que se estaban desarrollando más rápido de lo esperado. El Comité Europeo de Protección de Datos, que une a los organismos nacionales de control de la privacidad en Europa, aseguraba en abril que había establecido un grupo de trabajo en torno a ChatGPT. Un primer paso potencialmente importante hacia una política común sobre el establecimiento de reglas de privacidad en la IA. Los legisladores de la UE también están debatiendo sobre la redacción de la Ley de IA, que afectará a cualquiera que proporcione un producto o servicio que utilice inteligencia artificial. Han propuesto clasificar diferentes herramientas de esta tecnología según su nivel de riesgo percibido, de bajo a inaceptable. Francia El organismo de control de privacidad de Francia, CNIL, dijo en abril que estaba investigando varias quejas sobre ChatGPT, después de que el chatbox fuera prohibido temporalmente en Italia. La Asamblea Nacional francesa aprobó en marzo el uso de vídeovigilancia de IA durante los Juegos Olímpicos de París de 2024, pasando por alto las advertencias defensores de grupos de derechos civiles de que la tecnología representaba una amenaza para las libertades. Irlanda La IA generativa como ChatGPT debe regularse, pero los órganos rectores deben determinar cómo hacerlo correctamente antes de precipitarse en prohibiciones que «realmente no se van a mantener», comentaba el responsable del organismo de protección de datos de Irlanda el pasado 20 de abril. Italia ChatGPT está disponible nuevamente para los usuarios en Italia, anunció un portavoz de OpenAI el 28 de abril. Otras noticias: La creciente amenaza del hackeo a ChatGPT Italia prohibió temporalmente el chatbot después de que su autoridad de protección de datos expresara su preocupación por violaciones de la privacidad y no verificar que los usuarios más de 13 años. Japón El ministro de transformación digital Taro Kono afirmó en abril que quería una reunión de ministros digitales del G7 para discutir las tecnologías de IA, incluido ChatGPT, y emitir un mensaje unificado del G7. España La agencia española de protección de datos manifestó que estaba iniciando una investigación sobre filtraciones de datos por parte de ChatGPT. También ha pedido al organismo de control de la privacidad de la UE que evalúe las preocupaciones sobre la privacidad en torno a este sistema. Reino Unido Reino Unido dijo en marzo que planeaba dividir la responsabilidad de regir la Inteligencia Artificial entre sus reguladores de derechos humanos, salud y seguridad y competencia, en lugar de crear un nuevo organismo exclusivo para el tema. FUENTE: Reuters. »¿Qué países están intentando regular la inteligencia artificial?» Es.euronews.com. 04/05/23. es.euronews.com
Chatbots vs protección de datos personales

Elon Musk, CEO de Tesla ha comparado la inteligencia artificial generativa con un arma nuclear en cuanto a lo peligrosos que son. La inteligencia artificial apareció en nuestras vidas como un opción para simplificar tareas repetitivas y eficientar nuestros procesos, tal es el caso de los chatbots, que parecieran una alternativa eficaz para la atención de usuarios. No obstante, en días recientes expertos en tecnología se pronunciaron en contra de estos y pidieron «retroceder» un poco en su desarrollo porque, entre otras cosas, podrían estar vulnerando nuestros datos. Incluso el modelo de lenguaje extenso (LLM) ChatGPT indicó que la IA generativa, como cualquier otra tecnología, tiene el potencial de plantear riesgos para la privacidad de los datos si no se usa de manera responsable. Y no hace falta mucha imaginación para ver el potencial de una empresa para dañar rápidamente una relación ganada con tanto esfuerzo con los clientes a través del mal uso de la IA generativa. Pero si bien la tecnología es novedosa, los principios de la ley de protección de datos siguen siendo los mismos, y existe una hoja de ruta clara para que las organizaciones innoven de una manera que respete la privacidad de las personas. El CEO de la marca enfatizó que los reguladores y la sociedad deben involucrarse con la tecnología para protegerse contra posibles consecuencias negativas para la humanidad. Otras noticias: Neurodatos y neurotecnología, ¿Cómo afecta a la privacidad y Protección de Datos? Chatbots, AI y el desarrollo tecnológico como peligro potencial La advertencia se produjo cuando OpenAI lanzó la última versión de su modelo de lenguaje AI, GPT-4 , menos de cuatro meses desde que se lanzó la versión original y se convirtió en la aplicación de consumo de más rápido crecimiento en la historia. De hecho, Elon Musk, CEO de Tesla ha comparado la inteligencia artificial generativa con un arma nuclear en cuanto a lo peligrosos que son. En ese sentido, la Information Comissioner´’s Office (ICO) destacó que las organizaciones que desarrollan o usan IA generativa deben considerar sus obligaciones de protección de datos desde el principio, adoptando un enfoque de protección de datos desde el diseño y por defecto. Al respecto recomendó a los desarrolladores hacerse las siguientes preguntas en caso de estar generando inteligencia artificial que procese datos personales: FUENTE: Corporativo. »Chatbots vs protección de datos personales» idconline.mx. 14/02/23. (https://idconline.mx/corporativo/2023/04/13/chatbots-vs-proteccion-de-datos-personales)
Inteligencia Artificial y el tratamiento de Datos Personales

Inteligencia Artificial y el tratamiento de datos personales. Dotar a las computadoras con inteligencia de tipo humano ha sido un sueño de algunos desde los inicios de la computación electrónica. Aunque el término “inteligencia artificial” (IA) fue acuñado en 1956, sus inicios se remontan a la década de 1940. La idea de este tipo de inteligencia se cristalizó en el famoso artículo de Alan Turing en 1950, Computing machinery and intelligence, en el cual se planteó la pregunta: “¿Pueden las máquinas pensar?”. También propuso una prueba para responder esa pregunta y planteó la posibilidad de que una máquina pudiera estar programada para aprender de la experiencia tanto como lo hace un humano. La IA está impactando muchos aspectos de nuestra sociedad y son inimaginables sus futuros efectos. La ola de progreso y entusiasmo por la IA se ha visto impulsada por la disponibilidad de enormes cantidades de información que es procesada por algoritmos y otras innovaciones cada vez más potentes, sofisticadas y de impacto masivo en la sociedad, la economía, la política, la salud y los negocios. Lea también: Derecho a la privacidad ¿Cuándo está una empresa tecnológica obligada a entregar datos que guarda sobre mí a un gobierno? Los retos con la inteligencia artificial La IA no se crea sola. Los seres humanos son quienes la diseñan, crean y ponen en marcha. Por eso, de la inteligencia y ética de esas personas dependen no solo el éxito de la IA, sino la protección de los derechos humanos de millones de personas. La mejor forma de proteger un derecho es evitar su vulneración. Por eso, es necesario impedir afectaciones a los derechos de las personas. Ello implica que el diseño, desarrollo e implementación de los sistemas de IA esté orientado a cumplir, entre otras, esa finalidad preventiva. La innovación tecnológica y la evolución acumulativa de técnicas y tecnologías han generado que la IA cada día sea más sofisticada y potente. Muchas técnicas utilizadas para analizar grandes volúmenes de datos fueron desarrolladas por investigadores de IA y ahora se identifican como algoritmos y sistemas de «big data«. El correcto desarrollo de los productos de IA traerá más beneficios, pero la indebida creación y desarrollo de los mismos generará graves perjuicios. Por eso, sigue siendo válido preguntarnos lo siguiente: ¿todo lo tecnológicamente posible es socialmente deseable? Taxonomía de las IA Aunque no existe consenso sobre la definición de la IA, se han señalado algunas formas de clasificar lo que ella constituye. En un popular texto sobre el tema, Artificial Intelligence: A Modern Approach, se propuso la siguiente taxonomía: Podría interesarle: Derechos Humanos en el ciberespacio: Reflexiones a partir del tratamiento de datos personales La IA involucra la recolección, el almacenamiento, el análisis, procesamiento o interpretación de enormes cantidades de información que son usados para generar diversos resultados, acciones o comportamientos por parte de las máquinas. En otras palabras, los datos son el alimento o el combustible de la AI, a tal punto que se podría afirmar que un proyecto de IA sin datos es como un río sin agua. La IA debe garantizar el debido tratamiento de los datos personales y el respeto de los derechos humanos Como es sabido, la protección de los datos personales es un derecho humano reconocido en muchas constituciones y regulaciones del mundo. Actualmente, no menos del 75 % de los países del mundo tiene regulaciones generales sobre protección de datos. El debido y ético tratamiento de datos personales es imprescindible para evitar que con el desarrollo de la IA se vean lesionados o amenazados, según el caso, los derechos humanos y la dignidad humana. En línea con lo anterior, no son pocas las iniciativas y organizaciones que han trabajado para exigir el desarrollo de IA respetuoso de los derechos humanos. La regulación europea En primer lugar, la Global Privacy Assembly (GPA) aprobó en el mes de octubre del 2020 la Resolution on Accountability in the Development and the use of Artificial Intelligence. Esa resolución, entre otras, insta a las organizaciones que desarrollan o utilizan sistemas de IA a considerar la implementación de las siguientes medidas: La regulación iberoamericana Previo a ello, en junio del 2019, la Red Iberoamericana de protección de datos (RIPD) publicó las Recomendaciones generales para el tratamiento de datos personales en la inteligencia artificial. Allí, se realizan algunas sugerencias a quienes desarrollan productos de IA, con el fin de orientarlos para que desde el diseño del producto se tengan en cuenta las exigencias de las regulaciones sobre tratamiento de datos personales. Las recomendaciones son las siguientes: Lo que queda y el panorama futuro Para conocer los detalles de la implementación de algunas de estas recomendaciones, la RIPD ha elaborado unas directrices complementarias y más detalladas contenidas en el documento denominado Orientaciones específicas para el cumplimiento de los principios y derechos que rigen la protección de los datos personales en los proyectos de Inteligencia Artificial. En esos documentos se plantea que la privacidad desde el diseño y por defecto (Privacy by Design and by Default) busca garantizar el correcto tratamiento de los datos utilizados en los proyectos que involucren recolección, uso o tratamiento de datos personales. Así las cosas, el debido tratamiento de la información debe ser un componente esencial del diseño y puesta en marcha de proyectos de IA. FUENTE: Angarita Remolina, Nestor. »Inteligencia artificial y tratamiento de datos personales» Ambitojuridico.com. 28/11/2022. (https://www.ambitojuridico.com/noticias/analisis/inteligencia-artificial-y-tratamiento-de-datos-personales-0).
Inteligencia Artificial y el tratamiento de datos personales

Es necesario cumplir con la Ley de Protección de Datos en relación con el uso de inteligencias artificiales para tratar datos personales en un escenario donde cada vez es más alto el número de compañías que aplican soluciones de Inteligencia Artificial en sus procesos de contratación. El potencial de estos sistemas para examinar conjuntos de datos masivos, detectar patrones y aprender con el paso del tiempo es la principal razón de tal nivel de adopción. Su precisión se ve reforzada por una mayor disponibilidad de datos personales en manos de las organizaciones, siendo la base para determinar el resultado de la decisión. El empleo de este mecanismo para este tipo de gestiones deriva en problemas legales. En el ámbito del derecho a la protección de datos, el RGPD estableció una regulación concreta para los tratamientos cuyo objetivo es la toma de decisiones basada únicamente en el dictamen emitido por una máquina. El artículo 22 del RGPD dota a los particulares sometidos a dichas decisiones de diferentes facultades, siendo un soporte legal esencial para cualquier operador jurídico que pretenda enfrentarse a este asunto. Podría interesarle: La importancia de que las empresas implementen la Ley de Protección de Datos en Latinoamérica Decidir de forma automatizada y optar por el derecho de oposición: dentro del debate de la utilización de la Inteligencia Artificial En 2020 se publicó una guía que resume cómo las herramientas de Inteligencia Artificial deben adecuarse al RGPD. El objetivo es evitar la discriminación, las decisiones injustas o la denegación de un servicio o producto cuando la decisión es tomada por una máquina. Sin embargo, hasta la fecha, la controversia en cuanto a la verdadera adecuación continúa. El debate gira en torno al artículo 22 del RGPD, el cual dicta en su primer apartado que “todo interesado tiene derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”. Si el tratamiento automatizado da lugar a la denegación de un puesto de trabajo, el titular de los datos personales podrá oponerse a dicho tratamiento. Es decir, tiene del derecho de impugnar la decisión y solicitar la contribución de una persona en el proceso para revisar la decisión tomada mediante el algoritmo. FUENTE: Agencias. »Cumplir la Ley de Protección de Datos en relación con el uso de inteligencias artificiales para tratar datos personales» Elconfidencialdigital.com. 14/09/2022. (https://www.elconfidencialdigital.com/articulo/an/cumplir-ley-proteccion-datos-relacion-uso-inteligencias-artificiales-tratar-datos-personales/20220914144310448516.html).