La protección de datos y la Ley de Inteligencia Artificial europea: el derecho al Digital Trust no esperará a 2026

La ley de Inteligencia Artificial no entrará en vigor hasta 2026, pero los usuarios de servicios digitales no esperan, los consumidores exigen asegurar los datos y los profesionales confiabilidad en las herramientas, exigen el derecho al Digital Trust. Con motivo del Día Europeo de la Protección de Datos, que se celebra el próximo 28 de enero, desde la tecnológica española Paradigma Digital han analizado la situación actual y retos que afronta la protección de datos y entre ellos han destacado el reto de la protección de datos de la IA generativa, conscientes de la importancia que tiene en la sociedad y en la economía con una legislación que, aunque de forma ágil aprobada, no entrará en vigor hasta dentro de dos años. La nueva ley europea de Inteligencia Artificial se aplicará por fases, pero no estará en vigor por completo hasta el año 2026. Es un gran avance, pero los usuarios demandan protección y seguridad, derecho al Digital Trust o confiabilidad en el uso de servicios digitales como explica Carmen Troncoso, Delegada de Protección de Datos en Paradigma Digital: “Las personas y las empresas necesitan confiar en que la IA generativa, los servicios digitales con los que interactúan en su día a día son seguros y confiables o no los utilizarán. La ley busca desarrollar un ecosistema de confianza mediante un marco jurídico que haga que la IA sea fiable y esté centrada en los valores de la UE. Se subraya la importancia de garantizar la seguridad, ética y protección de derechos fundamentales en el uso de la IA. Sin embargo, las empresas no pueden esperar hasta 2026 a que entre en vigor esta regulación, deben adelantarse e incluir algunos principios de protección de datos en el desarrollo de sus productos si quieren contar con la confianza de los usuarios”. Puntos críticos de la nueva Ley Inteligencia Artificial Desde el punto de vista de la protección de los datos personales, la ley prevé determinadas prohibiciones, al considerarlos riesgos inasumibles, mediante las que brinda una protección específica a determinados tipos de tratamientos de datos. Por ejemplo, se prohíben calificaciones sociales basadas en IA por autoridades públicas y sistemas de IA que evalúan la fiabilidad de las personas físicas en función de su comportamiento social en múltiples contextos. También se prohíbe el uso de sistemas de identificación biométrica remota en tiempo real en espacios públicos para aplicación de la ley, salvo excepciones limitadas, dando así una protección específica a este tipo de datos. Podría interesarle: Día internacional de la protección de datos Relacionado con ese sistema basado en el enfoque de riesgos, una cuestión muy relevante a tener en cuenta por las empresas es que los sistemas de alto riesgo deberán cumplir con requisitos legales sobre datos, gobernanza, documentación, transparencia, vigilancia humana, solidez, precisión y seguridad. Algunos de estos sistemas de alto riesgo son: Componentes de seguridad de productos, fines de identificación biométrica y categorización de personas, de gestión y funcionamiento de infraestructuras esenciales, de educación y formación profesional, empleo, o por parte de autoridades públicas para la gestión de servicios públicos (acceso a prestaciones, emergencias…), con fines de detección del riesgo de comisión de infracciones penales, o detección del estado emocional de una persona, ultrafalsificaciones, gestión de la migración. Con el objetivo de evitar ciertos riesgos que la propia ley reconoce, como son la opacidad, el sesgo o la autonomía parcial, y generar confianza en el usuario, las empresas de servicios digitales, en particular relacionadas con tratamientos de alto riesgo, deben tener en cuenta los siguientes aspectos: Para ello en la propia norma se referencian directrices y guías que profundizan en cada uno de estos aspectos clave. Algunos retos de la ley serán la efectiva garantía de los derechos en materia de protección de datos con carácter general, esbozado en su artículo 10 “Datos y gobernanza de datos”, así como conjugar la seguridad y los derechos humanos con el impulso a la innovación para desarrolladores europeos, aspectos sobre los que seguiremos profundizando. FUENTE: Noticia. »La protección de datos y la Ley de Inteligencia Artificial europea: el derecho al Digital Trust no esperará a 2026» Elderecho.com. 25/01/2024. (https://elderecho.com/proteccion-de-datos-y-ley-inteligencia-artificial-europea-el-derecho-al-digital-trust).
Ciberataques con IA, una de las grandes amenazas financieras para 2024

El uso de sistemas basados en inteligencia artificial – IA -, para perpetrar ataques cibernéticos será uno de los grandes riesgos financieros durante el siguiente año, de acuerdo con el informe Predicciones de Amenazas Verticales, elaborado por Kaspersky. Los expertos analizaron el avance de las tecnologías y la evolución de las técnicas empleadas por los ciberdelincuentes. Anticiparon que la utilización de recursos de IA para efectuar fraudes bancarios crecerá de manera exponencial, para convertirse en uno de los peligros financieros más destacados durante los próximos doce meses. Lea también: Seis errores comunes en ciberseguridad que perjudican a las empresas en Latinoamérica “Estas herramientas se utilizarán para generar anuncios, correos electrónicos y sitios web falsos que imitarán a los canales y plataformas legítimas de las instituciones financieras, dificultando la distinción entre contenido auténtico y fraudulento. La barrera de entrada para los ciberdelincuentes disminuirá y el potencial de fraude aumentará”, indica el reporte. Causa preocupación la proliferación de softwares de código abierto con salvaguardas insuficientes. El acceso generalizado a estos sistemas, que no siempre están protegidos contra vulnerabilidades sofisticadas, podrían dar lugar a un mayor número de violaciones de datos y pérdidas financieras. La adopción de sistemas automatizados de transferencia entre los hackers se perfila como un peligro latente para la banca móvil a nivel mundial. “Esta tecnología surgió en los troyanos bancarios móviles brasileños y permite a los ladrones redirigir las transferencias electrónicas de smartphones infectados”, detalla el documento. A través de estas plataformas, los delincuentes informáticos pueden automatizar ataques a gran escala de manera simultánea. Ciberataques financieros con nuevos objetivos, gracias a la IA Los sistemas de pago digitales serán el nuevo blanco para los transgresores. Las billeteras digitales, sistemas de pago sin contacto y transferencias de cuenta a cuenta han registrado un crecimiento importante como métodos para realizar transacciones bancarias. Su funcionamiento requiere de mantener una conexión constante a la red. Esta condición facilita las actividades de los delincuentes. Los analistas de Kaspersky prevén que, durante el siguiente año, se desarrollará un malware dedicado para atacar estos métodos de pago. Datos entregados por Ebanx indican que, en Latinoamérica, los países con mayor uso de pagos alternativos son Colombia (con 50% de penetración), El Salvador (49%) y Brasil (48%). México se ubica en la quinta posición (34%), por debajo de Perú. Los virus troyanos bancarios mantendrán su expansión global. El avance será importante para los softwares maliciosos creados y difundidos desde Brasil. “Familias de malware como Grandoreiro están preparadas para llevar a cabo estafas en más de 900 bancos repartidos por 40 países”, puntualiza el reporte. Los ataques contra dispositivos y servicios empresariales configurados con bajas medidas de seguridad registrarán una tendencia a la alza. La obtención de datos bancarios confidenciales será prioridad para los atacantes. Los expertos anticipan que habrá una disminución en la explotación de vulnerabilidades desconocidas en programas, herramientas y servicios de reciente lanzamiento. Los delincuentes informáticos adoptan nuevos modelos de operación Kaspersky detecta una evolución en la forma de operar de los criminales informáticos. El ecosistema de afiliación estará conformado por miembros temporales, que alternarán sus actividades entre diferentes grupos delictivos de forma simultánea. “Esta adaptabilidad dificultará cada vez más la labor de las autoridades policiales a la hora de localizar y combatir el ransomware”, explican. Los atentados de esta naturaleza, por tanto, serán más selectivos y perjudiciales. Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky, aseguró que “la principal conclusión que podemos extraer de nuestras previsiones es que la ciberdelincuencia está simplificando sus operaciones. Este hallazgo indica que las estafas más comunes, como el ransomware y el fraude financiero, se encuentran en una fase de maduración en la que los estafadores ya saben lo que deben hacer y están reduciendo el esfuerzo necesario para ser rentables”. El reciente informe semestral sobre amenazas cibernéticas de las empresas de seguridad FortiGuard Labs de Fortinet, señalan que América Latina y el Caribe han sufrido más de 360,000 millones de intentos de ciberataques en 2022. Por país, México encabezó la lista con 187,000 millones de ciberataques (un aumento interanual de 20%), seguido de Brasil (103,000 millones de incidencias), Colombia (20,000 millones) y Perú (15,000 millones). En el último año las estafas financieras aumentaron un 50% en la región, mientras que en México el crecimiento fue del 41%, calculó Kaspersky. El fenómeno tiene un impacto económico a gran escala. La firma de seguridad Lumu indica que el costo promedio de una brecha de datos para una organización a nivel mundial es de 4.3 millones de dólares, mientras que en Latinoamérica alcanza los 2.8 millones de dólares. Estimaciones de Fluid Attacks apuntan a que el costo del cibercrimen crecerá en la región a 8,000 millones de dólares este año. FUENTE: González, Fernanda. »Ciberataques con IA, una de las grandes amenazas financieras para 2024» Es.wired.com. 08/12/2023. (https://es.wired.com/articulos/ciberataques-con-ia-una-de-las-grandes-amenazas-financieras-para-2024).
España busca adaptar su normativa a la era de la inteligencia artificial

La evolución de las tecnologías de creación de imágenes y el creciente protagonismo de la inteligencia artificial (IA) en los últimos años han desencadenado un amplio espectro de oportunidades en la gran mayoría de sectores. Sin embargo, este avance vertiginoso también ha suscitado retos y dilemas, especialmente debido a la falta de una regulación adecuada que se ajuste a estas innovaciones. En particular, las técnicas vinculadas a la recreación de imágenes y voces de personas mediante técnicas de inteligencia artificial demandan una protección mayor de ciertos derechos fundamentales, como la intimidad, la propia imagen y el honor. Deepfakes e hiperrealismo, de los principales problemas de la inteligencia artificial En este escenario de rápidos avances tecnológicos, las deepfakes o vídeos hiperrealistas se destacan como uno de los exponentes más reconocibles. Estas creaciones se definen como composiciones visuales, auditivas o audiovisuales que emulan la realidad, generando imágenes y/o voces ficticias de personas. Basada en el uso de IA y aprendizaje automático (machine learning), esta tecnología logra recrear acciones con una apariencia hiperrealista, aparentando ser ejecutadas por las personas en cuestión. Este fenómeno plantea desafíos significativos, ya que la capacidad de generar contenidos realistas de manera ficticia puede tener repercusiones éticas y sociales, afectando directamente a la percepción pública y la confianza en los medios visuales y auditivos. Ejemplo de ello en España son los casos de las adolescentes de Almendralejo o de la reconocida cantante Rosalía, en los que se utilizó la manipulación de imágenes mediante IA con el propósito de crear contenido pornográfico falso. Proposición de Ley En respuesta a esta problemática, España ha dado un paso significativo con la presentación, el 13 de octubre de 2023, de una Proposición de Ley Orgánica para regular las simulaciones de imágenes y voces generadas por inteligencia artificial. Esta iniciativa legislativa reconoce la imperante necesidad de establecer marcos legales sólidos frente a la amenaza emergente que implica esta tecnología, especialmente teniendo en cuenta que desde el año 2009 el Tribunal Europeo de Derechos Humanos ha reconocido como una dimensión ineludible del derecho a la intimidad, el control de la propia imagen. Lea también: 50.000 euros de sanción a una compañía eléctrica por dar de alta y facturar a un usuario sin su consentimiento La Proposición de Ley aboga por modificar normativas existentes. Partiendo de que la regulación de la inteligencia artificial implica reformar el ordenamiento jurídico español, esta iniciativa busca abordar las modificaciones legislativas consideradas más inmediatas y urgentes. Estas modificaciones se centran en áreas críticas, como el acceso a información veraz y la protección de derechos fundamentales, enfocándose especialmente en aspectos como la privacidad y la intimidad. Modificaciones propuestas Las principales y destacables reformas propuestas son las siguientes: Marco jurídico internacional En el plano internacional también ha habido avances regulatorios en esta materia, especialmente a nivel de la Unión Europea, donde se espera la pronta aprobación del Reglamento de Inteligencia Artificial, que aborda la tecnología deepfake y establecerá una serie de pautas para su uso. La Proposición de Ley española, por ende, deberá adecuarse a las disposiciones de este reglamento. Además, el reciente Reglamento europeo de Servicios Digitales también hace referencia a la tecnología deepfake al imponer la obligación a los motores de búsqueda en línea y a las plataformas en línea de muy gran tamaño de etiquetar las deepfakes como tal, de conformidad con el principio de transparencia. En este contexto, el Servicio de Estudios del Parlamento Europeo ha emitido el informe Tackling deepfakes in European policy, referenciado en la exposición de motivos de esta Proposición de Ley. Este informe examina los riesgos asociados con las deepfakes, como el robo de identidad, la intimidación y la afectación de derechos fundamentales como la igualdad y la no discriminación, proponiendo medidas para abordar estos riesgos en diversas dimensiones (entre otras, la tecnológica, la creativa o la de difusión). En otras latitudes se ha oportado por implementar medidas similares Fuera de Europa, Corea del Sur ha adoptado medidas drásticas mediante la promulgación de una ley en 2020 que prohíbe la distribución de deepfakes que puedan causar perjuicio al interés público, con sanciones que incluyen penas de hasta cinco años de prisión o multas de hasta 43.000 dólares estadounidenses. En China, el 10 de enero de 2023 entraron en vigor unas disposiciones aplicables a proveedores y usuarios de tecnología deepfake que regulan procedimientos que abarcan todo el ciclo de vida de esta tecnología, desde su creación hasta su distribución. En contraste, en Estados Unidos, a pesar de la ausencia de legislación federal específica sobre las deepfakes, algunos estados como California, Texas o Nueva York han implementado leyes centradas principalmente en el ámbito de la pornografía deepfake. FUENTE: IT and data. »España busca adaptar su normativa a la era de la inteligencia artificial» Osborneclarke.com. 27/11/2023. (https://www.osborneclarke.com/es/insights/espana-busca-adaptar-su-normativa-la-era-de-la-inteligencia-artificial).
BeyondTrust presenta sus predicciones sobre ciberseguridad para 2024

BeyondTrust, líder mundial en seguridad inteligente de identidades y accesos, ha publicado su predicción anual de tendencias en ciberseguridad para el próximo año. Estas previsiones, elaboradas por los expertos de BeyondTrust, Morey J. Haber, Chief Security Officer; Christopher Hills, Chief Security Strategist; y James Maude, Director de Investigación, se basan en los cambios tecnológicos, los hábitos de los actores de amenazas, la cultura y décadas de experiencia combinada. Predicción nº 1: La evolución de la amenaza de la IA en tres etapas: Predicción nº 2: Las aplicaciones dedicadas inician el curso hacia la extinción La IA generativa está llamada a dejar obsoletas las aplicaciones dedicadas. La flexibilidad y la potencia de la IA podrían sustituirlas por comandos de voz, facilitando la creación de confianza en una interfaz común. Las complejas interfaces de usuario podrían quedar obsoletas a medida que la atención se centre en aplicaciones orientadas a resultados y funciones específicas. Predicción nº 3: Abajo el VOIP (Voz sobre IP) y el POTS (Servicio Telefónico Tradicional). UCS (Servicios de Comunicaciones Unificadas) es el futuro Los UCS eliminarán gradualmente el POTS y el VOIP dedicado. Las vulnerabilidades y los hackeos pueden poner en peligro este medio de comunicación antiguo seguro. Predicción nº 4: Sobrecarga de suscripciones Es de esperar que los artículos de uso cotidiano pasen a modelos basados en suscripciones. Mientras los pagos electrónicos sustituyen al dinero en efectivo, crecerá la tendencia a conceder licencias de productos y servicios mediante suscripciones. Sin embargo, las brechas en las suscripciones pueden plantear riesgos para la seguridad de los datos. Predicción nº 5: Los Juice Jackers (Hackers que involucran un puerto USB en ciberataques) explotan la estandarización del USB-C La proliferación de conectores USB-C aporta comodidad, pero también plantea problemas de seguridad. Un único tipo de conexión estándar simplifica el trabajo a los actores de amenazas, lo que aumenta los riesgos de ataques. Predicción nº 6: Mapa de exploits para ransomware Los ataques de ransomware pasarán de la extorsión de datos a la venta de datos explotables sobre las organizaciones. Los actores de amenazas venderán información relacionada con vulnerabilidades, exploits, identidades, privilegios e higiene, centrándose en amenazas potenciales y vectores de ataque. Predicción nº 7: Estandarización del ciberseguro Se espera que el ciberseguro se estandarice más entre los proveedores, mejorando la reducción de riesgos y la gestión de la responsabilidad de las empresas. Un enfoque basado en marcos estandarizará las pólizas cibernéticas. BeyondTrust también prevé tendencias de ciberseguridad para los próximos cinco años: Predicción nº 8: La era del malware llega a su fin El malware está en declive, a medida que el compromiso de la identidad y las herramientas nativas sustituyen a los exploits de software. La atención se centrará en la identificación de identidades comprometidas y la detección de comportamientos inusuales. Predicción nº 9: Cadenas de suministro de IA en el punto de mira Los estados-nación explotarán las cadenas de suministro de IA para introducir vulnerabilidades. Los asistentes de código de IA y sus datos de entrenamiento se convierten en objetivos, lo que puede comprometer la infraestructura de IA y crear nuevos vectores de ataque. Predicción nº 10: Vuelve la tecnología de época La electrónica de época hará un regreso moderno, combinando la nostalgia con la conectividad moderna. Estos dispositivos pueden abrir nuevas vulnerabilidades y vectores de ataque. Predicción nº 11: Las cadenas de confianza de identidad evolucionan para hacer frente a las amenazas modernas Los servicios de verificación de identidad surgirán como respuesta a las amenazas basadas en la identidad, con soluciones de terceros que proporcionarán una verificación de identidad de alta confianza en el mundo electrónico. Predicción nº 12: La evolución de la IA establece un ajuste en la ley Los campos de la gobernanza y el cumplimiento de la IA evolucionarán, centrándose en la regulación responsable de la IA, las normas éticas y la privacidad. Las normativas variarán en función de la región, creando un objetivo móvil para el uso de la IA. Predicción nº 13: El mando a distancia se pierde Los mandos a distancia físicos están desapareciendo a medida que se imponen las aplicaciones telefónicas específicas y los comandos de voz. Esta transición, aunque reduce los residuos electrónicos, puede plantear nuevos retos para la seguridad de la red. ‘Mirar hacia el futuro nos ayuda a anticipar hacia dónde se dirigirán sin duda los actores de ciberamenazas, y prepararse para lo que está por venir marca la diferencia en la eficacia de la gestión de riesgos’, dijo Morey Haber, Chief Security Officer de BeyondTrust. Completa: ‘En BeyondTrust, planeamos proporcionar las mejores soluciones de seguridad para hacer frente a los vectores de ataque actuales y futuros, que nuestros clientes y socios esperan’. FUENTE: Seguridad TI. »BeyondTrust presenta sus predicciones sobre ciberseguridad para 2024» Prensariotila.com. 15/11/2023. (https://prensariotila.com/beyondtrust-presenta-sus-predicciones-sobre-ciberseguridad-para-2024/).
Centro de ciberseguridad británica alerta del riesgo de herramientas de IA para las elecciones

La inteligencia artificial supone un riesgo para las próximas elecciones nacionales británicas, según alertó el martes el centro británico de ciberseguridad, y los ciberataques de países hostiles y sus asociados proliferan y cada vez son más difíciles de rastrear. “Este año ha asistido a la emergencia de actores alineados con estados como nueva ciberamenaza para infraestructura nacional crítica”, como las redes eléctricas, de agua e internet, indicó el Centro Nacional de Ciberseguridad. El centro, que forma parte de la agencia de ciberespionaje británica GCHQ, dijo en su análisis anual que el último año también ha incluido “la aparición de una nueva clase de adversario cibernético en forma de actores alineados con estados que a menudo simpatizan con una invasión mayor de Rusia en Ucrania y tienen motivaciones ideológicas, más que financieras”. Podría interesarle: Más de 74% de los CEO se sienten preocupados por los futuros ataques cibernéticos Los estados y grupos afines a estados plantean “una amenaza continuada y significativa”. Esto incluye desde delincuentes rusófonos que atacan firmas británicas con ataques de “ransomware”, que secuestra equipos informáticos para exigir pagos, a “actores cibernéticos afiliados al estado chino” que emplean sus habilidades para alcanzar “objetivos estratégicos que amenazan la seguridad y estabilidad de los intereses británicos”. El centro adivirtió del potencial de China El centro se hizo eco de las advertencias expresadas por las agencias de inteligencia MI5 y MI6 y describió el ascenso de China como superpotencia tecnológica como “un desafío que marca una era para la seguridad británica”. “Corremos el riesgo de que China se convierta en la fuerza dominante en el ciberespacio si nuestros esfuerzos de incrementar la resiliencia y desarrollar nuestras capacidades no siguen el ritmo”, afirmó. El reporte también recalcó la amenaza que suponen tecnologías de inteligencia artificial que avanzan con rapidez para consultas electorales, como las elecciones nacionales de Reino Unido, previstas para enero de 2025. Aunque el método antiguo de votación empleado en Reino Unido, con papel y lápiz, hace difícil que los hackers interfieran con las boletas en sí, el centro dijo que los videos manipulados y “bots hiperrealistas” facilitarían la difusión de desinformación durante la campaña. FUENTE: Asociated Press. »Centro de ciberseguridad británica alerta del riesgo de herramientas de IA para las elecciones». Es-us.noticias.yahoo.com. 14/11/2023. (https://es-us.noticias.yahoo.com/centro-ciberseguridad-brit%C3%A1nica-alerta-riesgo-100945952.html?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAACJVAeqKNgkgGTStCiYHTl4uza48XVJsNA6c2LVshCJ35ae_JvVqAutMfgMs4bctQ5JaYeZ7pJPC6C33FMiY2us-u2bqLQ-EE2oYCsM-_Zb2kQM2ZxAOWZwBNINcEHger77BAyYK-D4tJ5xP8JWOKQHy1AHQXx6fvUjNXSZZAU8a).
Uruguay actualiza su Estrategia Nacional de IA e incluye protección de datos personales

El gobierno de Uruguay anunció que su Estrategia Nacional de Inteligencia Artificial incluirá una Estrategia Nacional de Datos. La segunda estrategia buscará incorporar “nuevos pilares” para diseñar acciones adecuadas sobre temáticas que abordará el Estado, academia, sector privado y sociedad civil. La Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento enfatizó que realizarán mesas de diálogo y trabajo para afinar la regulación de Inteligencia Artificial (IA). El gobierno de Uruguay recibirá opiniones diversas a través de la Plataforma de Participación Ciudadana Digital. Uruguay: Estrategia Nacional de IA incluirá opiniones públicas y de empresas Ambas estrategias para regular la IA en Uruguay contarán con el respaldo de la UNESCO y el Banco de Desarrollo de América latina (CAF). Estos últimos se encargaron de la primera etapa del diagnóstico, quienes fijaron estándares éticos, de gobernanza y sostenibilidad para una IA con manejo responsable. Las siguientes etapas para regular la IA en Uruguay consistirán en: Uruguay, de los países más avanzados en su estrategia nacional de IA El país de Latinoamérica adoptó desde 2020 la Estrategia de IA para el Gobierno Digital y para 2025 espera tener lista la Agenda Digital Uruguay, donde los datos de la IA se “tratarán como un activo”. Uruguay busca que la regulación de la IA integre: ética, privacidad, responsabilidad, transparencia y no discriminación. Lea también: «El enemigo es la desinformación»: Líderes mundiales y empresas abordan la ciberseguridad en Riad Meses atrás, la Organización para la Cooperación y el Desarrollo Económico (OCDE) consideró que el sector público es el responsable en Latinoamérica de fijar las prioridades, inversiones y reglamentaciones a nivel país. Destacó que: Argentina, Brasil, Chile, Colombia, México, Perú y Uruguay, son los países de la región con mayores avances en su estrategia nacional de IA. La Universidad Nacional Autónoma de México (UNAM) pronosticó que el 80% de las personas en algunos países utilizan la IA “sin darse cuenta”, pero solo una tercera parte está consciente de ese aspecto. Admitió que la IA Generativa agilizará el proceso educativo, se volverá más horizontal, multivariado y personalizado. FUENTE: Venegas, Eduardo. »Uruguay actualiza su Estrategia Nacional de IA e incluye protección de datos personales» Es.beincrypto.com. 11/11/2023. (https://es.beincrypto.com/uruguay-actualiza-estrategia-ia-incluye-proteccion-datos-personales/).
El uso de la IA en la computación cuántica: el nuevo reto para la ciberseguridad

En un mundo cada vez más conectado y dependiente de la tecnología digital, la ciberseguridad se ha convertido en un pilar fundamental para garantizar la integridad y confidencialidad de la información. A medida que la tecnología avanza a pasos agigantados, surgen nuevas amenazas que desafían constantemente nuestras capacidades para proteger los datos y sistemas críticos. Este es el caso de la IA y la computación cuántica. La inteligencia artificial, con su capacidad para aprender, adaptarse y tomar decisiones de manera autónoma, ha revolucionado diversos campos, desde la atención médica hasta la industria automotriz. Ahora bien, esta, sumada la computación cuántica, son capaces de generar grandes herramientas y estrategias jamás antes vistas o contempladas. Lea también: Sólo 1 de cada 5 responsables de ciberseguridad considera eficaz su estrategia Narciso Lema, líder técnico comunitario en Colombia, Perú, Ecuador, Venezuela, Bolivia & LCR de IBM, y experto en computación e inteligencia artificial, ejemplifica esto con el caso de Mercedes Benz, con quienes están trabajando para crear nuevos materiales. En este proceso, se involucra la computación cuántica para «optimizar escenarios y modelar moléculas». Esto sucede también en escenarios financieros o científicos, en los que las computadoras cuánticas ayudan a buscar las mejores opciones dentro de un proyecto. La computación cuántica es un paradigma revolucionario en el campo de la informática que busca realizar cálculos a una velocidad y con una eficiencia que supera con creces a las computadoras clásicas. La ventaja de la computación cuántica respecto a la computación tradicional A diferencia de las computadoras tradicionales, que utilizan bits como unidades de información que pueden estar en estado 0 o 1, las computadoras cuánticas emplean cúbits (bits cuánticos), que pueden estar en múltiples estados simultáneos gracias a la superposición cuántica. Esto permite que las operaciones se ejecuten de manera paralela, lo que brinda un potencial impresionante para resolver problemas complejos de manera mucho más rápida. Esto abre la puerta a la comunicación cuántica y a la resolución de problemas en criptografía, optimización, simulación de sistemas físicos y otros campos de la ciencia que hasta ahora eran inabordables para las computadoras tradicionales. Aun así, el camino está lleno de grandes retos. Lema explica que la computación cuántica enfrenta actualmente en su camino hacia la adopción generalizada está en una etapa temprana, en la que se tienen que estabilizar algunos frentes tecnológicos. IBM hizo historia cuando creo en el 2021 el ordenador cuántico más potente jamás antes visto hasta la fecha. Pero en ese momento también abrió la puerta a muchas preguntas relacionadas con la ciberseguridad, pues conforme a la tecnología avanza, las estrategias y mecanismos para vulnerar sistemas informáticos también. La ciberseguridad en este nuevo mundo de IA y computación avanzada Ahora bien, con esto en mente, se puede decir que la inteligencia artificial también ha contribuido al crecimiento exponencial de los procesos relacionados con la computación cuántica. Esto incluye la ciberseguridad, la cual ha logrado fortalecer la protección de la información al posibilitar el desarrollo de algoritmos de encriptación más sofisticados. Estos pueden aplicarse para la generación de contraseñas, certificados y también para asegurar la encriptación de conexiones, archivos y datos. Sin embargo, esto también podría ser un arma de doble filo. En la actualidad, la mayor parte de los algoritmos de cifrado utilizan cifrado simétrico y asimétrico. Pero ojo, pues dichos algoritmos se basan en operaciones matemáticas que pueden ser resueltos en cuestión de segundos con un ordenador cuántico. En otras palabras, se contempla la posibilidad de ataques a gran escala que puedan superar algunas barreras criptográficas y los mecanismos de seguridad obsoletos FUENTE: Roncancio Bohorquez, Laura Natalia. »El uso de la IA en la computación cuántica: el nuevo reto para la ciberseguridad» Eltiempo.com. 02/11/2023. (https://www.eltiempo.com/tecnosfera/novedades-tecnologia/la-ia-en-la-computacion-cuantica-el-nuevo-reto-para-la-ciberseguridad-819656).
Latinoamérica mira todavía con desconfianza la IA, pese a su “potencial gigante”

Los avances de la IA están transformando la sociedad, pero en Latinoamérica, persiste la desconfianza debido a limitaciones en el acceso, el miedo a la pérdida de empleos y la reticencia a compartir datos. Los rápidos avances de la inteligencia artificial (IA) y su aplicación para diversas tareas y a nivel empresarial están transformando de forma acelerada la sociedad, pero en Latinoamérica todavía “existe un alto nivel de desconfianza” hacia ella, dijo este viernes a EFE un experto de la región en esta nueva tecnología. Las “grandes limitaciones para acceder” a esta tecnología en la región, el “temor de los empleados a perder sus trabajos” y, sobre todo, una “desconfianza general” a la hora de compartir los datos personales son factores que impiden su desarrollo, precisó Alejandro Anderlic, director de Asuntos Gubernamentales y Políticas Públicas de la compañía tecnológica Salesforce. Podría interesarle: Inteligencia artificial, ciberseguridad, robótica y transformación digital entre los empleos del futuro Esta empresa estadounidense de software basado en la nube participa hoy en el Simposio anual de la Sociedad de las Américas/Consejo de las Américas (COAS, en inglés), que celebra esta noche su gala de entrega de los Premios Bravo 2023. En entrevista con EFE, Anderlic apuntó que en ese contexto de desconfianza generalizada hacia la IA en la región, el 76,8 % cree que compartir sus datos personales “implica más riesgos que beneficios”, además de existir el factor del “bajo nivel de ciberseguridad”. Riesgos de la IA y ética El argentino reconoce que la IA, si bien tiene un “potencial gigante”, presenta riesgos. Por ello, Salesforce propugna una “inteligencia artificial ética” referida al buen uso de la tecnología, ya que esta no es buena o mala, todo “depende del uso que le demos”. Desde 2018, Salesforce cuenta con una “oficina de uso Ético y Humano” enfocada en desplegar una IA “confiable, responsable, inclusiva y transparente”, que rinda cuentas por medio de un Consejo Asesor de Uso Ético. El también abogado por la Universidad Católica Argentina destacó el carácter de “herramienta poderosa” de la IA para “ayudar, gracias a su capacidad de procesamiento, a proponer ideas y contenidos que las personas pueden desarrollar”. A nivel empresarial, las aplicaciones potenciales de la IA “son enormes”, por ejemplo, para programar reuniones, organizar archivos, gestionar tareas administrativas, escribir códigos, diseñar productos o crear contenidos y estrategias de mercadotecnia. Lea también: 5 beneficios de implementar la Inteligencia Artificial en Ciberseguridad Incluso sirve para prestar servicios de atención al cliente a través de chatbots o acelerar descubrimientos científicos, una automatización de tareas, como las mencionadas arriba, que permite a los equipos ser “más productivos y eficientes”, subraya Anderlic, quien fue director de asuntos corporativos en Microsoft. La Cuarta Revolución Industrial y la brecha No dudó en afirmar que nos encontramos inmersos en la Cuarta Revolución Industrial, donde la IA, el aprendizaje automático, la computación en la nube, el análisis de datos y el internet de las cosas (IoT) “están generando un profundo impacto en nuestra forma de vida en el mundo laboral”. Una revolución que se distingue por tres factores clave que la diferencia de las anteriores: en primer lugar, la “asombrosa velocidad del cambio”; luego, un “impacto” que no se limita a la tecnología en sí, sino que “está transformando profundamente los sistemas interconectados en nuestra sociedad”, desde la política hasta la economía y la forma en que operan los países. Preguntado si la IA puede agrandar la brecha social, Anderlic explicó que en América Latina este es un tema muy importante. Por eso, Salesforce considera fundamental “la democratización” de esta tecnología, que pasa porque todos tengan acceso a la tecnología y sus beneficios. “América Latina tiene un gran potencial en este frente, pues cuenta con la capacidad humana y es un semillero de ideas que pueden potenciar a la región”, puso de relieve. FUENTE: Agencia EFE. »Latinoamérica mira todavía con desconfianza la IA, pese a su “potencial gigante”» Gestion.pe. 21/10/2023. (https://gestion.pe/tecnologia/inteligencia-artificial-latinoamerica-mira-todavia-con-desconfianza-la-ia-pese-a-su-potencial-gigante-ciberseguridad-noticia/).
No todo es color de rosa en el mundo de la IA: Microsoft alerta sobre la llegada de ciberataques más devastadores

Las cada vez más potentes herramientas de inteligencia artificial (IA) que van apareciendo por estos tiempos están transformando diversas industrias y, por consecuencia, la vida de muchas personas. No es ningún secreto que los algoritmos ya tienen un papel fundamental en la automoción, el comercio electrónico, los recursos humanos, la educación y la ciberseguridad, por mencionar sólo algunos ejemplos. El alcance de este fenómeno, como podemos ver, es enorme. Y esto planeta una gran cantidad de desafíos porque la IA está siento utilizada para fines lícitos, como para fines ilícitos. Así como los estudiantes han empezado a utilizar ChatGPT para hacer los deberes (y cada vez más profesores responden con la misma herramienta), los ciberdelincuentes recurren a la IA para mejorar sus ataques. La evolución de la IA y los problemas de ciberseguridad Microsoft tiene claro que el desarrollo de la IA llega acompañado de nuevos retos para el campo de la seguridad informática. En declaraciones a The Wall Street Journal, el líder de seguridad y confianza de la compañía de Redmond, Tom Burt, ha reconocido que los atacantes, tanto individuales como patrocinados por estados, han conseguido mejorar sus técnicas de intrusión gracias a la IA. Los ataques de ransomware se duplicaron entre noviembre de 2022 y junio de 2023, según los investigadores de Microsoft. Para llegar a esta conclusión, explican, hicieron un análisis basado en 123 millones de dispositivos y rastrearon más de 300 grupos de ciberdelincuentes. Profundicemos un poco más para saber qué está sucediendo. Podría interesarle: Las pérdidas globales por ciberataques representarían hasta US$24 billones en 2027 Así como ChatGPT o GitHub Copilot mejoran la productividad de los programadores y las compañías, estas herramientas también pueden estar siendo utilizadas por los ciberdelincuentes. En concreto, para mejorar el código de sus programas maliciosos (malware) e incluso para mejorar los mensajes que acompañan los ataques de phishing. Una combinación realmente peligrosa para la ciberseguridad. Cuando hablamos de phishing, recordemos, hacemos referencia a una técnica que tiene como finalidad hacer que las víctimas “piquen”. Esto se consigue gracias al envío de mensajes fraudulentos que suelen hacerse pasar por personas o empresas de nuestra confianza, por ejemplo, el caso de suplantación de identidad de Correos en España, algo que ha llevado a la organización a tomar acción. El papel de los usuarios dentro de los riesgos de ciberseguridad para la IA Desde nuestra posición, la de los usuarios, tendremos que estar preparados para ver llegar a nuestra bandeja de entrada correos electrónicos cada vez más sofisticados cuyo aspecto puede imitar casi a la perfección a uno auténtico de nuestro banco, compañías de mensajería, redes sociales, etc. No solo en el lenguaje utilizado para convencernos, si no también en la imagen de marca. La IA, según la compañía detrás de Windows, también puede revitalizar la economía de los grupos de ciberdelincuentes. En el mundo existen ciertos actores maliciosos que venden sus servicios. Lo hemos visto tanto en ataques de phishing como de ransomware. Los algoritmos estarían impulsando una nueva oferta de servicios ilegales para aquellos individuos interesados en utilizarlos. En el mundo del ransomware, como mencionamos arriba, los ataques aumentaron considerablemente. Además, la mecánica de ataque ha mejorado para evitar dejar rastros y dificultar cualquier intento de recuperación por los equipos de ciberseguridad. Los datos, en lugar de cifrarse en el entorno local de la víctima, ahora lo hacen de forma remota. La industria de la ciberseguridad, por su parte, lleva años utilizando esta tecnología para mejorar la detección de amenazas, el análisis de comportamiento de sistemas y la prevención de intrusiones. Sin embargo, en el mundo en el que vivimos, no pueden tomarse un respiro y deben seguir evolucionando a la par de las amenazas que van apareciendo en el horizonte. FUENTE: Márquez, Javier. »No todo es color de rosa en el mundo de la IA: Microsoft alerta sobre la llegada de ciberataques más devastadores» Xataka.com. 09/10/2023. (https://www.xataka.com/robotica-e-ia/no-todo-color-rosa-mundo-ia-microsoft-alerta-llegada-ciberataques-devastadores).