‘La tecnología se mueve más rápido que la regulación’, Julie Myers

Julie Myers Wood, experta en ciberseguridad e inteligencia artificial (IA), fue directora del Servicio de migración y Control de Aduanas de EE. UU. (ICE), del Departamento de Seguridad Nacional (Homeland Security) y actualmente es presidenta de Guidepost Solutions. Llegó a Bogotá para el conversatorio ‘Crisis global, impacto local, cuando el riesgo avanza más rápido que las empresas’. Myers habló con EL TIEMPO sobre los avances en IA y ciberseguridad. Además, dio recomendaciones para que el país avance en este tema. ¿Cómo hablar de riesgos y oportunidades en ciberseguridad e IA? La inteligencia artificial es algo que llega para desarrollar y transformar el mundo. Aunque la IA y el machine learning han estado hace tiempo, la autogeneración de las mismas máquinas presenta un desarrollo que puede afectar a cualquier industria, a cualquier país. Un ejemplo: se pronostica que el desarrollo generativo de medicamentos será del 25 por ciento para 2025. Es decir que los medicamentos en el mundo se van a generar por IA, hoy este porcentaje es de 0. Por esto, criminales y grupos que amenazan ven la importancia y el poder que genera la IA y están viendo cómo usar tecnología para atacar organizaciones o hacer ciberamenazas y controlar la IA. Podría interesarle: La privacidad y el uso de la IA preocupan a tres de cada cuatro españoles ¿Cuáles son los riesgos para la seguridad nacional o los gobiernos? Es otra de las áreas críticas, por ejemplo, cuando se usa la inteligencia artificial para generar desinformación y crear noticias falsas. La desinformación ha afectado procesos electorales en la India, en Filipinas y es año electoral en Estados Unidos. Hay preocupación por eso. Otra área de inquietud es que no solo utilicen la IA para ataques cibernéticos, sino para ataques reales. Cada vez somos más dependientes de armas que se soportan en IA. Preocupa que los criminales puedan afectar drones y otro armamento para atacar otros targets, es una amenaza adicional. ¿Qué herramientas de regulación se necesitan? Este es uno de los retos. Los gobiernos fallaron mucho en la regulación en torno al cripto. Con esto nos quedamos atrás y se desarrolló más rápido. Será más difícil en algo como la IA generativa, que corre a pasos agigantados. Es prometedor que algunos organismos empiezan a desarrollar un marco regulatorio. La Unión Europea genera un estatuto que muestra avances. Cada uno de estos regímenes legales o sistemas federales son diferentes y se van ajustando a su realidad. No sabemos cuál de esos sistemas será el más eficiente. Es lo que tenemos que observar. ¿Cómo siente que el Gobierno colombiano se mueve en este tema? Es importante que un gobierno como el colombiano tenga el equipo adecuado en la cartera de tecnología. El liderazgo dependerá de tener personal capacitado en el lenguaje del desarrollo generativo de IA. Ningún país puede hacer esto solo, lo que le pasa a Estados Unidos, no le pasa a Colombia ni a ninguno. Se debe generar una sociedad entre países y entre empresas importantes en estos desarrollos. ¿Hacia dónde debe ir la educación en IA, en Colombia? Algo bueno que trae la tecnología es que nos deja experimentar y eso le permite al individuo aprender por sí solo. Por otro lado, las empresas deben tener un marco propio regulatorio sobre qué y qué no deben hacer, cómo manejar la información y cómo aprender de las herramientas, mediante el uso, cuidando la información sensible. Hoy, infectan con virus las herramientas similares a ChatGPT. La gente ingresa, pero proporcionan algún tipo de infección a su sistema para controlar la información. ¿Qué les recomienda a personas y empresas? Lo primero que aplica para todos es generar una política de gobernanza en materia de IA. Es importante definir que cada institución tenga sus políticas. Sin una política regulatoria propia de cómo los empleados deben utilizar la IA, para qué y cómo sacarle provecho, se corre el riesgo de cometer errores. Además, hay que enfocar la IA en resolver problemas puntuales. ¿Qué recomendación le da al Gobierno? En regulación, es importante que Colombia observe los sistemas que se están creando en la Unión Europea, Gran Bretaña y Estados Unidos. Puede aprender y ver si alguno de esos modelos es aplicable. También debe desarrollar su propio marco regulatorio, cogiendo aspectos claves y entendiendo sus necesidades puntuales. La tecnología se mueve más rápido que la regulación, entonces el gobierno debe buscar cómo pararse del lado de la tecnología y entender qué elementos son determinantes para usar la IA a su favor. FUENTE: Serrano Hernández, Lina. »‘La tecnología se mueve más rápido que la regulación’, Julie Myers» Eltiempo.com. 11/02/2024. (https://www.eltiempo.com/tecnosfera/novedades-tecnologia/julie-myers-habla-sobre-avances-en-inteligencia-artificial-y-ciberseguridad-853911).

IA vs. IA: cómo puede ser una herramienta de defensa, pero también una amenaza

Aunque la IA comienza a demostrar su valor como herramienta en los procesos de seguridad, también implica la presencia de nuevos riesgos, desde la ampliación de la superficie de ataque hasta su uso por cibercriminales, explicaron ejecutivos de IBM. Juan Carlos Zevallos, director de Ciberseguridad en América Latina para IBM, citó un estudio de la compañía, el cual revela que los costos derivados de una filtración en América Latina se incrementaron en un 76 por ciento durante 2023, con lo que en promedio se elevó a 2.46 millones de dólares. Más allá del costo para las víctimas, alertó que los ciberataques tienen consecuencias a nivel del orden social, pueden alterar un mercado o los precios de los insumos en las industrias. Lea también: Así funcionan las nuevas estafas telefónicas 3.0: inteligencia artificial al servicio de los ciberdelincuentes Bajo este contexto, la IA ha logrado llegar a cierta madurez para ampliar su uso como herramienta de defensa en la prevención o respuesta de ataques; sin embargo, también se ha incrementado entre los cibercriminales, quienes ahora pueden acceder a estas herramientas para escalar y hacer más efectivos sus ataques. En cuanto a su uso como herramienta de defensa, Zevallos señala que la IA es un gran aliado para cubrir uno de los elementos más relevantes después de un ataque: reducir el tiempo para identificar y contener una amenaza al contar con herramientas automatizadas mediante IA. Según IBM, si se logra una respuesta dentro de los primeros 200 días, el costo se puede mantener por debajo de 2.13 millones de dólares, pero si pasa de este tiempo podría elevarse a 2.79 millones Datos de la compañía indican también que 55 por ciento de las empresas encuestadas señaló haber reducido su tiempo en triage (identificar, priorizar y resolver) con herramientas de IA, a la vez que un 85 por ciento reportó una reducción en el tiempo de respuesta. Por ello, 85 por ciento de las empresas indicó que priorizará el uso de herramientas de seguridad con IA sobre las tradicionales, ya que estas podrán ayudar a los analistas de ciberseguridad al análisis de datos, predicción y protección de amenazas. Sin embargo, Zevallos reconoció que al tiempo en que se convierte en una herramienta que impulsa la productividad de las empresas, el acceso a los datos y el uso de información valiosa para que funcionen los modelos de IA, también la convierten en un nuevo objetivo de los cibercriminales. Por ello, recomendó que la seguridad se debe integrar desde el modelo, para proteger los datos, pero también asegurarse que se hace un buen uso de la IA, en líneas con las guías de ética y responsabilidad. Podría interesarle: La protección de datos y la Ley de Inteligencia Artificial europea: el derecho al Digital Trust no esperará a 2026 Por otro lado, Bruno Pancica, director de Ciberseguridad para IBM México, alertó sobre el uso de herramientas de IA entre los cibercriminales. Explicó que aunque no se va a generar un cambio radical en el tipo de ataques, la IA permitirá escalar y reducir el tiempo de los mismos. Por ejemplo, ya es una realidad que se ha utilizado IA para crear phishing más efectivo, que existen en el mercado grandes modelos de lenguaje (LLMs) maliciosos como FraudGPT, que reducen la barrera de entrada para atacantes menos expertos, así como la creación de deepfakes, especialmente conforme múltiples países se acercan a temporadas electorales en este 2024. Otro tipo de ataques aún permanecen más como un mito que como realidad, pero que no se descarta su existencia en el futuro, como la automatización de ataques mediante IA Generativa o la existencia de IA de código abierto que pueda ser utilizada para nuevas formas de ataque. FUENTE: Jiménez Páez, Efrén. »IA vs. IA: cómo puede ser una herramienta de defensa, pero también una amenaza» Dplnews.com. 02/02/2024. (https://dplnews.com/ia-vs-ia-como-puede-ser-una-herramienta-de-defensa-pero-tambien-una-amenaza/).

ChatGpt genera datos de ensayos clínicos falsos para respaldar hipótesis científicas

Un grupo de investigadores del departamento de Oftalmología de la Universidad Magna Graecia de Catanzaro (Italia) ha utilizado la tecnología que hay detrás de ChatGPT de inteligencia artificial (IA) para crear un conjunto de datos de ensayos clínicos falsos y respaldar una afirmación científica no verificada, advirtiendo del peligro que puede suponer esta tecnología para la ciencia, según revela una carta publicada en ‘Jama Ophtalmogoly’ y recogida por la revista ‘Nature‘. Los datos generados por la inteligencia artificial (IA) compararon los resultados de dos procedimientos quirúrgicos e indicaron, erróneamente, que un tratamiento es mejor que el otro. Para ello, los autores utilizaron GPT-4, la última versión del modelo de lenguaje en el que se ejecuta ChatGPT, junto con el Análisis de datos avanzado (ADA), un modelo que incorpora el lenguaje de programación Python y puede realizar análisis estadísticos y crear visualizaciones de datos. «Nuestro objetivo era resaltar que, en unos minutos, se puede crear un conjunto de datos que no está respaldado por datos originales reales, y que también es opuesto o en la dirección contraria a la evidencia disponible», dice el coautor del estudio y cirujano ocular de la Universidad de Cagliari en Italia, Giuseppe Giannaccare, en ‘Nature’. Preocupa la capacidad de ChatGPT de generar datos convicentes y reales, según estudio Tras este hallazgo, la capacidad de la IA para fabricar datos convincentes aumenta la preocupación entre los investigadores y editores de revistas sobre la integridad de la investigación. «Una cosa era que la IA generativa pudiera usarse para generar textos que no serían detectables mediante software de plagio, pero la capacidad de crear conjuntos de datos falsos pero realistas es el siguiente nivel de preocupación», apunta la microbióloga e investigadora independiente, Elisabeth Bik. Así, Bik asegura que esta tecnología «hará que sea muy fácil para cualquier investigador o grupo de investigadores crear mediciones falsas en pacientes inexistentes, respuestas falsas a cuestionarios o generar un gran conjunto de datos sobre experimentos con animales». Lea también: Ciberataques con IA, una de las grandes amenazas financieras para 2024 Los autores describen los resultados como una «base de datos aparentemente auténtica» pero, cuando los especialistas examinaron estos datos, no pasaron los controles de autenticidad y contenían signos reveladores de haber sido inventados. El método de investigación que llevó a estos resultados Para llegar a esta conclusión, los investigadores pidieron a GPT-4 ADA que creara un conjunto de datos sobre personas con una afección ocular llamada queratocono, que causa adelgazamiento de la córnea y puede provocar problemas de concentración y mala visión. Para entre el 15 y el 20 por ciento de las personas con la enfermedad, el tratamiento implica un trasplante de córnea, realizado mediante uno de estos dos procedimientos. El primer método, la queratoplastia penetrante (PK), consiste en extirpar quirúrgicamente todas las capas dañadas de la córnea y reemplazarlas con tejido sano de un donante. El segundo procedimiento, queratoplastia lamelar anterior profunda (DALK), reemplaza solo la capa frontal de la córnea, dejando intacta la capa más interna. Los autores ordenaron a ChatGpt que fabricara datos para respaldar la conclusión de que el método DALK produce mejores resultados que PK. Para ello, le pidieron que mostrara una diferencia estadística en una prueba de imagen que evalúa la forma de la córnea y detecta irregularidades, así como una diferencia de cómo podían ver los participantes del ensayo antes y después de los procedimientos. Los datos generados por la IA incluyeron a 160 participantes masculinos y 140 femeninos e indicaron que aquellos que se sometieron a DALK obtuvieron mejores puntuaciones tanto en la prueba de visión como en la prueba de imágenes que aquellos que se sometieron a PK, un hallazgo que contradice lo que muestran los ensayos clínicos actuales. En un informe de 2010 de un ensayo con 77 participantes, los resultados de DALK fueron similares a los de PK hasta dos años después de la cirugía. ¿Cómo reconocer el origen no humano de los datos? Aparentemente los datos científicos parecen estar generados por humanos y no por una inteligencia artificial, pero los investigadores aseguran que haciendo un examen minucioso sí que es posible diferenciar el origen no humano de dichos datos. «Si se mira muy rápidamente el conjunto de datos, es difícil reconocer el origen no humano de la fuente de datos», apunta el cirujano Giuseppe Giannaccare. A petición de la revista ‘Nature’, los investigadores evaluaron el conjunto de datos falsos mediante un protocolo de detección diseñado para comprobar su autenticidad. Esto reveló una discrepancia en muchos «participantes» entre el sexo designado y el sexo que normalmente se esperaría de su nombre. Además, no se encontró correlación entre las medidas preoperatorias y postoperatorias de la capacidad visual y la prueba de imágenes oculares. Asimismo, se inspeccionó la distribución de números en algunas de las columnas del conjunto de datos para comprobar si había patrones no aleatorios. Los valores de las imágenes oculares pasaron esta prueba, pero algunos de los valores de edad de los participantes se agruparon de una manera que sería extremadamente inusual en un conjunto de datos genuino ya que hubo un número desproporcionado de participantes cuyos valores de edad terminaron en siete y ocho. FUENTE: Europa Press. »ChatGpt genera datos de ensayos clínicos falsos para respaldar hipótesis científicas» Lanacion.com.ar. 07/12/2023. (https://www.lanacion.com.ar/agencias/chatgpt-genera-datos-de-ensayos-clinicos-falsos-para-respaldar-hipotesis-cientificas-nid07122023/).

Siete tendencias que marcarán la ciberseguridad para 2024

Eli Faskha, CEO de Soluciones Seguras, señala que la transición a utilizar la IA en ciberseguridad es innegable. »Debemos innovar más rápido que las amenazas que enfrentamos para mantenernos un paso adelante. Aprovechemos todo el potencial de la IA para la ciberseguridad, con un enfoque en el uso responsable y ético”. Los ciberataques a organizaciones del país aumentaron más de un 70% con respecto al año 2021. En los últimos 6 meses, el sector de Banca y Finanzas continúa siendo el objetivo en el país de los ciberdelincuentes, con un promedio de 2159 ataques semanales por organización. Sostuvo que con el aumento de ciberataques mejorados por IA, modelos de confianza cero y la tecnología deepfake, la inversión en soluciones de ciberseguridad colaborativas, completas y consolidadas es crucial. La ciberdelincuencia ha experimentado un crecimiento significativo en el último año, destacando un aumento del 8% en los ciberataques semanales a nivel global en el segundo trimestre, según datos de Check Point Research (CPR). Estos indicadores marcan el volumen más alto en dos años, evidenciando una evolución y sofisticación de amenazas conocidas como ransomware y hacktivismo, con grupos criminales modificando sus métodos y herramientas para afectar a organizaciones a nivel mundial. Uno de los desarrollos más significativos ha sido la evolución del panorama de ransomware, donde más de 48 grupos informaron sobre la extorsión a más de 2,200 víctimas en el primer semestre del 2023. Las predicciones de ciberseguridad de Check Point, partner de Soluciones Seguras, para el 2024 abarcan siete categorías principales: “En un panorama de amenazas en constante expansión, es imperativo mantenerse vigilantes y ágiles, trabajando juntos para crear una defensa efectiva contra los riesgos cibernéticos”, finalizó Faskha. 1. Inteligencia Artificial y Aprendizaje Automático: • Ascenso de ciberataques dirigidos por IA: Los actores de amenazas adoptarán IA para acelerar y expandir su arsenal, desde el desarrollo eficiente de nuevas variantes de malware hasta el uso de tecnologías deepfake para ataques de phishing y suplantación de identidad. Lea también: Pilares, tendencias y panorama de la ciberseguridad en 2024 según Check Point • Uso de IA en defensa cibernética: La inversión en IA para ciberseguridad se intensificará, siendo vital para la protección contra amenazas avanzadas. 2.  GPU Farming y la Nube: • El enfoque de hackers en recursos de IA en la nube: Los hackers verán las recursos de IA basados en la nube como oportunidades lucrativas, centrando sus esfuerzos en establecer granjas de procesamiento gráfico (GPU) para financiar sus actividades cibernéticas. 3. Ataques a la cadena de suministro y la infraestructura crítica: • Confianza cero en la cadena de suministro: Ante el aumento de ciberataques, habrá un desplazamiento hacia modelos de “confianza cero” que requieran verificación para cualquier conexión a un sistema, independientemente de la red en la que se encuentren. 4. Ciberseguro y AI: • Transformación en la evaluación de resiliencia cibernética: La IA transformará la manera en que las compañías de seguros evalúan la resistencia cibernética de sus clientes potenciales. 5. Ataques de Estados Nación y Hacktivismo: • Persistencia de la guerra cibernética: La inestabilidad geopolítica será un factor que influya en actividades hacktivistas, con el objetivo de perturbar y desestabilizar. 6. Utilización de tecnología Deepfake como arma para propósitos espurios: • Avances en tecnología deepfake. Estas herramientas serán empleadas para crear contenido que pueda influir en opiniones o alterar precios de acciones. 7. Amenazas de Phishing Continúan: • Tácticas avanzadas de phishing: Se prevé un aumento en campañas de phishing más personalizadas y efectivas. FUENTE: Hernández, Katiushka. »Siete tendencias que marcarán la ciberseguridad para 2024» Martesfinanciero.com. 30/11/2023. (https://www.martesfinanciero.com/tendencias/siete-tendencias-que-marcaran-la-ciberseguridad-para-2024/).

EE.UU., Gran Bretaña y otros países elaboran directrices sobre IA «seguras por diseño»

Las directrices sugieren prácticas de ciberseguridad que las empresas de IA deben aplicar a la hora de diseñar, desarrollar, lanzar y supervisar modelos de IA. Estados Unidos, Reino Unido, Australia y otros 15 países han publicado directrices globales para ayudar a proteger los modelos de inteligencia artificial (IA) contra manipulaciones, instando a las empresas a hacer que sus modelos sean “seguros por diseño”. El 26 de noviembre, los 18 países publicaron un documento de 20 páginas que describe cómo las empresas de IA deben manejar la ciberseguridad al desarrollar o utilizar modelos de IA, ya que afirmaron que “la seguridad a menudo puede ser una consideración secundaria” en la industria de ritmo rápido. Lea también: Pilares, tendencias y panorama de la ciberseguridad en 2024 según Check Point Las directrices consistieron principalmente en recomendaciones generales, como mantener un estricto control sobre la infraestructura del modelo de IA, monitorear cualquier manipulación con los modelos antes y después de su lanzamiento y capacitar al personal en los riesgos de ciberseguridad. Directrices con espacio para mejora No se mencionaron ciertos problemas controvertidos en el espacio de la inteligencia artificial, incluyendo posibles controles sobre el uso de modelos generadores de imágenes y deep fakes o métodos de recopilación de datos y su uso en la capacitación de modelos, un problema que ha llevado a que varias empresas de IA sean demandadas por reclamaciones de infracción de derechos de autor. “Estamos en un punto de inflexión en el desarrollo de la inteligencia artificial, que bien podría ser la tecnología más trascendental de nuestro tiempo”, dijo Alejandro Mayorkas, Secretario de Seguridad Nacional de Estados Unidos, en un comunicado. “La ciberseguridad es clave para construir sistemas de IA que sean seguros, sólidos y confiables.” Las directrices siguen a otras iniciativas gubernamentales que se pronuncian sobre la IA, incluida la reunión de gobiernos y empresas de IA en un Encuentro sobre Seguridad en AI en Londres a principios de este mes para coordinar un acuerdo sobre el desarrollo de la AI. Mientras tanto, la Unión Europea está ultimando detalles de su Ley de Inteligencia Artificial que supervisará el espacio y el presidente de los Estados Unidos, Joe Biden, emitió una orden ejecutiva en octubre que establece estándares para la seguridad y la ciberseguridad de la IA, aunque ambos han enfrentado resistencia de la industria de la Inteligencia Artificial que afirma que podrían frenar la innovación. Otros firmantes de las nuevas directrices «seguras por diseño» incluyen a Canadá, Francia, Alemania, Israel, Italia, Japón, Nueva Zelanda, Nigeria, Noruega, Corea del Sur y Singapur. Empresas de IA, como OpenAI, Microsoft, Google, Anthropic y Scale AI, también contribuyeron al desarrollo de las directrices. FUENTE: Coghlan, Jesse. »EE.UU., Gran Bretaña y otros países elaboran directrices sobre IA «seguras por diseño» Es.cointelegraph.com. 27/11/2023. (https://es.cointelegraph.com/news/us-britain-countries-ink-ai-cybersecurity-guidelines-secure-by-design).

BeyondTrust presenta sus predicciones sobre ciberseguridad para 2024

BeyondTrust, líder mundial en seguridad inteligente de identidades y accesos, ha publicado su predicción anual de tendencias en ciberseguridad para el próximo año. Estas previsiones, elaboradas por los expertos de BeyondTrust, Morey J. Haber, Chief Security Officer; Christopher Hills, Chief Security Strategist; y James Maude, Director de Investigación, se basan en los cambios tecnológicos, los hábitos de los actores de amenazas, la cultura y décadas de experiencia combinada. Predicción nº 1: La evolución de la amenaza de la IA en tres etapas: Predicción nº 2: Las aplicaciones dedicadas inician el curso hacia la extinción  La IA generativa está llamada a dejar obsoletas las aplicaciones dedicadas. La flexibilidad y la potencia de la IA podrían sustituirlas por comandos de voz, facilitando la creación de confianza en una interfaz común. Las complejas interfaces de usuario podrían quedar obsoletas a medida que la atención se centre en aplicaciones orientadas a resultados y funciones específicas. Predicción nº 3: Abajo el VOIP (Voz sobre IP) y el POTS (Servicio Telefónico Tradicional). UCS (Servicios de Comunicaciones Unificadas) es el futuro   Los UCS eliminarán gradualmente el POTS y el VOIP dedicado. Las vulnerabilidades y los hackeos pueden poner en peligro este medio de comunicación antiguo seguro. Predicción nº 4: Sobrecarga de suscripciones Es de esperar que los artículos de uso cotidiano pasen a modelos basados en suscripciones. Mientras los pagos electrónicos sustituyen al dinero en efectivo, crecerá la tendencia a conceder licencias de productos y servicios mediante suscripciones. Sin embargo, las brechas en las suscripciones pueden plantear riesgos para la seguridad de los datos. Predicción nº 5: Los Juice Jackers (Hackers que involucran un puerto USB en ciberataques) explotan la estandarización del USB-C La proliferación de conectores USB-C aporta comodidad, pero también plantea problemas de seguridad. Un único tipo de conexión estándar simplifica el trabajo a los actores de amenazas, lo que aumenta los riesgos de ataques. Predicción nº 6: Mapa de exploits para ransomware Los ataques de ransomware pasarán de la extorsión de datos a la venta de datos explotables sobre las organizaciones. Los actores de amenazas venderán información relacionada con vulnerabilidades, exploits, identidades, privilegios e higiene, centrándose en amenazas potenciales y vectores de ataque. Predicción nº 7: Estandarización del ciberseguro  Se espera que el ciberseguro se estandarice más entre los proveedores, mejorando la reducción de riesgos y la gestión de la responsabilidad de las empresas. Un enfoque basado en marcos estandarizará las pólizas cibernéticas. BeyondTrust también prevé tendencias de ciberseguridad para los próximos cinco años: Predicción nº 8: La era del malware llega a su fin   El malware está en declive, a medida que el compromiso de la identidad y las herramientas nativas sustituyen a los exploits de software. La atención se centrará en la identificación de identidades comprometidas y la detección de comportamientos inusuales. Predicción nº 9: Cadenas de suministro de IA en el punto de mira Los estados-nación explotarán las cadenas de suministro de IA para introducir vulnerabilidades. Los asistentes de código de IA y sus datos de entrenamiento se convierten en objetivos, lo que puede comprometer la infraestructura de IA y crear nuevos vectores de ataque. Predicción nº 10: Vuelve la tecnología de época La electrónica de época hará un regreso moderno, combinando la nostalgia con la conectividad moderna. Estos dispositivos pueden abrir nuevas vulnerabilidades y vectores de ataque. Predicción nº 11: Las cadenas de confianza de identidad evolucionan para hacer frente a las amenazas modernas   Los servicios de verificación de identidad surgirán como respuesta a las amenazas basadas en la identidad, con soluciones de terceros que proporcionarán una verificación de identidad de alta confianza en el mundo electrónico. Predicción nº 12: La evolución de la IA establece un ajuste en la ley Los campos de la gobernanza y el cumplimiento de la IA evolucionarán, centrándose en la regulación responsable de la IA, las normas éticas y la privacidad. Las normativas variarán en función de la región, creando un objetivo móvil para el uso de la IA. Predicción nº 13: El mando a distancia se pierde Los mandos a distancia físicos están desapareciendo a medida que se imponen las aplicaciones telefónicas específicas y los comandos de voz. Esta transición, aunque reduce los residuos electrónicos, puede plantear nuevos retos para la seguridad de la red. ‘Mirar hacia el futuro nos ayuda a anticipar hacia dónde se dirigirán sin duda los actores de ciberamenazas, y prepararse para lo que está por venir marca la diferencia en la eficacia de la gestión de riesgos’, dijo Morey Haber, Chief Security Officer de BeyondTrust. Completa: ‘En BeyondTrust, planeamos proporcionar las mejores soluciones de seguridad para hacer frente a los vectores de ataque actuales y futuros, que nuestros clientes y socios esperan’. FUENTE: Seguridad TI. »BeyondTrust presenta sus predicciones sobre ciberseguridad para 2024» Prensariotila.com. 15/11/2023. (https://prensariotila.com/beyondtrust-presenta-sus-predicciones-sobre-ciberseguridad-para-2024/).

Uruguay actualiza su Estrategia Nacional de IA e incluye protección de datos personales

El gobierno de Uruguay anunció que su Estrategia Nacional de Inteligencia Artificial incluirá una Estrategia Nacional de Datos. La segunda estrategia buscará incorporar “nuevos pilares” para diseñar acciones adecuadas sobre temáticas que abordará el Estado, academia, sector privado y sociedad civil. La Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento enfatizó que realizarán mesas de diálogo y trabajo para afinar la regulación de Inteligencia Artificial (IA). El gobierno de Uruguay recibirá opiniones diversas a través de la Plataforma de Participación Ciudadana Digital. Uruguay: Estrategia Nacional de IA incluirá opiniones públicas y de empresas Ambas estrategias para regular la IA en Uruguay contarán con el respaldo de la UNESCO y el Banco de Desarrollo de América latina (CAF). Estos últimos se encargaron de la primera etapa del diagnóstico, quienes fijaron estándares éticos, de gobernanza y sostenibilidad para una IA con manejo responsable. Las siguientes etapas para regular la IA en Uruguay consistirán en: Uruguay, de los países más avanzados en su estrategia nacional de IA El país de Latinoamérica adoptó desde 2020 la Estrategia de IA para el Gobierno Digital y para 2025 espera tener lista la Agenda Digital Uruguay, donde los datos de la IA se “tratarán como un activo”. Uruguay busca que la regulación de la IA integre: ética, privacidad, responsabilidad, transparencia y no discriminación. Lea también: «El enemigo es la desinformación»: Líderes mundiales y empresas abordan la ciberseguridad en Riad Meses atrás, la Organización para la Cooperación y el Desarrollo Económico (OCDE) consideró que el sector público es el responsable en Latinoamérica de fijar las prioridades, inversiones y reglamentaciones a nivel país. Destacó que: Argentina, Brasil, Chile, Colombia, México, Perú y Uruguay, son los países de la región con mayores avances en su estrategia nacional de IA. La Universidad Nacional Autónoma de México (UNAM) pronosticó que el 80% de las personas en algunos países utilizan la IA “sin darse cuenta”, pero solo una tercera parte está consciente de ese aspecto. Admitió que la IA Generativa agilizará el proceso educativo, se volverá más horizontal, multivariado y personalizado. FUENTE: Venegas, Eduardo. »Uruguay actualiza su Estrategia Nacional de IA e incluye protección de datos personales» Es.beincrypto.com. 11/11/2023. (https://es.beincrypto.com/uruguay-actualiza-estrategia-ia-incluye-proteccion-datos-personales/).

El uso de la IA en la computación cuántica: el nuevo reto para la ciberseguridad

En un mundo cada vez más conectado y dependiente de la tecnología digital, la ciberseguridad se ha convertido en un pilar fundamental para garantizar la integridad y confidencialidad de la información. A medida que la tecnología avanza a pasos agigantados, surgen nuevas amenazas que desafían constantemente nuestras capacidades para proteger los datos y sistemas críticos. Este es el caso de la IA y la computación cuántica. La inteligencia artificial, con su capacidad para aprender, adaptarse y tomar decisiones de manera autónoma, ha revolucionado diversos campos, desde la atención médica hasta la industria automotriz. Ahora bien, esta, sumada la computación cuántica, son capaces de generar grandes herramientas y estrategias jamás antes vistas o contempladas. Lea también: Sólo 1 de cada 5 responsables de ciberseguridad considera eficaz su estrategia Narciso Lema, líder técnico comunitario en Colombia, Perú, Ecuador, Venezuela, Bolivia & LCR de IBM, y experto en computación e inteligencia artificial, ejemplifica esto con el caso de Mercedes Benz, con quienes están trabajando para crear nuevos materiales. En este proceso, se involucra la computación cuántica para «optimizar escenarios y modelar moléculas». Esto sucede también en escenarios financieros o científicos, en los que las computadoras cuánticas ayudan a buscar las mejores opciones dentro de un proyecto.  La computación cuántica es un paradigma revolucionario en el campo de la informática que busca realizar cálculos a una velocidad y con una eficiencia que supera con creces a las computadoras clásicas. La ventaja de la computación cuántica respecto a la computación tradicional A diferencia de las computadoras tradicionales, que utilizan bits como unidades de información que pueden estar en estado 0 o 1, las computadoras cuánticas emplean cúbits (bits cuánticos), que pueden estar en múltiples estados simultáneos gracias a la superposición cuántica. Esto permite que las operaciones se ejecuten de manera paralela, lo que brinda un potencial impresionante para resolver problemas complejos de manera mucho más rápida. Esto abre la puerta a la comunicación cuántica y a la resolución de problemas en criptografía, optimización, simulación de sistemas físicos y otros campos de la ciencia que hasta ahora eran inabordables para las computadoras tradicionales. Aun así, el camino está lleno de grandes retos. Lema explica que la computación cuántica enfrenta actualmente en su camino hacia la adopción generalizada está en una etapa temprana, en la que se tienen que estabilizar algunos frentes tecnológicos.  IBM hizo historia cuando creo en el 2021 el ordenador cuántico más potente jamás antes visto hasta la fecha. Pero en ese momento también abrió la puerta a muchas preguntas relacionadas con la ciberseguridad, pues conforme a la tecnología avanza, las estrategias y mecanismos para vulnerar sistemas informáticos también. La ciberseguridad en este nuevo mundo de IA y computación avanzada Ahora bien, con esto en mente, se puede decir que la inteligencia artificial también ha contribuido al crecimiento exponencial de los procesos relacionados con la computación cuántica. Esto incluye la ciberseguridad, la cual ha logrado fortalecer la protección de la información al posibilitar el desarrollo de algoritmos de encriptación más sofisticados. Estos pueden aplicarse para la generación de contraseñas, certificados y también para asegurar la encriptación de conexiones, archivos y datos. Sin embargo, esto también podría ser un arma de doble filo. En la actualidad, la mayor parte de los algoritmos de cifrado utilizan cifrado simétrico y asimétrico. Pero ojo, pues dichos algoritmos se basan en operaciones matemáticas que pueden ser resueltos en cuestión de segundos con un ordenador cuántico. En otras palabras, se contempla la posibilidad de ataques a gran escala que puedan superar algunas barreras criptográficas y los mecanismos de seguridad obsoletos FUENTE: Roncancio Bohorquez, Laura Natalia. »El uso de la IA en la computación cuántica: el nuevo reto para la ciberseguridad» Eltiempo.com. 02/11/2023. (https://www.eltiempo.com/tecnosfera/novedades-tecnologia/la-ia-en-la-computacion-cuantica-el-nuevo-reto-para-la-ciberseguridad-819656).

Latinoamérica mira todavía con desconfianza la IA, pese a su “potencial gigante”

Los avances de la IA están transformando la sociedad, pero en Latinoamérica, persiste la desconfianza debido a limitaciones en el acceso, el miedo a la pérdida de empleos y la reticencia a compartir datos. Los rápidos avances de la inteligencia artificial (IA) y su aplicación para diversas tareas y a nivel empresarial están transformando de forma acelerada la sociedad, pero en Latinoamérica todavía “existe un alto nivel de desconfianza” hacia ella, dijo este viernes a EFE un experto de la región en esta nueva tecnología. Las “grandes limitaciones para acceder” a esta tecnología en la región, el “temor de los empleados a perder sus trabajos” y, sobre todo, una “desconfianza general” a la hora de compartir los datos personales son factores que impiden su desarrollo, precisó Alejandro Anderlic, director de Asuntos Gubernamentales y Políticas Públicas de la compañía tecnológica Salesforce. Podría interesarle: Inteligencia artificial, ciberseguridad, robótica y transformación digital entre los empleos del futuro Esta empresa estadounidense de software basado en la nube participa hoy en el Simposio anual de la Sociedad de las Américas/Consejo de las Américas (COAS, en inglés), que celebra esta noche su gala de entrega de los Premios Bravo 2023. En entrevista con EFE, Anderlic apuntó que en ese contexto de desconfianza generalizada hacia la IA en la región, el 76,8 % cree que compartir sus datos personales “implica más riesgos que beneficios”, además de existir el factor del “bajo nivel de ciberseguridad”. Riesgos de la IA y ética El argentino reconoce que la IA, si bien tiene un “potencial gigante”, presenta riesgos. Por ello, Salesforce propugna una “inteligencia artificial ética” referida al buen uso de la tecnología, ya que esta no es buena o mala, todo “depende del uso que le demos”. Desde 2018, Salesforce cuenta con una “oficina de uso Ético y Humano” enfocada en desplegar una IA “confiable, responsable, inclusiva y transparente”, que rinda cuentas por medio de un Consejo Asesor de Uso Ético. El también abogado por la Universidad Católica Argentina destacó el carácter de “herramienta poderosa” de la IA para “ayudar, gracias a su capacidad de procesamiento, a proponer ideas y contenidos que las personas pueden desarrollar”. A nivel empresarial, las aplicaciones potenciales de la IA “son enormes”, por ejemplo, para programar reuniones, organizar archivos, gestionar tareas administrativas, escribir códigos, diseñar productos o crear contenidos y estrategias de mercadotecnia. Lea también: 5 beneficios de implementar la Inteligencia Artificial en Ciberseguridad Incluso sirve para prestar servicios de atención al cliente a través de chatbots o acelerar descubrimientos científicos, una automatización de tareas, como las mencionadas arriba, que permite a los equipos ser “más productivos y eficientes”, subraya Anderlic, quien fue director de asuntos corporativos en Microsoft. La Cuarta Revolución Industrial y la brecha No dudó en afirmar que nos encontramos inmersos en la Cuarta Revolución Industrial, donde la IA, el aprendizaje automático, la computación en la nube, el análisis de datos y el internet de las cosas (IoT) “están generando un profundo impacto en nuestra forma de vida en el mundo laboral”. Una revolución que se distingue por tres factores clave que la diferencia de las anteriores: en primer lugar, la “asombrosa velocidad del cambio”; luego, un “impacto” que no se limita a la tecnología en sí, sino que “está transformando profundamente los sistemas interconectados en nuestra sociedad”, desde la política hasta la economía y la forma en que operan los países. Preguntado si la IA puede agrandar la brecha social, Anderlic explicó que en América Latina este es un tema muy importante. Por eso, Salesforce considera fundamental “la democratización” de esta tecnología, que pasa porque todos tengan acceso a la tecnología y sus beneficios. “América Latina tiene un gran potencial en este frente, pues cuenta con la capacidad humana y es un semillero de ideas que pueden potenciar a la región”, puso de relieve. FUENTE: Agencia EFE. »Latinoamérica mira todavía con desconfianza la IA, pese a su “potencial gigante”» Gestion.pe. 21/10/2023. (https://gestion.pe/tecnologia/inteligencia-artificial-latinoamerica-mira-todavia-con-desconfianza-la-ia-pese-a-su-potencial-gigante-ciberseguridad-noticia/).

¡No te pierdas nada!

Inscríbete ahora y sé el primero en recibir todas las novedades y actualizaciones exclusivas de nuestra página

Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.
×

Hola!

Recibe información gratuita y personalizada

× ¡Recibe info personalizada!