Los 10 proyectos de inteligencia artificial que están redefiniendo la ciberseguridad
Existen numerosos proyectos de ciberseguridad que utilizan la inteligencia artificial (IA) para reforzar la protección frente a amenazas cibernéticas. A continuación, se presenta una selección de los proyectos más destacados, con el fin de ofrecer al lector una visión clara del estado actual de esta tecnología, ya sea para que quienes están menos familiarizados se orienten o para que los expertos puedan comparar con sus propias preferencias. El CEO de Quantum Babylon y alumno certificado del Máster Profesional de Analista de Inteligencia de LISA Institute, Juan Pablo Castillo Cubillo, analiza en este artículo los avances más relevantes y su impacto en la ciberseguridad global. Esta lista no solo tiene un propósito informativo, sino también busca invitar a reflexionar sobre hasta qué punto, tanto en España como en otras naciones, somos realmente conscientes del reto que supone el avance de los sistemas de asistencia virtual en la toma de decisiones. Los proyectos de inteligencia artificial más destacados en ciberseguridad 1. AI4CYBER AI4CYBER es un innovador proyecto europeo que, recientemente, ha sido puesto en marcha con el objetivo de abordar una problemática contemporánea de gran relevancia. Su propósito principal es explorar y descubrir formas efectivas de enfrentar los diversos ataques cibernéticos que puedan surgir en el mundo digital de hoy. Para lograr esto, el proyecto se apoya en el uso de herramientas de inteligencia artificial. Este ambicioso proyecto está bajo la dirección del prestigioso Centro de Investigación y Desarrollo Tecnológico (TECNALIA) de España. El proyecto propone el desarrollo de AI4VULN Code Testing, una herramienta de código abierto que utiliza la inteligencia artificial para identificar y verificar las vulnerabilidades de manera automática y eficiente. Adicionalmente, se introduce el sistema AI4FIX Vulnerability Fixing, diseñado para la reparación de estas vulnerabilidades mediante pruebas automáticas, garantizando confiabilidad y una significativa economía de tiempo. 2. DeepArmor, otro proyecto interesante en ciberseguridad Otro proyecto interesante es DeepArmor, una creación de la empresa SparkCognition. Se trata de un sistema de ciberseguridad que utiliza la inteligencia artificial para detectar y proteger contra amenazas en tiempo real. Esta plataforma está diseñada para pequeñas y medianas empresas, pero es lo suficientemente flexible para ser utilizada por equipos de operaciones de seguridad y proveedores de servicios de seguridad. Ofrece una serie de funciones útiles, como la prevención antes de la ejecución, que emplea algoritmos y aprendizaje automático para repeler cualquier tipo de ataque. También tiene la capacidad de analizar las tácticas de los atacantes, preparándose para escenarios futuros, y prevenir ataques avanzados de malware de día cero. Además, supervisa las conexiones realizadas en aplicaciones y nos protege contra posibles exploits con sus herramientas de protección contra intrusiones. Lo que hace que DeepArmor sea realmente especial es su combinación de varias técnicas de IA, como redes neuronales, heurística, ciencia de datos y procesamiento del lenguaje natural, con software antivirus. DeepArmor se presentó en el evento BlackHat, donde destacó como el primer sistema antivirus cognitivo basado en IA. 3. CylancePROTECT CylancePROTECT, un producto de BlackBerry, es una plataforma de ciberseguridad de endpoints para detectar y neutralizar amenazas antes de que lleguen a un dispositivo. En lugar de confiar en firmas reactivas, sistemas basados en confianza o entornos de prueba, aplica un enfoque matemático para la identificación de malware. Esto desactiva nuevos malware, virus, bots y sus futuras variantes. Sus principales funciones incluyen la detección previa a la ejecución, que analiza posibles ejecuciones de archivos en las capas del sistema operativo y la memoria para prevenir la entrega de cargas maliciosas. Diseñado para utilizar recursos mínimos del sistema, prioriza archivos o procesos en ejecución. CylancePROTECT es compatible con los sistemas operativos Windows, Mac, Linux, iOS/iPadOS, Android y Chrome OS. 4. Securonix, análisis de comportamiento para mejorar la ciberseguridad Securonix es una plataforma que une análisis de comportamiento de usuarios y entidades (UEBA), aprendizaje automático y detección de amenazas en tiempo real para reforzar la seguridad y defender contra riesgos cibernéticos. Su tecnología se apoya en el aprendizaje automatizado y la inteligencia artificial para identificar actividades anómalas antes de que lleguen a ser amenazas. Permite extender la vigilancia de seguridad a entornos en la nube gracias a sus API integradas para aplicaciones e infraestructuras en la nube. Une eventos con el contexto del usuario para alertar sobre comportamientos que se apartan de la línea de base definida. Como solución nativa en la nube, Securonix UEBA se pone en marcha rápidamente, posibilitando una respuesta eficaz a amenazas externas o internas. 5. Sophos Intercept X Sophos Intercept X es una solución que emplea análisis de comportamiento, aprendizaje automático y detección de amenazas en tiempo real para salvaguardar contra ataques de ransomware, malware y exploits. Hace uso de CryptoGuard, una tecnología que impide el ransomware desconocido y los ataques de arranque maestro. Lea también: Consejos de ciberseguridad para el sector financiero En caso de detección de un intento de cifrado no autorizado, CryptoGuard devuelve los archivos a su estado original, anulando el impacto del ransomware sobre las víctimas. Esto evita que las víctimas de un ciberataque se vean obligadas a pagar un rescate para recuperar sus datos robados. Intercept X recurre al Deep Learning avanzado para identificar malware de día cero y variantes de exploits desconocidas. Con la Seguridad Sincronizada de Sophos, las soluciones para endpoints y firewalls comparten datos sobre amenazas y colaboran para proteger tus datos, simplificando así la defensa contra un posible ataque. 6. GARD GARD, que significa Generative Adversarial Resilient DNNs, es un proyecto de investigación llevada a cabo por la Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos, comúnmente conocida por sus siglas en inglés, DARPA. Se dedica a enfrentar la creciente complejidad y presencia omnipresente de los componentes de aprendizaje automático (ML) en los sistemas avanzados. Su misión es establecer una base teórica para identificar las debilidades en estos y describir las propiedades que aumentan la resistencia del sistema y promover el desarrollo de defensas eficaces. Esta técnica específica se utiliza para fortalecer y mejorar la resiliencia y robustez de las redes neuronales profundas, una categoría de algoritmos de aprendizaje automático que ha demostrado ser extremadamente útil en una variedad de aplicaciones. En esencia, este programa está diseñado para asegurarse de que estas redes neuronales profundas puedan resistir y adaptarse a nuevas amenazas y desafíos, asegurando su eficacia y precisión a largo plazo. 7. Skyborg Skyborg es un proyecto de la Fuerza Aérea de los Estados Unidos
La IA está revolucionando la ciberseguridad en Colombia, para el 2027 se estima que este mercado alcanzará $USD 1.108 millones
En 2022, Colombia cerró el año ubicándose en el puesto 69 del ranking global de ciberseguridad, acorde al reporte de NCSI. El mercado de ciberseguridad en Colombia para el año 2027 alcanzará un valor de $USD 1.108 millones, partiendo de $USD 800 millones en 2024, lo que representa una tasa de crecimiento del 38%, según cifras de OlimpIA, empresa líder en inteligencia artificial. Este notable incremento va de la mano con la adopción de inteligencia artificial para proteger infraestructuras críticas y datos sensibles. La IA está revolucionando la ciberseguridad al procesar enormes volúmenes de datos y aprender de ellos al instante. Con algoritmos de machine learning, análisis predictivo y automatización, los expertos en esta tecnología han transformado la manera en la cual se detectan patrones inusuales, anticipándose a posibles amenazas cibernéticas. Simbad Ceballos, CEO de OlimpIA, destaca que: “La inteligencia artificial no solo responde a los ataques, sino que los prevé y neutraliza antes de que puedan causar daños significativos”. En 2022, Colombia cerró el año ubicándose en el puesto 69 del ranking global de ciberseguridad, acorde al reporte de la National Cyber Security Index (NCSI). De igual manera, es el segundo país con más ataques cibernéticos de la región. Podría interesarle: 8 estrategias avanzadas de ciberseguridad impulsadas por inteligencia artificial que debes conocer Dentro de los sectores más vulnerables en el país a ciberataques se encuentra el financiero con un 35%, donde se presentaron más de siete millones de ataques digitales durante el 2023, de los cuales 93% fueron detectado y resueltos en menos de 24 horas. Por su parte, está el legal 14%, Gobierno 11% y educación 8%. Las aplicaciones y casos de uso de la IA en ciberseguridad son diversos y están en constante evolución. Según Ceballos, algunos de los más destacados incluyen: FUENTE: La Nota Económica. »La IA está revolucionando la ciberseguridad en Colombia, para el 2027 se estima que este mercado alcanzará $USD 1.108 millones» 20/08/2024. Lanotaeconomica.com. (https://lanotaeconomica.com.co/movidas-empresarial/la-ia-esta-revolucionando-la-ciberseguridad-en-colombia-para-el-2027-se-estima-que-este-mercado-alcanzara-usd-1-108-millones/).
Así es como los capitalistas de riesgo invierten en la IA en cinco países
La Inteligencia Artificial (IA) se ha convertido en una fuerza transformadora que está reconfigurando las industrias, las economías y las sociedades de todo el mundo, pero la forma en que el capital riesgo invierte en esta nueva tecnología varía enormemente de un país a otro. La asignación de recursos a la investigación, el desarrollo y la aplicación de la IA varía en todo el mundo, lo que refleja la diversidad de estrategias, prioridades y visiones de futuro. Esto es lo que hay que saber sobre las estrategias, enfoques y prioridades de inversión en IA de los líderes mundiales en este campo. EE. UU.: Innovación impulsada por el mercado En EE. UU., una ferviente fiebre del oro en inversión privada en IA ha catalizado desarrollos transformadores en sectores clave como los vehículos autónomos, la salud y la infraestructura informática. En los últimos cinco años, las inversiones de capital riesgo en IA han ascendido a 290.000 millones de dólares. En Estados Unidos, las previsiones más optimistas sugieren que la IA podría impulsar el crecimiento anual del PBI entre un 0,5 y un 1,5% durante la próxima década. Esto supone entre 1,2 y 3,8 billones de dólares en términos reales. El Programa de Pruebas de Vehículos Autónomos está atrayendo inversión privada en investigación y desarrollo, sobre todo de grandes empresas tecnológicas locales como Google, Tesla y Uber. Iniciativas políticas como la Ley AV START, diseñada para agilizar los procesos de pruebas y despliegue, están contribuyendo a crear un entorno más favorable a los inversores, fomentando el optimismo y la confianza en el futuro de los vehículos autónomos. Lea también: El impacto de la Inteligencia Artificial en la protección de datos personales Las principales empresas de servicios de salud y empresas de capital riesgo de EE. UU. están invirtiendo activamente en tecnologías de diagnóstico médico y monitorización remota de pacientes basadas en IA. El envejecimiento de la población ha impulsado la demanda de soluciones de asistencia sanitaria basadas en IA. La preocupación por la eficiencia ha impulsado las inversiones en herramientas para agilizar los procesos administrativos y la asignación de recursos en los hospitales. Además, la creciente predisposición de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) a aprobar dispositivos médicos basados en IA, como demuestran las recientes aprobaciones de un sistema basado en IA para la detección precoz de la retinopatía diabética, está fomentando la confianza entre los inversores e impulsando nuevas inversiones en IA sanitaria. China: Crecimiento y modernización Se prevé que el mercado chino de la IA supere los 61.000 millones de dólares en 2025, un testimonio de los rápidos avances de la nación en el desarrollo de la IA. Los datos de la Organización para la Cooperación y el Desarrollo Económico (OCDE) reflejan que las sociedades de capital riesgo han invertido aproximadamente 120.000 millones de dólares en el ecosistema de IA de China, particularmente en vehículos autónomos, sensores robóticos y hardware informático. El país asiático ha consolidado su posición como líder mundial en robótica e IA a través de planes estratégicos como «Made in China 2025» y el plan nacional de desarrollo de la IA. Con un importante apoyo gubernamental, China se ha convertido en el mayor mercado mundial de robots industriales, superando a Estados Unidos con un 52% de instalaciones globales de robots. La experiencia de China se extiende a los robots de servicio en logística, asistencia sanitaria y aplicaciones de consumo. China ha fomentado 20 grandes centros de IA a través de programas como «AI Champion City». Las empresas chinas de IA se han expandido por todo el mundo y han conseguido contratos internacionales para soluciones de vigilancia, ciudades inteligentes y automatización, lo que demuestra la creciente influencia de China en el panorama mundial de la robótica y la IA. China también invierte mucho en vehículos autónomos y robótica. Japón: La IA afronta los retos demográficos Japón está adoptando la IA para hacer frente al envejecimiento de su población y al declive de su mano de obra, lo que está propiciando una mayor colaboración con empresas emergentes y PYMEs extranjeras. Sociedad 5.0, el concepto del gobierno japonés pretende integrar las tecnologías avanzadas, en particular la IA, en todos los aspectos de la vida cotidiana, conectando el ciberespacio y el espacio físico. Se espera que este nivel sin precedentes de conectividad, automatización y personalización impulse la innovación y el crecimiento económico. Un fuerte gasto en Investigación y Desarrollo de Japón, que ocupa el 2º puesto mundial, y su 4ª posición en competitividad manufacturera, combinados con políticas favorables a las empresas, talento y alta productividad en tecnología y fabricación avanzada, han atraído una importante inversión extranjera directa (IED) en la industria de procesos empresariales. El marco Regulatory Sandbox, introducido en 2018, facilita la reforma normativa para acelerar la innovación en diversos sectores, fomentando la colaboración entre los sectores público y privado. Esto ha creado numerosas oportunidades para que emprendedores y pymes de otros países inviertan en procesos empresariales impulsados por la IA. Así, el mercado japonés de la IA está segmentado en hardware, software y servicios, siendo el segmento de software el que experimenta un mayor crecimiento debido a los avances en la capacidad de almacenamiento de datos, la potencia informática y las capacidades de procesamiento paralelo. India: Productividad impulsada por la IA Se prevé que el mercado indio de inteligencia artificial alcance los 17.000 millones de dólares en 2027, con un crecimiento interanual del 25-35% entre 2024 y 2027. El crecimiento está impulsado por el aumento del gasto en tecnología de las empresas, la creciente reserva de talento en IA del país y el aumento de las inversiones en IA. En la India, donde hay 881 millones de usuarios de Internet que esperan cada vez más experiencias personalizadas, la IA está revolucionando varios aspectos de las estrategias de marketing. La IA está agilizando las operaciones mediante la automatización de tareas, que abarcan actividades como la configuración de campañas y las respuestas a las consultas de los clientes. Además, la IA facilita la personalización de contenidos, adaptando los materiales de marketing a las preferencias individuales y mejorando así la experiencia del cliente.
El impacto de la IA en la protección de datos personales
Es bien sabido que nuestros datos personales constantemente se encuentran expuestos debido a los diversos medios de comunicación que hoy en día usamos, sin embargo esto no se limita solo a eso, también el uso de tecnologías se ven inmersas en estás prácticas, tales como la inteligencia artificial, uno de los principales atractivos de la IA (inteligencias artificial) se torna a la practicidad de las tareas que está puede desarrollar. Desde traducción de textos y el procesamiento y análisis de datos para resolver problemáticas que le son impuestas por los usuarios, para hacer posible esto la IA cuenta con dos funciones básicas estrechamente relacionadas con los datos del usuario, estás son; la automatización y el aprendizaje autónomo, la primera consiste en usar la tecnología para realizar tareas con muy poca intervención humana. Podría interesarle: Expertos analizaron cómo usa ChatGPT los datos públicos de usuarios de Internet, ¿qué encontraron? Se puede implementar en cualquier sector en el que se lleven a cabo tareas repetitivas, es decir, utiliza robots de software, o bots, para completar tareas administrativas, como extraer datos o completar formularios. Mientras que el aprendizaje autónomo tiene como objetivo el uso de herramientas para usar la experiencia e interacción con los usuarios para obtener patrones de conducta que anticipen solicitudes, necesidades o requerimientos con objetivos enfocados en la eficiencia y productividad. El papel de nuestros datos personales en el uso y desarrollo de la IA Es por eso que ante la facilidad del desarrollo de tareas que tiene la utilización de esta tecnología, es pertinente preguntarnos que papel juegan nuestros datos personales con su uso. Actualmente en México la ley encargada de la regulación de datos personales es la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP), sin embargo esta protección se limita a empresas e instituciones establecidas en territorio nacional, siendo así que la protección de la privacidad y los datos personales de los usuarios de servicios impulsados por la IA no están amparados por la LFPDPPP, sino únicamente restringidos por las políticas de la plataforma. Siendo expuesto lo anterior, a razón del creciente uso de la inteligencia artificial se plantean cuestionamientos sobre la salvaguarda de nuestra información personal. Aunque la Ley Federal de Protección de Datos Personales en Posesión de los Particulares en México establece ciertas normativas, estas no abordan por completo el ámbito de la IA. En su lugar, la protección de la privacidad y los datos personales depende principalmente de las políticas internas de las plataformas utilizadas por la IA, lo que destaca la necesidad de revisar y actualizar las leyes de privacidad para enfrentar los nuevos retos de la era digital. FUENTE: Avilés, Hertino. »El impacto de la inteligente artificial en la protección de datos personales» Morelos.lodehoy.com.mx. 27/05/2024. (https://morelos.lodehoy.com.mx/opinion/2024/05/27/52738/el-impacto-de-la-inteligente-artificial-en-la-proteccion-de-datos).
Expertos analizaron cómo usa ChatGPT los datos públicos de usuarios de Internet, ¿qué encontraron?
El grupo de trabajo encargado de determinar si los modelos de lenguaje grande (LLM, por sus siglas en inglés) de OpenAI, como ChatGPT, cumplen con un marco legal ha compartido unas conclusiones preliminares en relación con los datos públicos y la transparencia. Esta primera aproximación a la legalidad de los LLM comparte algunas consideraciones sobre el procesamiento de los datos -que divide en cinco fases- y los derechos y las libertades fundamentales de los usuarios de la Unión Europea, en algunos casos con apuntes sobre las medidas adoptadas por la empresa tecnológica. Las primeras tres fases, que abarcan desde la recogida de datos y el preprocesamiento de los datos hasta el entrenamiento, plantean riesgos a los derechos y las libertades fundamentales de los ciudadanos, ya que, según entiende el grupo de trabajo, los datos usados para el entrenamiento, muchas veces recogidos de publicaciones públicas en la web, pueden contener información personal, incluidos datos de categorías especiales recogidas en el RGPD como los que revelan el origen racial o étnico, las opiniones políticas, las convicciones religiosas, la afiliación sindical o incluso relativos a la salud y la orientación sexual. Por ello, entienden la necesidad de que el proceso de recopilación debe encontrar un equilibrio en el que se tengan en cuenta tanto esos derechos y libertades de las personas como los intereses legítimos del responsable del tratamiento de los datos. Lea también: IA y protección de datos Y añaden la importancia de las medidas de seguridad y protección, que pueden incluir el establecimiento de un criterio para la recolección precisa de datos, así como evitar el procesamiento de categorías especiales de datos o incluso tecnologías para anonimizar los datos y eliminarlos si proceden de técnicas como el scraping o raspado, esto es, el uso de datos previamente recopilados en otros sitios web o aplicaciones. Puntualizan, asimismo, el hecho de que algunos datos estén disponibles públicamente en la web no significa que la persona haya hecho esos datos públicos, y que por ello, para que su recopilación y procesamiento sean legales, especialmente en categorías especiales, es importante determinar si “tenía la intención, explícitamente y mediante una clara acción afirmativa, para que los datos personales en cuestión sean accesibles al público en general”. El informe destaca, asimismo, que OpenAI permite el contacto directo vía ‘email’ para resolver cuestiones sobre sus derechos, y que los propios ajustes de la cuenta de usuario ya permiten ejercer algunos de los derechos de los ciudadanos. Estas conclusiones preliminares llegan un mes después de que el Comité Europeo de Protección de Datos creada el grupo de trabajo centrado en ChatGPT en abril de 2023, siguiendo al anuncio de que autoridades nacionales en materia de protección de datos iban a investigar si OpenAI cumplía con la legalidad europea. FUENTE: El Colombiano. »Expertos analizaron cómo usa ChatGPT los datos públicos de usuarios de Internet, ¿qué encontraron?» Elcolombiano.com. 28/05/2024. (https://www.elcolombiano.com/tecnologia/como-usa-chatgpt-datos-publicos-usuarios-internet-NL24588674).
IA y protección de datos
El extensivo uso de la inteligencia artificial (IA) en diferentes sectores, el boom de ChatGPT, la declaración de Bletchley sobre IA, la resolución adoptada en marzo de 2024 por la Asamblea General de la ONU sobre IA y el reciente Reglamento Europeo de Inteligencia Artificial, son algunos elementos que muestran el interés y los desafíos de la IA incluyendo los desafíos relacionados con la protección de datos personales. La IA significa en muchos casos recolección y análisis de grandes volúmenes de información. Esto implica tensiones y retos en relación con la protección de datos personales. La IA permite, por ejemplo, la toma de decisiones automatizada y dichas decisiones pueden ser erróneas o discriminatorias. También hay dudas sobre la vigilancia, y evaluación persistente de la información de las personas que ocurre con el uso de IA. Algunas técnicas avanzadas de IA incluso podrían identificar a individuos a partir de datos anonimizados Lea también: La importancia de la protección de datos personales en el uso de las redes sociales Además, puede haber tensiones respecto del requisito de la finalidad del tratamiento de la data personal teniendo en cuenta que con la IA los datos personales pueden ser tratados con finalidades distintas a las inicialmente autorizadas. También puede ser complejo explicar a los titulares de los datos el tratamiento al que van a ser o han sido sujetos sus datos personales bajo uso de IA o incluso en algunos casos no es posible saber cuál es el proceso de toma de decisiones de la IA. Así por ejemplo la Superintendencia de Industria y Comercio (SIC) inició en 2023 una investigación para establecer si ChatGPT cumple con la regulación colombiana respecto de la PDP. En todo caso, no son solamente ChatGPT y los gigantes tecnológicos los que usan IA. De acuerdo con un estudio de McKinesey publicado el 1 de agosto de 2023 sobre “El estado de la IA en 2023: El año clave de la IA generativa”, la mayoría de los encuestados afirman que en sus organizaciones han adoptado la IA. Ahora bien, en Colombia, no hay una regulación especifica sobre la protección de la iinformación bajo el uso de IA. En cualquier caso, la Red Iberoamericana de Protección de Datos, a la cual hace parte la SIC, publicó en 2019 unas recomendaciones para el tratamiento de datos en la IA. Podría interesarle: ¿Cómo Proteger la Voz de una Persona? En este contexto, las empresas deberían adoptar medidas y buenas prácticas para el tratamiento de datos en uso de la IA pensando en que los titulares del tratamiento de datos son sus stakeholders. Dentro de estas medidas, las empresas pueden, entre otros aspectos, (i) implementar evaluaciones para identificar riesgos de privacidad antes de usar IA, (ii) adoptar de códigos de conducta alineados con sus modelos de gobernanza e (iii) incluir la transparencia como principio rector. En todo caso, los desafíos de IA y el tratamiento de datos personales y las prácticas que se adopten deben tener una visión no solo local. Esto teniendo en cuenta que el tratamiento de datos en muchos casos puede tener implicaciones transfronterizas (transmisión y tratamiento de datos por ejemplo) e involucrar distintas jurisdicciones. FUENTE: Mahecha Parra, Daniela. »IA y protección de datos» Asuntoslegales.com. 22/05/2024. (https://www.asuntoslegales.com.co/analisis/daniela-perez-mahecha-2721442/ia-y-proteccion-de-datos-3865271).
Google Utilizará Inteligencia Artificial en su Nueva Herramienta de Ciberseguridad
Alphabet Inc. GOOGL está aprovechando la inteligencia artificial (IA) generativa para aplicaciones prácticas, centrándose en la ciberseguridad con su nuevo producto, Google Threat Intelligence. Lo que pasó Según The Verge, Google está integrando su unidad de ciberseguridad Mandiant y VirusTotal con el modelo Gemini AI. El modelo de gran lenguaje Gemini 1.5 Pro permite una rápida ingeniería inversa de malware, como el virus WannaCry, identificando vulnerabilidades como un kill switch en solo 34 segundos. Además, Gemini ayuda a resumir los informes de amenazas en lenguaje natural, lo que ayuda a las empresas a evaluar las posibles repercusiones y priorizar las respuestas. Threat Intelligence ofrece una red de vigilancia preventiva de amenazas. Incorpora la experiencia de Mandiant en detección de amenazas y los indicadores de amenazas de VirusTotal aportados por la comunidad. La adquisición de Mandiant por parte de Google se extiende a la evaluación de las vulnerabilidades de seguridad en proyectos de IA a través del Marco de IA Segura. El objetivo de esta colaboración es proteger los modelos de IA de amenazas como el envenenamiento de datos, garantizando su integridad y resistencia frente a manipulaciones malintencionadas. Lea también: El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial La eficacia de estas soluciones de ciberseguridad basadas en la IA aún está por ver. Mientras tanto, suponen una desviación significativa de las aplicaciones convencionales de la IA y demuestran un potencial que va más allá de las tareas superficiales. “Aunque no hay escasez de información sobre amenazas, el reto para la mayoría es contextualizar y hacer operativa la información relevante para su organización específica”, afirma Dave Gruber, analista principal de Enterprise Strategy Group, en un blog. FUENTE: Quarneti Franca. »Google Utilizará Inteligencia Artificial en su Nueva Herramienta de Ciberseguridad» Elplanteo.com. 19/05/2024. (https://elplanteo.com/google-inteligencia-artificial-ciberseguridad/).
Inteligencia Artificial: combatir los ciberataques del futuro implicarán usd102.780 millones para 2032
La novedad de la inteligencia artificial (IA) desencadenará la próxima ola de eficiencia, experiencia y crecimiento en todas las industrias para 2030. De acuerdo a Deloitte, se espera que el mercado de la ciberseguridad de la IA alcance los 102.780 millones de dólares en 2032. Pero no todo lo que brilla es oro. A pesar de sus beneficios para las empresas, la IA también está siendo aprovechada por los ciberdelincuentes para realizar ataques evasivos, únicos y dañinos que las soluciones de ciberseguridad tradicionales no pueden detectar. Palo Alto Networks, líder mundial en ciberseguridad, identifica un promedio de 2,3 millones de amenazas nuevas por día, lo que pone de relieve la urgencia de combatir estas amenazas. Lea también: Latinoamérica y el Caribe sufrieron 200.000 millones intentos de ciberataques en 2023 En este contexto, Palo Alto Networks presentó una serie de nuevas soluciones de seguridad para ayudar a las empresas a bloquear los ataques generados por IA y proteger eficazmente el uso de IA por diseño, un enfoque centrado en el ser humano para innovar con IA y aprendizaje automático (ML), centrándose en generar soluciones que satisfagan las necesidades reales de los usuarios. Ciberseguridad: el peligro en Argentina Según un informe realizado por Palo Alto Networks, Argentina es el tercer país con más ciberataques de la región. Distintas organizaciones fueron protagonistas de una serie de ataques que sacudieron la escena de la ciberseguridad local, tanto en el ámbito público como en el privado. La principal sucedió el mes pasado cuando se conoció que existía una base de datos con DNIs, fotos y huellas dactilares, que pertenecería al Registro Nacional de las Personas (Renaper), publicada en un foro de compra y venta de datos personales. Aunque el Renaper aseguró que se trataba de información de un antiguo hackeo, especialistas explicaron que esos datos, que estaban disponibles en la dark y deep web, son comercializados de forma ilegal con un objetivo claro: cobrar dinero. Este tipo de delito deja en evidencia la necesidad de afrontar la problemática desde distintas perspectivas. Los tres pilares de la protección basada en IA FUENTE: »Inteligencia Artificial: combatir los ciberataques del futuro implicará u$s102.780 millones para 2032» Ambito.com. 11/05/2024. (https://www.ambito.com/tecnologia/inteligencia-artificial-combatir-los-ciberataques-del-futuro-implicara-us102780-millones-2032-n5996493).
El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial
El Consejo de Europa ha adoptado el primer tratado internacional jurídicamente vinculante destinado a garantizar el respeto de los derechos humanos, del Estado de derecho y las normas jurídicas democráticas en el uso de los sistemas de inteligencia artificial (IA). El tratado, que también está abierto a países no europeos, establece un marco jurídico que abarca todo el ciclo de vida de los sistemas de IA y que se ocupa de los riesgos que pueden plantear, a la vez que promueve la innovación responsable. El convenio adopta un enfoque basado en el riesgo para diseñar, desarrollar, usar y decomisar sistemas de IA, que exige considerar cuidadosamente cualquier posible consecuencia negativa del uso de sistemas de IA. El Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho, ha sido adoptado en Estrasburgo durante la reunión ministerial anual del Comité de Ministros del Consejo de Europa, que reúne a los ministros de Asuntos Exteriores de los 46 Estados miembros del Consejo de Europa. Podría interesarle: Dictamen del Comité Europeo de Protección de Datos sobre la validez del consentimiento en los modelos de pago para las grandes plataformas en línea El convenio es el resultado de dos años de trabajo de un órgano intergubernamental, el Comité sobre Inteligencia Artificial (CAI por sus siglas en inglés), que reunió para redactar el tratado a los 46 Estados miembros del Consejo de Europa, la Unión Europea y 11 Estados no miembros (Argentina, Australia, Canadá, Costa Rica, Estados Unidos, Israel, Japón, México, Perú, la Santa Sede y Uruguay), así como a representantes del sector privado, la sociedad civil y el mundo académico, que participaron como observadores. El tratado cubre el uso de sistemas de Inteligencia Artificial en el sector público -incluidas las compañías que actúan en su nombre- y en el sector privado. El convenio ofrece a las partes dos formas de cumplir sus principios y obligaciones a la hora de regular el sector privado: las partes pueden optar por quedar obligadas directamente por las disposiciones pertinentes del convenio o, como alternativa, adoptar otras medidas para cumplir con las disposiciones del tratado a la vez que se respetan plenamente sus obligaciones en materia de derechos humanos, democracia y Estado de derecho. Este enfoque es necesario dadas las diferencias entre los sistemas jurídicos de todo el mundo. Las demandas con el nuevo convenio sobre IA El convenio establece requisitos de transparencia y supervisión adaptados a contextos y riesgos específicos, incluida la identificación de contenidos generados por sistemas de IA. Las partes tendrán que adoptar medidas para identificar, evaluar, prevenir y mitigar posibles riesgos y evaluar la necesidad de una moratoria, una prohibición u otras medidas apropiadas en relación con el uso de sistemas de IA, cuando sus riesgos puedan ser incompatibles con las normas de los derechos humanos. También tendrán que garantizar la rendición de cuentas y la responsabilidad por el impacto negativo, y que los sistemas de IA respeten la igualdad, incluida la igualdad de género, la prohibición de la discriminación y el derecho a la intimidad. Además, las partes del tratado tendrán que garantizar la disponibilidad de recursos legales para las víctimas de violaciones de los derechos humanos relacionadas con el uso de sistemas de IA y de garantías procesales, incluida la notificación a todas las personas que interactúen con sistemas de IA de que están interactuando con estos sistemas. En cuanto a los riesgos para la democracia, el tratado requiere a las partes que adopten medidas para garantizar que los sistemas de IA no se utilicen para minar las instituciones y procesos democráticos, incluido el principio de separación de poderes, el respeto de la independencia judicial y el acceso a la justicia. Lea también: Las autoridades de control de protección de datos publican unas orientaciones para tratamientos que incorporen tecnologías de seguimiento Wi-Fi Las partes del convenio no estarán obligadas a aplicar las disposiciones del tratado a las actividades relacionadas con la protección de los intereses de la seguridad nacional, pero sí a garantizar que estas actividades respetan el derecho internacional y las instituciones y procesos democráticos. El convenio no se aplicará a asuntos de defensa nacional ni actividades de investigación y desarrollo, excepto cuando las pruebas de los sistemas de IA puedan interferir potencialmente con los derechos humanos, la democracia o el Estado de derecho. Para garantizar su aplicación efectiva, el convenio establece un mecanismo de seguimiento en forma de Conferencia de las Partes. Por último, el convenio exige que cada parte establezca un mecanismo de supervisión independiente para vigilar que se cumple con el convenio, que se sensibilice y estimule un debate público informado, y que se lleven a cabo consultas con múltiples partes interesadas sobre cómo debería ser utilizada la tecnología de la IA. El convenio marco se abrirá a la firma en Vilna (Lituania) el 5 de septiembre, coincidiendo con una conferencia de ministros de Justicia. FUENTE: Comité de Ministros. »El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial» Coe.int. 17/05/2024. (https://www.coe.int/es/web/portal/-/council-of-europe-adopts-first-international-treaty-on-artificial-intelligence).