Así es como los capitalistas de riesgo invierten en la IA en cinco países

La Inteligencia Artificial (IA) se ha convertido en una fuerza transformadora que está reconfigurando las industrias, las economías y las sociedades de todo el mundo, pero la forma en que el capital riesgo invierte en esta nueva tecnología varía enormemente de un país a otro. La asignación de recursos a la investigación, el desarrollo y la aplicación de la IA varía en todo el mundo, lo que refleja la diversidad de estrategias, prioridades y visiones de futuro. Esto es lo que hay que saber sobre las estrategias, enfoques y prioridades de inversión en IA de los líderes mundiales en este campo. EE. UU.: Innovación impulsada por el mercado En EE. UU., una ferviente fiebre del oro en inversión privada en IA ha catalizado desarrollos transformadores en sectores clave como los vehículos autónomos, la salud y la infraestructura informática. En los últimos cinco años, las inversiones de capital riesgo en IA han ascendido a 290.000 millones de dólares. En Estados Unidos, las previsiones más optimistas sugieren que la IA podría impulsar el crecimiento anual del PBI entre un 0,5 y un 1,5% durante la próxima década. Esto supone entre 1,2 y 3,8 billones de dólares en términos reales. El Programa de Pruebas de Vehículos Autónomos está atrayendo inversión privada en investigación y desarrollo, sobre todo de grandes empresas tecnológicas locales como Google, Tesla y Uber. Iniciativas políticas como la Ley AV START, diseñada para agilizar los procesos de pruebas y despliegue, están contribuyendo a crear un entorno más favorable a los inversores, fomentando el optimismo y la confianza en el futuro de los vehículos autónomos. Lea también: El impacto de la Inteligencia Artificial en la protección de datos personales Las principales empresas de servicios de salud y empresas de capital riesgo de EE. UU. están invirtiendo activamente en tecnologías de diagnóstico médico y monitorización remota de pacientes basadas en IA. El envejecimiento de la población ha impulsado la demanda de soluciones de asistencia sanitaria basadas en IA. La preocupación por la eficiencia ha impulsado las inversiones en herramientas para agilizar los procesos administrativos y la asignación de recursos en los hospitales. Además, la creciente predisposición de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) a aprobar dispositivos médicos basados en IA, como demuestran las recientes aprobaciones de un sistema basado en IA para la detección precoz de la retinopatía diabética, está fomentando la confianza entre los inversores e impulsando nuevas inversiones en IA sanitaria. China: Crecimiento y modernización Se prevé que el mercado chino de la IA supere los 61.000 millones de dólares en 2025, un testimonio de los rápidos avances de la nación en el desarrollo de la IA. Los datos de la Organización para la Cooperación y el Desarrollo Económico (OCDE) reflejan que las sociedades de capital riesgo han invertido aproximadamente 120.000 millones de dólares en el ecosistema de IA de China, particularmente en vehículos autónomos, sensores robóticos y hardware informático. El país asiático ha consolidado su posición como líder mundial en robótica e IA a través de planes estratégicos como «Made in China 2025» y el plan nacional de desarrollo de la IA. Con un importante apoyo gubernamental, China se ha convertido en el mayor mercado mundial de robots industriales, superando a Estados Unidos con un 52% de instalaciones globales de robots. La experiencia de China se extiende a los robots de servicio en logística, asistencia sanitaria y aplicaciones de consumo. China ha fomentado 20 grandes centros de IA a través de programas como «AI Champion City». Las empresas chinas de IA se han expandido por todo el mundo y han conseguido contratos internacionales para soluciones de vigilancia, ciudades inteligentes y automatización, lo que demuestra la creciente influencia de China en el panorama mundial de la robótica y la IA. China también invierte mucho en vehículos autónomos y robótica. Japón: La IA afronta los retos demográficos Japón está adoptando la IA para hacer frente al envejecimiento de su población y al declive de su mano de obra, lo que está propiciando una mayor colaboración con empresas emergentes y PYMEs extranjeras. Sociedad 5.0, el concepto del gobierno japonés pretende integrar las tecnologías avanzadas, en particular la IA, en todos los aspectos de la vida cotidiana, conectando el ciberespacio y el espacio físico. Se espera que este nivel sin precedentes de conectividad, automatización y personalización impulse la innovación y el crecimiento económico. Un fuerte gasto en Investigación y Desarrollo de Japón, que ocupa el 2º puesto mundial, y su 4ª posición en competitividad manufacturera, combinados con políticas favorables a las empresas, talento y alta productividad en tecnología y fabricación avanzada, han atraído una importante inversión extranjera directa (IED) en la industria de procesos empresariales. El marco Regulatory Sandbox, introducido en 2018, facilita la reforma normativa para acelerar la innovación en diversos sectores, fomentando la colaboración entre los sectores público y privado. Esto ha creado numerosas oportunidades para que emprendedores y pymes de otros países inviertan en procesos empresariales impulsados por la IA. Así, el mercado japonés de la IA está segmentado en hardware, software y servicios, siendo el segmento de software el que experimenta un mayor crecimiento debido a los avances en la capacidad de almacenamiento de datos, la potencia informática y las capacidades de procesamiento paralelo. India: Productividad impulsada por la IA Se prevé que el mercado indio de inteligencia artificial alcance los 17.000 millones de dólares en 2027, con un crecimiento interanual del 25-35% entre 2024 y 2027. El crecimiento está impulsado por el aumento del gasto en tecnología de las empresas, la creciente reserva de talento en IA del país y el aumento de las inversiones en IA. En la India, donde hay 881 millones de usuarios de Internet que esperan cada vez más experiencias personalizadas, la IA está revolucionando varios aspectos de las estrategias de marketing. La IA está agilizando las operaciones mediante la automatización de tareas, que abarcan actividades como la configuración de campañas y las respuestas a las consultas de los clientes. Además, la IA facilita la personalización de contenidos, adaptando los materiales de marketing a las preferencias individuales y mejorando así la experiencia del cliente.

Inteligencia Artificial: combatir los ciberataques del futuro implicarán usd102.780 millones para 2032

La novedad de la inteligencia artificial (IA) desencadenará la próxima ola de eficiencia, experiencia y crecimiento en todas las industrias para 2030. De acuerdo a Deloitte, se espera que el mercado de la ciberseguridad de la IA alcance los 102.780 millones de dólares en 2032. Pero no todo lo que brilla es oro. A pesar de sus beneficios para las empresas, la IA también está siendo aprovechada por los ciberdelincuentes para realizar ataques evasivos, únicos y dañinos que las soluciones de ciberseguridad tradicionales no pueden detectar. Palo Alto Networks, líder mundial en ciberseguridad, identifica un promedio de 2,3 millones de amenazas nuevas por día, lo que pone de relieve la urgencia de combatir estas amenazas. Lea también: Latinoamérica y el Caribe sufrieron 200.000 millones intentos de ciberataques en 2023 En este contexto, Palo Alto Networks presentó una serie de nuevas soluciones de seguridad para ayudar a las empresas a bloquear los ataques generados por IA y proteger eficazmente el uso de IA por diseño, un enfoque centrado en el ser humano para innovar con IA y aprendizaje automático (ML), centrándose en generar soluciones que satisfagan las necesidades reales de los usuarios. Ciberseguridad: el peligro en Argentina Según un informe realizado por Palo Alto Networks, Argentina es el tercer país con más ciberataques de la región. Distintas organizaciones fueron protagonistas de una serie de ataques que sacudieron la escena de la ciberseguridad local, tanto en el ámbito público como en el privado. La principal sucedió el mes pasado cuando se conoció que existía una base de datos con DNIs, fotos y huellas dactilares, que pertenecería al Registro Nacional de las Personas (Renaper), publicada en un foro de compra y venta de datos personales. Aunque el Renaper aseguró que se trataba de información de un antiguo hackeo, especialistas explicaron que esos datos, que estaban disponibles en la dark y deep web, son comercializados de forma ilegal con un objetivo claro: cobrar dinero. Este tipo de delito deja en evidencia la necesidad de afrontar la problemática desde distintas perspectivas. Los tres pilares de la protección basada en IA FUENTE: »Inteligencia Artificial: combatir los ciberataques del futuro implicará u$s102.780 millones para 2032» Ambito.com. 11/05/2024. (https://www.ambito.com/tecnologia/inteligencia-artificial-combatir-los-ciberataques-del-futuro-implicara-us102780-millones-2032-n5996493).

OMS anuncia nueva asistente virtual que utiliza IA para entregar información médica confiable

Recientemente, la Organización Mundial de la Salud (OMS) ha puesto en funcionamiento a S.A.R.A.H. (Smart AI Resource Assistant for Health) o Sarah, un prototipo de asistente virtual que utiliza tecnologías de inteligencia artificial generativa. Su objetivo es interactuar de manera empática y proporcionar información médica fiable, rigurosa y accesible. Sarah ofrece información sobre los principales temas de salud, como el bienestar mental y los hábitos para mejorar este. Puede recibir consultas por texto y voz, pero no procesa consultas por imágenes. Se distingue de esfuerzos anteriores de promotoras digitales anteriores, al no basarse en secuencias de comandos o algoritmos prestablecidos, si no dar uso de IA generativa. Es parte del esfuerzo de la OMS para utilizar diversas herramientas y canales en línea para difundir y transmitir masivamente información sobre salud. Los objetivos de Sarah, la nueva IA de la OMS La creación de Sarah es producto de la empresa “IA Soul Machines”, quienes dan también soporte que permite que esta entregue información más precisa e inmediata. Este mismo soporte, declaran, que permite mantener tener conversaciones detalladas y sin prejuicios. La OMS continúa utilizando diversas herramientas de comunicación en línea y insta a seguir investigando estas nuevas tecnologías. El Dr. Tedros Adhanom Ghebreyesus, director general de la OMS, señaló “Sarah nos da una idea de cómo se podría utilizar la inteligencia artificial en el futuro para mejorar el acceso a la información sanitaria de una manera más interactiva”. Lea también: El 75% de las empresas ya están desarrollando políticas de uso de la IA Generativa en ciberseguridad Así mismo se ha solicitado evaluar y perfeccionar esta herramienta de forma continuada, facilitar así el acceso a la información sin renuncia a los principios éticos estrictos de la salud. Actualmente se han reportado problemas para la asistente de proporcionar información sobre recursos públicos o programas gubernamentales dirigidos ayudar con médicos por los que se consulte. Añadiendo la OMS ha llamado a no tratar al asistente prototipo como “única fuente de verdad o información factual, ni como sustituto del asesoramiento profesional”. FUENTE: TrendTIC. »OMS anuncia nueva asistente virtual que utiliza IA para entregar información médica confiable» Trendtic.cl. 05/04/2024. (https://www.trendtic.cl/2024/04/oms-anuncia-nueva-asistente-virtual-que-utiliza-ia-para-entregar-informacion-medica-confiable/).

El 75% de las empresas ya están desarrollando políticas de uso de la IA Generativa en ciberseguridad

A finales de 2024, la IA Generativa influirá en las decisiones de compra de ciberseguridad de más del 60% de las empresas. Check Point, compañía de ciberseguridad, ha publicado los resultados de una encuesta en colaboración con ESG, en la que revelan estadísticas que subrayan el papel de la IA Generativa en la ciberseguridad: el 92% de los profesionales está de acuerdo en que el machine learning ha mejorado la eficacia y eficiencia de estas tecnologías. El Grupo de Estrategia Empresarial de TechTarget ha realizado una encuesta online a profesionales de TI y ciberseguridad de organizaciones del sector público y privado de Estados Unidos. Su objetivo es identificar el uso de la inteligencia artificial Generativa, establecer cómo afecta al equilibrio de poder entre ciberdelincuentes y ciberdefensores y ver cómo las empresas aplican esta tecnología en ciberseguridad. La paradoja de su implementación Aunque el 87% de los profesionales de la ciberseguridad reconocen el potencial de la IA Generativa para mejorar sus defensas, la afrontan con precaución puesto que es una tecnología que también favorece a los ciberdelincuentes para llevar a cabo ataques más sofisticados. Gobernanza estratégica y desarrollo de políticas El 75% de las empresas ya están desarrollando políticas de uso de la IA Generativa en ciberseguridad. Este enfoque proactivo indica un cambio significativo hacia la integración de esta nueva tecnología en el sector, garantizando que su despliegue sea eficaz y responsable. Inversión e impacto de la IA Generativa A finales de 2024, esta IA influirá en las decisiones de compra de ciberseguridad de más del 60% de las empresas. Este dato es un ejemplo de la creciente confianza en las capacidades de la IA para revolucionar las operaciones de la industria, desde la detección de amenazas hasta la respuesta a incidentes. Eficiencia operativa y respuesta a las amenazas El 80% de los equipos de seguridad encuestados prevén que la IA Generativa mejore significativamente la eficiencia operativa. Además, el 65% espera que mejore sus tiempos de respuesta ante amenazas, lo que subraya su potencial no sólo para aumentar, sino para acelerar a los flujos de trabajo de seguridad. Retos y preocupaciones en torno a esta tecnología Aproximadamente el 70% de los encuestados ha destacado el reto que supone integrar la IA Generativa en sus infraestructuras de seguridad, mientras que el 60% ha señalado los riesgos asociados a posibles sesgos y consideraciones éticas. Asimismo, más del 75% de los encuestados consideran que los ciberdelincuentes obtendrán una mayor ventaja de la innovación de esta IA. Los profesionales encuestados también creen que la IA Generativa podría provocar un aumento de las amenazas, ya que facilita la creación de ataques más sofisticados. FUENTE: Redacción Computing. »El 75% de las empresas ya están desarrollando políticas de uso de la IA Generativa en ciberseguridad» Computing.es. 18/03/2024. (https://www.computing.es/informes/el-75-de-las-empresas-ya-estan-desarrollando-politicas-de-uso-de-la-ia-generativa-en-ciberseguridad/).

Claves en ciberseguridad de la Ley de Inteligencia Artificial

La nueva Ley de IA aprobada recientemente por el Parlamento Europeo establece un marco sin precedentes que impacta significativamente en la ciberseguridad y el desarrollo tecnológico. Tanto si se trata de escaneo de un currículum con sesgo de género, como de vigilancia omnipresente en el espacio público con cámaras impulsadas por IA, o de análisis invasivos de datos médicos que afectan a un seguro de salud, esta ley pretende establecer límites claros para su despliegue, de modo que los vendedores y desarrolladores dispongan de algunas directrices y límites. Lea también: El Parlamento Europeo aprueba la primera ley de inteligencia artificial del mundo: claves de la regulación Uno de sus aspectos más relevantes es que, dado el rápido desarrollo de tecnologías como ChatGPT y el establecimiento de estándares de transparencia y protección de derechos de autor, muestra la importancia de adaptarse a sistemas que aún no son imaginables en el futuro. Teniendo en cuenta estas nuevas regulaciones, Check Point Software destaca aspectos clave de la legislación de la UE sobre IA en relación con la ciberseguridad: Directrices de desarrollo y despliegue más estrictas: Los desarrolladores e implantadores de IA tendrán que seguir unas directrices estrictas, garantizando que los sistemas de IA se desarrollen pensando en la seguridad. Esto significa incorporar medidas de ciberseguridad desde el principio, centrarse en prácticas de codificación seguras y garantizar que los sistemas de IA sean resistentes a los ataques. Responsabilidad en incidentes de seguridad: Es probable que la Ley incluya disposiciones para responsabilizar a las empresas por brechas de seguridad que involucren sistemas de IA. Esto requeriría protocolos de respuesta ante incidentes más estrictos y que los sistemas de IA cuenten con mecanismos avanzados para detectar y reaccionar ante incidentes de ciberseguridad. Prevención del uso malintencionado de la IA: La Ley busca evitar el uso de la IA con fines malintencionados, como la creación de deepfakes o la automatización de ciberataques, regulando ciertos usos de la IA. Además, contribuye a que haya una estrategia de ciberseguridad más amplia que reduce el riesgo de que se utilice como herramienta en ciberguerra y cibercrimen. Mitigación de sesgos y discriminación: Al tratar los riesgos de sesgo y discriminación en los sistemas de IA, la Ley también beneficia indirectamente a la ciberseguridad. Los sistemas que son justos e imparciales tienen menos probabilidades de ser explotados a través de sus vulnerabilidades. Al abordar los riesgos de parcialidad y discriminación en los sistemas de IA, la Ley contribuye indirectamente a la ciberseguridad. Garantizar que los sistemas de IA se entrenen con conjuntos de datos diversos y representativos puede reducir el riesgo de ataques que exploten procesos de toma de decisiones sesgados. Más transparencia: Exigencia de una mayor transparencia en las operaciones de IA, especialmente para las de alto riesgo. Esto podría significar una divulgación más detallada de los datos utilizados para entrenar los sistemas de IA, los procesos de toma de decisiones de la IA y las medidas adoptadas para garantizar la privacidad y la seguridad. La transparencia ayuda a identificar vulnerabilidades y a mitigar posibles amenazas. Auditorías de certificación y conformidad: Los sistemas de IA de alto riesgo tendrán que someterse a rigurosas pruebas y certificaciones que garanticen que cumplen las normas de seguridad de la UE, incluida la ciberseguridad. Las auditorías de conformidad garantizarán además que los sistemas de IA se adhieran continuamente a estas normas a lo largo de su ciclo de vida. Fomento de la investigación y colaboración: La ley promueve la investigación y colaboración en IA y ciberseguridad, apoyando el desarrollo de tecnologías y estrategias para proteger contra amenazas emergentes. “La transparencia se considera un principio básico del planteamiento de la UE, especialmente en lo que respecta a la IA generativa”, afirma Peter Sandkuijl, vicepresidente del departamento de ingeniería de EMEA de Check Point Software. “La atención inicial recaerá en las cuantiosas multas impuestas, sin embargo, ese no debe ser el foco principal; a medida que las leyes sean aceptadas, seguirán siendo probadas y juzgadas en los tribunales de justicia, sentando precedentes para futuros infractores. Tenemos que entender que esto tardará en materializarse, lo que en realidad puede ser más útil, aunque no sea un objetivo final”. FUENTE: Seguridad. »Claves en ciberseguridad de la Ley de Inteligencia Artificial» Ituser.es. 18/03/2024 (https://www.ituser.es/seguridad/2024/03/claves-en-ciberseguridad-de-la-ley-de-inteligencia-artificial).

El Parlamento Europeo aprueba la primera ley de inteligencia artificial del mundo: claves de la regulación

El Parlamento Europeo ha ratificado este miércoles la primera ley de inteligencia artificial (IA) del mundo. La normativa ha recorrido un largo camino desde la propuesta que realizó ya en 2021 la Comisión Europea para crear el primer marco regulador sobre IA. El pasado mes de diciembre, se dio otro paso con un acuerdo político entre el Consejo y el Parlamento Europeo. Los derechos humanos, en el centro de la IA El planteamiento de la ley se basa en impulsar la excelencia y la innovación tecnológica mientras asegura la protección de los derechos humanos. La Unión Europea reconoce el potencial de la inteligencia artificial para el desarrollo de las sociedades, pero defiende la necesidad de regularla para mitigar sus riesgos. Al tratarse de la primera propuesta legislativa sobre IA del mundo, aspira a convertirse en referente internacional. Su objetivo es vigilar y evitar los riesgos “para la salud, la seguridad y los derechos fundamentales”. Para ello, establece unos criterios específicos que permitan determinar cuándo un programa debe categorizarse como IA. Cuatro niveles de riesgos La Comisión plantea un enfoque basado en el riesgo. Determina cuatro niveles de riesgo para etiquetar los sistemas de inteligencia artificial: riesgo mínimo, riesgo limitado, alto riesgo y riesgo inadmisible. Los softwares de IA considerados de riesgo mínimo no tendrán obligaciones jurídicas adicionales. A esta categoría pertenecen la mayoría de sistemas de IA que se utilizan en la actualidad. La ley anima a sus proveedores a autorregularse de forma voluntaria. El “riesgo limitado” se refiere a obligaciones específicas en materia de transparencia. Algunos sistemas deberán vigilar especialmente esta cuestión, como es el caso de los chatbots, debido al riesgo de manipulación. Podría interesarle: ¿Qué es el Reglamento DORA? así ha cambiado la gestión del riesgo tecnológico en las entidades financieras Por alto riesgo, la ley entiende todos los sistemas de IA que puedan tener un impacto negativo en la seguridad o los derechos de las personas. Para identificarlos, el texto establece en un anexo una lista de sistemas de alto riesgo que sirvan como referencia. En este catálogo aparecen algunos sistemas de identificación biométrica, determinados sistemas de uso policial o de control de fronteras y ciertas herramientas enfocadas a la evaluación educativa, entre otros. La Comisión se compromete a mantener el listado actualizado para que cumpla su función también en el futuro. En último lugar, el documento considera que algunos programas presentan un riesgo inadmisible. Se trata de una cantidad mínima de usos de la IA que vulneran los derechos fundamentales y resultan especialmente nocivos. Entre ellos, se encuentran los sistemas de puntuación social, actuación policial predictiva individual y el reconocimiento de emociones en el lugar de trabajo o institución educativa, a excepción de motivos médicos o de seguridad. Datos biométricos y sesgos, entre los riesgos En los últimos días ha crecido el debate en torno a la importancia de los datos biométricos. La ley de inteligencia artificial de la UE legisla también en este sentido, prohíbe el uso de identificación biométrica remota en tiempo real en lugares de acceso público con fines policiales, a excepción de algunos delitos. Del mismo modo, tampoco se permite la identificación biométrica remota posterior sin autorización. El texto alude a la necesidad de evitar el riesgo de condenar a una persona inocente por un fallo de precisión. Otra de las cuestiones más polémicas en el ámbito de la IA es la reproducción de sesgos. La ley europea afirma que, con un diseño y uso adecuado, “los sistemas de inteligencia artificial pueden contribuir a reducir los prejuicios y la discriminación estructural”.  En consecuencia, la normativa establece requisitos para que los falsos resultados no causen perjuicio a los grupos protegidos. Así, los sistemas de alto riesgo deberán entrenarse con datos representativos y será necesario que la documentación del proceso se pueda rastrear y auditar. La ley aborda también la necesidad de respetar la legislación de derechos de autor en los entrenamientos de los modelos y de especificar los contenidos generados a partir de IA. Lea también: Ciberseguridad en la agenda global Aunque de manera sucinta, el documento aborda el impacto ambiental de la IA. Entiende que la protección del medioambiente está íntimamente ligada a los demás intereses jurídicos que justifican la necesidad de esta normativa. Señala la importancia de evaluar el consumo energético y de otros recursos por parte de los sistemas de IA, así como de avanzar hacia un desarrollo más eficiente. Próximos pasos La ley se aplicará a todos los agentes públicos y privados, con independencia de su procedencia, cuando sus sistemas de IA entren en la UE o afecten a personas establecidas en ella. Su aplicación será gradual, hasta implantarse de manera definitiva en 2026. Desde su entrada en vigor, cualquier nuevo sistema de IA se someterá a una evaluación de su impacto en los derechos fundamentales. Los proveedores que deseen comercializar un sistema de alto riesgo deberán demostrar que cumple con los requisitos y aplicar sistemas de gestión de la calidad y los riesgos para lograr minimizarlos lo máximo posible. Será necesario que se registren en una base de datos pública de la UE para que se realice un seguimiento. La transparencia será un elemento fundamental para que los proveedores puedan introducirse en el mercado europeo. Para garantizar el cumplimiento de la normativa, los Estados deberán implementar sanciones “efectivas, proporcionadas y disuasorias”. Además, designarán a las autoridades nacionales competentes para su supervisión, que además representará al país en el Comité Europeo de Inteligencia Artificial. La ley establece también la creación de otros instrumentos europeos en materia de IA. La Oficina Europea de Inteligencia Artificial supervisará la aplicación de las normativas y el desarrollo de los modelos más avanzados. Por su parte, el Foro Consultivo se compondrá de representantes de las partes interesadas para asesorar al Comité y la Comisión. Además, se creará la Comisión Científica de Expertos Independientes. Uno de los principales propósitos de la UE con esta normativa es garantizar que sea pertinente a lo largo de los años, de manera que pueda actualizarse conforme evoluciona la tecnología. FUENTE: Modrón, Inés. »El Parlamento Europeo aprueba la primera ley de inteligencia artificial del mundo: claves de la regulación» Rtve.es. 13/03/2024. (https://www.rtve.es/noticias/20240313/eurocamara-vota-primera-ley-inteligencia-artificial/16011963.shtml).

La próxima amenaza de ciberseguridad son los gusanos informáticos de IA

A medida que los sistemas de inteligencia artificial (IA) generativa como ChatGPT de OpenAI y Gemini de Google se hacen más avanzados, también crece el interés por ponerlos a trabajar. Startups y empresas tecnológicas están construyendo agentes y ecosistemas de IA sobre los sistemas que pueden realizar tareas aburridas por nosotros, como hacer automáticamente reservas de calendario y, potencialmente, comprar productos. Pero a medida que se da más libertad a estas herramientas, también aumentan las posibilidades de que sean atacadas. Ahora, en una demostración de los riesgos de los ecosistemas de IA conectados y autónomos, un grupo de investigadores ha creado lo que describen como el primer gusano informático de inteligencia artificial generativa, que puede propagarse de un sistema a otro, con la posibilidad de robar datos o desplegar malware en el proceso. “Básicamente, significa que ahora existe la capacidad de llevar a cabo o realizar un nuevo tipo de ciberataque que no se había visto antes”, dice Ben Nassi, investigador de Cornell Tech que está detrás de la investigación. Morris II, el primer gusano de inteligencia artificial Nassi, junto con sus colegas Stav Cohen y Ron Bitton, creó el gusano, bautizado Morris II, como un guiño al gusano informático Morris original que causó el caos en internet en 1988. En un documento de investigación y un sitio web compartido en exclusiva con WIRED, los investigadores muestran cómo el gusano de IA puede atacar a un asistente de correo electrónico de IA generativa para robar datos de los correos electrónicos y enviar mensajes de spam, rompiendo en el proceso algunas protecciones de seguridad de ChatGPT y Gemini. La investigación, que se llevó a cabo en entornos de prueba y no contra un asistente de correo electrónico disponible públicamente, se produce en un momento en que los grandes modelos de lenguaje (LLM por sus siglas en inglés) son cada vez más multimodales, capaces de generar imágenes y video además de texto. Aunque todavía no se han detectado gusanos de IA generativa, varios investigadores afirman que constituyen un riesgo para la seguridad que debería preocupar a las nuevas empresas, los desarrolladores y las compañías tecnológicas. Lea también: Inteligencia artificial y ciberseguridad, retos de las fintech para 2024 La mayoría de los sistemas de IA generativa funcionan mediante instrucciones de texto que ordenan a las herramientas que respondan a una pregunta o creen una imagen. Sin embargo, estas instrucciones también pueden convertirse en un arma contra el sistema. A través de «jailbreaks”, instrucciones diseñadas para que el sistema revele información sobre sí mismo o rompa sus propias reglas de programación, se puede hacer que un sistema haga caso omiso de sus normas de seguridad y emita contenidos tóxicos o que inciten al odio, mientras que los ataques de inyección de instrucciones pueden dar instrucciones secretas a un chatbot. Para crear el gusano de IA generativa, los investigadores recurrieron a lo que se conoce como “prompt autorreplicante adverso”, que provoca que el modelo de IA generativa emita, en su respuesta, otro prompt, explican los investigadores. En resumen, se le dice al sistema de IA que produzca un conjunto de instrucciones adicionales en sus respuestas. Esto es muy similar a los ataques tradicionales de inyección SQL y desbordamiento del búfer, dicen los investigadores. ¿Cómo funciona el gusano de IA? Para demostrar cómo puede funcionar el gusano, los investigadores crearon un sistema de correo electrónico que podía enviar y recibir mensajes utilizando IA generativa, conectándose a ChatGPT, Gemini y el LLM de código abierto, LLaVA. A continuación, encontraron dos formas de explotar el sistema: utilizando un mensaje autorreplicante basado en texto e incrustando un mensaje autorreplicante en un archivo de imagen. En un caso, los investigadores, actuando como atacantes, escribieron un mensaje de correo electrónico que incluía el mensaje de texto adverso, que “envenenaba” la base de datos de un asistente de correo electrónico utilizando la generación aumentada por recuperación (RAG), una forma que tienen los LLM de extraer datos adicionales de fuera de su sistema. Cuando el correo electrónico es recuperado por la RAG, en respuesta a una consulta del usuario, y se envía a GPT-4 o Gemini Pro para crear una respuesta, “rompe el servicio GenAI» y, en última instancia, roba datos de los correos electrónicos, dice Nassi. “La respuesta generada que contiene los datos sensibles del usuario más tarde infecta nuevos hosts cuando se utiliza para responder a un correo electrónico enviado a un nuevo cliente y luego se almacena en la base de datos del nuevo cliente”, explica. Artículos relevantes: La ciberseguridad se disputa con la IA el protagonismo en la inversión En el segundo método, según los investigadores, una imagen con un aviso malicioso incrustado hace que el asistente de correo electrónico reenvíe el mensaje a otros. “Al codificar el aviso autorreplicante en la imagen, cualquier tipo de imagen que contenga spam, material abusivo o incluso propaganda puede reenviarse a nuevos clientes después de que se haya enviado el correo electrónico inicial”, afirma Nassi. En un video de demostración de la investigación, puede verse al sistema de correo electrónico reenviando un mensaje varias veces. Los investigadores también afirman que pueden extraer datos de los correos electrónicos: “Pueden ser nombres, números de teléfono, números de tarjetas de crédito, números de seguro social, cualquier cosa que se considere confidencial”, dice Nassi. Esto es solo una advertencia… Por ahora Aunque la investigación rompe algunas de las medidas de seguridad de ChatGPT y Gemini, los investigadores afirman que el trabajo es una advertencia sobre el “mal diseño de la arquitectura” dentro del ecosistema de la IA en general. No obstante, informaron de sus hallazgos a Google y OpenAI. “Parece que han encontrado una forma de explotar vulnerabilidades del tipo prompt-injection basándose en entradas de usuario que no han sido comprobadas o filtradas”, afirma un portavoz de OpenAI, que añade que la empresa está trabajando para que sus sistemas sean “más resistentes” y afirma que los desarrolladores deberían «utilizar métodos que garanticen que no están trabajando con entradas dañinas». Google declinó hacer comentarios sobre la investigación. Los mensajes que Nassi compartió con WIRED muestran que los investigadores de la compañía solicitaron una reunión para hablar del tema. Aunque la demostración del gusano tiene lugar en un entorno en gran medida controlado, varios expertos en

IA vs. IA: cómo puede ser una herramienta de defensa, pero también una amenaza

Aunque la IA comienza a demostrar su valor como herramienta en los procesos de seguridad, también implica la presencia de nuevos riesgos, desde la ampliación de la superficie de ataque hasta su uso por cibercriminales, explicaron ejecutivos de IBM. Juan Carlos Zevallos, director de Ciberseguridad en América Latina para IBM, citó un estudio de la compañía, el cual revela que los costos derivados de una filtración en América Latina se incrementaron en un 76 por ciento durante 2023, con lo que en promedio se elevó a 2.46 millones de dólares. Más allá del costo para las víctimas, alertó que los ciberataques tienen consecuencias a nivel del orden social, pueden alterar un mercado o los precios de los insumos en las industrias. Lea también: Así funcionan las nuevas estafas telefónicas 3.0: inteligencia artificial al servicio de los ciberdelincuentes Bajo este contexto, la IA ha logrado llegar a cierta madurez para ampliar su uso como herramienta de defensa en la prevención o respuesta de ataques; sin embargo, también se ha incrementado entre los cibercriminales, quienes ahora pueden acceder a estas herramientas para escalar y hacer más efectivos sus ataques. En cuanto a su uso como herramienta de defensa, Zevallos señala que la IA es un gran aliado para cubrir uno de los elementos más relevantes después de un ataque: reducir el tiempo para identificar y contener una amenaza al contar con herramientas automatizadas mediante IA. Según IBM, si se logra una respuesta dentro de los primeros 200 días, el costo se puede mantener por debajo de 2.13 millones de dólares, pero si pasa de este tiempo podría elevarse a 2.79 millones Datos de la compañía indican también que 55 por ciento de las empresas encuestadas señaló haber reducido su tiempo en triage (identificar, priorizar y resolver) con herramientas de IA, a la vez que un 85 por ciento reportó una reducción en el tiempo de respuesta. Por ello, 85 por ciento de las empresas indicó que priorizará el uso de herramientas de seguridad con IA sobre las tradicionales, ya que estas podrán ayudar a los analistas de ciberseguridad al análisis de datos, predicción y protección de amenazas. Sin embargo, Zevallos reconoció que al tiempo en que se convierte en una herramienta que impulsa la productividad de las empresas, el acceso a los datos y el uso de información valiosa para que funcionen los modelos de IA, también la convierten en un nuevo objetivo de los cibercriminales. Por ello, recomendó que la seguridad se debe integrar desde el modelo, para proteger los datos, pero también asegurarse que se hace un buen uso de la IA, en líneas con las guías de ética y responsabilidad. Podría interesarle: La protección de datos y la Ley de Inteligencia Artificial europea: el derecho al Digital Trust no esperará a 2026 Por otro lado, Bruno Pancica, director de Ciberseguridad para IBM México, alertó sobre el uso de herramientas de IA entre los cibercriminales. Explicó que aunque no se va a generar un cambio radical en el tipo de ataques, la IA permitirá escalar y reducir el tiempo de los mismos. Por ejemplo, ya es una realidad que se ha utilizado IA para crear phishing más efectivo, que existen en el mercado grandes modelos de lenguaje (LLMs) maliciosos como FraudGPT, que reducen la barrera de entrada para atacantes menos expertos, así como la creación de deepfakes, especialmente conforme múltiples países se acercan a temporadas electorales en este 2024. Otro tipo de ataques aún permanecen más como un mito que como realidad, pero que no se descarta su existencia en el futuro, como la automatización de ataques mediante IA Generativa o la existencia de IA de código abierto que pueda ser utilizada para nuevas formas de ataque. FUENTE: Jiménez Páez, Efrén. »IA vs. IA: cómo puede ser una herramienta de defensa, pero también una amenaza» Dplnews.com. 02/02/2024. (https://dplnews.com/ia-vs-ia-como-puede-ser-una-herramienta-de-defensa-pero-tambien-una-amenaza/).

Así funcionan las nuevas estafas telefónicas 3.0: inteligencia artificial al servicio de los ciberdelincuentes

La clonación de voz con inteligencia artificial es solo una de las muchas herramientas de IA que han cobrado importancia en el 2023 y vuelve a ocupar portadas en 2024. Sin ir más lejos, la gigante tecnológica china, ByteDance, la empresa que se esconde detrás de TikTok, hace unos días fue noticia por el lanzamiento de StreamVoice, una herramienta, impulsada por inteligencia artificial, que permite a los usuarios transformar sus voces, en directo y con una enorme calidad para imitar a otras personas. Por así decirlo, el caldo de cultivo perfecto para los delincuentes. ¿Por qué? Pues resulta sencillo. Imagina recibir una llamada de un amigo o incluso un familiar pidiéndote información confidencial o diciéndote que necesitan que hagas una transferencia bancaria. Todo parece real, sobre todo porque reconoces su voz. Pero ¿y si no son ellos? Si bien es cierto que para que esto realmente se lleve a cabo los estafadores necesitan tener muestras de audio real de esas personas, la velocidad con la que esta tecnología está evolucionando, si además se tiene en cuenta el fácil acceso a estas herramientas, preocupa. «Se estima que en los próximos años este tipo de delitos vaya en aumento, pudiendo llegar a suponer un gran riesgo para los individuos debido a la complejidad de identificación del fraude, que con el tiempo también resulta probable que experimente múltiples mejoras», explicaron en una anterior entrevista Raquel Puebla e Itxaso Reboleiro, analistas de ciberinteligencia en Innotec Security Part of Accenture. Lea también: Estos son los tres ciberataques que han marcado el inicio de 2024 Al final, un fragmento de la voz de alguien de una conversación es suficiente para que un delincuente lo utilice para generar conversaciones muy realistas que, en última instancia, son falsas. Si alguien conoce tu parentesco con otra persona y la graba para utilizarlo en tu contra, estás perdido casi con un 100% de probabilidad. «Es evidente que necesitamos no solo una mejor regulación al respecto, sino, también, dotar a los Cuerpos y Fuerzas de Seguridad de herramientas suficientes para enfrentarse al ciberdelito en general y, en concreto, a las nuevas actividades delictivas que estamos ya viendo y que seguirán evolucionando en torno a la IA», explica en una entrevista para Computer Hoy Miguel López, Director General de Barracuda Networks. Entonces, ¿cómo se podrían identificar este tipo de llamadas falsas creadas con IA? En cuanto a cómo se podría revolver este gran problema que solo va a ir a más, es posible que existan varias formas de acabar con ello. Bien es cierto, y teniendo en cuenta que al tratarse ya de herramientas que transforman las voces ya en directo, resulta muy complejo comprobar si se trata de tu familiar o no, a no ser que comiences a desconfiar de todo el mundo y te dediques a hacer preguntas clave que solo la persona real conoce. Sin embargo, hay cosas todavía por hacer. Por ejemplo, empresas tecnológicas, como Google o Microsoft, podrían desarrollar algoritmos de detección de deepfakes para proteger sus propios productos y servicios.  Los gobiernos, por su parte, de la misma forma podrían implantar herramientas similares, para proteger a sus ciudadanos de la desinformación y el fraude. Lo mismo ocurre con las compañías de telecomunicación. El problema llega cuando las llamadas, en lugar de producirse con una empresa, un hotel o con, por ejemplo, el banco, ocurre, como antes se comentaba, entre familiares o amigos. ¿Cuál es entonces la solución? En este caso parece que la «solución» recae directamente en ti. Teniendo en cuenta que solo vas a contar con tus propios oídos para lograr identificar si se trata o no de una llamada falsa, hay ciertos aspectos que puedes tener en cuenta: Tal y como explica el experto entrevistado, «deberíamos aplicar mayores dosis de sentido común a la hora de no compartir excesiva información sobre nosotros mismos y/o nuestras organizaciones en cualquier tipo de red social. También dotarnos de formación en ciberseguridad para poder identificar posibles ataques y saber reaccionar a ellos. Y, por supuesto, de medios técnicos y herramientas de ciberseguridad que eviten o, al menos, limiten los daños de un ciberataque de este tipo». FUENTE: Valenzuela González, Carolina. »Así funcionan las nuevas estafas telefónicas 3.0: inteligencia artificial al servicio de los ciberdelincuentes» Computerhoy.com. 04/02/2024. (https://computerhoy.com/ciberseguridad/funcionan-nuevas-estafas-telefonicas-30-inteligencia-artificial-1360650).

¡No te pierdas nada!

Inscríbete ahora y sé el primero en recibir todas las novedades y actualizaciones exclusivas de nuestra página

Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.
×

Hola!

Recibe información gratuita y personalizada

× ¡Recibe info personalizada!