El gobierno de Biden lanza el AI Cyber Challenge para «proteger a los estadounidenses» de vulnerabilidades en la ciberseguridad
Con una asignación de casi USD 20 millones en recompensas, el AI Cyber Challenge reúne a destacadas empresas de IA como Anthropic, Google, Microsoft y OpenAI En un comunicado de prensa del 9 de agosto, la administración del presidente Biden reveló una oportunidad para que hackers compitan por sustanciosas recompensas monetarias aplicando inteligencia artificial (IA) para salvaguardar infraestructuras vitales de Estados Unidos de vulnerabilidades en la ciberseguridad. En la primavera de 2024, una fase preliminar seleccionará hasta 20 equipos de alto rendimiento que pasarán a las semifinales de DEF CON 2024, una importante conferencia sobre ciberseguridad. De ellos, un máximo de cinco equipos ganarán 2 millones de dólares cada uno y pasarán a la fase final de DEF CON 2025. Los tres mejores equipos competirán por premios adicionales, incluido un premio de 4 millones de dólares a la mejor protección de software vital, según el comunicado de prensa oficial de la Casa Blanca. Lea también: Bitdefender Lab revela las amenazas digitales más desafiantes de la ciberseguridad global Con una dotación de casi 20 millones de dólares en recompensas, el AI Cyber Challenge reúne a destacadas empresas como Anthropic, Google, Microsoft y OpenAI. Estos líderes del sector aportarán su tecnología a la competición, que se dio a conocer durante la conferencia de hacking Black Hat USA celebrada en Las Vegas, Nevada. Los beneficios para los aspirantes al concurso Se pedirá a los participantes que compartan públicamente el funcionamiento interno de sus sistemas, lo que permitirá una utilización más amplia de sus soluciones. Además, la Open Source Security Foundation, una división de la Linux Foundation, ofrece orientación para el concurso. El organismo organizador del concurso, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés), se ha comprometido a aportar hasta un millón de dólares de ayuda financiera a siete pequeñas empresas que aspiran a participar en el concurso, en un esfuerzo por garantizar la diversidad de los participantes. El uso de concursos de hacking para fomentar la innovación no es un enfoque nuevo para el gobierno de Estados Unidos. Ya en 2014, DARPA puso en marcha el Cyber Grand Challenge, cuyo objetivo era crear un sistema de defensa automatizado de código abierto capaz de salvaguardar los ordenadores frente a las ciberamenazas. El actual desafío, de dos años de duración, sigue un marco comparable al de esta iniciativa. El concurso demuestra que existen esfuerzos oficiales para hacer frente a una nueva amenaza que los expertos se esfuerzan por comprender plenamente. En el último año, varias empresas estadounidenses han creado distintas herramientas de IA, como ChatGPT, que permiten a los usuarios crear vídeos, imágenes, textos y códigos realistas. FUENTE: NWAOKOCHA, AMAKA. »El gobierno de Biden lanza el AI Cyber Challenge para «proteger a los estadounidenses» de vulnerabilidades en la ciberseguridad» Es.cointelegraph.com 10/08/2023. (https://es.cointelegraph.com/news/us-launches-ai-challenge-to-strengthen-critical-infrastructure).
¿Cuáles son los riesgos de usar ChatGPT?
La inteligencia artificial está cada vez más presente en el día a día. El último ejemplo es la aparición de herramientas como ChatGPT, que es capaz de producir textos que simulan la redacción humana. El ChatGPT tendrá incidencia en todos los ámbitos relacionados con el conocimiento, pero especialmente en las aulas y en los procesos de aprendizaje. Esta herramienta se trata del último hito en la generación de textos mediante inteligencia artificial y ha sorprendido a miles de usuarios porque es capaz de mantener conversaciones creíbles de, prácticamente, cualquier tema. La velocidad de ChatGPT para crear un texto no tiene comparación. Su forma de escribir es coherente y esto ha revolucionado el mundo académico. De hecho, en Nueva York acaban de prohibir que los alumnos usen esta herramienta para hacer trabajos. ChatGPT es una revolución cognitiva y en muchas disciplinas a la vez: en la sanidad, geografía, docencia, periodismo… Millones de usuarios en el mundo usan esta herramienta, de hecho la periodista no ha podido utilizar la inteligencia artificial porque su página web estaba colapsada debido al tráfico que recibe constantemente. Por su parte, el periodista Marc Amorós comenta que pudo utilizar la herramienta para crear un cuento para sus hijos y esta no tardó más de 30 segundos en tenerlo preparado. Podría interesarle: El futuro de la ciberseguridad en la era 5G La empresa ‘Open AI’ lo ha entrenado con 175 millones de parámetros y miles de textos para que pueda responder a nuestras preguntas. El entreno de esta inteligencia artificial se basa en recibir preguntas, nueva información y correcciones por parte de los usuarios. Sin embargo, como cualquier sistema informático, puede cometer errores y no ser coherente en sus respuestas. El chat se define a sí mismo como una inteligencia artificial que puede comprender preguntas y proporcionar respuestas coherentes utilizando el lenguaje humano. Sin embargo, cuenta que a diferencia de un ser humano no tiene conciencia de sí mismo ni la capacidad de razonar de manera autónoma. Es simplemente un programa de computadora diseñado para imitar el lenguaje humano. ChatGPT también es un riesgo para el orden económico actual Google es una de las grandes empresas preocupadas por la irrupción de ChatGPT. El CEO de Google ha pedido a su equipo la invención de una inteligencia humana que supere a este chat porque temen perder su posición dominante como el buscador más utilizado del mundo. La existencia de ChatGPT también conlleva riesgos. Varias empresas de ciberseguridad lo han sometido a pruebas y han descubierto que esta inteligencia artificial es capaz de generar un correo electrónico con un archivo fraudulento que contenga un virus que te contamine o robe datos. También hay ciberataques con el ChatGPT3. Los límites de esta herramienta también son claros. En algunas ocasiones, el chat pide perdón por errores que, realmente, no ha cometido tan solo porque el usuario se lo señala. Esto conlleva el riesgo de que ChatGTP acabe falseando información y provea datos falsos al resto de cibernautas. FUENTE: Laso, David. »Los peligros de ChatGPT: «Es capaz de generar un correo electrónico que te contamine o robe datos» Cadenaser.com. 17/01/2023. (https://cadenaser.com/nacional/2023/01/17/los-peligros-de-chatgtp-es-capaz-de-generar-un-correo-electronico-que-te-contamine-o-robe-datos-cadena-ser/).