5 beneficios de implementar la Inteligencia Artificial en Ciberseguridad

La Inteligencia Artificial (IA) ha irrumpido con fuerza en el ámbito de la ciberseguridad, revolucionando nuestra aproximación a la protección de sistemas y activos digitales. Las empresas del sector están adoptando la IA en sus estrategias, lo que supone un salto cualitativo en la resiliencia y capacidad de respuesta ante las amenazas cibernéticas. Según un informe de Grand View Research, se prevé que el mercado global de IA en seguridad cibernética alcance los 41.160 millones de euros para 2027, con un crecimiento anual del 23,3% hasta ese año. Lea también: Las mejores leyes del mundo en ciberseguridad Para destacar las ventajas de incorporar la IA en las estrategias de ciberseguridad, los expertos de Evolutio, una empresa española especializada en servicios cloud y ciberseguridad, han elaborado un listado con los 5 beneficios de aplicar la Inteligencia Artificial en la protección de empresas y entidades gubernamentales: 1 – Detección de Anomalías La IA analiza el tráfico de red y el comportamiento de los usuarios para identificar patrones de actividad inusuales que podrían indicar ataques cibernéticos. Estos sistemas aprenden los patrones típicos del usuario y monitorean en tiempo real el tráfico de red, alertando sobre desviaciones significativas que podrían ser amenazas. 2 – Predicción de Amenazas y Adaptabilidad La IA analiza datos históricos de amenazas y tendencias de seguridad para prever posibles ataques y vulnerabilidades futuros. Además, se adapta y evoluciona con el tiempo, lo que reduce los falsos positivos y permite a los analistas centrarse en amenazas reales. 3 – Protección contra el Phishing Los sistemas de IA detectan y bloquean correos electrónicos y sitios web de phishing al analizar contenido malicioso, enlaces y archivos adjuntos. También pueden verificar la autenticidad de imágenes y logotipos en correos electrónicos y sitios web, lo que ayuda a prevenir el robo de credenciales. 4 – Mejora de la Respuesta a Incidentes La IA automatiza la respuesta a incidentes de seguridad, tomando medidas para bloquear el acceso del atacante y mitigar los daños sin intervención humana. Además, clasifica incidentes por gravedad y facilita el análisis forense digital al identificar evidencia relevante en grandes conjuntos de datos. 5 – Integración con Otras Herramientas de Seguridad La IA se integra fácilmente con otras herramientas de seguridad, como sistemas de gestión de eventos e información de seguridad (SIEM) y sistemas de prevención de intrusiones (IPS), para proporcionar una respuesta coordinada y efectiva. Ricardo Sanz, Head of Cyber Security Business en Evolutio, ha comentado: “el uso de la Inteligencia Artificial en la ciberseguridad representa una revolución en la forma en que las organizaciones protegen sus activos digitales en un mundo digital en constante evolución. La IA ha demostrado ser una solución esencial para abordar los desafíos cada vez más complejos y sofisticados que plantean las amenazas cibernéticas”. Asimismo, la IA es una aliada poderosa, pero su efectividad depende de cómo se implemente y se integre en el marco de la seguridad general de las compañías. Sanz ha concluido: “la combinación de la inteligencia humana y la artificial es la clave para una ciberseguridad sólida y adaptable en un mundo digital en constante cambio”. FUENTE: Adrados Herrero, Antonio. »5 beneficios de implementar la Inteligencia Artificial en Ciberseguridad» Silicon.es. 03/10/2023. (https://www.silicon.es/5-beneficios-de-implementar-la-inteligencia-artificial-en-ciberseguridad-2488589).
5 tipos de ataques cibernéticos más comunes y cómo la IA está siendo utilizada para perfeccionarlos

Recientemente, la IA (inteligencia artificial) ha sido una de las tecnologías más comentadas en todos los sectores de negocio; y su interés por conocerle se ha visto en aumento. Desde el sector de salud hasta la educación, la IA ha demostrado su potencial para transformar y mejorar diversos ámbitos de la vida humana. Sin embargo, hay un sector en particular que está siendo cada vez más consciente de la necesidad de incorporar la IA en su estrategia: La ciberseguridad. Lea también: Bitdefender Lab revela las amenazas digitales más desafiantes de la ciberseguridad global Para comprender la magnitud del tema, el experto José Amado, gerente de la Práctica de Identidades Digitales de SISAP, nos presenta los cinco tipos de ataques cibernéticos más comunes y cómo los ciberdelincuentes están haciendo uso de la inteligencia artificial para mejorar y aumentar la efectividad de los mismos. Los cinco tipos de ataques más comunes y cómo la IA está siendo utilizada para perfeccionarlos Podría interesarle: Este nuevo malware puede robar tus datos y dinero si usas Windows FUENTE: Redacción elDinero. »5 tipos de ataques cibernéticos más comunes y cómo la IA está siendo utilizada para mejorarlos» Eldinero.com.do. 20/08/2023. (https://eldinero.com.do/243099/5-tipos-de-ataques-ciberneticos-mas-comunes-y-como-la-ia-esta-siendo-utilizada-para-mejorarlos/).
Europa se opone a la vigilancia en tiempo real y comenzara a regular los sistemas de IA

El Parlamento Europeo se opuso este miércoles a la vigilancia biométrica en tiempo real e impuso condiciones para los nuevos sistemas como ChatGPT, al aprobar la ley de inteligencia artificial (IA) que se está negociando en Bruselas para impulsar su desarrollo, limitando a su vez los posibles riesgos. Con 499 votos a favor, 28 en contra y 93 abstenciones, la Eurocámara fijó así su posición de cara a las negociaciones que empezarán hoy con la Comisión Europea y el Consejo de la UE para pactar el texto definitivo de la ley y que continuarán bajo la presidencia rotatoria que España asumirá el 1 de julio. Entre las demandas del Parlamento Europeo está la de prohibir la vigilancia biométrica en tiempo real en espacios públicos, en contra de lo que han defendido el Ejecutivo comunitario y los países de la UE, que apuestan por permitirla si la autoriza un juez, en casos muy específicos. En pleno debate sobre la necesidad de regular los sistemas que son capaces de generar texto y material audiovisual, el Parlamento quiere que sus desarrolladores demuestren que han reducido los riesgos que la tecnología pueda generar a la salud, a los derechos fundamentales y al sistema democrático. Los eurodiputados también quieren que los usuarios que utilicen esta tecnología para generar imágenes falsas (‘deep fakes’) especifiquen que el contenido se ha manipulado mediante inteligencia artificial. El Parlamento Europeo se opuso a la utilización de los sistemas de identificación biométrica en tiempo real en espacios públicos. Los eurodiputados, no obstante, sí abrieron la puerta a poderlos utilizar a posteriori, siempre con autorización judicial, para perseguir “delitos graves”. Europa se opone a la vigilancia en tiempo real y comenzara a regular los sistemas de IA La Eurocámara rechazó así la enmienda del Partido Popular Europeo, más laxa con la protección de los derechos fundamentales. El PPE se mostró a favor de poder utilizar estos sistemas, con permiso de un juez, para buscar a personas desaparecidas (incluidos los menores), para prevenir un atentado terrorista y para localizar a quienes hayan cometido un delito que acarree al menos tres años de prisión. La normativa califica de alto riesgo a toda una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE. Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios. En caso de que las negociaciones concluyesen este año, la norma no se empezaría a aplicar hasta 2026, por lo que Bruselas ha propuesto un pacto entre las grandes tecnológicas para que etiquetar de forma inmediata todo el contenido falso que se genere con inteligencia artificial. Tras un voto que la vicepresidenta de la Comisión Europea para la Era Digital, Margrethe Vestager, calificó de “histórico”, empezarán las negociaciones entre las tres instituciones europeas para pactar el texto definitivo de la ley. FUENTE: EFE. »Europa se opone a la vigilancia en tiempo real y comenzara a regular los sistemas de IA» Forbes.com.mx. 14/06/2023. (https://www.forbes.com.mx/europa-se-opone-a-la-vigilancia-en-tiempo-real-y-comenzara-a-regular-los-sistemas-ia/).
Microsoft anuncia compromisos con sus clientes para el desarrollo de una IA responsable

La Inteligencia Artificial (IA) está creando oportunidades sin precedentes para empresas de todos los tamaños y en todas las industrias, incluyendo gigantes como Microsoft. Cada vez más organizaciones están adoptando servicios de IA para impulsar su innovación, aumentar la productividad y resolver problemas críticos para la humanidad, como el desarrollo de soluciones médicas innovadoras para curar enfermedades o nuevas formas de enfrentar los desafíos del cambio climático. Podría interesarle: Cuatro consejos del director de Microsoft para diseñar un plan de ciberseguridad Al mismo tiempo, los avances en esta tecnología hacen crecer las preocupaciones sobre su poder y el potencial de que pueda utilizarse para causar daños en lugar de beneficios. No es sorprendente, en este contexto, que los gobiernos de todo el mundo estén analizando cómo se pueden aplicar las leyes y regulaciones existentes a la IA y estén considerando qué nuevos marcos legales pueden ser necesarios. En palabras de Antony Cook, Corporate Vice President and Deputy General Counsel de Microsoft: “Garantizar las barreras adecuadas para el uso responsable de la IA, no se limitará a las empresas de tecnología y los gobiernos: cada organización que cree o utilice sistemas de IA deberá desarrollar e implementar sus propios sistemas de gobernanza”. Por ello, Microsoft anuncia tres grandes compromisos para ayudar a sus clientes a avanzar en su viaje responsable con la IA: En primer lugar, Microsoft compartirá sus aprendizajes sobre el desarrollo y la implementación de IA de manera responsable y ayudará a sus clientes a aprender cómo hacer lo mismo. Microsoft lleva trabajando en el desarrollo de IA responsable desde 2017, aprovechando las habilidades de casi 350 ingenieros, abogados y expertos en políticas y normativas dedicados a implementar un proceso de gobierno sólido que guía el diseño, desarrollo e implementación de la IA de manera segura y transparente. Concretamente, la compañía se compromete a: Programa de garantía de IA En segundo lugar, la compañía está creando un programa de garantía de IA para asegurar a sus clientes que las aplicaciones de IA que implementen en las plataformas de Microsoft cumplen con los requisitos legales y regulatorios de una IA responsable. Este programa incluirá los siguientes elementos: Microsoft cree que este mismo enfoque puede aplicarse a la IA en lo que llama «KY3C», una estrategia que crea ciertas obligaciones para conocer la nube, los clientes y su contenido. Implementar sistemas propios en sus clientes, el tercer compromiso de Microsoft En tercer lugar, Microsoft ha anunciado el compromiso de ayudar a sus clientes a implantar sus propios sistemas de IA de forma responsable y desarrollará programas para su ecosistema de partners para lograr este objetivo. FUENTE: Noticia. »Microsoft anuncia compromisos con sus clientes para el desarrollo de una IA responsable» Elderecho.com. 09/06/2023. (https://elderecho.com/microsoft-anuncia-compromisos-con-sus-clientes-para-el-desarrollo-de-una-ia-responsable).
Charlotte, el chatbot especializado en ciberseguridad

Charlotte es un nuevo chatbot basado en inteligencia artificial generativa cuyo objetivo es hacer más accesible la seguridad digital y reducir la complejidad de estas operaciones, ayudando a los usuarios a gestionar su protección sin importar su nivel de experiencia. “Como ChatGPT, pero especializado en ciberseguridad” sería una manera simplificada de resumir la herramienta que ha lanzado la compañía Crowstrike, que se integra a la plataforma CrowdStrike Falcon, una solución que cuenta con antivirus, detección y respuesta para endpoints, control de dispositivos, evaluación de vulnerabilidades y otras funcionalidades, todo con base en la nube. Podría interesarle: Mejores prácticas para proteger los entornos OT Disponible en una docena de idiomas, “ayudará a todos los usuarios a operar como usuarios avanzados de la plataforma CrowdStrike Falcon”, promete la compañía en un comunicado, que espera, a su vez, colaborar en “cerrar la brecha de habilidades en ciberseguridad”, con el objetivo final de democratizar esta área. Charlotte, un aliado de los CISO y CIO A través de preguntas sencillas como “¿Qué amenazas están atacando el sistema?” o “¿Cuál es nuestro nivel de riesgo actual ante la nueva vulnerabilidad de Microsoft?”, tanto los profesionales del equipo de IT como los CISO o los CIO podrán tomar decisiones más rápidas e inteligentes. También permitirá a los usuarios más experimentados automatizar los trabajos repetitivos, como pueden ser la recogida y extracción de datos, para que puedan centrarse en tareas de mayor complejidad. Desde CrowdStrike indican que Charlotte IA “utiliza los datos de mayor fidelidad del mercado, gracias a los billones de eventos de seguridad capturados por CrowdStrike Threat Graph, la telemetría de activos relacionados con usuarios, dispositivos, identidades y cargas de trabajo cloud, así como por la inteligencia frente a amenazas de CrowdStrike”. Y todos estos contenidos están supervisados y validados por profesionales de la ciberseguridad, combinando todas las herramientas de la compañía con las habilidades humanas. “Creemos que el futuro de la ciberseguridad requiere una estrecha colaboración hombre-máquina para hacer frente a la velocidad, el volumen y la sofisticación avanzada del adversario. Cuando se hace correctamente, la IA puede revelar rápidamente amenazas ocultas, acelerar la toma de decisiones de los analistas de seguridad menos experimentados y simplificar una multitud de tareas complejas”, asegura la empresa de ciberseguridad. De momento, Charlotte está disponible en versión preliminar privada para clientes de la plataforma y la compañía aún no ha anunciado cuándo la implementará a nivel global. FUENTE: Di Santo, Anahí. »Charlotte, el chatbot especializado en ciberseguridad» Escudodigital.com. 08/06/2023. (https://www.escudodigital.com/ciberseguridad/charlotte-chatbot-especializado-en-ciberseguridad_55608_102.htm).
ChatGPT cumple seis meses: ha mejorado pero sigue equivocándose y desconoce sucesos de actualidad

El modelo de inteligencia artificial ChatGPT ha cumplido seis meses desde que se lanzó su versión gratuita y se ha convertido en la plataforma que más usuarios ha reunido en menos tiempo en la historia de Internet. El 30 de noviembre de 2022, ya había alcanzado los 100 millones de usuarios mensuales, convirtiéndose en la plataforma de Internet que más rápido ha crecido en toda la historia. Podría interesarle: ChatGPT, marco regulatorio y su aplicación en la abogacía Meses más tarde, el 1 de febrero de 2023, OpenAI lanzó GPT Plus, la versión de pago del chatbot impulsada por el modelo de IA GPT-4 que permite funciones exclusivas, como respuestas más rápidas o el acceso a Internet. No obstante, es la versión gratuita la que más usuarios aglutina: solo en enero recibía más de 13 millones de usuarios al día, según un estudio de la consultora UBS. Además, el chatbot ya cuenta con su propia aplicación para móviles: De momento solo está disponible en Estados Unidos y para usuarios iOs (Apple), aunque se espera que próximamente se lance también para Android. A pesar de que el chatbot ha evolucionado durante los últimos seis meses, ChatGPT sigue equivocándose y no está conectado a la actualidad (la base de datos con la que se le entrenó llega hasta 2021). Por eso desconoce sucesos como la guerra de Ucrania. Los expertos consultados por Maldita.es aseguran que la IA no está todavía “lo suficientemente perfeccionada”, ya que en muchos casos sigue “inventándose la información”. Además, su uso en campos como el de la la nutrición y el deporte. ChatGPT cumple seis meses: ¿está la IA lo suficientemente perfeccionada como para usarla a ciegas? El crecimiento de ChatGPT durante los últimos seis meses ha hecho que muchos usuarios crean que la herramienta sirve para todo sin fallo ni error. Sin embargo, está lejos de ser así. El chatbot presenta una serie de limitaciones desde sus inicios: ChatGPT no puede usarse como si fuera Google u otro buscador, ya que no está conectado a Internet, tampoco dice siempre la verdad o responde con información incorrecta. ¿En qué ha mejorado y en qué sigue fallando? Ejemplos en nociones matemáticas y sucesos de actualidad En sus inicios el chatbot fallaba al asegurar que el nueve era un número primo, cuando no lo es. Meses después, la herramienta ya responde de forma correcta a esta pregunta aunque sigue equivocándose en algunas ecuaciones. Un experto le planteó la ecuación de Mifflin-St Jeor –que calcula el consumo energético basal, es decir, el número de calorías que quema el cuerpo en reposo– y obtuvo dos resultados. El primero es correcto según la ecuación. El segundo, incorrecto: se inventa la ecuación y hay casi un 20% de diferencia. Si hablamos de actualidad, hay varios ejemplos reseñables en los que el chatbot se equivoca. Desde septiembre de 2021, se han producido diferentes sucesos que han marcado la historia. Por ejemplo, la guerra de Ucrania. El chat reconoce que el conflicto comenzó en 2014 con la anexión rusa de la península de Crimea. Sin embargo, asegura que continúa en la actualidad a un “nivel más bajo de intensidad que en los años anteriores”. Desconoce, por lo tanto, que la madrugada del 24 de febrero de 2022 Rusia invadió a Ucrania. Si le preguntamos por el dueño de la red social Twitter, ChatGPT nos seguirá hablando de Jack Dorsey y de su reemplazo por Parag Agrawal. Ni rastro del empresario Elon Musk, que compró la compañía en 2022. Lo mismo ocurre con temas más sencillos y virales como la ruptura de la cantante Shakira y el futbolista Gerard Piqué.. La IA no duda en afirmar que “no hay evidencias” de que la pareja se haya separado. Tampoco tiene constancia de la sesión que la artista tiene con el productor argentino Bizarrap, un éxito mundial: “No tengo conocimiento de que Shakira haya sacado una canción con Bizarrap hablando mal de Piqué”. La IA se afina pero no amplía la base datos: sigue congelada en 2021 Este tipo de modelos de IA, como explicábamos, aprende en base a millones de ejemplos con los que ha sido entrenado. Alonso explica que, durante la fase de entrenamiento, ven “millones y millones de textos” a los que se les quitan palabras para que el modelo pueda predecirlas. Lea también: Google deja a la UE fuera de su nueva inteligencia artificial El proceso en el que se preparan los textos y se entrenan los modelos es muy costoso, en dinero y en tiempo. Por eso no se hace continuamente. Actualmente, ChatGPT está congelado en 2021 porque no se le han mostrado textos posteriores a esa fecha y por eso falla en los ejemplos que hemos visto. A eso hay que sumarle, dice Alonso, que la mayoría de textos que ha visto (más del 90%) están en inglés, lo que hace que muchas respuestas en español sean de menor calidad. Riesgos de su uso inadecuado: nutricionista, entrenador deportivo, y su uso para timos Entre los muchos usos que esos millones de usuarios le están dando a ChatGPT, la IA se ha colado de lleno en el mundo del deporte y la nutrición. Tanto, que muchos aseguran en redes sociales que ChatGPT puede desempeñar las labores de un nutricionista y un entrenador personal. Sin embargo, los expertos aseguran que esta herramienta no está lo suficientemente perfeccionada y su uso en materias que impactan a nuestra salud puede conllevar riesgos. En la mayoría de los casos, este chatbot no tiene en cuenta factores fundamentales como el peso, lesiones, posibles patologías o la relación de los usuarios con la comida, tanto para elaborar una dieta como para crear una rutina de deporte. Además, los expertos recuerdan que la IA puede devolver información errónea y que carece del factor psicosocial y de acompañamiento que nos daría un entrenador deportivo profesional o un nutricionista, algo que consideran “fundamental”. Temas que siguen en el aire: regulación y responsabilidades de una IA como ChatGPT Desde su lanzamiento, uno de los grandes debates sobre ChatGPT es dilucidar quién se responsabiliza de los posibles daños (físicos, económicos, morales o reputacionales) que la herramienta pueda causar para indemnizarlos. La Comisión Europea está trabajando en dos posibilidades: «La
Chatbots generativos y 6 formas para mejorar la ciberseguridad

Los chatbots generativos y los modelos de lenguaje (LLM) grandes pueden ser un arma de doble filo desde una perspectiva de riesgo. La rápida aparición de ChatGPT de Open AI ha sido una de las historias más importantes del año, con el impacto potencial de los chatbots generativos de IA y los modelos de lenguaje extenso (LLM) en la ciberseguridad como un área clave de discusión. Se ha hablado mucho sobre los riesgos de seguridad que podrían presentar estas nuevas tecnologías: Algunos países, estados de EE.UU. y empresas han ordenado prohibiciones sobre el uso de tecnología generativa de IA como ChatGPT por motivos de seguridad, protección y privacidad de datos. Claramente, los riesgos de seguridad introducidos por los chatbots generativos de IA y los grandes LLM son considerables. Sin embargo, estos mismos dispositivos pueden mejorar la ciberseguridad para las empresas de múltiples maneras, dando a los equipos responsablea del área un impulso muy necesario en la lucha contra la actividad cibercriminal. Aquí hay seis formas en que los chatbots de IA generativa y los LLM pueden mejorar la seguridad. Análisis y filtrado de vulnerabilidades Según un informe de Cloud Security Alliance (CSA) que explora las implicaciones de ciberseguridad de los LLM, los modelos generativos de IA se pueden utilizar para mejorar significativamente el escaneo y filtrado de vulnerabilidades. En el documento, CSA demostró que la API Codex de OpenAI es un escáner de vulnerabilidades efectivo para lenguajes de programación como C, C #, Java y JavaScript. Podría interesarle: El enemigo de la ciberseguridad también habita dentro de la empresa Por ejemplo, se podría desarrollar un escáner para detectar y marcar patrones de código inseguros en varios lenguajes, ayudando a los desarrolladores a abordar posibles vulnerabilidades antes de que se conviertan en riesgos críticos de seguridad. En cuanto al filtrado, los modelos generativos de IA pueden explicar y agregar un contexto valioso a los identificadores de amenazas que, de otro modo, el personal de seguridad humano podría pasar por alto. Reacomodo de fuerzas Otro ejemplo lo encontramos en TT1059.001, un identificador de técnica dentro del marco MITRE ATT&CK, que puede informarse pero no estar familiarizado con algunos profesionales de ciberseguridad, lo que genera la necesidad de una explicación concisa. ChatGPT puede reconocer con precisión el código como un identificador MITRE ATT&CK y proporcionar una explicación del problema específico asociado con él, el cual implica el uso de scripts maliciosos de PowerShell. También profundiza en la naturaleza de PowerShell y su uso potencial en ataques de ciberseguridad, ofreciendo ejemplos relevantes. En mayo, OX Security anunció el lanzamiento de OX-GPT, una integración de ChatGPT diseñada para ayudar a los desarrolladores con recomendaciones de corrección de código personalizadas y corrección de código de cortar y pegar, incluida: Invertir complementos, analizar API de archivos PE Matt Fulmer, gerente de ingeniería de inteligencia cibernética en Deep Instinct señala que la tecnología generativa AI/LLM se puede utilizar para ayudar a construir reglas y revertir complementos populares basados en marcos de ingeniería inversa como IDA y Ghidra. Agrega que los LLM también pueden ayudar a comunicarse a través de aplicaciones, con la capacidad de analizar API de archivos ejecutables portátiles (PE) y decirle para qué se pueden usar. “Esto puede reducir el tiempo que los investigadores de seguridad pasan revisando archivos PE y analizando la comunicación API dentro de ellos”. Consultas de búsqueda de amenazas Los defensores de la seguridad pueden mejorar la eficiencia y acelerar los tiempos de respuesta aprovechando ChatGPT y otros LLM para crear consultas de búsqueda de amenazas, según CSA. Al generar consultas para herramientas de investigación y detección de malware como YARA, ChatGPT ayuda a identificar y mitigar rápidamente amenazas potenciales, lo que permite a los defensores concentrarse en aspectos críticos de sus esfuerzos de ciberseguridad. Esta capacidad resulta invaluable para mantener una postura de seguridad sólida en un panorama de amenazas en constante evolución. Las reglas se pueden adaptar en función de los requisitos específicos y las amenazas que una organización desea detectar o supervisar en su entorno. La IA puede mejorar la seguridad de la cadena de suministro Los modelos de IA generativa se pueden utilizar para abordar los riesgos de seguridad de la cadena de suministro al identificar las posibles vulnerabilidades de los proveedores. En abril, SecurityScorecard anunció el lanzamiento de una nueva plataforma de calificación de seguridad para hacer precisamente esto a través de la integración con el sistema GPT-4 de OpenAI y la búsqueda global en lenguaje natural. Los clientes pueden hacer preguntas abiertas sobre su ecosistema empresarial, incluidos detalles sobre sus proveedores, y obtener rápidamente respuestas para impulsar las decisiones de gestión de riesgos, según la firma. Los ejemplos incluyen “encontrar mis 10 proveedores con la calificación más baja” o “muéstrenme cuáles de mis proveedores críticos fueron violados el año pasado”, preguntas que, según SecurityScorecard, arrojarán resultados que permitirán a los equipos tomar decisiones de gestión de riesgos rápidamente. Generación y transferencia de códigos de seguridad Los LLM como ChatGPT se pueden usar para generar y transferir códigos de seguridad. CSA cita el ejemplo de una campaña de phishing que se ha dirigido con éxito a varios empleados dentro de una empresa, exponiendo potencialmente sus credenciales. Si bien se sabe qué empleados abrieron el correo electrónico de phishing, no está claro si sin darse cuenta ejecutaron el código malicioso diseñado para robar sus credenciales. Igualmente señala que la consulta ayuda a identificar cualquier actividad de inicio de sesión sospechosa que pueda estar relacionada con credenciales comprometidas. Chatbots generativos en acción Aquí, ChatGPT puede proporcionar una consulta de caza de defensor de Microsoft 365 para verificar los intentos de inicio de sesión de las cuentas de correo electrónico comprometidas, lo que ayuda a bloquear a los atacantes del sistema y aclara si el usuario necesita cambiar su contraseña. Es un buen ejemplo para reducir el tiempo a la acción durante una respuesta cibernética. Sobre la base del mismo ejemplo, puede tener el mismo problema y encontrar la consulta de caza de Microsoft 365 Defender, pero su sistema no funciona con el lenguaje
ChatGPT, marco regulatorio y su aplicación en la abogacía

La inteligencia artificial (IA) ya no es algo exclusivo de la ciencia ficción y hace ya mucho que está en nuestro día a día, aunque quizás no nos hayamos dado cuenta hasta ahora. Estos últimos años la palabra inteligencia artificial está ya en todos lados y, con la llegada del novedoso ChatGPT el debate está servido. Hay países que incluso han prohibido el uso de esta herramienta, como hizo Italia el pasado mes de marzo. Sobre Inteligencia Artificial y la llegada de ChatGPT El Parlamento Europeo define la Inteligencia Artificial como la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear”. Todo esto implica grandes avances en informática, la disponibilidad de grandes cantidades de datos, análisis de imágenes, motores de búsqueda, robots, drones, etc. Aquí entraría en juego el ya famoso ChatGPT, un modelo de lenguaje desarrollado por OpenAI, una empresa americana de investigación de Inteligencia Artificial (IA). Este chat cuenta con gran cantidad de datos de texto que permite realizar gran cantidad de tareas relacionadas con el lenguaje. A través de preguntas o consultas de los usuarios, este chat desarrolla respuestas adaptadas a las necesidades de cada uno y con gran precisión, incluso podría generar artículos bien estructurados. Entonces, ¿dónde está el problema? Últimas reacciones de la UE y países miembros sobre ChatGPT A inicios de abril, Italia tomó la decisión de prohibir ChatGPT por “no respetar la ley de protección de datos personales de los interesados”. A raíz de esto, el resto de países europeos han comenzado a investigar las posibles implicaciones de esta herramienta y no descartan seguir los pasos del país vecino. Podría interesarle: Por qué es importante la soberanía de datos europea De hecho, la Agencia Española de Protección de Datos (AEPD) ha solicitado al Comité Europeo de Protección de Datos que incluyan este debate en la próxima reunión plenaria para poner unas directrices en común con todos los países miembros de la UE. Y el pasado 11 de mayo la Unión Europea aprobó la propuesta de ley que pretende reforzar la normativa sobre el uso y el desarrollo de la inteligencia artificial, y en concreto las obligaciones que aplicaciones como ChatGPT deberá seguir. ¿Cómo afecta a abogados y oficinas legales ChatGPT? La industria legal considera que esta tecnología pueda facilitar y realizar de manera más eficiente el trabajo de archivo y documentación de sus procesos. Se trata de una forma de delegar las tareas más rutinarias y centrarse en los aspectos estratégicos y sustanciales de sus funciones. Con respecto a reclamador.es, Irene Becerra, nuestra directora legal, participó el pasado 11 de mayo en la Webinar ‘ChatGPT y su impacto en la abogacía’ donde se destacaba como punto fuerte de esta herramienta para la profesión la posibilidad de educar sobre los derechos y obligaciones del público con un lenguaje claro y accesible. Por otra parte, señalaban la imposibilidad de que estos sistemas sustituyeran a los abogados porque, entre otros motivos, carecen de valores esenciales como la empatía en una parte básica del trabajo que es el trato con el cliente. Dicho esto, la necesidad de aprender a coexistir con estas novedades tecnológicas que van apareciendo: es un must para la buena evolución de la abogacía, desde las grandes firmas hasta un abogado independiente. También Irene comentaba el medio digital Cinco Días de El País que “puede ayudar a nivel telefónico a evitar cadenas de locuciones pre-grabadas en líneas de atención al cliente” y “con orientaciones ante el planteamiento de dudas básicas, sencillas y recurrentes”. Además, añadía como, el chat “es una herramienta diseñada para complementar y mejorar la eficiencia en las tareas realizadas por los abogados y trabajadores de otros sectores”. Riesgos y regulación Pero como todo, tiene algún matiz, ya que puede cometer errores o no dar la información relevante que se está buscando. En definitiva, no puede sustituir al papel de un abogado en ningún caso. En este aspecto, Irene señalaba que “la resolución de consultas legales, es decir, la labor de asesoramiento del abogado ante un problema del cliente, no se puede simplificar a dar una respuesta exacta de un chat (…). Un asesoramiento jurídico completo requiere de conocimiento, interpretación y aplicación de la ley, para lo que se necesitan habilidades humanas únicas, como empatía, comprensión o el uso de la experiencia”. Lo que está claro es que la Inteligencia Artificial está ya en nuestro día a día y ha venido para quedarse con todas las implicaciones que acarrea. FUENTE: Reclamador. »ChatGPT: marco regulatorio y su aplicación en la abogacía» Lawandtrends.com. 27/05/2023. (https://www.lawandtrends.com/noticias/tic/chatgpt-marco-regulatorio-y-su-aplicacion-en-la-abogacia-1.html).
Necesitamos alinear la regulación de la inteligencia artificial

Nos encontramos en un momento histórico en el que, ante el auge de la inteligencia artificial, existe un consenso generalizado sobre la necesidad de regularla. Pero, ¿cómo hacerlo correctamente? En la última década, el debate en torno a la gobernanza de esta tecnología ha cobrado impulso, multiplicándose las propuestas políticas. Un análisis reciente de Stanford ponía cifras a la fiebre reguladora: desde 2016 hasta 2022, el mundo ha pasado de 1 ley sobre la materia a 37. Lea también: La inteligencia artificial como arma de doble filo: ciberataques sofisticados y sistemas de vanguardia La presencia de la inteligencia artificial en los procedimientos legislativos de 81 países ha aumentado casi siete veces. España encabeza la lista con 273 menciones, seguida de Canadá (211), Reino Unido (146) y Estados Unidos (138). Y eso sin contar que todavía falta por llegar una de las iniciativas de mayor impacto: la ley de inteligencia artificial europea. Lo que está claro es que hay un creciente interés en torno al impacto social de estas nuevas aplicaciones y un grito generalizado reclamando límites que guíen su evolución. La carrera por regular ha comenzado y el mundo mira a las grandes potencias en busca de orientación porque una atomización de reglas que afectan a la tecnología más relevante de este siglo puede tener consecuencias indeseadas sobre casi todo, incluido el comercio internacional y la competitividad de los países. Entre pausas y regulaciones, los expertos piden intervención casi inmediata sobre la Inteligencia Artificial Con el auge de ChatGPT y los primeros pasos hacia la inteligencia artificial general (AGI), el debate técnico se centra en cómo garantizar que las máquinas no acaben tomando el control. En el mundillo, el alineamiento o alignment pretende hacer converger lo que se quiere que hagan los sistemas y lo que realmente harán. Esta preocupación es la que ha llevado a científicos como George Hinton, a pedir que si hay alguna forma de controlar la inteligencia artificial, debemos encontrarla antes de que sea tarde. O incluso a investigadores de OpenAI a compartir sus temores ante un desarrollo técnico que desalineado con los intereses humanos y los principios éticos. Los que están desarrollando esta tecnología piden que se pare, pero curiosamente solo durante 6 meses, mientras que otras tantas destacadas investigadoras como Timnit Gebru afirman que más que una pausa lo que hace falta es regulación que refuerce la transparencia. El CEO de Google o Bill Gates ven esta propuesta poco práctica para atajar los verdaderos problemas que presenta este avance a toda velocidad. Consideran que estamos frente al “avance más importante” desde la creación de los ordenadores y los móviles. Del pesimismo de los expertos, a la necesidad de una conversación global Aunque no hay una definición universal, se entiende por AGI como un sistema computacional capaz de hacer cualquier tarea humana y generar nuevos conocimientos. Sería más adecuado llamarlo GodAI. Casi un 40% de los expertos cree que podría suponer una catástrofe del tipo nuclear, por ello hasta el emprendedor más liberal está pidiendo regulación. Sin embargo, más que obsesionarnos con regular para contener algo que ya ha desbordado, deberíamos abrir una conversación global, no solo entre gobiernos, que permita revisar los incentivos que dan forma al propio desarrollo tecnológico y acordar unos mínimos orientadores para los próximos años. Una maraña regulatoria difícil de implementar y cumplir en plena desglobalización no parece ser la mejor solución. Para hacernos una idea de la diversidad de reacciones por parte de los reguladores ante una aplicación tecnológica como ChatGPT solo tenemos que dar una vuelta por los movimientos de las últimas semanas. China ha introducido un conjunto de normas para los servicios basados en inteligencia artificial generativa. La intención de Beijing, reportada por Reuters, es que las empresas realicen evaluaciones de seguridad antes de que sus productos sean lanzados al mercado. Sus directrices ponen la responsabilidad en los proveedores, quienes deben garantizar la legalidad de los datos usados al entrenar sus soluciones tecnológicas, así como implementar medidas preventivas que eviten la discriminación al crear algoritmos y al utilizar la información recopilada. ¿Cómo se ha abordado el avance desenfrenado de las IA, hasta ahora? Por ejemplo, Italia decidió bloquear ChatGPT algo que fue después enmendado tras ajustes de privacidad por parte de la empresa. En esta línea, el Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) ha creado un grupo de trabajo con todas las autoridades nacionales de protección de datos que anuncian cada día nuevas investigaciones sobre la empresa más popular del momento: OpenAI. ¿Es que acaso solo hay un proveedor de estos grandes modelos de lenguaje? En contraste, países como el Reino Unido o la India han optado por evitar establecer regulaciones estrictas en esta fase de descubrimiento. Parecen estar apostando por permitir que la tecnología evolucione libremente con vistas a desencadenar su propio pelotazo tecnológico que pueda impulsar sus economías. Ante la diversidad de estrategias en los diferentes países, con intereses nacionales y corporativos variados, la idea de un marco unificado de regulación de la inteligencia artificial se vislumbra más como un sueño que una opción factible. ¿Qué alternativas hay en el medio? Una de las propuestas recurrente en los foros internacionales es la creación de una Agencia Internacional para la Inteligencia Artificial (IAI) global, neutral, que cuente con la orientación y la participación de gobiernos, grandes empresas tecnológicas, organizaciones sin ánimo de lucro, el mundo académico y la sociedad. Mientras la gobernanza internacional estructura la conversación para llegar a un consenso sobre cómo avanzar en este punto de inflexión tecnológico, tal vez sería interesante actualizar las regulaciones existentes y, en aquellos nuevos desarrollos normativos, colaborar entre países para que sus planteamientos y requisitos estén alineados. Será la única forma de facilitar su cumplimiento. FUENTE: Velasco, Lucía. »Necesitamos alinear la regulación de la inteligencia artificial» Elpais.com. 19/05/2023. (https://elpais.com/tecnologia/2023-05-19/necesitamos-alinear-la-regulacion-de-la-inteligencia-artificial.html).