Google deja a la UE fuera de su nueva inteligencia artificial

El gigante tecnológico Google lanza Bard en 180 territorios, pero no en el espacio comunitario, donde su rival ChatGPT está siendo investigada por vulnerar la privacidad de los usuarios. La inteligencia artificial de Google está ya disponible en 180 países o territorios, pero ninguno de ellos pertenece a la Unión Europea. El gigante tecnológico deja sin acceso a su nueva herramienta Bard al territorio comunitario, por lo menos en una primera etapa. Y aunque la empresa no ha ofrecido más detalles, la decisión se explica en los duros requisitos sobre privacidad que exige la UE para que la inteligencia artificial se implante en su territorio. Otras noticias: La Unión Europea inaugura en Bucarest centro para reforzar la ciberseguridad Bard, lanzada hace dos meses, fue concebida como la respuesta de Google a su rival OpenAI, que había irrumpido en la inteligencia artificial con la revolucionaria y exitosa ChatGPT, que en dos meses alcanzó los 100 millones de usuarios. Pero ChatGPT se ha topado con la Unión Europea. El 13 de abril, el Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) creó un grupo de trabajo que está estudiando el impacto de la aplicación de la inteligencia artificial en los derechos de las personas. En concreto, la UE indaga un posible incumplimiento de la normativa europea de privacidad. España, Italia y otros países de la Unión Europea que dieron una voz de alarma y que Google tomó en cuenta para restringir su herramienta en el viejo continente España fue uno de los primeros países en dar la voz de alarma. Hace un mes, la Agencia Española de Protección de Datos publicó un comunicado en el que abogaba «por el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde el pleno respeto a la legislación vigente» porque «sólo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas». En el fondo late el temor de la Unión Europea a que las empresas de inteligencia artificial vulneren en algún momento los derechos de los consumidores con la información que proporcionan los propios usuarios al hacer búsquedas. Previamente, Italia había tomado una decisión más drástica al bloquear el acceso a ChatGPT por el mismo motivo, violar la privacidad de los datos de los usuarios. El Gobierno de este país denunció que el chatbot violaba la ley de protección de datos de los consumidores después de que una falla en el sistema de seguridad de ChatGPT dejara al acceso público información personal de decenas de usuarios, como los pagos que realizaban. En el resto del mundo, sin embargo, la carrera de la inteligencia artificial avanza a toda velocidad desde que el 30 de noviembre ChatGPT, la aplicación de OpenAI, una empresa apoyada por Microsoft, irrumpiera como una herramienta para elaborar conversaciones y textos similares a los que realizaría un ser humano. De hecho, el 14 de marzo de 2023 ya tuvo su primera actualización, el ChatGPT-4. Microsoft, otro jugador dentro del desarrollo de tecnologías de Inteligencia Artificial La propia Microsoft actualizó su Bing, que ha pasado de ser un buscador casi testimonial a una nueva herramienta capaz de responder a preguntas para las que no existe ningún resultado obvio en Internet, como qué modelo de sillita comprar para un vehículo concreto, según informa Reuters. Ahora Google, con Bard, ha sido la siguiente en mover ficha. «Estamos reimaginando todos nuestros productos principales, incluida la búsqueda», dijo este miércoles Sundar Pichai, consejero delegado de Alphabet, durante la conferencia anual de Google I/O, celebrada este miércoles en Mountain View (California). Google quiere integrar la IA en su motor de búsqueda, pero también en el resto de sus productos, como Gmail, que puede crear borradores de mensajes, y Google Fotos, lo que permitirá hacer cambios en las imágenes. Actualmente, Bard está disponible en inglés, japonés y coreano, aunque Pichai anunció que pronto se podrá acceder en 40 idiomas, incluyendo el español. FUENTE: Soto, Álvaro. »Google deja a la UE fuera de su nueva inteligencia artificial» Elcorreo.com. 11/05/2023. (https://www.elcorreo.com/tecnologia/google-extiende-mundo-nueva-inteligencia-artificial-competir-20230510002857-ntrc.html?ref=https%3A%2F%2Fwww.google.com%2F).
ChatGPT y el futuro de la ciberseguridad

En el mundo de la ciberseguridad, la incorporación de la inteligencia artificial (IA) y el aprendizaje automático (ML) ha abierto nuevas posibilidades y desafíos. Recientemente, ha surgido una nueva herramienta que promete transformar la forma en que los profesionales de la seguridad protegen las redes y los sistemas: ChatGPT. Este innovador modelo de IA ha llamado la atención de expertos y entusiastas de la tecnología, ya que tiene el potencial de mejorar significativamente los esfuerzos en ciberseguridad. En este artículo, exploraremos cómo ChatGPT está revolucionando la ciberseguridad y las diversas formas en que puede ayudar a los profesionales en este campo. ChatGPT: Un aliado para los analistas de seguridad Cuando se trata de la detección y respuesta de amenazas, ChatGPT ofrece un gran valor a los analistas de seguridad. Utilizando algoritmos de aprendizaje automático y técnicas de análisis de comportamiento, este modelo de IA puede identificar actividades anómalas y generar alertas para detectar posibles ataques. Lea también: La Unión Europea inaugura en Bucarest centro para reforzar la ciberseguridad Por otro lado, ChatGPT tiene la capacidad de comprender y generar consultas en herramientas especializadas como Splunk, simplificando el proceso de búsqueda y análisis de eventos de seguridad. Automatización de tareas y ahorro de tiempo Una de las ventajas más destacadas de ChatGPT es su capacidad para automatizar tareas diarias y rutinarias. Por ejemplo, en entornos con cientos de cuentas inactivas, ChatGPT puede construir scripts que identifiquen y desactiven estas cuentas de manera eficiente. Esto permite a los ingenieros y administradores de sistemas ahorrar tiempo y concentrarse en tareas más avanzadas y estratégicas. Potenciando la colaboración entre equipos Otra aplicación fascinante de ChatGPT es su capacidad para impulsar la colaboración entre los equipos de seguridad. Mediante el concepto de «purple teaming», donde los equipos de ataque (red team) y defensa (blue team) trabajan juntos, ChatGPT puede generar ejemplos de scripts que los respondables por el Examen de penetración pueden utilizar para probar la seguridad de una organización. Al mismo tiempo, el equipo de defensa puede aprovechar esta información para comprender mejor cómo lucen las herramientas de ataque y mejorar sus mecanismos de alerta. Límites y Reflexiones A pesar de los múltiples beneficios que ofrece ChatGPT, es importante reconocer que existen límites en su utilidad. Aunque la IA ha avanzado rápidamente, aún carece de la capacidad para emular por completo el pensamiento humano y la toma de decisiones complejas basadas en experiencias reales. Por otro lado, las falsas alarmas generadas por ChatGPT deben ser revisadas y validadas por profesionales humanos, ya que la interpretación de contextos específicos es un desafío para los modelos de IA. La Evolución Constante de la Ciberseguridad con ChatGPT A pesar de las limitaciones, ChatGPT representa un avance significativo en el campo de la ciberseguridad. A medida que la tecnología continúa evolucionando, es probable que veamos mejoras y avances en su capacidad para comprender el contexto y tomar decisiones más precisas. Podría interesarle: Ciberseguridad industrial: ¿qué es y por qué implementarla? La automatización de tareas repetitivas y mundanas proporciona un alivio para los profesionales de seguridad, permitiéndoles enfocarse en actividades más estratégicas y creativas. Esto no solo aumenta la eficiencia y productividad, sino que también fomenta el desarrollo y la innovación en el campo de la ciberseguridad. Aún así recordemos que todo tiene dos lados en esta vida. Gente que no sabía programar está creando scripts para robar datos de otros por email y redes sociales, y eso también es obra de ChatGPt y otras herramientas generativas que han ido apareciendo. FUENTE: Polo, Juan Diego. »CHATGPT Y EL FUTURO DE LA CIBERSEGURIDAD» Wwwhatsnew.com. 15/05/23. (https://wwwhatsnew.com/2023/05/15/chatgpt-y-el-futuro-de-la-ciberseguridad/).
¿Usas ChatGPT? Sigue estas precauciones para mantener tu privacidad

Recientemente, varios clientes nos han trasladado en distintas reuniones por otros asuntos su preocupación sobre el impacto que herramientas de IA como ChatGPT pueden tener en sus organizaciones, y más concretamente, qué consideraciones deben trasladar a compañeros y clientes en relación con la protección y la privacidad de datos personales al hacer uso de dichas herramientas; máxime cuando la propia AEPD ha decidido iniciar, de oficio, actuaciones de investigación a OpenAI, empresa propietaria de ChatGPT. Y qué mejor para plantear esta cuestión que pedir ayuda a dichas herramientas. A la pregunta: El equipo de comunicación del despacho de abogados para el que trabajamos nos ha pedido que hablemos, en la newsletter semanal interna con información sobre actividades del despacho, sobre algún aspecto que hayamos visto recientemente vinculado con la práctica profesional de la abogacía en el ámbito de la protección y la privacidad de datos. ¿Podrías introducirnos en 300 palabras o menos este tema? ChatGPT responde textualmente: Uno de los temas actuales en la protección de datos es el impacto de las tecnologías de inteligencia artificial como ChatGPT en la privacidad de los datos. ChatGPT es un modelo de lenguaje basado en la IA que procesa grandes cantidades de datos para generar respuestas a preguntas y llevar a cabo conversaciones. Sin embargo, el uso de ChatGPT implica la recopilación y procesamiento de datos personales, ya que las conversaciones pueden contener información sensible de los usuarios. Por tanto, es importante que las empresas que utilizan ChatGPT aseguren que cumplen con todas las normativas de protección de datos aplicables. En este sentido, es necesario que las empresas informen a los usuarios sobre el uso de ChatGPT y obtengan su consentimiento para recopilar y procesar sus datos personales. Además, deben asegurarse de que los datos se procesen de manera segura y responsable y de que se respeten los derechos de privacidad de los usuarios. Lea también: Superintendencia de Industria tiene en la mira a la aplicación “Chat-GPT” Por otro lado, los abogados también tienen un papel importante en la protección de datos en relación con el uso de ChatGPT. Deben asesorar a sus clientes sobre cómo cumplir con las normativas de protección de datos aplicables y garantizar la privacidad de los datos en el contexto del uso de tecnologías de inteligencia artificial como ChatGPT. En definitiva, el impacto de ChatGPT desde una perspectiva de protección de datos es un tema importante que requiere la atención tanto de las empresas que lo utilizan como de los abogados que asesoran en este ámbito. ChatGPT y su efectividad Si bien la respuesta de ChatGPT, tangencialmente similar a la de otras herramientas similares como BingAI o Perplexity AI, puede parecer asombrosa, lo primero que procede aclarar ante cualquier consulta es que ni ChatGPT ni cualquiera de sus competidores son máquinas que nos dicen lo que piensa, sino herramientas que saben cómo usar palabras (dicho de otro modo, no sabe el “significado” de una palabra, pero sabe cómo se utiliza). Sin embargo, o justamente por esta misma limitación, la inteligencia artificial en la fase actual es extremadamente efectiva para responder preguntas, redactar artículos o resumir conjuntos de información compleja o desordenada. Es, por tanto, mucho más efectiva desde el punto de vista del usuario que tener que estar utilizando el buscador para, entre toda la información obtenida, proceder a elaborar el documento final. Son justamente estas habilidades las que hacen estas herramientas tan atractivas para las organizaciones y sus empleados, optimizando los procesos de creación de contenido, elaboración de materiales informativos, etc. pero a la vez muy arriesgadas por el riesgo que suponen para la protección de la información de toda índole (confidencial, personal o reservada). De hecho, las principales herramientas de IA disponibles para el público son entornos cerrados en los que la misma herramienta se alimenta de la información que los distintos usuarios le aportan. Esto significa que, en un entorno de inteligencia artificial, nada es privado, y todo lo que compartamos con la herramienta podrá ser utilizado, con nosotros o con terceros, en el futuro. Ese es su principal riesgo. Por ello, es de fundamental importancia (y así lo hemos trasladado a nuestros clientes cuando nos lo han consultado) que: FUENTE: Torrado, José Antonio. »¿Usas ChatGPT? Sigue estas precauciones para mantener tu privacidad» Legaltoday.com. 08/05/2023. (https://www.legaltoday.com/practica-juridica/derecho-publico/proteccion-datos/usas-chatgpt-sigue-estas-precauciones-para-mantener-tu-privacidad-2023-05-08/).
Superintendencia de Industria tiene en la mira a la aplicación “Chat-GPT”

En la mira de la Superintendencia de Industria y Comercio está la aplicación ChatGPT, para comprobar si cumple con la regulación de protección de datos personales de los colombianos. Podría interesarle: El regulador europeo de privacidad crea un grupo de trabajo sobre ChatGPT De acuerdo con la SIC lo que se busca es determinar si se han implementado medidas relacionadas con el principio de responsabilidad demostrada de conformidad con la regulación nacional, la cual está orientada a proteger información personal de los usuarios de dichas empresas. “Esta actuación se enmarca en un trabajo coordinado por la Red Iberoamericana de Protección de Datos, de la cual hacen parte la Superintendencia de Industria y Comercio y otras 15 autoridades de diferentes países de la región, cuyo objetivo es promover y garantizar el derecho fundamental a la protección de datos personales”, reveló la Superintendencia. Lea también: Los límites que ChatGTP tiene frente a la protección de datos y la propiedad intelectual de las personas La Superintendencia de Industria y Comercio -SIC- recomendó a los usuarios del servicio “Chat GPT” consultar la política de privacidad asociada a este servicio, que valoren la conveniencia de aportar datos personales y consultas que realicen, además de tomar con cautela la información que el servicio les suministra, mientras se surte el proceso administrativo que adelanta la autoridad. FUENTE: Hurtado, Luis Enrique. »Superintendencia de Industria tiene en la mira a la aplicación “Chat-GPT” Caracol.com.co. 15/05/23. (https://caracol.com.co/2023/05/15/superintendencia-de-industria-tiene-en-la-mira-a-la-aplicacion-chat-gpt/).
Los límites que ChatGTP tiene frente a la protección de datos y la propiedad intelectual de las personas

Bastante se ha comentado sobre las virtudes del afamado ChatGPT, que ha maravillado a la comunidad internacional con un prototipo de chatbot de inteligencia artificial. Al mismo tiempo, y mientras la tecnología avanza, algunos gobiernos han puesto en duda los límites que esta invención tiene frente a la protección de datos personales y a la propiedad intelectual de las personas, toda vez que el sistema se nutre y procesa datos que finalmente son otorgados por los mismos usuarios y que muchas veces son datos personales o información sujeta a derechos de propiedad intelectual. En este contexto, llama la atención el reciente pronunciamiento de la agencia italiana de protección de datos que decidió bloquear el chatbot de OpenAI, señalando que el sistema no cuenta con un fundamento legal adecuado para recopilar información personal sobre las personas que lo usan, en concreto: “Con una base jurídica que justifique la recogida y la conservación masiva de datos personales”. Otras noticias: El regulador europeo de privacidad crea un grupo de trabajo sobre ChatGPT Todo esto, debemos entenderlo en el contexto del Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que posee los estándares más altos de protección. La falta de fundamento legal que puso en jaque a ChatGPT en Italia y Europa Así, la agencia italiana nos pone en alerta sobre el incumplimiento del chatbot al no contar con el fundamento legal adecuado (básicamente, el consentimiento del titular de los datos), no verificar la edad de sus usuarios y no implementar de manera adecuada reglas que prohíban a los menores de 13 años el acceso al mismo. En efecto, bajo la lógica del RGPD, los menores de edad podrían verse eventualmente afectados por respuestas poco adecuadas para su edad. Además, no resulta menor considerar que el pasado mes de marzo hubo una filtración de los financieros de sus usuarios, lo que puso en jaque el deber de resguardo y seguridad de los datos personales requerido por la autoridad, lo que evidenció que ChatGPT no cumple con el estándar de licitud. En efecto, durante unas horas fue posible ver los datos personales de usuarios registrados en ChatGPT. Lo anterior pone a la IA en un dilema: Si bien puede otorgarnos grandes beneficios y aumentar nuestra calidad de vida, debemos considerar que estos datos, que finalmente alimentan el algoritmo, pueden verse afectados por filtraciones que expondrán nuestros datos personales y nuestra vida privada. Otras noticias: Estas son las 5 condiciones que Italia pone a OpenAI para levantar el veto a ChatGPT FUENTE: Olmedo, Fernanda. »Los límites que ChatGTP tiene frente a la protección de datos y la propiedad intelectual de las personas» Lexlatin.com. 19/04/2023. (https://lexlatin.com/opinion/chatgtp-proteccion-de-datos-personales-propiedad-intelectual).
El regulador europeo de privacidad crea un grupo de trabajo sobre ChatGPT

Todas las instituciones quieren regular ChatGPT. Tras la limitación provisional del Garante para la Protección de Datos Personales (GPDP) de Italia de bloquear “con efecto inmediato” el uso de ChatGPT el pasado 30 de marzo, ahora, el Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) ha decidido crear un grupo de trabajo sobre ChatGPT. »Los miembros del EDPB debatieron la reciente acción coercitiva emprendida por la autoridad italiana de protección de datos contra OpenAI sobre el servicio ChatGPT», ha estipulado el organismo europeo a través de un comunicado. En consecuencia, el Comité Europeo de Protección de Datos ha decidido poner en marcha un grupo de trabajo específico con el fin de fomentar la cooperación e intercambiar información sobre posibles medidas coercitivas adoptadas por las autoridades de protección de datos. Lea también: Estas son las 5 condiciones que Italia pone a OpenAI para levantar el veto a ChatGPT Una persona perteneciente a este organismo regulador ha declarado a la agencia de noticias Reuters que »los Estados miembro tienen la intención de alinear sus posiciones políticas con respecto a la inteligencia artificial”, pero que “llevará su tiempo”. La Unión Europea (UE), según esta fuente, “no busca castigar ni regular la actividad de OpenAI”, sino “establecer políticas generales que sean transparentes». La AEPD abre una investigación a OpenAI sobre ChatGPT La Agencia Española de Protección de Datos (AEPD) ha aprovechado esta coyuntura para abrir una investigación a OpenAI, empresa propietaria de ChatGPT. La AEPD considera que la compañía estadounidense puede haber cometido un posible incumplimiento de la normativa. En un comunicado, la AEPD recuerda que aboga por el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde el pleno respeto a la legislación vigente. »Solo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas», apunta la AEPD en su nota. Además de España e Italia, en Europa, otros países como Francia, Alemania e Irlanda también han decidido estudiar la situación de ChatGPT. Por su lado, Estados Unidos también prepara la legislación para estas nuevas aplicaciones. De igual modo, la entidad reguladora de internet en China ha propuesto controles estrictos al tipo de contenido que se puede generar por parte de plataformas como ChatGPT. FUENTE: Pizarro García, Lorena. »El regulador europeo de privacidad crea un grupo de trabajo sobre ChatGPT» Ecommerce-news.es. 19/05/23. (https://ecommerce-news.es/el-regulador-europeo-de-privacidad-crea-un-grupo-de-trabajo-sobre-chatgpt/).
Estas son las 5 condiciones que Italia pone a OpenAI para levantar el veto a ChatGPT

La empresa estadounidense tiene de plazo hasta el próximo 30 de abril para cumplir con la mayoría de ellas si quiere volver a operar en Italia. Dos semanas después de que ChatGPT haya dejado de estar disponible en Italia, el Garante para la Protección de Datos ha movido ficha y ha publicado un comunicado con las condiciones que exige a OpenAI para que su herramienta de inteligencia artificial pueda operar de nuevo en el país. Así, el GPDP determina cinco áreas en las que la empresa estadounidense deberá implementar una serie de cambios, la mayoría antes del próximo 30 de abril, para que la autoridad italiana levante el veto impuesto a ChatGPT por infringir el Reglamento General de Protección de Datos europeo. OpenAI deberá ofrecer en el sitio web de ChatGPT “una información transparente, que explique los métodos y la lógica que subyace en el procesamiento de los datos necesarios para el funcionamiento de ChatGPT, así como los derechos atribuidos a los usuarios y a las partes interesadas que no son usuarios”. Los usuarios que vayan a registrarse deberán recibir esta información antes de completar la operación y los que ya lo estén, la primera vez que ingresen en el servicio tras su restauración en Italia. La segunda condición hace referencia a la base legal sobre la que opera el servicio que deberá eliminar “cualquier referencia a la ejecución de un contrato” entre el usuario y ChatGPT en los términos del servicio. En su lugar, tendrá que indicar “el consentimiento o el interés legítimo como requisito previo para el uso de tales datos”. Contenido relacionado: La creciente amenaza del hackeo a ChatGPT Rectificar y consultar los datos personales, un derecho de los usuarios que debe garantizar open AI con el uso de ChatGPT El GPDP también obliga a OpenAI a poner a disposición de los usuarios herramientas para que puedan “solicitar la rectificación de los datos personales que les conciernen generados inexactamente por el servicio o la cancelación de los mismos si la rectificación no es técnicamente posible”. Esta condición está dirigida también a quienes no sean usuarios de la inteligencia artificial y quieran ejercer “el derecho a oponerse al tratamiento de sus datos personales utilizados para el ejercicio de los algoritmos”. Otra de las cuestiones que el GPDP criticó a OpenAI cuando decidió bloquear ChatGPT es la ausencia de un sistema de verificación de edad en un servicio dirigido a mayores de 13 años. La compañía estadounidense deberá implementar un sistema de solicitud de edad en el registro para el acceso a ChatGPT y también un sistema de verificación de edad “capaz de excluir el acceso a usuarios menores de trece años y menores de edad que no tengan el consentimiento de los padres”. Para esta condición el límite no es el 20 de abril, sino el 30 de septiembre previa presentación de un plan de acción antes del 30 de mayo. Por último, Italia pide a OpenAI que, antes del 15 de mayo, promueva una campaña de información en radio, televisión, prensa e Internet “para informar a las personas sobre el uso de sus datos personales con fines de entrenamiento de algoritmos”. FUENTE: Biurrun, Alfredo. »Estas son las 5 condiciones que Italia pone a OpenAI para levantar el veto a ChatGPT» Larazon.es. 17/04/2023. (https://www.larazon.es/tecnologia/inteligencia-artificial-5-condiciones-que-italia-pone-openai-levantar-veto-chatgpt_20230417643d9c5f1b5f5b00014ea6fb.html).
La creciente amenaza del hackeo a ChatGPT

La inteligencia artificial (IA) ha ido adquiriendo cada vez más protagonismo en el mundo digital, y con ello también han surgido nuevos riesgos. Uno de los ejemplos más recientes es el caso del hackeo a ChatGPT, un asistente virtual desarrollado por OpenAI. En el artículo «The Hacking of ChatGPT Is Just Getting Started«, se expone cómo este tipo de ataques podrían estar en sus primeras etapas, poniendo en evidencia la necesidad de reforzar la ciberseguridad en torno a estos sistemas. Crecimiento de los ataques cibernéticos Los sistemas de IA como ChatGPT, debido a su creciente importancia y funcionalidad, se han convertido en blancos cada vez más atractivos para los ciberdelincuentes. Estos atacantes han ido perfeccionando sus técnicas, aprovechando las vulnerabilidades inherentes en el diseño y la arquitectura de estas tecnologías para infiltrarse y causar daños. El incremento en la frecuencia y sofisticación de estos ataques genera preocupación en torno a la seguridad y confiabilidad de los sistemas de IA. Esto podría traducirse en una menor adopción de estas tecnologías por parte de empresas y usuarios, quienes temen por la protección de su información y la integridad de sus sistemas. Lea también: España ya se plantea prohibir ChatGPT por su impacto en la privacidad: Europa sigue el camino de Italia Alex Polyakov, un investigador de ciberseguridad, logró engañar al modelo ChatGPT para que generara contenido falso y desinformación. Este logro puso de manifiesto las posibles vulnerabilidades y riesgos que presenta ChatGPT en términos de seguridad y la propagación de información incorrecta o malintencionada (consiguió que emitiera declaraciones homofóbicas, creara correos electrónicos de phishing y apoyara la violencia). La hazaña de Polyakov fue un llamado de atención para la comunidad de inteligencia artificial, destacando la necesidad de abordar y mejorar la seguridad y la ética en el diseño y uso de estos sistemas avanzados. OpenAI ha actualizado sus sistemas para protegerse contra este tipo de jailbreak; por lo general, cuando se encuentra un jailbreak, generalmente solo funciona durante un breve período de tiempo hasta que se bloquea. Jailbreaking LLM y el ejemplo del hackeo a ChatGPT El término «jailbreaking» aplicado a los Modelos de Lenguaje de Aprendizaje Profundo (LLM) se refiere al proceso de manipular o alterar el funcionamiento de estos modelos de inteligencia artificial, generalmente para obtener resultados no deseados o no previstos por sus creadores. En el caso del artículo, se mencionan ejemplos de «jailbreaking» que incluyen la generación de contenido falso, desinformación y la revelación de información confidencial a través de ChatGPT. Desafíos en la ciberseguridad de la IA La protección de los sistemas de IA es un desafío en constante evolución, ya que los atacantes continuamente buscan nuevas formas de explotar las debilidades de estos sistemas. Esto requiere un enfoque proactivo y una inversión constante en investigación y desarrollo de soluciones de seguridad. Otras noticias: Estados Unidos y China regularán el uso de ChatGPT Para enfrentar estos desafíos, es esencial establecer una colaboración estrecha entre los desarrolladores de sistemas de IA y los expertos en ciberseguridad. De esta forma, se podrán identificar y abordar las vulnerabilidades desde las primeras etapas del diseño, reduciendo así los riesgos asociados a los ataques. El futuro de ChatGPT y la inteligencia artificial El hackeo de ChatGPT es un llamado de atención para la comunidad de IA y ciberseguridad. A medida que estos sistemas se vuelven más avanzados y su adopción se expande, también aumenta la necesidad de desarrollar soluciones de seguridad innovadoras y efectivas para protegerlos. El crecimiento de los ataques a sistemas de IA como ChatGPT obliga a reflexionar sobre la ética y la responsabilidad en el desarrollo y uso de estas tecnologías. Es fundamental que tanto los creadores como los usuarios de la IA sean conscientes de los riesgos y se comprometan a tomar medidas para garantizar la protección y el uso ético de estos sistemas. FUENTE: Polo, Juan Diego. »LA CRECIENTE AMENAZA DEL HACKEO A CHATGPT» Whatsnew.com. 17/04/2023. (https://wwwhatsnew.com/2023/04/17/la-creciente-amenaza-del-hackeo-a-chatgpt/).
España ya se plantea prohibir ChatGPT por su impacto en la privacidad: Europa sigue el camino de Italia

Hace menos de dos semanas Italia decidió prohibir el uso de ChatGPT en el país. La razón, la supuesta recopilación ilícita de datos personales. La situación de esta plataforma de inteligencia artificial se complica en otras zonas del mapa, y el último país en plantear la prohibición es España. La Agencia Española de Protección de Datos (AEPD) presentó una solicitud ante el Comité de Protección de Datos de la Unión Europea. En esa petición se destacó la necesidad de evaluar el impacto que ChatGPT puede tener en la protección de los datos. En declaraciones a Reuters un portavoz de AEPD indicaba que «la AEPD entiende que los tratamientos globales que puedan tener un impacto significativo en los derechos de las personas requieren decisiones coordinadas a nivel europeo». Añadían además que en el próximo pleno del Comité se debata sobre este tema «para que se puedan poner en marcha acciones armonizadas en el marco de la aplicación del Reglamento General de Protección de Datos». Lea también: Protección de Datos en España, multa a BBVA con 140.000 euros por ceder al Banco de España información de una clienta Francia, Irlanda, Alemania, Estados Unidos y China también se muestran preocupados El país galo también ha mostrado sus reservas en este ámbito. La Comisión Nacional de Informática y Libertades (CNIL) anunció que está investigando varias quejas sobre ChatGPT, aunque no ofreció detalles específicos. Alemania e Irlanda también estaban considerando seguir los pasos de Italia. La administración Biden ha comenzado a evaluar si es necesario poner barreras al uso de ChatGPT. Es, según The Wall Street Journal, un primer paso hacia una potencial regulación. En ese texto también se menciona cómo la entidad reguladora de internet en China también propuso controles estrictos al tipo de contenido que se puede generar por parte de plataformas como ChatGPT. La capacidad de ChatGPT es asombrosa, pero desde su aparición se ha comprobado cómo esta plataforma de inteligencia artificial no sabe guardar un secreto. Tanto usuarios profesionales como particulares pueden acabar introduciendo información sensible o personal para resolver sus dudas, y puede que el tratamiento de datos de OpenAI no cumpla con el RGPD. De momento, poco. Su política de privacidad no menciona razones legales para usar la información personal de los usuarios para entrenar sus sistemas, pero se apoya en el «interés legítimo» cuando habla del desarrollo de servicios. En el informe técnico de GPT-4 se indica que sus datos de entrenamiento podrían incluir «información personal públicamente disponible», y se añade que OpenAI toma medidas para proteger la privacidad, incluyendo modelos afinados que evitan que se puedan realizar preguntas personales sobre la gente. FUENTE: Pastor, Javier. »España ya se plantea prohibir ChatGPT por su impacto en la privacidad: Europa sigue el camino de Italia» Xataka.com. 12/04/23. (https://www.xataka.com/robotica-e-ia/espana-se-plantea-prohibir-chatgpt-su-impacto-privacidad-cada-vez-paises-se-plantean-que-hacer).