Alemania podría seguir los pasos de Italia y prohibir la IA ChatGPT

Alemania podría ser el siguiente país europeo en prohibir la popular herramienta de inteligencia artificial ChatGPT, tras la decisión que tomó Italia la semana pasada y que llevó a cabo con efecto inmediato. Así lo ha asegurado Ulrich Kelber, Comisionado Federal de Protección de Datos y Libertad de Información en Alemania, en una entrevista con el periódico Handelsblatt. El Garante Italiano para la Protección de Datos Personales, GPDP, prohibió la IA tras considerar que ChatGPT infringía los artículos 5, 6, 8, 13 y 25 del Reglamento General de Protección de Datos europeo. Preguntado por esta decisión, Kelber señaló que “en principio, una acción de este tipo también es posible en Alemania” y que correspondería a la jurisdicción de cada uno de los estados federados tomarla. Las autoridades reguladoras de Alemania y de otros países como Francia e Irlanda están en contacto con la italiana para “comprender la base de su acción y nos coordinaremos con todas las autoridades de protección de datos de la UE en relación con este asunto”, según ha explicado un portavoz del Comisionado de Protección de datos de Irlanda a Reuters. En la resolución publicada el pasado viernes, la autoridad italiana explicaba que abría una investigación sobre el tratamiento de los datos personales de los usuarios de ChatGPT que estaba realizando OpenAI, la empresa que ha desarrollado esta inteligencia artificial. Ordenó a la compañía “la limitación temporal del tratamiento de datos personales de los usuarios en el territorio italiano” y la dio un plazo de veinte días para comunicar las medidas que tome para funcionar de acuerdo a la reglamentación europea. De no hacerlo, OpenAI se expone a una multa de 20 millones de euros o de hasta el 4% de su facturación anual. El caso ChatGPT en Italia que marca un precedente para países como Alemania, Francia e Irlanda en la UE La compañía respondió inmediatamente a Italia suspendiendo el acceso a ChatGPT desde su territorio y procediendo al reembolso de la última cuota pagada por los suscriptores de la modalidad de pago de la herramienta, ChatGPT Plus. También señaló que colaboraría con las autoridades italianas. Podría interesarle: ¿Por qué Italia investiga a ChatGPT por su protección de datos y qué implica para el resto de la UE? ¿Por qué Italia ha prohibido ChatGPT? El GPDP alegó varias preocupaciones sobre el tratamiento de los datos personales que realiza ChatGPT. Por un lado, “la ausencia de base jurídica que justifique la recogida y almacenamiento masivos de datos personales con el fin de ‘entrenar’ los algoritmos que gestionan el funcionamiento de la plataforma” y el hecho de que los usuarios no tengan ninguna información sobre si sus datos forman parte de aquellos con los que ha sido entrenada la herramienta. La inexactitud de la información que ChatGPT proporciona en ocasiones es otro motivo, dado que lo considera un tratamiento erróneo de los datos personales. La Agencia Española de Protección de Datos no ha iniciado ninguna investigación sobre ChatGPT, pero sí ha declarado a Newtral que ha solicitado que el asunto se incluya en el próximo Plenario del Comité Europeo de Protección de Datos. FUENTE: Biurrun, Alfredo. »Alemania podría seguir los pasos de Italia y prohibir la IA ChatGPT» Larazon.es. 05/04/23. (https://www.larazon.es/tecnologia/alemania-podria-seguir-pasos-italia-prohibir-chatgpt_20230405642dc4757e9ad3000156b7a1.html).
¿Por qué Italia investiga a ChatGPT por su protección de datos y qué implica para el resto de la UE?

La AEPD llevará el asunto al próximo Plenario del Comité Europeo de Protección de Datos. Alemania, Francia e Irlanda se han puesto en contacto con el regulador de datos italiano para discutir sus conclusiones. OpenAI ha bloqueado el acceso desde Italia a ChatGPT a través de geolocalización y reembolsará a sus clientes italianos que hayan comprado una suscripción en marzo. La acción es causa directa del aviso que ha dado la autoridad de protección de datos de Italia a la empresa dueña de ChatGPT, OpenAI, el viernes pasado de limitar temporalmente el tratamiento de datos de usuarios italianos. Mientras, Italia investiga si esta empresa está cometiendo una infracción de la normativa de protección de datos europea. OpenAI asegura que creen estar cumpliendo con el RGPD y otras leyes sobre la privacidad y que se comprometen a colaborar con las autoridades italianas. Lo hacen a través de un aviso que salta a todo usuario que ingrese a la web de ChatGPT desde suelo italiano y en el que avisan del bloqueo temporal y del reembolso. En la empresa dirigida por Sam Altman tienen razones para mostrarse colaborativos. Si en 20 días no comunican oficialmente las medidas que adoptan en ejecución de lo solicitado por la agencia de protección de datos, pueden recibir una multa de 20 millones de euros o hasta el 4% de su facturación global anual, lo que sea mayor. Lea también: ¿Cumple ChatGPT con la normativa europea en materia de protección de datos? Alemania, Francia, Canadá y otras agencias interesadas en investigar a ChatGPT El bloqueo y la investigación desde Italia llegan apenas unos días después de que dos importantes organizaciones de la sociedad civil pidan investigar a ChatGPT por protección de datos y su impacto en los consumidores. En Estados Unidos, el Centro para la Inteligencia Artificial y Política Digital (CAIDP) presentó una denuncia ante la Federal Trade Commission (la comisión de comercio) contra ChatGPT-4, a la que siguió un requerimiento de la Organización Europea de Consumidores (BEUC, un grupo de 46 organizaciones independientes presente en 32 países) a la Unión Europea y todas sus autoridades nacionales para investigar esta empresa y chatbots similares. Por otro lado, la autoridad canadiense de Protección de Datos ha lanzado una investigación sobre ChatGPT por recolección, uso y revelación de datos personales sin consentimiento. La agencia española ha solicitado por su parte que este asunto se incluya en el próximo Plenario del Comité Europeo de Protección de Datos, que se celebrará en abril. “Entendemos que los tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de decisiones coordinadas a nivel europeo, de forma que se puedan poner en marcha acciones armonizadas en el marco de aplicación del Reglamento General de Protección de Datos”, explican desde la AEPD. El Comisario alemán de Protección de Datos dijo al periódico Handelsbatt que su país podría seguir los pasos de Italia, y que les han pedido información sobre la investigación contra ChatGPT, según reporta Reuters. Los organismos de protección de datos de Francia e Irlanda dijeron que también se han puesto en contacto con el regulador de datos italiano para discutir sus conclusiones. ¿Qué imputa la agencia italiana de protección de datos a la herramienta? La agencia italiana, que ha actuado de manera independiente, ha señalado “la falta de información a los usuarios y todas las personas interesadas” cuyos datos son recogidos por OpenAI para el funcionamiento de ChatGPT, y denuncia “la ausencia de base jurídica que justifique la recogida y almacenamiento masivos de datos personales con el fin de ‘entrenar’ los algoritmos que gestionan el funcionamiento de la plataforma”. Contenido relacionado: Italia se convierte en el primer país occidental en bloquear el acceso total a ChatGPT El Garante también observa que ChatGPT expone a los menores a respuestas “absolutamente inapropiadas para su edad y conciencia”. Aunque OpenAI indica en sus términos de uso que el servicio está dirigido a mayores de 13 años, la empresa no provee ningún tipo de mecanismo que verifique la edad de sus usuarios. ¿Qué leyes protegen a los usuarios de la herramienta dentro de Europa? El comisario europeo de Mercado Interior, Thierry Breton, ha recordado que Europa trabaja en una propuesta de reglamento sobre inteligencia artificial, también conocida como la AI Act, que fue presentada hace dos años y que busca proporcionar a desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claros en relación con los usos específicos de la IA”, según la propuesta de la Comisión. Según fuentes parlamentarias europeas citadas por El País, la presentación del plan y su votación están en la agenda de la Eurocámara para la última semana de abril, lo que significaría que podría entrar en vigor en 2025. Los plazos son demasiado largos para la Organización Europea de Consumidores (BEUC), que cree que llevaría “por lo menos 4 años” que esta normativa haga efecto, dejando a los consumidores en riesgo de daños por parte de una tecnología que no está lo suficientemente regulada. FUENTE: Marilín, Gonzalo. »Por qué Italia investiga a ChatGPT por su protección de datos y qué implica para el resto de la UE» Newtral.es. 04/03/23. (https://www.newtral.es/italia-chatgpt-proteccion-datos-ue-investigado/20230404/).
Microsoft presenta su asistente de ciberseguridad impulsado por la IA de GPT-4

Microsoft ya cuenta con una nueva herramienta impulsada por el último modelo grande de lenguaje de OpenAI, GPT-4, que ayudará al sector de ciberseguridad a identificar ataques de una forma más sencilla y rápida. La compañía ha confirmado que la herramienta, con nombre Security Copilot, combina el modelo de lenguaje grande —GPT-4— con un modelo específico de seguridad de Microsfot que aprovecha su inteligencia de amenazas global única informada de 65 billones de señales diarias. Podría interesarle: Centro submarino de datos: Microsoft deposita servidores bajo el mar En pocas palabras, la herramienta no es más que un cuadro de aviso que mostrará respuestas a preguntas sobre violaciones de datos y otros problemas de seguridad de una manera similar a otras herramientas impulsadas por IA que están abiertas para vista previa pública. «Security Copilot es el primer y único producto de seguridad generativo de IA que permite a los defensores moverse a la velocidad y escala de la inteligencia artificial», dijo el vicepresidente corporativo de Microsoft Security, Vasu Jakkal. Security Copilot, el chatbot que te avisará de cualquier problema de ciberseguridad Microsoft dijo que Security Copilot «simplificará la complejidad y amplificará las capacidades de los equipos de seguridad» al proporcionarles resúmenes y dar sentido a la inteligencia de amenazas», ayudando a quienes trabajan en ciberseguridad a identificar rápidamente cualquier problemática. Por ejemplo, puedes preguntarle a Security Copilot sobre una brecha de seguridad reciente y puede entregar un informe/respuesta después de resumir los incidentes y analizar las vulnerabilidades. La compañía dijo que Microsoft Security está rastreando más de 50 bandas de ransomware, así como más de 250 organizaciones de ciberdelincuentes únicas de determinados países, y recibe 65 billones de señales de amenazas todos los días, así que se hace más que necesario invertir en este aspecto. Contenido relacionado: Italia se convierte en el primer país occidental en bloquear el acceso total a ChatGPT Security Copilot sería la herramienta insignia de Microsoft para la ciberseguridad personal y corporativa a mediana y gran escala Afirma que su tecnología bloquea más de 25.000 millones de intentos de robo de contraseñas por fuerza bruta cada segundo. Agregó que más de 8.000 profesionales de seguridad de la empresa analizan más señales de seguridad que casi cualquier otra empresa. La compañía ha tratado de superar a su competencia a través de inversiones multimillonarias en el propietario de ChatGPT, OpenAI, que recientemente lanzó GPT-4 para realizar una variedad de tareas, desde crear un sitio web real hasta darte recetas tras enseñarle una imagen de los ingredientes. Security Copilot está actualmente disponible a través de una vista previa privada, tal y como informa Microsoft. Por el momento se desconoce más información acerca de los precios de esta nueva herramienta basada en inteligencia artificial. FUENTE: González Valenzuela, Carolina. »Microsoft presenta su asistente de ciberseguridad impulsado por la IA de GPT-4» Computerhoy.com. 29/03/23. (https://computerhoy.com/ciberseguridad/microsoft-presenta-asistente-ciberseguridad-impulsado-gpt-4-1222360).
Italia se convierte en el primer país occidental en bloquear el acceso total a ChatGPT

Italia se ha convertido en el primer país de Occidente que bloquea el programa de inteligencia artificial avanzada ChatGPT. El organismo gubernamental para la protección de datos italiano anunció que existen preocupaciones de privacidad relacionadas con el chatbot creado por la empresa estadounidense OpenAI y que cuenta con el respaldo de Microsoft.Las autoridades italianas informaron que la prohibición e investigación del asunto tienen «efecto inmediato». Millones de personas en todo el mundo han usado ChatGPT desde su lanzamiento en noviembre de 2022. Podría interesarle: ChatGPT ayuda a los delincuentes, según la Europol Microsoft ha gastado miles de millones de dólares en el chatbot que desde febrero fue agregado al buscador Bing también informó recientemente que incorporará una versión de esta tecnología en sus aplicaciones de Office, incluidas Word, Excel, PowerPoint y Outlook. Las preocupaciones sobre los riesgos potenciales de la intenligencia artificial se han extendido en los últimos meses, incluida su capacidad de eliminar puestos de trabajo y de difundir información errónea. Italia considera que chat GPT está »Fuera de control» Esta semana, un grupo de expertos en inteligencia artificial y ejecutivos de la industria tecnológica, incluido Elon Musk, pidieron una pausa de seis meses en el entrenamiento de los poderosos sistemas de inteligencia artificial, argumentando que se trata de una potencial amenaza para la humanidad. La declaración, firmada por más de 1.000 personas, señala que existe una carrera «fuera de control» en el desarrollo de este tipo de tecnología.El organismo regulador italiano dijo que no solo bloquearía el chatbot de OpenAI, sino que también investigará si éste cumple con el Reglamento General de Protección de Datos. Conversaciones de usuarios e información de pagos Antes de la decisión de bloquear ChatGPT, las autoridades habían señalado el 20 de marzo que la aplicación incurrió en una violación de datos relacionada con las conversaciones de los usuarios y la información de pago. En aquel momento, el ente regulador sostuvo que no había ninguna base legal para justificar «la recopilación y el almacenamiento masivo de datos personales con el fin de ‘entrenar’ a los algoritmos en los que se basa el funcionamiento de la plataforma».También dijo que dado que no existe una forma de verificar la edad de los usuarios y que la aplicación «expone a los menores a respuestas absolutamente inadecuadas en comparación con su grado de desarrollo y conciencia». Bard, el chatbot de inteligencia artificial rival desarrollado por Google, actualmente está disponible solo para usuarios mayores de 18 años. La autoridad italiana de protección de datos anunció que la empresa OpenAI tiene 20 días para decir cómo responderá a las preocupaciones del organismo, bajo riesgo de una multa de US$21,7 millones o hasta el 4% de los ingresos anuales. Contenido relacionado: 2022 ha sido el peor año de la historia de la ciberseguridad Existen serias preocupaciones El grupo de defensa del consumidor BEUC también pidió a las autoridades nacionales y de la Unión Europea, incluidos los organismos de control de protección de datos, que investiguen a ChatGPT y otros chatbots similares, luego de la presentación de una solicitud en EE.UU. en relación al mismo asunto. Aunque la Unión Europea está trabajando actualmente en la primera legislación del mundo sobre inteligencia artificial, la preocupación de BEUC es que pasarán años antes de que las nuevas regulaciones entren en vigor, dejando a los consumidores en riesgo de sufrir daños a causa de una tecnología que no está suficientemente regulada. ChatGPT ya está bloqueado en varios países, incluidos China, Irán, Corea del Norte y Rusia. FUENTE: BBC News Mundo, Redacción. »CHAT GPT: Italia se convierte en el primer país occidental en bloquear el acceso al programa de inteligencia artificial.» Bbc.com. 31/03/23. (https://www.bbc.com/mundo/noticias-65142505).
ChatGPT ayuda a los delincuentes, según la Europol

Los recientes programas de inteligencia artificial como ChaGPT, están en la mira de Europol, según una nota publicada este lunes en la página oficial de la entidad. La Agencia de la Unión Europea para la Cooperación Policial encargada de prevenir y luchar contra toda forma grave y organizada de delincuencia y terrorismo a escala internacional, hizo la advertencia a las organizaciones internacionales sobre el uso que los criminales le pueden dar a los modelos lingüísticos. La corporación con sede en La Haya manifestó la preocupación sobre el uso de las IA, tras realizar unos talleres con expertos en seguridad cibernética. Los cuales fueron publicados en el informe ‘Tech Watch Flash de Europol‘. Allí, en el primer capítulo: ‘ChatGPT: el impacto de los modelos de lenguaje extenso en la aplicación de la ley’, la entidad describe el posible uso indebido del programa y su perspectiva de alcance criminal en el futuro. Podría interesarle: ¿Cuáles son los riesgos de usar ChatGPT? ¿Cómo pueden aprovecharse los delincuentes de ChatGPT? Tal parece que los cibercriminales ya no tendrán que ser programadores profesionales para extraer información de cuentas bancarias o fraude de identidad con métodos como el ‘Pishing’, por ejemplo, el hurto de información personal a través de enlaces que redirigen a páginas web ficticias. De acuerdo con la organización, las autoridades deben desarrollar estrategias de acción para controlar tres áreas posibles de delincuencia. La primera de ellas es ‘La ingeniería social’, la cual se puede facilitar dada la capacidad de «ChatGPT para redactar textos muy realistas» sin errores gramaticales, los cuales ayudaban a identificar de manera fácil modalidades tales como el ‘Smishing’, una estafa a través del envío de enlaces fraudulentos por medio de mensajes de texto. Sin los errores frecuentes de ortografía y la redacción, quizá distinguir estás modalidades virtuales de robo se torne más difícil. Lea también: Inteligencia Artificial y el tratamiento de Datos Personales La siguiente temática es la ‘Desinformación’, pues la inteligencia artificial sobresale en la producción de texto con sonido, lo que significa que el usuario no podrá a simple vista detectar las campañas de que notifiquen comunicaciones falsas. Por último, la ‘Ciberdelincuencia’ es otro factor que se puede facilitar con el uso de ChatGpt, como se mencionaba anteriormente con la creación de páginas web fraudulentas. «Para un delincuente potencial con pocos conocimientos técnicos, este es un recurso invaluable para producir código malicioso» afirma la Europol. Así mismo, el objetivo de esta advertencia es generar conciencia sobre el posible uso indebido de los modelos lingüísticos, e intentar un crear una alternativa con las empresas de inteligencia artificial (IA) para promover el desarrollo de la misma de forma segura. FUENTE: Gómez Parra, Natalia. »ChatGPT ayuda a los delincuentes, según la Europol» Eltiempo.com. 27/03/23. (https://www.eltiempo.com/justicia/delitos/chatgpt-ayuda-a-los-delincuentes-754003?fbclid=IwAR36lTuDNII0phgCy0ocXU1NbY6yRUupazjzFutU9CmEZ9yIo8DYg-zZGco).
¿Cuáles son los riesgos de usar ChatGPT?

La inteligencia artificial está cada vez más presente en el día a día. El último ejemplo es la aparición de herramientas como ChatGPT, que es capaz de producir textos que simulan la redacción humana. El ChatGPT tendrá incidencia en todos los ámbitos relacionados con el conocimiento, pero especialmente en las aulas y en los procesos de aprendizaje. Esta herramienta se trata del último hito en la generación de textos mediante inteligencia artificial y ha sorprendido a miles de usuarios porque es capaz de mantener conversaciones creíbles de, prácticamente, cualquier tema. La velocidad de ChatGPT para crear un texto no tiene comparación. Su forma de escribir es coherente y esto ha revolucionado el mundo académico. De hecho, en Nueva York acaban de prohibir que los alumnos usen esta herramienta para hacer trabajos. ChatGPT es una revolución cognitiva y en muchas disciplinas a la vez: en la sanidad, geografía, docencia, periodismo… Millones de usuarios en el mundo usan esta herramienta, de hecho la periodista no ha podido utilizar la inteligencia artificial porque su página web estaba colapsada debido al tráfico que recibe constantemente. Por su parte, el periodista Marc Amorós comenta que pudo utilizar la herramienta para crear un cuento para sus hijos y esta no tardó más de 30 segundos en tenerlo preparado. Podría interesarle: El futuro de la ciberseguridad en la era 5G La empresa ‘Open AI’ lo ha entrenado con 175 millones de parámetros y miles de textos para que pueda responder a nuestras preguntas. El entreno de esta inteligencia artificial se basa en recibir preguntas, nueva información y correcciones por parte de los usuarios. Sin embargo, como cualquier sistema informático, puede cometer errores y no ser coherente en sus respuestas. El chat se define a sí mismo como una inteligencia artificial que puede comprender preguntas y proporcionar respuestas coherentes utilizando el lenguaje humano. Sin embargo, cuenta que a diferencia de un ser humano no tiene conciencia de sí mismo ni la capacidad de razonar de manera autónoma. Es simplemente un programa de computadora diseñado para imitar el lenguaje humano. ChatGPT también es un riesgo para el orden económico actual Google es una de las grandes empresas preocupadas por la irrupción de ChatGPT. El CEO de Google ha pedido a su equipo la invención de una inteligencia humana que supere a este chat porque temen perder su posición dominante como el buscador más utilizado del mundo. La existencia de ChatGPT también conlleva riesgos. Varias empresas de ciberseguridad lo han sometido a pruebas y han descubierto que esta inteligencia artificial es capaz de generar un correo electrónico con un archivo fraudulento que contenga un virus que te contamine o robe datos. También hay ciberataques con el ChatGPT3. Los límites de esta herramienta también son claros. En algunas ocasiones, el chat pide perdón por errores que, realmente, no ha cometido tan solo porque el usuario se lo señala. Esto conlleva el riesgo de que ChatGTP acabe falseando información y provea datos falsos al resto de cibernautas. FUENTE: Laso, David. »Los peligros de ChatGPT: «Es capaz de generar un correo electrónico que te contamine o robe datos» Cadenaser.com. 17/01/2023. (https://cadenaser.com/nacional/2023/01/17/los-peligros-de-chatgtp-es-capaz-de-generar-un-correo-electronico-que-te-contamine-o-robe-datos-cadena-ser/).