Una asociación demanda a OpenAI por infringir la ley de protección de datos de la Unión Europea
La organización de derechos digitales Noyb afirma que ChatGPT de OpenAI viola el Reglamento General de Protección de Datos de la UE porque genera información falsa sobre las personas. ChatGPT de OpenAI sigue generando información falsa sobre las personas, según reclama la organización de derechos digitales Noyb, lo que infringe las disposiciones del Reglamento General de Protección de Datos (RGPD) de la Unión Europea. Por ello, Noyb, con sede en Austria, interpuso una denuncia contra OpenAI ante la Autoridad Austriaca de Protección de Datos (DSB, por sus siglas en alemán), pidiéndole que tome medidas contra la empresa estadounidense para que cumpla la normativa europea. Información personal inventada, cortesía de ChatGPT De acuerdo con el RGPD, toda la información sobre las personas que se difunda en internet tiene que ser exacta y precisa, y debe garantizar a los usuarios el pleno acceso a ella, así como a las fuentes de las que procede. A pesar de ello, según Noyb, OpenAI reconoció abiertamente que no es capaz ni de corregir los datos incorrectos proporcionados por ChatGPT, los llamados “delirios”, ni de determinar de dónde vienen. Es más, ni siquiera sabría qué información personal almacenó su chatbot de inteligencia artificial (IA). Como se informa en el sitio web de Noyb, OpenAI se limita a declarar que “la precisión de los hechos en los grandes modelos de lenguaje”, como los chatbots de IA, “sigue siendo un área de investigación activa”. En otras palabras, con esta frase, OpenAI explica que aún no tiene control sobre lo que ChatGPT expresa. Pero facilitar datos erróneos, engañosos o incluso completamente inventados resulta bastante perjudicial, sobre todo si estos conciernen a las personas. Una encuesta de The New York Times revela que los chatbots inventan información entre el 3 y el 27% de las veces. “Inventar información falsa ya es problemático de por sí. Pero cuando se trata de datos falsos sobre las personas, las consecuencias son graves. Está claro que actualmente las compañías no son capaces de hacer que los chatbots como ChatGPT cumplan la legislación de la UE cuando se trata de información sobre individuos. Si un sistema no brinda resultados precisos y transparentes, no debe emplearse para generar información acerca de la gente. La tecnología tiene que seguir los requisitos de la ley, y no al revés”, manifestó Maarje de Graaf, abogada especializada en protección de datos de Noyb. Lea también: La Unión Europea amenazó a TikTok por poner en riesgo la protección al consumidor e infringir el mercado único digital La organización de derechos digitales sostiene que “si bien la información inexacta llega a ser tolerable cuando un estudiante usa ChatGPT para que le ayude con sus deberes, es inaceptable cuando se trata de información sobre individuos”. Y hace hincapié en que la legislación de la Unión Europea (UE) exige que los datos personales sean exactos, lo que contempla el artículo 5 del RGPD, así como que las personas de la región tienen derecho a la rectificación en virtud del artículo 16 del mismo reglamento si la información es incorrecta y pueden solicitar que se elimine cuando sea falsa. También entre las quejas que reclama Noyb, destaca la incapacidad de OpenAI para detener los “delirios” de su famoso chatbot: “Aunque la empresa dispone de numerosos datos de entrenamiento, no hay forma de garantizar que ChatGPT muestre a los usuarios información correcta. Por el contrario, se sabe que las herramientas de IA generativa suelen “delirar”, es decir, se inventan las respuestas”. Por ello, Noyb pidió a la DSB que tomara acciones contra OpenAI, abriendo una investigación que conduzca a la imposición de medidas correctivas, sanciones y una decisión final sobre los “delirios” de ChatGPT. La organización también dirigió su denuncia contra una de las ramificaciones con fines comerciales de OpenAI, la OpenAI OpCo ubicada en Estados Unidos, alegando que la sede europea de la misma, en Irlanda, es únicamente una fachada y que las decisiones se toman solo en la oficina estadounidense. FUENTE: Carboni, Kevin. »Una asociación demanda a OpenAI por infringir la ley de protección de datos de la Unión Europea» Es.wired.com. 30/04/2024. (https://es.wired.com/articulos/asociacion-demanda-a-openai-por-infringir-ley-de-proteccion-de-datos-de-union-europea).
Italia dice que el chatbot de OpenAI incumple las normas de protección de datos
Una investigación de la Autoridad de Protección de Datos de Italia (DPA) descubrió violaciones de la privacidad de los datos, que estarían relacionadas con la recopilación de datos personales y la protección de menores. Italia ha adoptado una postura firme en materia de protección de datos en lo que respecta a ChatGPT. Fue el primer país occidental en bloquear el producto en marzo del 2023, alegando problemas de privacidad. ChatGPT fue restablecido unas cuatro semanas después, tras declarar que había “abordado o aclarado” con éxito las cuestiones planteadas por la DPA. La DPA italiana inició entonces una “actividad de investigación” que, según afirma, ha detectado violaciones de la privacidad de los datos. En un comunicado, la DPA afirma que “ha llegado a la conclusión de que las pruebas disponibles apuntan a la existencia de infracciones de las disposiciones contenidas en el GDPR (Reglamento General de Protección de Datos) de la UE”. Están relacionadas con la recopilación masiva de datos de los usuarios que luego se utilizan para entrenar el algoritmo. Al regulador también le preocupa que los usuarios más jóvenes puedan estar expuestos a contenidos inapropiados generados por el chatbot. Las multas a las empresas que incurran en fallas a la protección de datos en Europa Según la ley GDPR de la UE, las empresas que incumplan las normas pueden ser multadas con hasta el 4% de la facturación global de la empresa. La DPA de Italia trabaja junto con el Consejo Europeo de Protección de Datos de la Unión Europea, que creó un grupo de trabajo especial para supervisar ChatGPT en abril del 2023. OpenAI mantiene estrechos vínculos con el gigante tecnológico Microsoft, que ha invertido miles de millones de dólares en la empresa. Microsoft ha integrado la IA en su motor de búsqueda Bing, así como en sus aplicaciones de Office 365 como Word, Teams y Outlook. FUENTE: Díaz, Rodrigo. »Italia dice que el chatbot de OpenAI incumple las normas de protección de datos» Elcentronews.net. 03/02/2024. (https://elcentronews.net/italia-dice-que-el-chatbot-de-openai-incumple-las-normas-de-proteccion-de-datos/).
OpenAI habría violado la ley de Protección de Datos de la UE
Recientemente se ha descubierto que OpenAI aparentemente violó las leyes de privacidad europeas de diferentes formas, según una denuncia presentada en Polonia. El pasado martes el investigador de ciberseguridad y privacidad Lukasz Olejnik presentó una queja ante las autoridades polacas de protección de datos por incumplimiento del extenso Reglamento General de Protección de Datos (GDPR) de la Unión Europea. El investigador, representado por el bufete de abogados GP Partners con sede en Varsovia, alegó que OpenAI violó varias de las disposiciones del GDPR con respecto a la base legal, la transparencia, así como también la equidad, los derechos de acceso a los datos e incluso, la privacidad desde el diseño. Al parecer OpeanAI violó las leyes de privacidad de diferentes formas Esta es tan solo una queja de los diversos problemas legales a los que se enfrenta la reconocida compañía OpenAI, tanto en el extranjero como en los Estados Unidos donde tiene su sede. En el mes de junio, OpenAI fue objeto de una demanda colectiva por parte de un bufete de abogados de California por supuestamente entrenar a ChatGPT con datos “robados”. Unos meses antes, Italia prohibió ChatGPT hasta que pudiera cumplir con las estrictas leyes de privacidad de datos de la UE, entre otros. Lea también: LinkedIn bajo la mira de ciberdelincuentes: la plataforma fue víctima de prácticas maliciosas por dos semanas Pero, si hay algo importante que dejar claro es que esta queja en particular comenzó en el mes de marzo del presente año 2023 cuando Olejnik estaba usando ChatGPT para generar una biografía de sí mismo y percibió diversos errores. El investigador, se puso en contacto con OpenAI y solicitó rectificar los errores. Incluso, Olejnik también solicitó información sobre cómo se procesó y utilizó su información personal para entrenar el modelo. Según la ley GDPR, Olejnik tiene derecho a recibir información sobre ambas solicitudes, pero después de algunos correos electrónicos de ida y vuelta, OpenAI le explicó que no podían corregir las inexactitudes y tampoco le enviaron toda la información que solicitó. Según la denuncia, “De los hechos del caso se desprende que OpenAI ignora sistemáticamente las disposiciones del RGPD relativas al procesamiento de datos con fines de entrenamiento de modelos dentro de ChatGPT, lo que provocó, entre otras cosas, que el Sr. Lukasz Olejnik no fuera debidamente informado sobre el tratamiento de sus datos personales”. Por tal motivo, cabe hacerse la pregunta; ¿qué podría pasar realmente con esta denuncia? Todo parece indicar que las autoridades polacas podrían tardar entre 6 meses y 2 años en investigar la violación y, si deciden a favor de Olejnik, se ordenará a OpenAI que cumpla con sus solicitudes. Pero, hay que acotar que el abogado de Ojejnik, Maciej Gawronski, espera que la denuncia de su cliente impulse a las autoridades a investigar de manera profunda las supuestas violaciones de OpenAI, que él cree que son sistémicas. FUENTE: Redacción, Techcetera. »OPENAI HABRÍA VIOLADO LA LEY DE PROTECCIÓN DE DATOS DE LA UE» Techcetera.co. 03/09/2023. (https://techcetera.co/openai-habria-violado-la-ley-de-proteccion-de-datos-de-la-ue/).
El gobierno de Biden lanza el AI Cyber Challenge para «proteger a los estadounidenses» de vulnerabilidades en la ciberseguridad
Con una asignación de casi USD 20 millones en recompensas, el AI Cyber Challenge reúne a destacadas empresas de IA como Anthropic, Google, Microsoft y OpenAI En un comunicado de prensa del 9 de agosto, la administración del presidente Biden reveló una oportunidad para que hackers compitan por sustanciosas recompensas monetarias aplicando inteligencia artificial (IA) para salvaguardar infraestructuras vitales de Estados Unidos de vulnerabilidades en la ciberseguridad. En la primavera de 2024, una fase preliminar seleccionará hasta 20 equipos de alto rendimiento que pasarán a las semifinales de DEF CON 2024, una importante conferencia sobre ciberseguridad. De ellos, un máximo de cinco equipos ganarán 2 millones de dólares cada uno y pasarán a la fase final de DEF CON 2025. Los tres mejores equipos competirán por premios adicionales, incluido un premio de 4 millones de dólares a la mejor protección de software vital, según el comunicado de prensa oficial de la Casa Blanca. Lea también: Bitdefender Lab revela las amenazas digitales más desafiantes de la ciberseguridad global Con una dotación de casi 20 millones de dólares en recompensas, el AI Cyber Challenge reúne a destacadas empresas como Anthropic, Google, Microsoft y OpenAI. Estos líderes del sector aportarán su tecnología a la competición, que se dio a conocer durante la conferencia de hacking Black Hat USA celebrada en Las Vegas, Nevada. Los beneficios para los aspirantes al concurso Se pedirá a los participantes que compartan públicamente el funcionamiento interno de sus sistemas, lo que permitirá una utilización más amplia de sus soluciones. Además, la Open Source Security Foundation, una división de la Linux Foundation, ofrece orientación para el concurso. El organismo organizador del concurso, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés), se ha comprometido a aportar hasta un millón de dólares de ayuda financiera a siete pequeñas empresas que aspiran a participar en el concurso, en un esfuerzo por garantizar la diversidad de los participantes. El uso de concursos de hacking para fomentar la innovación no es un enfoque nuevo para el gobierno de Estados Unidos. Ya en 2014, DARPA puso en marcha el Cyber Grand Challenge, cuyo objetivo era crear un sistema de defensa automatizado de código abierto capaz de salvaguardar los ordenadores frente a las ciberamenazas. El actual desafío, de dos años de duración, sigue un marco comparable al de esta iniciativa. El concurso demuestra que existen esfuerzos oficiales para hacer frente a una nueva amenaza que los expertos se esfuerzan por comprender plenamente. En el último año, varias empresas estadounidenses han creado distintas herramientas de IA, como ChatGPT, que permiten a los usuarios crear vídeos, imágenes, textos y códigos realistas. FUENTE: NWAOKOCHA, AMAKA. »El gobierno de Biden lanza el AI Cyber Challenge para «proteger a los estadounidenses» de vulnerabilidades en la ciberseguridad» Es.cointelegraph.com 10/08/2023. (https://es.cointelegraph.com/news/us-launches-ai-challenge-to-strengthen-critical-infrastructure).
¿ChatGPT ha aprendido con tu información personal? Acusan a OpenAI de robar datos para entrenar a su chatbot
La denuncia alega que OpenAI recopiló grandes cantidades de datos de forma ilegal para entrenar a la inteligencia artificial (IA) de ChatGPT. Además, el documento señala que recolectaron sistemáticamente 300.000 millones de palabras. El boom por ChatGPT empezó en noviembre del año pasado, y desde entonces, la compañía de Sam Altman ha estado en el punto de mira porque los usuarios querían saber de donde provenía toda la información que posee el chatbot. Sin embargo, después de varios meses, OpenAI es acusada por recopilar grandes cantidades de datos de forma ilegal para entrenar a su inteligencia artificial (IA). Los impulsores de la denuncia aseguran que la entidad utilizó la técnica ‘web scraping’ para conseguir grandes volúmenes de información, además, alegan que OpenAI violó varias leyes de privacidad. Las pruebas detrás de la denunca contra OpenAI Como se puede leer en el documento, los denunciadores señalan que «a pesar de que los protocolos establecidos para la compra y el uso de información personal, los demandados adoptaron un enfoque diferente: el robo. Recolectaron sistemáticamente 300.000 millones de palabras de Internet, libros, artículos, sitios web y publicaciones, incluida la información personal obtenida sin consentimiento. OpenAI lo hizo en secreto y sin registrarse como broker de datos, como lo exige la ley aplicable». Lea también: Reconocimiento facial y protección de datos: nuevas pautas en la Unión Europea Según el documento, ChatGPT pudo recopilar desde imágenes, texto, ubicaciones privadas en Snapchat, preferencias musicales en Spotify, información financiera, conversaciones privadas de Slack o Microsoft Teams, y registros privados de salud de MyChart. Además, la demanda menciona dos leyes de Estados Unidos que OpenAI supuestamente habría violado al recopilar información para entrenar a ChatGPT, concretamente, la Ley de Fraude y Abuso Informático y la Ley de Privacidad de las Comunicaciones Electrónicas. Por otro lado, Bloomberg señala que los demandantes permanecen en el anonimato por miedo a las posibles represalias, teniendo en cuenta que reclaman un indemnización de 2.700 millones de euros por los perjuicios y daños a una cantidad de internautas que ellos estiman en millones. FUENTE: Higuera, Ana. »¿ChatGPT ha aprendido con tu información personal? Acusan a OpenAI de robar datos para entrenar a su chatbot» 20minutos.es. 30/06/2023. (https://www.20minutos.es/tecnologia/inteligencia-artificial/openai-acusada-robar-datos-entrenar-chatgpt-5142995/).
OpenAI Donará $1M a Iniciativas de Ciberseguridad Con Inteligencia Artificial (IA)
Los criminales están ideando formas innovadoras de utilizar la inteligencia artificial con fines malintencionados, pero OpenAI se asegura de que los «defensores» estén bien equipados. Al presentar su último proyecto, el creador de ChatGPT y Dall-e está lanzando un programa de subvenciones de ciberseguridad de $1M para impulsar y cuantificar la efectividad de las capacidades de ciberseguridad impulsadas por IA. No es ningún secreto que OpenAI ha sido consistentemente vocal sobre la necesidad de regulación de la IA para evitar posibles aplicaciones maliciosas. El impacto de la tecnología de IA en manos de criminales, que han creado desde deepfakes hasta malware, ha hecho que el llamado a las armas sea cada vez más crítico. Es una carrera armamentística digital, y OpenAI está tratando de asegurarse de que los buenos no se queden atrás. Lea también: IBM otorgará US $5 millones en especie para que las escuelas impulsen la ciberseguridad, junto con habilidades mejoradas en IA OpenAI ha presentado una serie de ideas de proyectos interesantes: desde desarrollar honeypots para atrapar atacantes, hasta ayudar a los desarrolladores a crear software seguro por diseño y optimizar los procesos de gestión de parches. Las aspiraciones del programa son cristalinas: «Nuestro objetivo es facilitar el desarrollo de capacidades de ciberseguridad impulsadas por la IA para los defensores a través de subvenciones y otro tipo de apoyo», dice OpenAI en su publicación oficial de blog. Se trata de cuantificar la efectividad de estos modelos de IA y comprender cómo aumentar su destreza en ciberseguridad. Los objetivos detrás de la iniciativa de OpeanAI Esta iniciativa de vanguardia busca lograr tres objetivos principales: en primer lugar, tiene como objetivo «empoderar a los defensores». OpenAI dijo que quiere aprovechar el poder de la IA y la coordinación de personas con ideas afines para inclinar la balanza a favor de aquellos que trabajan para mejorar la seguridad colectiva. En segundo lugar, en la agenda está «medir las capacidades». OpenAI quiere apoyar desarrollos que trabajen en métodos de cuantificación para medir la efectividad de los modelos de IA en ciberseguridad. Por último, OpenAI dijo que también quiere «elevar el discurso», fomentando discusiones matizadas sobre la intersección de la IA y la ciberseguridad. Este movimiento desafía la visión tradicional en ciberseguridad. OpenAI enfatizó la relevancia del dicho de que debe ser correcto el 100% del tiempo, los atacantes solo tienen que tener razón una vez, pero ven el valor inherente en la coordinación hacia un objetivo común de mantener a las personas seguras. Están luchando para demostrar que, armados con IA, los defensores pueden cambiar el guión. FUENTE: Lanz, Jose Antonio. »OpenAI Donará $1M a Iniciativas de Ciberseguridad Con Inteligencia Artificial (IA)» Decrypt.co. 02/06/2023. (https://decrypt.co/es/143307/openai-donara-1m-a-iniciativas-de-ciberseguridad-con-inteligencia-artificial-ia).
ChatGPT cumple seis meses: ha mejorado pero sigue equivocándose y desconoce sucesos de actualidad
El modelo de inteligencia artificial ChatGPT ha cumplido seis meses desde que se lanzó su versión gratuita y se ha convertido en la plataforma que más usuarios ha reunido en menos tiempo en la historia de Internet. El 30 de noviembre de 2022, ya había alcanzado los 100 millones de usuarios mensuales, convirtiéndose en la plataforma de Internet que más rápido ha crecido en toda la historia. Podría interesarle: ChatGPT, marco regulatorio y su aplicación en la abogacía Meses más tarde, el 1 de febrero de 2023, OpenAI lanzó GPT Plus, la versión de pago del chatbot impulsada por el modelo de IA GPT-4 que permite funciones exclusivas, como respuestas más rápidas o el acceso a Internet. No obstante, es la versión gratuita la que más usuarios aglutina: solo en enero recibía más de 13 millones de usuarios al día, según un estudio de la consultora UBS. Además, el chatbot ya cuenta con su propia aplicación para móviles: De momento solo está disponible en Estados Unidos y para usuarios iOs (Apple), aunque se espera que próximamente se lance también para Android. A pesar de que el chatbot ha evolucionado durante los últimos seis meses, ChatGPT sigue equivocándose y no está conectado a la actualidad (la base de datos con la que se le entrenó llega hasta 2021). Por eso desconoce sucesos como la guerra de Ucrania. Los expertos consultados por Maldita.es aseguran que la IA no está todavía “lo suficientemente perfeccionada”, ya que en muchos casos sigue “inventándose la información”. Además, su uso en campos como el de la la nutrición y el deporte. ChatGPT cumple seis meses: ¿está la IA lo suficientemente perfeccionada como para usarla a ciegas? El crecimiento de ChatGPT durante los últimos seis meses ha hecho que muchos usuarios crean que la herramienta sirve para todo sin fallo ni error. Sin embargo, está lejos de ser así. El chatbot presenta una serie de limitaciones desde sus inicios: ChatGPT no puede usarse como si fuera Google u otro buscador, ya que no está conectado a Internet, tampoco dice siempre la verdad o responde con información incorrecta. ¿En qué ha mejorado y en qué sigue fallando? Ejemplos en nociones matemáticas y sucesos de actualidad En sus inicios el chatbot fallaba al asegurar que el nueve era un número primo, cuando no lo es. Meses después, la herramienta ya responde de forma correcta a esta pregunta aunque sigue equivocándose en algunas ecuaciones. Un experto le planteó la ecuación de Mifflin-St Jeor –que calcula el consumo energético basal, es decir, el número de calorías que quema el cuerpo en reposo– y obtuvo dos resultados. El primero es correcto según la ecuación. El segundo, incorrecto: se inventa la ecuación y hay casi un 20% de diferencia. Si hablamos de actualidad, hay varios ejemplos reseñables en los que el chatbot se equivoca. Desde septiembre de 2021, se han producido diferentes sucesos que han marcado la historia. Por ejemplo, la guerra de Ucrania. El chat reconoce que el conflicto comenzó en 2014 con la anexión rusa de la península de Crimea. Sin embargo, asegura que continúa en la actualidad a un “nivel más bajo de intensidad que en los años anteriores”. Desconoce, por lo tanto, que la madrugada del 24 de febrero de 2022 Rusia invadió a Ucrania. Si le preguntamos por el dueño de la red social Twitter, ChatGPT nos seguirá hablando de Jack Dorsey y de su reemplazo por Parag Agrawal. Ni rastro del empresario Elon Musk, que compró la compañía en 2022. Lo mismo ocurre con temas más sencillos y virales como la ruptura de la cantante Shakira y el futbolista Gerard Piqué.. La IA no duda en afirmar que “no hay evidencias” de que la pareja se haya separado. Tampoco tiene constancia de la sesión que la artista tiene con el productor argentino Bizarrap, un éxito mundial: “No tengo conocimiento de que Shakira haya sacado una canción con Bizarrap hablando mal de Piqué”. La IA se afina pero no amplía la base datos: sigue congelada en 2021 Este tipo de modelos de IA, como explicábamos, aprende en base a millones de ejemplos con los que ha sido entrenado. Alonso explica que, durante la fase de entrenamiento, ven “millones y millones de textos” a los que se les quitan palabras para que el modelo pueda predecirlas. Lea también: Google deja a la UE fuera de su nueva inteligencia artificial El proceso en el que se preparan los textos y se entrenan los modelos es muy costoso, en dinero y en tiempo. Por eso no se hace continuamente. Actualmente, ChatGPT está congelado en 2021 porque no se le han mostrado textos posteriores a esa fecha y por eso falla en los ejemplos que hemos visto. A eso hay que sumarle, dice Alonso, que la mayoría de textos que ha visto (más del 90%) están en inglés, lo que hace que muchas respuestas en español sean de menor calidad. Riesgos de su uso inadecuado: nutricionista, entrenador deportivo, y su uso para timos Entre los muchos usos que esos millones de usuarios le están dando a ChatGPT, la IA se ha colado de lleno en el mundo del deporte y la nutrición. Tanto, que muchos aseguran en redes sociales que ChatGPT puede desempeñar las labores de un nutricionista y un entrenador personal. Sin embargo, los expertos aseguran que esta herramienta no está lo suficientemente perfeccionada y su uso en materias que impactan a nuestra salud puede conllevar riesgos. En la mayoría de los casos, este chatbot no tiene en cuenta factores fundamentales como el peso, lesiones, posibles patologías o la relación de los usuarios con la comida, tanto para elaborar una dieta como para crear una rutina de deporte. Además, los expertos recuerdan que la IA puede devolver información errónea y que carece del factor psicosocial y de acompañamiento que nos daría un entrenador deportivo profesional o un nutricionista, algo que consideran “fundamental”. Temas que siguen en el aire: regulación y responsabilidades de una IA como ChatGPT Desde su lanzamiento, uno de los grandes debates sobre ChatGPT es dilucidar quién se responsabiliza de los posibles daños (físicos, económicos, morales o reputacionales) que la herramienta pueda causar para indemnizarlos. La Comisión Europea está trabajando en dos posibilidades: «La
Los límites que ChatGTP tiene frente a la protección de datos y la propiedad intelectual de las personas
Bastante se ha comentado sobre las virtudes del afamado ChatGPT, que ha maravillado a la comunidad internacional con un prototipo de chatbot de inteligencia artificial. Al mismo tiempo, y mientras la tecnología avanza, algunos gobiernos han puesto en duda los límites que esta invención tiene frente a la protección de datos personales y a la propiedad intelectual de las personas, toda vez que el sistema se nutre y procesa datos que finalmente son otorgados por los mismos usuarios y que muchas veces son datos personales o información sujeta a derechos de propiedad intelectual. En este contexto, llama la atención el reciente pronunciamiento de la agencia italiana de protección de datos que decidió bloquear el chatbot de OpenAI, señalando que el sistema no cuenta con un fundamento legal adecuado para recopilar información personal sobre las personas que lo usan, en concreto: “Con una base jurídica que justifique la recogida y la conservación masiva de datos personales”. Otras noticias: El regulador europeo de privacidad crea un grupo de trabajo sobre ChatGPT Todo esto, debemos entenderlo en el contexto del Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que posee los estándares más altos de protección. La falta de fundamento legal que puso en jaque a ChatGPT en Italia y Europa Así, la agencia italiana nos pone en alerta sobre el incumplimiento del chatbot al no contar con el fundamento legal adecuado (básicamente, el consentimiento del titular de los datos), no verificar la edad de sus usuarios y no implementar de manera adecuada reglas que prohíban a los menores de 13 años el acceso al mismo. En efecto, bajo la lógica del RGPD, los menores de edad podrían verse eventualmente afectados por respuestas poco adecuadas para su edad. Además, no resulta menor considerar que el pasado mes de marzo hubo una filtración de los financieros de sus usuarios, lo que puso en jaque el deber de resguardo y seguridad de los datos personales requerido por la autoridad, lo que evidenció que ChatGPT no cumple con el estándar de licitud. En efecto, durante unas horas fue posible ver los datos personales de usuarios registrados en ChatGPT. Lo anterior pone a la IA en un dilema: Si bien puede otorgarnos grandes beneficios y aumentar nuestra calidad de vida, debemos considerar que estos datos, que finalmente alimentan el algoritmo, pueden verse afectados por filtraciones que expondrán nuestros datos personales y nuestra vida privada. Otras noticias: Estas son las 5 condiciones que Italia pone a OpenAI para levantar el veto a ChatGPT FUENTE: Olmedo, Fernanda. »Los límites que ChatGTP tiene frente a la protección de datos y la propiedad intelectual de las personas» Lexlatin.com. 19/04/2023. (https://lexlatin.com/opinion/chatgtp-proteccion-de-datos-personales-propiedad-intelectual).
El regulador europeo de privacidad crea un grupo de trabajo sobre ChatGPT
Todas las instituciones quieren regular ChatGPT. Tras la limitación provisional del Garante para la Protección de Datos Personales (GPDP) de Italia de bloquear “con efecto inmediato” el uso de ChatGPT el pasado 30 de marzo, ahora, el Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) ha decidido crear un grupo de trabajo sobre ChatGPT. »Los miembros del EDPB debatieron la reciente acción coercitiva emprendida por la autoridad italiana de protección de datos contra OpenAI sobre el servicio ChatGPT», ha estipulado el organismo europeo a través de un comunicado. En consecuencia, el Comité Europeo de Protección de Datos ha decidido poner en marcha un grupo de trabajo específico con el fin de fomentar la cooperación e intercambiar información sobre posibles medidas coercitivas adoptadas por las autoridades de protección de datos. Lea también: Estas son las 5 condiciones que Italia pone a OpenAI para levantar el veto a ChatGPT Una persona perteneciente a este organismo regulador ha declarado a la agencia de noticias Reuters que »los Estados miembro tienen la intención de alinear sus posiciones políticas con respecto a la inteligencia artificial”, pero que “llevará su tiempo”. La Unión Europea (UE), según esta fuente, “no busca castigar ni regular la actividad de OpenAI”, sino “establecer políticas generales que sean transparentes». La AEPD abre una investigación a OpenAI sobre ChatGPT La Agencia Española de Protección de Datos (AEPD) ha aprovechado esta coyuntura para abrir una investigación a OpenAI, empresa propietaria de ChatGPT. La AEPD considera que la compañía estadounidense puede haber cometido un posible incumplimiento de la normativa. En un comunicado, la AEPD recuerda que aboga por el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde el pleno respeto a la legislación vigente. »Solo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas», apunta la AEPD en su nota. Además de España e Italia, en Europa, otros países como Francia, Alemania e Irlanda también han decidido estudiar la situación de ChatGPT. Por su lado, Estados Unidos también prepara la legislación para estas nuevas aplicaciones. De igual modo, la entidad reguladora de internet en China ha propuesto controles estrictos al tipo de contenido que se puede generar por parte de plataformas como ChatGPT. FUENTE: Pizarro García, Lorena. »El regulador europeo de privacidad crea un grupo de trabajo sobre ChatGPT» Ecommerce-news.es. 19/05/23. (https://ecommerce-news.es/el-regulador-europeo-de-privacidad-crea-un-grupo-de-trabajo-sobre-chatgpt/).