Expertos analizaron cómo usa ChatGPT los datos públicos de usuarios de Internet, ¿qué encontraron?
El grupo de trabajo encargado de determinar si los modelos de lenguaje grande (LLM, por sus siglas en inglés) de OpenAI, como ChatGPT, cumplen con un marco legal ha compartido unas conclusiones preliminares en relación con los datos públicos y la transparencia. Esta primera aproximación a la legalidad de los LLM comparte algunas consideraciones sobre el procesamiento de los datos -que divide en cinco fases- y los derechos y las libertades fundamentales de los usuarios de la Unión Europea, en algunos casos con apuntes sobre las medidas adoptadas por la empresa tecnológica. Las primeras tres fases, que abarcan desde la recogida de datos y el preprocesamiento de los datos hasta el entrenamiento, plantean riesgos a los derechos y las libertades fundamentales de los ciudadanos, ya que, según entiende el grupo de trabajo, los datos usados para el entrenamiento, muchas veces recogidos de publicaciones públicas en la web, pueden contener información personal, incluidos datos de categorías especiales recogidas en el RGPD como los que revelan el origen racial o étnico, las opiniones políticas, las convicciones religiosas, la afiliación sindical o incluso relativos a la salud y la orientación sexual. Por ello, entienden la necesidad de que el proceso de recopilación debe encontrar un equilibrio en el que se tengan en cuenta tanto esos derechos y libertades de las personas como los intereses legítimos del responsable del tratamiento de los datos. Lea también: IA y protección de datos Y añaden la importancia de las medidas de seguridad y protección, que pueden incluir el establecimiento de un criterio para la recolección precisa de datos, así como evitar el procesamiento de categorías especiales de datos o incluso tecnologías para anonimizar los datos y eliminarlos si proceden de técnicas como el scraping o raspado, esto es, el uso de datos previamente recopilados en otros sitios web o aplicaciones. Puntualizan, asimismo, el hecho de que algunos datos estén disponibles públicamente en la web no significa que la persona haya hecho esos datos públicos, y que por ello, para que su recopilación y procesamiento sean legales, especialmente en categorías especiales, es importante determinar si “tenía la intención, explícitamente y mediante una clara acción afirmativa, para que los datos personales en cuestión sean accesibles al público en general”. El informe destaca, asimismo, que OpenAI permite el contacto directo vía ‘email’ para resolver cuestiones sobre sus derechos, y que los propios ajustes de la cuenta de usuario ya permiten ejercer algunos de los derechos de los ciudadanos. Estas conclusiones preliminares llegan un mes después de que el Comité Europeo de Protección de Datos creada el grupo de trabajo centrado en ChatGPT en abril de 2023, siguiendo al anuncio de que autoridades nacionales en materia de protección de datos iban a investigar si OpenAI cumplía con la legalidad europea. FUENTE: El Colombiano. »Expertos analizaron cómo usa ChatGPT los datos públicos de usuarios de Internet, ¿qué encontraron?» Elcolombiano.com. 28/05/2024. (https://www.elcolombiano.com/tecnologia/como-usa-chatgpt-datos-publicos-usuarios-internet-NL24588674).
Una asociación demanda a OpenAI por infringir la ley de protección de datos de la Unión Europea
La organización de derechos digitales Noyb afirma que ChatGPT de OpenAI viola el Reglamento General de Protección de Datos de la UE porque genera información falsa sobre las personas. ChatGPT de OpenAI sigue generando información falsa sobre las personas, según reclama la organización de derechos digitales Noyb, lo que infringe las disposiciones del Reglamento General de Protección de Datos (RGPD) de la Unión Europea. Por ello, Noyb, con sede en Austria, interpuso una denuncia contra OpenAI ante la Autoridad Austriaca de Protección de Datos (DSB, por sus siglas en alemán), pidiéndole que tome medidas contra la empresa estadounidense para que cumpla la normativa europea. Información personal inventada, cortesía de ChatGPT De acuerdo con el RGPD, toda la información sobre las personas que se difunda en internet tiene que ser exacta y precisa, y debe garantizar a los usuarios el pleno acceso a ella, así como a las fuentes de las que procede. A pesar de ello, según Noyb, OpenAI reconoció abiertamente que no es capaz ni de corregir los datos incorrectos proporcionados por ChatGPT, los llamados “delirios”, ni de determinar de dónde vienen. Es más, ni siquiera sabría qué información personal almacenó su chatbot de inteligencia artificial (IA). Como se informa en el sitio web de Noyb, OpenAI se limita a declarar que “la precisión de los hechos en los grandes modelos de lenguaje”, como los chatbots de IA, “sigue siendo un área de investigación activa”. En otras palabras, con esta frase, OpenAI explica que aún no tiene control sobre lo que ChatGPT expresa. Pero facilitar datos erróneos, engañosos o incluso completamente inventados resulta bastante perjudicial, sobre todo si estos conciernen a las personas. Una encuesta de The New York Times revela que los chatbots inventan información entre el 3 y el 27% de las veces. “Inventar información falsa ya es problemático de por sí. Pero cuando se trata de datos falsos sobre las personas, las consecuencias son graves. Está claro que actualmente las compañías no son capaces de hacer que los chatbots como ChatGPT cumplan la legislación de la UE cuando se trata de información sobre individuos. Si un sistema no brinda resultados precisos y transparentes, no debe emplearse para generar información acerca de la gente. La tecnología tiene que seguir los requisitos de la ley, y no al revés”, manifestó Maarje de Graaf, abogada especializada en protección de datos de Noyb. Lea también: La Unión Europea amenazó a TikTok por poner en riesgo la protección al consumidor e infringir el mercado único digital La organización de derechos digitales sostiene que “si bien la información inexacta llega a ser tolerable cuando un estudiante usa ChatGPT para que le ayude con sus deberes, es inaceptable cuando se trata de información sobre individuos”. Y hace hincapié en que la legislación de la Unión Europea (UE) exige que los datos personales sean exactos, lo que contempla el artículo 5 del RGPD, así como que las personas de la región tienen derecho a la rectificación en virtud del artículo 16 del mismo reglamento si la información es incorrecta y pueden solicitar que se elimine cuando sea falsa. También entre las quejas que reclama Noyb, destaca la incapacidad de OpenAI para detener los “delirios” de su famoso chatbot: “Aunque la empresa dispone de numerosos datos de entrenamiento, no hay forma de garantizar que ChatGPT muestre a los usuarios información correcta. Por el contrario, se sabe que las herramientas de IA generativa suelen “delirar”, es decir, se inventan las respuestas”. Por ello, Noyb pidió a la DSB que tomara acciones contra OpenAI, abriendo una investigación que conduzca a la imposición de medidas correctivas, sanciones y una decisión final sobre los “delirios” de ChatGPT. La organización también dirigió su denuncia contra una de las ramificaciones con fines comerciales de OpenAI, la OpenAI OpCo ubicada en Estados Unidos, alegando que la sede europea de la misma, en Irlanda, es únicamente una fachada y que las decisiones se toman solo en la oficina estadounidense. FUENTE: Carboni, Kevin. »Una asociación demanda a OpenAI por infringir la ley de protección de datos de la Unión Europea» Es.wired.com. 30/04/2024. (https://es.wired.com/articulos/asociacion-demanda-a-openai-por-infringir-ley-de-proteccion-de-datos-de-union-europea).
Italia dice que el chatbot de OpenAI incumple las normas de protección de datos
Una investigación de la Autoridad de Protección de Datos de Italia (DPA) descubrió violaciones de la privacidad de los datos, que estarían relacionadas con la recopilación de datos personales y la protección de menores. Italia ha adoptado una postura firme en materia de protección de datos en lo que respecta a ChatGPT. Fue el primer país occidental en bloquear el producto en marzo del 2023, alegando problemas de privacidad. ChatGPT fue restablecido unas cuatro semanas después, tras declarar que había “abordado o aclarado” con éxito las cuestiones planteadas por la DPA. La DPA italiana inició entonces una “actividad de investigación” que, según afirma, ha detectado violaciones de la privacidad de los datos. En un comunicado, la DPA afirma que “ha llegado a la conclusión de que las pruebas disponibles apuntan a la existencia de infracciones de las disposiciones contenidas en el GDPR (Reglamento General de Protección de Datos) de la UE”. Están relacionadas con la recopilación masiva de datos de los usuarios que luego se utilizan para entrenar el algoritmo. Al regulador también le preocupa que los usuarios más jóvenes puedan estar expuestos a contenidos inapropiados generados por el chatbot. Las multas a las empresas que incurran en fallas a la protección de datos en Europa Según la ley GDPR de la UE, las empresas que incumplan las normas pueden ser multadas con hasta el 4% de la facturación global de la empresa. La DPA de Italia trabaja junto con el Consejo Europeo de Protección de Datos de la Unión Europea, que creó un grupo de trabajo especial para supervisar ChatGPT en abril del 2023. OpenAI mantiene estrechos vínculos con el gigante tecnológico Microsoft, que ha invertido miles de millones de dólares en la empresa. Microsoft ha integrado la IA en su motor de búsqueda Bing, así como en sus aplicaciones de Office 365 como Word, Teams y Outlook. FUENTE: Díaz, Rodrigo. »Italia dice que el chatbot de OpenAI incumple las normas de protección de datos» Elcentronews.net. 03/02/2024. (https://elcentronews.net/italia-dice-que-el-chatbot-de-openai-incumple-las-normas-de-proteccion-de-datos/).
ChatGpt genera datos de ensayos clínicos falsos para respaldar hipótesis científicas
Un grupo de investigadores del departamento de Oftalmología de la Universidad Magna Graecia de Catanzaro (Italia) ha utilizado la tecnología que hay detrás de ChatGPT de inteligencia artificial (IA) para crear un conjunto de datos de ensayos clínicos falsos y respaldar una afirmación científica no verificada, advirtiendo del peligro que puede suponer esta tecnología para la ciencia, según revela una carta publicada en ‘Jama Ophtalmogoly’ y recogida por la revista ‘Nature‘. Los datos generados por la inteligencia artificial (IA) compararon los resultados de dos procedimientos quirúrgicos e indicaron, erróneamente, que un tratamiento es mejor que el otro. Para ello, los autores utilizaron GPT-4, la última versión del modelo de lenguaje en el que se ejecuta ChatGPT, junto con el Análisis de datos avanzado (ADA), un modelo que incorpora el lenguaje de programación Python y puede realizar análisis estadísticos y crear visualizaciones de datos. «Nuestro objetivo era resaltar que, en unos minutos, se puede crear un conjunto de datos que no está respaldado por datos originales reales, y que también es opuesto o en la dirección contraria a la evidencia disponible», dice el coautor del estudio y cirujano ocular de la Universidad de Cagliari en Italia, Giuseppe Giannaccare, en ‘Nature’. Preocupa la capacidad de ChatGPT de generar datos convicentes y reales, según estudio Tras este hallazgo, la capacidad de la IA para fabricar datos convincentes aumenta la preocupación entre los investigadores y editores de revistas sobre la integridad de la investigación. «Una cosa era que la IA generativa pudiera usarse para generar textos que no serían detectables mediante software de plagio, pero la capacidad de crear conjuntos de datos falsos pero realistas es el siguiente nivel de preocupación», apunta la microbióloga e investigadora independiente, Elisabeth Bik. Así, Bik asegura que esta tecnología «hará que sea muy fácil para cualquier investigador o grupo de investigadores crear mediciones falsas en pacientes inexistentes, respuestas falsas a cuestionarios o generar un gran conjunto de datos sobre experimentos con animales». Lea también: Ciberataques con IA, una de las grandes amenazas financieras para 2024 Los autores describen los resultados como una «base de datos aparentemente auténtica» pero, cuando los especialistas examinaron estos datos, no pasaron los controles de autenticidad y contenían signos reveladores de haber sido inventados. El método de investigación que llevó a estos resultados Para llegar a esta conclusión, los investigadores pidieron a GPT-4 ADA que creara un conjunto de datos sobre personas con una afección ocular llamada queratocono, que causa adelgazamiento de la córnea y puede provocar problemas de concentración y mala visión. Para entre el 15 y el 20 por ciento de las personas con la enfermedad, el tratamiento implica un trasplante de córnea, realizado mediante uno de estos dos procedimientos. El primer método, la queratoplastia penetrante (PK), consiste en extirpar quirúrgicamente todas las capas dañadas de la córnea y reemplazarlas con tejido sano de un donante. El segundo procedimiento, queratoplastia lamelar anterior profunda (DALK), reemplaza solo la capa frontal de la córnea, dejando intacta la capa más interna. Los autores ordenaron a ChatGpt que fabricara datos para respaldar la conclusión de que el método DALK produce mejores resultados que PK. Para ello, le pidieron que mostrara una diferencia estadística en una prueba de imagen que evalúa la forma de la córnea y detecta irregularidades, así como una diferencia de cómo podían ver los participantes del ensayo antes y después de los procedimientos. Los datos generados por la IA incluyeron a 160 participantes masculinos y 140 femeninos e indicaron que aquellos que se sometieron a DALK obtuvieron mejores puntuaciones tanto en la prueba de visión como en la prueba de imágenes que aquellos que se sometieron a PK, un hallazgo que contradice lo que muestran los ensayos clínicos actuales. En un informe de 2010 de un ensayo con 77 participantes, los resultados de DALK fueron similares a los de PK hasta dos años después de la cirugía. ¿Cómo reconocer el origen no humano de los datos? Aparentemente los datos científicos parecen estar generados por humanos y no por una inteligencia artificial, pero los investigadores aseguran que haciendo un examen minucioso sí que es posible diferenciar el origen no humano de dichos datos. «Si se mira muy rápidamente el conjunto de datos, es difícil reconocer el origen no humano de la fuente de datos», apunta el cirujano Giuseppe Giannaccare. A petición de la revista ‘Nature’, los investigadores evaluaron el conjunto de datos falsos mediante un protocolo de detección diseñado para comprobar su autenticidad. Esto reveló una discrepancia en muchos «participantes» entre el sexo designado y el sexo que normalmente se esperaría de su nombre. Además, no se encontró correlación entre las medidas preoperatorias y postoperatorias de la capacidad visual y la prueba de imágenes oculares. Asimismo, se inspeccionó la distribución de números en algunas de las columnas del conjunto de datos para comprobar si había patrones no aleatorios. Los valores de las imágenes oculares pasaron esta prueba, pero algunos de los valores de edad de los participantes se agruparon de una manera que sería extremadamente inusual en un conjunto de datos genuino ya que hubo un número desproporcionado de participantes cuyos valores de edad terminaron en siete y ocho. FUENTE: Europa Press. »ChatGpt genera datos de ensayos clínicos falsos para respaldar hipótesis científicas» Lanacion.com.ar. 07/12/2023. (https://www.lanacion.com.ar/agencias/chatgpt-genera-datos-de-ensayos-clinicos-falsos-para-respaldar-hipotesis-cientificas-nid07122023/).
Diez principios para gobernar la ciberseguridad en la era de ChatGPT
Nos encontramos viviendo una era de avances tecnológicos que transforman la manera en que interactuamos con la información y nos comunicamos con el mundo. La inteligencia artificial, en particular, ha emergido como una fuerza disruptiva que está moldeando rápidamente diversas facetas de nuestra vida, desde la toma de decisiones empresariales hasta la comunicación cotidiana. En este contexto, la llegada de ChatGPT, un modelo de lenguaje basado en IA desarrollado por OpenAI, ha suscitado un interés sin precedentes. Podría interesarle: Ataques de hackers afines a Irán afectan varios estados de EEUU Este avance representa un hito en la creación de sistemas de procesamiento de lenguaje natural, y plantea cuestiones importantes sobre cómo lo utilizamos y cómo impacta en nuestra sociedad. A continuación, expondremos una guía de gobernanza para los líderes empresariales, con el objetivo de prevenir riesgos y resguardar sus activos: Conciencia de Riesgos Es clave que los líderes empresariales comprendan en profundidad los riesgos inherentes al uso de ChatGPT y sistemas de inteligencia artificial. Esta conciencia informada capacita a tomar decisiones estratégicas que protejan los activos y la integridad de la organización en el entorno digital actual. Directrices Evidentes La creación de políticas claras y bien definidas en relación con el uso de ChatGPT e IA es esencial para mantener una postura sólida en ciberseguridad. Estas políticas establecen expectativas claras para el manejo de los datos recopilados, proporcionando una estructura que guía las acciones y protege la información sensible. Capacitación Integral Permanente Empoderar a los empleados con programas de concientización y capacitación exhaustiva es un pilar fundamental en la estrategia de prevención de riesgos. Proporcionar conocimientos sobre el uso seguro de ChatGPT e IA es fomentar la capacidad de detectar posibles amenazas, para asegurar que cada miembro del equipo sea un defensor activo de la ciberseguridad. Protección de Datos La implementación de medidas robustas de seguridad para proteger los datos recopilados y alrededor del ecosistema ChatGPT e IA es un mandamiento inquebrantable. Mediante la encriptación avanzada y el control de acceso restringido, se crea una barrera defensiva que salvaguarda la información confidencial de posibles vulnerabilidades y ataques. Monitoreo Continua Mantener una supervisión constante sobre el uso de ChatGPT e IA se erige como una salvaguardia activa contra amenazas latentes. El monitoreo en tiempo real permite la detección temprana de comportamientos anómalos, facilitando una respuesta ágil ante cualquier intento de violación de seguridad. Actualización de Plataformas La actualización regular y estratégica del software de ChatGPT e IA es un mandato crucial en la lucha contra las vulnerabilidades. Mantenerse al día con las últimas versiones y parches de seguridad reduce la exposición a posibles exploits y garantiza un entorno más resiliente. Preparación ante Incidentes Un plan de respuesta a incidentes sólido es esencial para mitigar los efectos de una posible violación de seguridad. Tener protocolos claros y estructurados para gestionar incidentes garantiza una reacción rápida y eficaz, minimizando el impacto en caso de una brecha. Auditorías Rigurosas Las auditorías de seguridad regulares permiten una evaluación exhaustiva de la efectividad de las medidas de seguridad implementadas. Estas evaluaciones periódicas identifican posibles lagunas y oportunidades de mejora, permitiendo que la estrategia de ciberseguridad evolucione con las cambiantes amenazas de ciberseguridad. Pruebas de Penetración Ejecutar pruebas de penetración de manera regular es una directriz proactiva para identificar y remediar posibles debilidades en el sistema. Estas evaluaciones exhaustivas, no solo al servicio en sí mismo, sino a todas las capas de punta a punta en el uso de IA, permiten una revisión minuciosa de la infraestructura y la detección temprana de brechas, antes de que puedan ser explotadas por amenazas externas. Colaboración con Expertos La colaboración con expertos en ciberseguridad aporta una perspectiva externa e invaluable para fortalecer la defensa. La experiencia de estos profesionales permite la identificación temprana de amenazas emergentes y la formulación de estrategias de prevención adaptativas y efectivas. Juntos, pueden guiar a la organización hacia un futuro más seguro y resiliente en el mundo digital. FUENTE: Descalzo, Fabián. »Diez principios para gobernar la ciberseguridad en la era de ChatGPT» Canal-ar.com.ar. 01/12/2023. (https://www.canal-ar.com.ar/31415-Diez-principios-para-gobernar-la-ciberseguridad-en-la-era-de-ChatGPT.html).
OpenAI habría violado la ley de Protección de Datos de la UE
Recientemente se ha descubierto que OpenAI aparentemente violó las leyes de privacidad europeas de diferentes formas, según una denuncia presentada en Polonia. El pasado martes el investigador de ciberseguridad y privacidad Lukasz Olejnik presentó una queja ante las autoridades polacas de protección de datos por incumplimiento del extenso Reglamento General de Protección de Datos (GDPR) de la Unión Europea. El investigador, representado por el bufete de abogados GP Partners con sede en Varsovia, alegó que OpenAI violó varias de las disposiciones del GDPR con respecto a la base legal, la transparencia, así como también la equidad, los derechos de acceso a los datos e incluso, la privacidad desde el diseño. Al parecer OpeanAI violó las leyes de privacidad de diferentes formas Esta es tan solo una queja de los diversos problemas legales a los que se enfrenta la reconocida compañía OpenAI, tanto en el extranjero como en los Estados Unidos donde tiene su sede. En el mes de junio, OpenAI fue objeto de una demanda colectiva por parte de un bufete de abogados de California por supuestamente entrenar a ChatGPT con datos “robados”. Unos meses antes, Italia prohibió ChatGPT hasta que pudiera cumplir con las estrictas leyes de privacidad de datos de la UE, entre otros. Lea también: LinkedIn bajo la mira de ciberdelincuentes: la plataforma fue víctima de prácticas maliciosas por dos semanas Pero, si hay algo importante que dejar claro es que esta queja en particular comenzó en el mes de marzo del presente año 2023 cuando Olejnik estaba usando ChatGPT para generar una biografía de sí mismo y percibió diversos errores. El investigador, se puso en contacto con OpenAI y solicitó rectificar los errores. Incluso, Olejnik también solicitó información sobre cómo se procesó y utilizó su información personal para entrenar el modelo. Según la ley GDPR, Olejnik tiene derecho a recibir información sobre ambas solicitudes, pero después de algunos correos electrónicos de ida y vuelta, OpenAI le explicó que no podían corregir las inexactitudes y tampoco le enviaron toda la información que solicitó. Según la denuncia, “De los hechos del caso se desprende que OpenAI ignora sistemáticamente las disposiciones del RGPD relativas al procesamiento de datos con fines de entrenamiento de modelos dentro de ChatGPT, lo que provocó, entre otras cosas, que el Sr. Lukasz Olejnik no fuera debidamente informado sobre el tratamiento de sus datos personales”. Por tal motivo, cabe hacerse la pregunta; ¿qué podría pasar realmente con esta denuncia? Todo parece indicar que las autoridades polacas podrían tardar entre 6 meses y 2 años en investigar la violación y, si deciden a favor de Olejnik, se ordenará a OpenAI que cumpla con sus solicitudes. Pero, hay que acotar que el abogado de Ojejnik, Maciej Gawronski, espera que la denuncia de su cliente impulse a las autoridades a investigar de manera profunda las supuestas violaciones de OpenAI, que él cree que son sistémicas. FUENTE: Redacción, Techcetera. »OPENAI HABRÍA VIOLADO LA LEY DE PROTECCIÓN DE DATOS DE LA UE» Techcetera.co. 03/09/2023. (https://techcetera.co/openai-habria-violado-la-ley-de-proteccion-de-datos-de-la-ue/).
¿ChatGPT ha aprendido con tu información personal? Acusan a OpenAI de robar datos para entrenar a su chatbot
La denuncia alega que OpenAI recopiló grandes cantidades de datos de forma ilegal para entrenar a la inteligencia artificial (IA) de ChatGPT. Además, el documento señala que recolectaron sistemáticamente 300.000 millones de palabras. El boom por ChatGPT empezó en noviembre del año pasado, y desde entonces, la compañía de Sam Altman ha estado en el punto de mira porque los usuarios querían saber de donde provenía toda la información que posee el chatbot. Sin embargo, después de varios meses, OpenAI es acusada por recopilar grandes cantidades de datos de forma ilegal para entrenar a su inteligencia artificial (IA). Los impulsores de la denuncia aseguran que la entidad utilizó la técnica ‘web scraping’ para conseguir grandes volúmenes de información, además, alegan que OpenAI violó varias leyes de privacidad. Las pruebas detrás de la denunca contra OpenAI Como se puede leer en el documento, los denunciadores señalan que «a pesar de que los protocolos establecidos para la compra y el uso de información personal, los demandados adoptaron un enfoque diferente: el robo. Recolectaron sistemáticamente 300.000 millones de palabras de Internet, libros, artículos, sitios web y publicaciones, incluida la información personal obtenida sin consentimiento. OpenAI lo hizo en secreto y sin registrarse como broker de datos, como lo exige la ley aplicable». Lea también: Reconocimiento facial y protección de datos: nuevas pautas en la Unión Europea Según el documento, ChatGPT pudo recopilar desde imágenes, texto, ubicaciones privadas en Snapchat, preferencias musicales en Spotify, información financiera, conversaciones privadas de Slack o Microsoft Teams, y registros privados de salud de MyChart. Además, la demanda menciona dos leyes de Estados Unidos que OpenAI supuestamente habría violado al recopilar información para entrenar a ChatGPT, concretamente, la Ley de Fraude y Abuso Informático y la Ley de Privacidad de las Comunicaciones Electrónicas. Por otro lado, Bloomberg señala que los demandantes permanecen en el anonimato por miedo a las posibles represalias, teniendo en cuenta que reclaman un indemnización de 2.700 millones de euros por los perjuicios y daños a una cantidad de internautas que ellos estiman en millones. FUENTE: Higuera, Ana. »¿ChatGPT ha aprendido con tu información personal? Acusan a OpenAI de robar datos para entrenar a su chatbot» 20minutos.es. 30/06/2023. (https://www.20minutos.es/tecnologia/inteligencia-artificial/openai-acusada-robar-datos-entrenar-chatgpt-5142995/).
ChatGPT cumple seis meses: ha mejorado pero sigue equivocándose y desconoce sucesos de actualidad
El modelo de inteligencia artificial ChatGPT ha cumplido seis meses desde que se lanzó su versión gratuita y se ha convertido en la plataforma que más usuarios ha reunido en menos tiempo en la historia de Internet. El 30 de noviembre de 2022, ya había alcanzado los 100 millones de usuarios mensuales, convirtiéndose en la plataforma de Internet que más rápido ha crecido en toda la historia. Podría interesarle: ChatGPT, marco regulatorio y su aplicación en la abogacía Meses más tarde, el 1 de febrero de 2023, OpenAI lanzó GPT Plus, la versión de pago del chatbot impulsada por el modelo de IA GPT-4 que permite funciones exclusivas, como respuestas más rápidas o el acceso a Internet. No obstante, es la versión gratuita la que más usuarios aglutina: solo en enero recibía más de 13 millones de usuarios al día, según un estudio de la consultora UBS. Además, el chatbot ya cuenta con su propia aplicación para móviles: De momento solo está disponible en Estados Unidos y para usuarios iOs (Apple), aunque se espera que próximamente se lance también para Android. A pesar de que el chatbot ha evolucionado durante los últimos seis meses, ChatGPT sigue equivocándose y no está conectado a la actualidad (la base de datos con la que se le entrenó llega hasta 2021). Por eso desconoce sucesos como la guerra de Ucrania. Los expertos consultados por Maldita.es aseguran que la IA no está todavía “lo suficientemente perfeccionada”, ya que en muchos casos sigue “inventándose la información”. Además, su uso en campos como el de la la nutrición y el deporte. ChatGPT cumple seis meses: ¿está la IA lo suficientemente perfeccionada como para usarla a ciegas? El crecimiento de ChatGPT durante los últimos seis meses ha hecho que muchos usuarios crean que la herramienta sirve para todo sin fallo ni error. Sin embargo, está lejos de ser así. El chatbot presenta una serie de limitaciones desde sus inicios: ChatGPT no puede usarse como si fuera Google u otro buscador, ya que no está conectado a Internet, tampoco dice siempre la verdad o responde con información incorrecta. ¿En qué ha mejorado y en qué sigue fallando? Ejemplos en nociones matemáticas y sucesos de actualidad En sus inicios el chatbot fallaba al asegurar que el nueve era un número primo, cuando no lo es. Meses después, la herramienta ya responde de forma correcta a esta pregunta aunque sigue equivocándose en algunas ecuaciones. Un experto le planteó la ecuación de Mifflin-St Jeor –que calcula el consumo energético basal, es decir, el número de calorías que quema el cuerpo en reposo– y obtuvo dos resultados. El primero es correcto según la ecuación. El segundo, incorrecto: se inventa la ecuación y hay casi un 20% de diferencia. Si hablamos de actualidad, hay varios ejemplos reseñables en los que el chatbot se equivoca. Desde septiembre de 2021, se han producido diferentes sucesos que han marcado la historia. Por ejemplo, la guerra de Ucrania. El chat reconoce que el conflicto comenzó en 2014 con la anexión rusa de la península de Crimea. Sin embargo, asegura que continúa en la actualidad a un “nivel más bajo de intensidad que en los años anteriores”. Desconoce, por lo tanto, que la madrugada del 24 de febrero de 2022 Rusia invadió a Ucrania. Si le preguntamos por el dueño de la red social Twitter, ChatGPT nos seguirá hablando de Jack Dorsey y de su reemplazo por Parag Agrawal. Ni rastro del empresario Elon Musk, que compró la compañía en 2022. Lo mismo ocurre con temas más sencillos y virales como la ruptura de la cantante Shakira y el futbolista Gerard Piqué.. La IA no duda en afirmar que “no hay evidencias” de que la pareja se haya separado. Tampoco tiene constancia de la sesión que la artista tiene con el productor argentino Bizarrap, un éxito mundial: “No tengo conocimiento de que Shakira haya sacado una canción con Bizarrap hablando mal de Piqué”. La IA se afina pero no amplía la base datos: sigue congelada en 2021 Este tipo de modelos de IA, como explicábamos, aprende en base a millones de ejemplos con los que ha sido entrenado. Alonso explica que, durante la fase de entrenamiento, ven “millones y millones de textos” a los que se les quitan palabras para que el modelo pueda predecirlas. Lea también: Google deja a la UE fuera de su nueva inteligencia artificial El proceso en el que se preparan los textos y se entrenan los modelos es muy costoso, en dinero y en tiempo. Por eso no se hace continuamente. Actualmente, ChatGPT está congelado en 2021 porque no se le han mostrado textos posteriores a esa fecha y por eso falla en los ejemplos que hemos visto. A eso hay que sumarle, dice Alonso, que la mayoría de textos que ha visto (más del 90%) están en inglés, lo que hace que muchas respuestas en español sean de menor calidad. Riesgos de su uso inadecuado: nutricionista, entrenador deportivo, y su uso para timos Entre los muchos usos que esos millones de usuarios le están dando a ChatGPT, la IA se ha colado de lleno en el mundo del deporte y la nutrición. Tanto, que muchos aseguran en redes sociales que ChatGPT puede desempeñar las labores de un nutricionista y un entrenador personal. Sin embargo, los expertos aseguran que esta herramienta no está lo suficientemente perfeccionada y su uso en materias que impactan a nuestra salud puede conllevar riesgos. En la mayoría de los casos, este chatbot no tiene en cuenta factores fundamentales como el peso, lesiones, posibles patologías o la relación de los usuarios con la comida, tanto para elaborar una dieta como para crear una rutina de deporte. Además, los expertos recuerdan que la IA puede devolver información errónea y que carece del factor psicosocial y de acompañamiento que nos daría un entrenador deportivo profesional o un nutricionista, algo que consideran “fundamental”. Temas que siguen en el aire: regulación y responsabilidades de una IA como ChatGPT Desde su lanzamiento, uno de los grandes debates sobre ChatGPT es dilucidar quién se responsabiliza de los posibles daños (físicos, económicos, morales o reputacionales) que la herramienta pueda causar para indemnizarlos. La Comisión Europea está trabajando en dos posibilidades: «La
ChatGPT, marco regulatorio y su aplicación en la abogacía
La inteligencia artificial (IA) ya no es algo exclusivo de la ciencia ficción y hace ya mucho que está en nuestro día a día, aunque quizás no nos hayamos dado cuenta hasta ahora. Estos últimos años la palabra inteligencia artificial está ya en todos lados y, con la llegada del novedoso ChatGPT el debate está servido. Hay países que incluso han prohibido el uso de esta herramienta, como hizo Italia el pasado mes de marzo. Sobre Inteligencia Artificial y la llegada de ChatGPT El Parlamento Europeo define la Inteligencia Artificial como la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear”. Todo esto implica grandes avances en informática, la disponibilidad de grandes cantidades de datos, análisis de imágenes, motores de búsqueda, robots, drones, etc. Aquí entraría en juego el ya famoso ChatGPT, un modelo de lenguaje desarrollado por OpenAI, una empresa americana de investigación de Inteligencia Artificial (IA). Este chat cuenta con gran cantidad de datos de texto que permite realizar gran cantidad de tareas relacionadas con el lenguaje. A través de preguntas o consultas de los usuarios, este chat desarrolla respuestas adaptadas a las necesidades de cada uno y con gran precisión, incluso podría generar artículos bien estructurados. Entonces, ¿dónde está el problema? Últimas reacciones de la UE y países miembros sobre ChatGPT A inicios de abril, Italia tomó la decisión de prohibir ChatGPT por “no respetar la ley de protección de datos personales de los interesados”. A raíz de esto, el resto de países europeos han comenzado a investigar las posibles implicaciones de esta herramienta y no descartan seguir los pasos del país vecino. Podría interesarle: Por qué es importante la soberanía de datos europea De hecho, la Agencia Española de Protección de Datos (AEPD) ha solicitado al Comité Europeo de Protección de Datos que incluyan este debate en la próxima reunión plenaria para poner unas directrices en común con todos los países miembros de la UE. Y el pasado 11 de mayo la Unión Europea aprobó la propuesta de ley que pretende reforzar la normativa sobre el uso y el desarrollo de la inteligencia artificial, y en concreto las obligaciones que aplicaciones como ChatGPT deberá seguir. ¿Cómo afecta a abogados y oficinas legales ChatGPT? La industria legal considera que esta tecnología pueda facilitar y realizar de manera más eficiente el trabajo de archivo y documentación de sus procesos. Se trata de una forma de delegar las tareas más rutinarias y centrarse en los aspectos estratégicos y sustanciales de sus funciones. Con respecto a reclamador.es, Irene Becerra, nuestra directora legal, participó el pasado 11 de mayo en la Webinar ‘ChatGPT y su impacto en la abogacía’ donde se destacaba como punto fuerte de esta herramienta para la profesión la posibilidad de educar sobre los derechos y obligaciones del público con un lenguaje claro y accesible. Por otra parte, señalaban la imposibilidad de que estos sistemas sustituyeran a los abogados porque, entre otros motivos, carecen de valores esenciales como la empatía en una parte básica del trabajo que es el trato con el cliente. Dicho esto, la necesidad de aprender a coexistir con estas novedades tecnológicas que van apareciendo: es un must para la buena evolución de la abogacía, desde las grandes firmas hasta un abogado independiente. También Irene comentaba el medio digital Cinco Días de El País que “puede ayudar a nivel telefónico a evitar cadenas de locuciones pre-grabadas en líneas de atención al cliente” y “con orientaciones ante el planteamiento de dudas básicas, sencillas y recurrentes”. Además, añadía como, el chat “es una herramienta diseñada para complementar y mejorar la eficiencia en las tareas realizadas por los abogados y trabajadores de otros sectores”. Riesgos y regulación Pero como todo, tiene algún matiz, ya que puede cometer errores o no dar la información relevante que se está buscando. En definitiva, no puede sustituir al papel de un abogado en ningún caso. En este aspecto, Irene señalaba que “la resolución de consultas legales, es decir, la labor de asesoramiento del abogado ante un problema del cliente, no se puede simplificar a dar una respuesta exacta de un chat (…). Un asesoramiento jurídico completo requiere de conocimiento, interpretación y aplicación de la ley, para lo que se necesitan habilidades humanas únicas, como empatía, comprensión o el uso de la experiencia”. Lo que está claro es que la Inteligencia Artificial está ya en nuestro día a día y ha venido para quedarse con todas las implicaciones que acarrea. FUENTE: Reclamador. »ChatGPT: marco regulatorio y su aplicación en la abogacía» Lawandtrends.com. 27/05/2023. (https://www.lawandtrends.com/noticias/tic/chatgpt-marco-regulatorio-y-su-aplicacion-en-la-abogacia-1.html).