ChatGPT cumple seis meses: ha mejorado pero sigue equivocándose y desconoce sucesos de actualidad

El modelo de inteligencia artificial ChatGPT ha cumplido seis meses desde que se lanzó su versión gratuita y se ha convertido en la plataforma que más usuarios ha reunido en menos tiempo en la historia de Internet.

El 30 de noviembre de 2022, ya había alcanzado los 100 millones de usuarios mensuales, convirtiéndose en la plataforma de Internet que más rápido ha crecido en toda la historia.

Podría interesarle: ChatGPT, marco regulatorio y su aplicación en la abogacía

Meses más tarde, el 1 de febrero de 2023, OpenAI lanzó GPT Plus, la versión de pago del chatbot impulsada por el modelo de IA GPT-4 que permite funciones exclusivas, como respuestas más rápidas o el acceso a Internet. No obstante, es la versión gratuita la que más usuarios aglutina: solo en enero recibía más de 13 millones de usuarios al día, según un estudio de la consultora UBS. Además, el chatbot ya cuenta con su propia aplicación para móviles: De momento solo está disponible en Estados Unidos y para usuarios iOs (Apple), aunque se espera que próximamente se lance también para Android.

A pesar de que el chatbot ha evolucionado durante los últimos seis meses, ChatGPT sigue equivocándose y no está conectado a la actualidad (la base de datos con la que se le entrenó llega hasta 2021). Por eso desconoce sucesos como la guerra de Ucrania. Los expertos consultados por Maldita.es aseguran que la IA no está todavía “lo suficientemente perfeccionada”, ya que en muchos casos sigue “inventándose la información”. Además, su uso en campos como el de la la nutrición y el deporte. 

ChatGPT cumple seis meses: ¿está la IA lo suficientemente perfeccionada como para usarla a ciegas?

El crecimiento de ChatGPT durante los últimos seis meses ha hecho que muchos usuarios crean que la herramienta sirve para todo sin fallo ni error. Sin embargo, está lejos de ser así. El chatbot presenta una serie de limitaciones desde sus inicios: ChatGPT no puede usarse como si fuera Google u otro buscador, ya que no está conectado a Internet, tampoco dice siempre la verdad o responde con información incorrecta.

¿En qué ha mejorado y en qué sigue fallando? Ejemplos en nociones matemáticas y sucesos de actualidad

En sus inicios el chatbot fallaba al asegurar que el nueve era un número primo, cuando no lo es. Meses después, la herramienta ya responde de forma correcta a esta pregunta aunque sigue equivocándose en algunas ecuaciones. Un experto le planteó la ecuación de Mifflin-St Jeor –que calcula el consumo energético basal, es decir, el número de calorías que quema el cuerpo en reposo– y obtuvo dos resultados. El primero es correcto según la ecuación. El segundo, incorrecto: se inventa la ecuación y hay casi un 20% de diferencia.

Si hablamos de actualidad, hay varios ejemplos reseñables en los que el chatbot se equivoca. Desde septiembre de 2021, se han producido diferentes sucesos que han marcado la historia. Por ejemplo, la guerra de Ucrania. El chat reconoce que el conflicto comenzó en 2014 con la anexión rusa de la península de Crimea. Sin embargo, asegura que continúa en la actualidad a un “nivel más bajo de intensidad que en los años anteriores”. Desconoce, por lo tanto, que la madrugada del 24 de febrero de 2022 Rusia invadió a Ucrania.

Si le preguntamos por el dueño de la red social Twitter, ChatGPT nos seguirá hablando de Jack Dorsey y de su reemplazo por Parag Agrawal. Ni rastro del empresario Elon Musk, que compró la compañía en 2022.

Lo mismo ocurre con temas más sencillos y virales como la ruptura de la cantante Shakira y el futbolista Gerard Piqué.. La IA no duda en afirmar que “no hay evidencias” de que la pareja se haya separado. Tampoco tiene constancia de la sesión que la artista tiene con el productor argentino Bizarrap, un éxito mundial: “No tengo conocimiento de que Shakira haya sacado una canción con Bizarrap hablando mal de Piqué”. 

La IA se afina pero no amplía la base datos: sigue congelada en 2021

Este tipo de modelos de IA, como explicábamos, aprende en base a millones de ejemplos con los que ha sido entrenado. Alonso explica que, durante la fase de entrenamiento, ven “millones y millones de textos” a los que se les quitan palabras para que el modelo pueda predecirlas.

Lea también: Google deja a la UE fuera de su nueva inteligencia artificial

El proceso en el que se preparan los textos y se entrenan los modelos es muy costoso, en dinero y en tiempo. Por eso no se hace continuamente. Actualmente, ChatGPT está congelado en 2021 porque no se le han mostrado textos posteriores a esa fecha y por eso falla en los ejemplos que hemos visto. A eso hay que sumarle, dice Alonso, que la mayoría de textos que ha visto (más del 90%) están en inglés, lo que hace que muchas respuestas en español sean de menor calidad.

Riesgos de su uso inadecuado: nutricionista, entrenador deportivo, y su uso para timos

Entre los muchos usos que esos millones de usuarios le están dando a ChatGPT, la IA se ha colado de lleno en el mundo del deporte y la nutrición. Tanto, que muchos aseguran en redes sociales que ChatGPT puede desempeñar las labores de un nutricionista y un entrenador personal. Sin embargo, los expertos aseguran que esta herramienta no está lo suficientemente perfeccionada y su uso en materias que impactan a nuestra salud puede conllevar riesgos.

En la mayoría de los casos, este chatbot no tiene en cuenta factores fundamentales como el peso, lesiones, posibles patologías o la relación de los usuarios con la comida, tanto para elaborar una dieta como para crear una rutina de deporte. Además, los expertos recuerdan que la IA puede devolver información errónea y que carece del factor psicosocial y de acompañamiento que nos daría un entrenador deportivo profesional o un nutricionista, algo que consideran “fundamental”.

Temas que siguen en el aire: regulación y responsabilidades de una IA como ChatGPT

Desde su lanzamiento, uno de los grandes debates sobre ChatGPT es dilucidar quién se responsabiliza de los posibles daños (físicos, económicos, morales o reputacionales) que la herramienta pueda causar para indemnizarlos.

La Comisión Europea está trabajando en dos posibilidades: «La prmera idea es considerar que este chat es un producto, y entonces haríamos responsable al productor del sistema de IA (el desarrollador del algoritmo). La segunda solución es que se toma como una herramienta y el responsable sería el operador, el que lo usa para algo. Por ejemplo, el banco si lo utiliza para resolver quejas de sus clientes, Sin embargo, también estas dos opciones tienen limitaciones y aspectos que hay que s

Además, desde abril de 2023 el Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés), conformado por autoridades de protección de datos europeas en la que se incluye la Agencia Española de Protección de Datos (AEPD), está analizando »un posible incumplimiento de la normativa» de protección de datos por parte de la empresa OpenAI. De momento no se han impuesto restricciones, pero España se suma así a la oleada europea de investigaciones sobre OpenAI y ChatGPT, que inició Italia el viernes 31 de marzo, y que han continuado otros países como Francia, Irlanda y Alemania.

Por otro lado, el CEO de OpenAI, Sam Altman, ha asegurado que no tiene planes de llevarse ChatGPT de Europa, después de haber dicho que retiraría sus servicios en la UE si no estaban de acuerdo con las regulaciones de la futura ley sobre inteligencia artificial.

FUENTE: Gonzalo, Julio; Balón, Verónica; Díaz, María Paloma. »ChatGPT cumple seis meses: ha mejorado pero sigue equivocándose y desconoce sucesos de actualidad» Maldita.es. 30/05/2023. (https://maldita.es/malditatecnologia/20230530/chatgpt-seis-meses-evolucion-errores-desconoce-actualidad/).

Facebook
Twitter
LinkedIn
Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.