Elon Musk, CEO de Tesla ha comparado la inteligencia artificial generativa con un arma nuclear en cuanto a lo peligrosos que son.

La inteligencia artificial apareció en nuestras vidas como un opción para simplificar tareas repetitivas y eficientar nuestros procesos, tal es el caso de los chatbots, que parecieran una alternativa eficaz para la atención de usuarios. No obstante, en días recientes expertos en tecnología se pronunciaron en contra de estos y pidieron «retroceder» un poco en su desarrollo porque, entre otras cosas, podrían estar vulnerando nuestros datos. 

Incluso el modelo de lenguaje extenso (LLM) ChatGPT indicó que la IA generativa, como cualquier otra tecnología, tiene el potencial de plantear riesgos para la privacidad de los datos si no se usa de manera responsable. Y no hace falta mucha imaginación para ver el potencial de una empresa para dañar rápidamente una relación ganada con tanto esfuerzo con los clientes a través del mal uso de la IA generativa. Pero si bien la tecnología es novedosa, los principios de la ley de protección de datos siguen siendo los mismos, y existe una hoja de ruta clara para que las organizaciones innoven de una manera que respete la privacidad de las personas. 

El CEO de la marca enfatizó que los reguladores y la sociedad deben involucrarse con la tecnología para protegerse contra posibles consecuencias negativas para la humanidad.

Otras noticias: Neurodatos y neurotecnología, ¿Cómo afecta a la privacidad y Protección de Datos?

Chatbots, AI y el desarrollo tecnológico como peligro potencial

La advertencia se produjo cuando OpenAI lanzó la última versión de su modelo de lenguaje AI, GPT-4 , menos de cuatro meses desde que se lanzó la versión original y se convirtió en la aplicación de consumo de más rápido crecimiento en la historia.

De hecho, Elon Musk, CEO de Tesla ha comparado la inteligencia artificial generativa con un arma nuclear en cuanto a lo peligrosos que son. En ese sentido, la Information Comissioner´’s Office (ICO) destacó que las organizaciones que desarrollan o usan IA generativa deben considerar sus obligaciones de protección de datos desde el principio, adoptando un enfoque de protección de datos desde el diseño y por defecto.

Al respecto recomendó a los desarrolladores hacerse las siguientes preguntas en caso de estar generando inteligencia artificial que procese datos personales: 

FUENTE: Corporativo. »Chatbots vs protección de datos personales» idconline.mx. 14/02/23. (https://idconline.mx/corporativo/2023/04/13/chatbots-vs-proteccion-de-datos-personales)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Juan Sebastian Miller Moreno

Diseñador Grafico

Estudiante de Diseño Industrial de la Universidad Jorge Tadeo Lozano.
Caracterizo por la creatividad y la capacidad a la hora de emplear herramientas digitales, para desarrollo de trabajo como, ilustración digital,
vectorial y diagramación. Con conocimientos básicos en modelado 3D, bocetación y vistas de objetos.
Apasionado por el Diseño, y con intereses en seguir adquiriendo conocimientos para desarrollar soluciones que satisfaga de manera creativa e innovadora las necesidades del cliente.

Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.