Chatbots vs protección de datos personales

Elon Musk, CEO de Tesla ha comparado la inteligencia artificial generativa con un arma nuclear en cuanto a lo peligrosos que son.

La inteligencia artificial apareció en nuestras vidas como un opción para simplificar tareas repetitivas y eficientar nuestros procesos, tal es el caso de los chatbots, que parecieran una alternativa eficaz para la atención de usuarios. No obstante, en días recientes expertos en tecnología se pronunciaron en contra de estos y pidieron «retroceder» un poco en su desarrollo porque, entre otras cosas, podrían estar vulnerando nuestros datos. 

Incluso el modelo de lenguaje extenso (LLM) ChatGPT indicó que la IA generativa, como cualquier otra tecnología, tiene el potencial de plantear riesgos para la privacidad de los datos si no se usa de manera responsable. Y no hace falta mucha imaginación para ver el potencial de una empresa para dañar rápidamente una relación ganada con tanto esfuerzo con los clientes a través del mal uso de la IA generativa. Pero si bien la tecnología es novedosa, los principios de la ley de protección de datos siguen siendo los mismos, y existe una hoja de ruta clara para que las organizaciones innoven de una manera que respete la privacidad de las personas. 

El CEO de la marca enfatizó que los reguladores y la sociedad deben involucrarse con la tecnología para protegerse contra posibles consecuencias negativas para la humanidad.

Otras noticias: Neurodatos y neurotecnología, ¿Cómo afecta a la privacidad y Protección de Datos?

Chatbots, AI y el desarrollo tecnológico como peligro potencial

La advertencia se produjo cuando OpenAI lanzó la última versión de su modelo de lenguaje AI, GPT-4 , menos de cuatro meses desde que se lanzó la versión original y se convirtió en la aplicación de consumo de más rápido crecimiento en la historia.

De hecho, Elon Musk, CEO de Tesla ha comparado la inteligencia artificial generativa con un arma nuclear en cuanto a lo peligrosos que son. En ese sentido, la Information Comissioner´’s Office (ICO) destacó que las organizaciones que desarrollan o usan IA generativa deben considerar sus obligaciones de protección de datos desde el principio, adoptando un enfoque de protección de datos desde el diseño y por defecto.

Al respecto recomendó a los desarrolladores hacerse las siguientes preguntas en caso de estar generando inteligencia artificial que procese datos personales: 
  • ¿Cuál es su base legal para procesar datos personales? 
  • ¿Es usted un controlador, controlador conjunto o un procesador? Si está desarrollando IA generativa utilizando datos personales, tiene obligaciones como controlador de datos. Si está utilizando o adaptando modelos desarrollados por otros, puede ser un controlador, un controlador conjunto o un procesador
  • ¿Ha preparado una Evaluación de impacto de la protección de datos (DPIA)? 
  • ¿Cómo garantizará la transparencia?
  • ¿Cómo mitigará los riesgos de seguridad? 
  • ¿Cómo limitará el procesamiento innecesario?
  • ¿Cómo cumplirá con las solicitudes de derechos individuales?
  • ¿Utilizará IA generativa para tomar decisiones únicamente automatizadas? 

FUENTE: Corporativo. »Chatbots vs protección de datos personales» idconline.mx. 14/02/23. (https://idconline.mx/corporativo/2023/04/13/chatbots-vs-proteccion-de-datos-personales)

Facebook
Twitter
LinkedIn
Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.