«Escalofriante»: Científicos de todo el mundo denuncian que la Unión Europea amenaza con impulsar la «vigilancia masiva» en Internet

La privacidad en la Unión Europea (UE) podría tener los días contados. Así lo denuncian un total de 254 científicos e investigadores de 33 países, que advierten en una carta abierta publicada este jueves de que la nueva ley contra el abuso sexual infantil negociada en secreto por los Estados miembros amenaza con impulsar la «vigilancia masiva» de los ciudadanos en Internet. De aprobarse, advierten, tendrá «consecuencias catastróficas» que pueden afectar negativamente «a las democracias de todo el planeta». A mediados de 2022, la Comisión Europea propuso que la mejor forma de combatir la circulación de material pederasta en la red era obligar a las grandes plataformas, desde TikTok a WhatsApp, a escanear la comunicaciones encriptadas de sus usuarios en busca de imágenes o vídeos delictivos contra menores. «Sería como colocar una cámara dentro de tu casa, un espía que no sabes qué está buscando, y decirte que no te preocupes, que no se usará mal», lamenta Carmela Troncoso, una de las impulsoras de la carta, en declaraciones a EL PERIÓDICO. Tras meses de polémica, a finales de octubre el Parlamento Europeo votó en contra del escaneo de las telecomunicaciones de los ciudadanos, un importante revés a las intenciones de Bruselas. Sin embargo, los países siguieron negociando y, el pasado 13 de marzo, la presidencia belga del Consejo de la UE introdujo una nueva propuesta de ley pretendidamente más específica y segura con los datos cifrados. Para los expertos, esos cambios son «cosméticos», una «decepción» que «no cambia nada». Vigilancia masiva La carta publicada hoy alerta de que el nuevo plan de Bruselas creará «capacidades sin precedentes para la vigilancia y el control de los usuarios de Internet» y «socavará por completo la seguridad de las comunicaciones y los sistemas», poniendo en peligro los procesos democráticos dentro y fuera de Europa. Los expertos lamentan que la ley confía la detección de material pederasta a una tecnología «defectuosa«, «fácil de eludir» y «de bajo rendimiento». Advierten que, de usarse, se traducirá en «miles de millones de falsas alarmas», como que el sistema categorice como abuso sexual las fotos que unos padres puedan mandar (entre ellos, a familiares, al médico…) de sus hijos en la playa o en el baño. «Mucha gente inocente puede ser acusada», asegura Troncoso, profesora en la Escuela Politécnica Federal de Lausana. ¿Adiós a la privacidad? El año pasado, más de 500 académicos denunciaron que el método de escaneo planteado por la UE abriría un agujero en los sistemas de cifrado de extremo a extremo, el único método que garantiza esa privacidad de las comunicaciones. Incluso el Comité Europeo de Protección de Datos también pidió retirar la propuesta. Lea también: El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial La oleada de críticas obligó a los países a cambiar la ley, pero esta sigue contemplando el escaneo de todas las comunicaciones. «Sienta un precedente para el filtrado de Internet, e impide a la gente utilizar algunas de las pocas herramientas disponibles para proteger su derecho a una vida privada en el espacio digital», apunta la carta. «Tendrá un efecto escalofriante, en particular para los adolescentes que dependen en gran medida de los servicios en línea para sus interacciones (…) Todos los usuarios están en peligro». Además, el nuevo texto reza —al mismo tiempo— que permitirá el rastreo de los mismos datos cifrados que busca «proteger«, promesa que los expertos denuncian como un contrasentido. «Es como decirte que un sobre protege mucho una carta, pero que alguien va a leerla antes. Entonces, ¿para qué quiero el sobre?», compara Troncoso, reputada experta en privacidad. Lamentable Los más de 230 científicos e investigadores consideran «esencial» que tanto los gobiernos como los proveedores de servicios digitales «asuman una gran responsabilidad» para combatir los «delitos graves» que son el abuso y la explotación sexual infantil. Sin embargo, abogan no por una solución tecnocéntrica, sino por aumentar la inversión en medidas ya probadas como la educación sexual y sobre el consentimiento, las líneas directas de denuncia o la alfabetización digital. La carta concluye que los cambios propuestos no agilizarán la detección de contenido pederasta ni pondrán trabas a los agresores y, en cambio, generan nuevos problemas como la falta de transparencia algorítmica. Es por eso que solicitan que la ley «no salga adelante». Además, consideran «bastante lamentable» que los políticos europeos no hayan consultado a expertos en privacidad y ciberseguridad antes de presentar una propuesta «que no puede funcionar tecnológicamente». FUENTE: Planas Bou, Carles. »»Escalofriante»: Científicos de todo el mundo denuncian que la Unión Europea amenaza con impulsar la «vigilancia masiva» en Internet» Elperiodico.com. 02/05/2024. (https://www.elperiodico.com/es/internacional/20240502/cientificos-denuncian-union-europea-privacidad-vigilancia-abuso-sexual-infantil-gdpr-datos-101799229).
El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial

El Consejo de Europa ha adoptado el primer tratado internacional jurídicamente vinculante destinado a garantizar el respeto de los derechos humanos, del Estado de derecho y las normas jurídicas democráticas en el uso de los sistemas de inteligencia artificial (IA). El tratado, que también está abierto a países no europeos, establece un marco jurídico que abarca todo el ciclo de vida de los sistemas de IA y que se ocupa de los riesgos que pueden plantear, a la vez que promueve la innovación responsable. El convenio adopta un enfoque basado en el riesgo para diseñar, desarrollar, usar y decomisar sistemas de IA, que exige considerar cuidadosamente cualquier posible consecuencia negativa del uso de sistemas de IA. El Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho, ha sido adoptado en Estrasburgo durante la reunión ministerial anual del Comité de Ministros del Consejo de Europa, que reúne a los ministros de Asuntos Exteriores de los 46 Estados miembros del Consejo de Europa. Podría interesarle: Dictamen del Comité Europeo de Protección de Datos sobre la validez del consentimiento en los modelos de pago para las grandes plataformas en línea El convenio es el resultado de dos años de trabajo de un órgano intergubernamental, el Comité sobre Inteligencia Artificial (CAI por sus siglas en inglés), que reunió para redactar el tratado a los 46 Estados miembros del Consejo de Europa, la Unión Europea y 11 Estados no miembros (Argentina, Australia, Canadá, Costa Rica, Estados Unidos, Israel, Japón, México, Perú, la Santa Sede y Uruguay), así como a representantes del sector privado, la sociedad civil y el mundo académico, que participaron como observadores. El tratado cubre el uso de sistemas de Inteligencia Artificial en el sector público -incluidas las compañías que actúan en su nombre- y en el sector privado. El convenio ofrece a las partes dos formas de cumplir sus principios y obligaciones a la hora de regular el sector privado: las partes pueden optar por quedar obligadas directamente por las disposiciones pertinentes del convenio o, como alternativa, adoptar otras medidas para cumplir con las disposiciones del tratado a la vez que se respetan plenamente sus obligaciones en materia de derechos humanos, democracia y Estado de derecho. Este enfoque es necesario dadas las diferencias entre los sistemas jurídicos de todo el mundo. Las demandas con el nuevo convenio sobre IA El convenio establece requisitos de transparencia y supervisión adaptados a contextos y riesgos específicos, incluida la identificación de contenidos generados por sistemas de IA. Las partes tendrán que adoptar medidas para identificar, evaluar, prevenir y mitigar posibles riesgos y evaluar la necesidad de una moratoria, una prohibición u otras medidas apropiadas en relación con el uso de sistemas de IA, cuando sus riesgos puedan ser incompatibles con las normas de los derechos humanos. También tendrán que garantizar la rendición de cuentas y la responsabilidad por el impacto negativo, y que los sistemas de IA respeten la igualdad, incluida la igualdad de género, la prohibición de la discriminación y el derecho a la intimidad. Además, las partes del tratado tendrán que garantizar la disponibilidad de recursos legales para las víctimas de violaciones de los derechos humanos relacionadas con el uso de sistemas de IA y de garantías procesales, incluida la notificación a todas las personas que interactúen con sistemas de IA de que están interactuando con estos sistemas. En cuanto a los riesgos para la democracia, el tratado requiere a las partes que adopten medidas para garantizar que los sistemas de IA no se utilicen para minar las instituciones y procesos democráticos, incluido el principio de separación de poderes, el respeto de la independencia judicial y el acceso a la justicia. Lea también: Las autoridades de control de protección de datos publican unas orientaciones para tratamientos que incorporen tecnologías de seguimiento Wi-Fi Las partes del convenio no estarán obligadas a aplicar las disposiciones del tratado a las actividades relacionadas con la protección de los intereses de la seguridad nacional, pero sí a garantizar que estas actividades respetan el derecho internacional y las instituciones y procesos democráticos. El convenio no se aplicará a asuntos de defensa nacional ni actividades de investigación y desarrollo, excepto cuando las pruebas de los sistemas de IA puedan interferir potencialmente con los derechos humanos, la democracia o el Estado de derecho. Para garantizar su aplicación efectiva, el convenio establece un mecanismo de seguimiento en forma de Conferencia de las Partes. Por último, el convenio exige que cada parte establezca un mecanismo de supervisión independiente para vigilar que se cumple con el convenio, que se sensibilice y estimule un debate público informado, y que se lleven a cabo consultas con múltiples partes interesadas sobre cómo debería ser utilizada la tecnología de la IA. El convenio marco se abrirá a la firma en Vilna (Lituania) el 5 de septiembre, coincidiendo con una conferencia de ministros de Justicia. FUENTE: Comité de Ministros. »El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial» Coe.int. 17/05/2024. (https://www.coe.int/es/web/portal/-/council-of-europe-adopts-first-international-treaty-on-artificial-intelligence).
¿Está en riesgo la información de las personas en Colpensiones? Procuraduría prende las alarmas por problemas de seguridad digital

Un fuerte reclamo y advertencia, por el manejo de los datos de millones de pensionados y cotizantes, acaba de hacer la Procuraduría General de la Nación ante la falta de soporte y mantenimientos de la información y bases de datos en Colpensiones. Por este motivo, la Procuraduría solicitó al presidente de Colpensiones, Jaime Dussan Calderón, y al superintendente financiero, César Ferrari, que expliquen cómo están manejando los riesgos operacionales y problemas de seguridad digital por la falta de renovación del servicio de soporte, mantenimiento y actualización de software. Un asunto que no es de poca monta. La advertencia de la Procuraduría va directamente a la información personal y de sus ahorros de millones de afiliados, que incluso podría ser atacada por delincuentes informáticos. El Ministerio Público indicó que es crucial tener procedimientos adecuados para manejar las pensiones de millones de colombianos, con prestación definida y el programa de Beneficios Económicos Periódicos (Beps). Estos incluyen procesos como la atención al cliente, asesoramiento, reconocimiento de derechos de pensión, gestión de registros laborales, manejo de pagos de pensiones, asuntos legales y médicos, entre otros. Lea también: Habeas Data: ¿Qué sabemos sobre nuestros datos en esta era digital? Al parecer, muchos de estos procesos están desactualizados, como se ha señalado en varios informes de la Procuraduría Delegada para Asuntos del Trabajo y Seguridad Social. Por estas razones, la Procuraduría advierte que podrían surgir problemas con la información y los datos de los trámites realizados por los afiliados y pensionados. Además, la demora en operaciones y la antigüedad del sistema podrían aumentar el riesgo de fraudes o disminuir la eficiencia en la respuesta a los pensionados. Y es que según las indagaciones de la Procuraduría, justamente, los sistemas de Colpensiones son viejos y obsoletos y no tienen las protecciones y tecnología necesarias para custodiar la información y para mantenerla al orden y al día. Este panorama que plantea la Procuraduría se convierte en un campanazo de alerta ante el trámite de la reforma pensional, que dejaría en manos de Colpensiones casi todo el manejo y monopolio de las pensiones, pues advierte: “Se enfatiza que Colpensiones no está técnica ni administrativamente preparada para implementar un nuevo modelo pensional, según lo planeado”. Un llamado similar al realizado con el cambio en el modelo de salud de los maestros, en el cual la Procuraduría advirtió una y otra vez que el Estado no estaba en condiciones de prestar el servicio y, sin presentar soluciones, cambiaron el sistema de un plumazo y el caos ha sido total. FUENTE: Nación. »¿Está en riesgo la información de las personas en Colpensiones? Procuraduría prende las alarmas por problemas de seguridad digital» Semana.com. 14/05/2024. (https://www.semana.com/nacion/articulo/esta-en-riesgo-la-informacion-de-las-personas-en-colpensiones-procuraduria-prende-las-alarmas-por-problemas-de-seguridad-digital/202423/).
Una asociación demanda a OpenAI por infringir la ley de protección de datos de la Unión Europea

La organización de derechos digitales Noyb afirma que ChatGPT de OpenAI viola el Reglamento General de Protección de Datos de la UE porque genera información falsa sobre las personas. ChatGPT de OpenAI sigue generando información falsa sobre las personas, según reclama la organización de derechos digitales Noyb, lo que infringe las disposiciones del Reglamento General de Protección de Datos (RGPD) de la Unión Europea. Por ello, Noyb, con sede en Austria, interpuso una denuncia contra OpenAI ante la Autoridad Austriaca de Protección de Datos (DSB, por sus siglas en alemán), pidiéndole que tome medidas contra la empresa estadounidense para que cumpla la normativa europea. Información personal inventada, cortesía de ChatGPT De acuerdo con el RGPD, toda la información sobre las personas que se difunda en internet tiene que ser exacta y precisa, y debe garantizar a los usuarios el pleno acceso a ella, así como a las fuentes de las que procede. A pesar de ello, según Noyb, OpenAI reconoció abiertamente que no es capaz ni de corregir los datos incorrectos proporcionados por ChatGPT, los llamados “delirios”, ni de determinar de dónde vienen. Es más, ni siquiera sabría qué información personal almacenó su chatbot de inteligencia artificial (IA). Como se informa en el sitio web de Noyb, OpenAI se limita a declarar que “la precisión de los hechos en los grandes modelos de lenguaje”, como los chatbots de IA, “sigue siendo un área de investigación activa”. En otras palabras, con esta frase, OpenAI explica que aún no tiene control sobre lo que ChatGPT expresa. Pero facilitar datos erróneos, engañosos o incluso completamente inventados resulta bastante perjudicial, sobre todo si estos conciernen a las personas. Una encuesta de The New York Times revela que los chatbots inventan información entre el 3 y el 27% de las veces. “Inventar información falsa ya es problemático de por sí. Pero cuando se trata de datos falsos sobre las personas, las consecuencias son graves. Está claro que actualmente las compañías no son capaces de hacer que los chatbots como ChatGPT cumplan la legislación de la UE cuando se trata de información sobre individuos. Si un sistema no brinda resultados precisos y transparentes, no debe emplearse para generar información acerca de la gente. La tecnología tiene que seguir los requisitos de la ley, y no al revés”, manifestó Maarje de Graaf, abogada especializada en protección de datos de Noyb. Lea también: La Unión Europea amenazó a TikTok por poner en riesgo la protección al consumidor e infringir el mercado único digital La organización de derechos digitales sostiene que “si bien la información inexacta llega a ser tolerable cuando un estudiante usa ChatGPT para que le ayude con sus deberes, es inaceptable cuando se trata de información sobre individuos”. Y hace hincapié en que la legislación de la Unión Europea (UE) exige que los datos personales sean exactos, lo que contempla el artículo 5 del RGPD, así como que las personas de la región tienen derecho a la rectificación en virtud del artículo 16 del mismo reglamento si la información es incorrecta y pueden solicitar que se elimine cuando sea falsa. También entre las quejas que reclama Noyb, destaca la incapacidad de OpenAI para detener los “delirios” de su famoso chatbot: “Aunque la empresa dispone de numerosos datos de entrenamiento, no hay forma de garantizar que ChatGPT muestre a los usuarios información correcta. Por el contrario, se sabe que las herramientas de IA generativa suelen “delirar”, es decir, se inventan las respuestas”. Por ello, Noyb pidió a la DSB que tomara acciones contra OpenAI, abriendo una investigación que conduzca a la imposición de medidas correctivas, sanciones y una decisión final sobre los “delirios” de ChatGPT. La organización también dirigió su denuncia contra una de las ramificaciones con fines comerciales de OpenAI, la OpenAI OpCo ubicada en Estados Unidos, alegando que la sede europea de la misma, en Irlanda, es únicamente una fachada y que las decisiones se toman solo en la oficina estadounidense. FUENTE: Carboni, Kevin. »Una asociación demanda a OpenAI por infringir la ley de protección de datos de la Unión Europea» Es.wired.com. 30/04/2024. (https://es.wired.com/articulos/asociacion-demanda-a-openai-por-infringir-ley-de-proteccion-de-datos-de-union-europea).
Google creó una nueva función que permitirá proteger los datos personales de los usuarios: ¿De qué se trata?

Google comenzó a probar una nueva herramienta que permite realizar una localización profunda de datos personales y borrarlos del buscador. El objetivo es evitar que los ciberdelincuentes accedan a la información de los usuarios y produzcan estafas de cualquier tipo. Uno de los potenciales riesgos de la utilización de internet son las filtraciones de datos, algo que desafortunadamente es cada vez más común en nuestro país y en el mundo. Durante las últimas tres semanas de abril, en tres oportunidades, ciberdelincuentes vulneraron los sistemas de seguridad del Estado Nacional y provocaron alarma entre los ciudadanos, debido a que filtraron sus datos personales de distintas entidades. Podría interesarle: Las autoridades de control de protección de datos publican unas orientaciones para tratamientos que incorporen tecnologías de seguimiento Wi-Fi La primera filtración ocurrió a principios de abril, cuando un ciberdelincuente regaló en un foro underground y en Telegram cientos de imágenes de argentinos extraídas del Renaper. La segunda, fue cuando la misma persona subió una base de datos de usuarios de Nosis, un sitio que ofrece direcciones, documentos, teléfonos, relaciones laborales y registros financieros de los ciudadanos. La última se dio hace unos días cuando salió a la luz otra lista de datos del Renaper. Es debido a esta situación, que demuestra lo altamente vulnerables que pueden ser los sistemas de seguridad para llegar las bases de datos, o el fácil acceso a los mismos cuando un usuario normal proporciona su información en sitios web, es que Google lanza esta nueva función para reforzar la privacidad de las personas. ¿Cómo funciona la nueva herramienta de Google? La función, específicamente, se basa en un motor de búsqueda que implementa la posible localización de datos personales como nombres, número de teléfono o número de DNI que circulan en Internet sin ningún tipo de amparo y los borra del ojo público. En el caso de nuestro país, la función aún no se encuentra disponible, por lo cual, para poder usarla habrá que usar una VPN y cambiar la ubicación de la conexión. De todos modos, para utilizar esta herramienta y conseguir más protección para los datos, hay que seguir los siguientes pasos: Es importante saber, que una vez que el proceso comience, aparecerá una ventana emergente en la pantalla con el mensaje: «Estamos echando un vistazo«. Si alguno de los datos investigados aparece, Google lo notificará de inmediato. Cabe recordar, que la compañía no puede eliminar por completo los datos personales de Internet, solo los borra de la Búsqueda de Google, invisibilizándolos para que no sean utilizados con fines malintencionados. FUENTE: »Google creó una nueva función que permitirá proteger los datos personales de los usuarios: de qué se trata» Lapostanoticias.com.ar. 01/05/2024. (https://www.lapostanoticias.com.ar/2024-05-01/google-creo-una-nueva-funcion-que-permitira-proteger-los-datos-personales-de-los-usuarios-de-que-se-trata/).
Las autoridades de control de protección de datos publican unas orientaciones para tratamientos que incorporen tecnologías de seguimiento Wi-Fi

La Agencia Española de Protección de Datos, la Autoridad Catalana de Protección de Datos, la Autoridad Vasca de Protección de Datos y el Consejo de Transparencia y Protección de Datos de Andalucía han elaborado unas Orientaciones sobre tratamientos que incorporen tecnología de seguimiento Wi-Fi o Wi-Fi tracking en las que analizan las implicaciones de esta tecnología, identifican los principales riesgos y ofrecen una serie de recomendaciones para un uso responsable y compatible con la normativa de protección de datos. El seguimiento Wi-Fi es una tecnología que permite identificar y rastrear dispositivos móviles a través de las señales Wi-Fi que estos emiten, detectando la presencia del dispositivo en una zona específica e identificando patrones de movimiento. Pueden encontrarse aplicaciones prácticas en centros comerciales, museos, centros de trabajo, áreas públicas, transportes o grandes eventos, empleándose para la estimación de aforos, el análisis de flujos de personas o la medición de tiempos de permanencia. Las autoridades de protección de datos exponen que el uso de esta tecnología puede suponer un tratamiento de datos personales y, por tanto, deben someterse al conjunto de principios, derechos y obligaciones establecidos en el Reglamento General de Protección de Datos. Además, su uso plantea serios riesgos para la privacidad, ya que podría permitir el seguimiento de los movimientos de las personas sin que estas sean conscientes de ello y sin una base legal apropiada. Podría interesarle: Aumentan un 35% las denuncias a los negocios por incumplir la protección de datos con sus empleados Por ello, las autoridades consideran que, dados los factores y elementos de riesgo inherentes, en general, se cumplen las condiciones para que antes de llevar a cabo el tratamiento sea obligatorio realizar una Evaluación de Impacto en la Protección de Datos (EIPD). De hecho, teniendo en cuenta los factores de riesgo, recomiendan realizarla incluso cuando el responsable del tratamiento pueda no tener clara su obligatoriedad. Además, para utilizar estas tecnologías es necesario intensificar el cumplimiento del principio de transparencia a través de una información clara y accesible, como paneles visibles con información, señalización pública, alertas de voz o campañas de información, entre otros. Las orientaciones también incluyen un listado de medidas a implementar si se superan todos los requisitos de cumplimiento de los principios del RGPD, destacando, entre otras, anonimizar y agregar justo después de la recogida de datos, limitar el ámbito en el que se realiza el seguimiento Wi-Fi, no asignar el mismo identificador a un dispositivo móvil en las distintas visitas que realice al mismo lugar, implementar medidas de seguridad adaptadas al nivel de riesgo y sometidas a revisiones continuas o realizar auditorías independientes. FUENTE: »Las autoridades de control de protección de datos publican unas orientaciones para tratamientos que incorporen tecnologías de seguimiento Wi-Fi» Aepd.es. 07/05/2024. (https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/autoridades-de-control-proteccion-datos-publican-orientaciones-tratamientos-tecnologias-seguimiento-wifi).
Dictamen del Comité Europeo de Protección de Datos sobre la validez del consentimiento en los modelos de pago para las grandes plataformas en línea

El 17 de abril de 2024 el Comité Europeo de Protección de Datos (CEPD/EDPB) publicó el Dictamen 08/2024 sobre la validez del consentimiento en el contexto de los modelos de consentimiento o pago (Consent or Pay) para las grandes plataformas en línea. El Dictamen ha sido adoptado dada una solicitud realizada por algunas autoridades de protección de datos de la UE (Neerlandesa, Noruega y Alemana – Hamburgo) al Comité Europeo de protección de Datos (CEPD/EDPB) y analiza la licitud de aquellos modelos que ofrecen la posibilidad de elección al usuario entre un modelo de pago o uno gratuito con aceptación del uso de datos personales para finalidades publicitarias. En concreto, el EDPB analiza aquellos modelos que activan las grandes plataformas en línea, en su modalidad gratuita, finalidades del tratamiento de datos personales para llevar a cabo publicidad basada en el comportamiento de los usuarios (publicidad personalizada). El EDPB trabajará en un futuro segundo posicionamiento aplicable a todos los modelos de consentimiento o pago y no solo a los implementados por las grandes plataformas en línea. Puntos clave del dictamen del Comité Europeo de Protección de Datos Podría interesarle: La Unión Europea amenazó a TikTok por poner en riesgo la protección al consumidor e infringir el mercado único digital FUENTE: »DICTAMEN DEL COMITÉ EUROPEO DE PROTECCIÓN DE DATOS SOBRE LA VALIDEZ DEL CONSENTIMIENTO EN EL CONTEXTO DE LOS MODELOS DE CONSENTIMIENTO O PAGO PARA LAS GRANDES PLATAFORMAS EN LÍNEA» Iabspain.es. 17/04/2024. (https://iabspain.es/dictamen-del-comite-europeo-de-proteccion-de-datos-sobre-la-validez-del-consentimiento-en-el-contexto-de-los-modelos-de-consentimiento-o-pago-para-las-grandes-plataformas-en-linea/).
La Unión Europea amenazó a TikTok por poner en riesgo la protección al consumidor e infringir el mercado único digital

La Unión Europea (UE) amenazó a TikTok tras implementar una nueva función paga que, obliga a sus consumidores a volcar una serie de datos personales, y pone en riesgo los estándares de protección de quienes la utilizan. Por lo que, ha expresado su compromiso de “mantener un entorno digital seguro y justo, en el que se fomente una competencia leal”. La famosa aplicación de videos cortos anunció que permitirá a sus usuarios el acceso a contenido exclusivo, siempre y cuando, cuenten con suscripción. Por su parte, la Comisión de la UE aboga por garantizar un entorno digital seguro y transparente. Podría interesarle: Europa va contra Mark Zuckerberg por vulnerar la privacidad de los usuarios La institución también conocida como Ejecutivo comunitario ha sido clara en su mensaje de que “cualquier servicio digital que opere dentro de sus fronteras debe adherirse a las leyes de protección al consumidor” y refleja la preocupación de los crecientes efectos nocivos de las redes sociales y las aplicaciones móviles en la sociedad y la dinámica económica. Se espera la respuesta de TikTok ante la advertencia de la Unión Europea La Comisión de la Unión Europea se encuentra a la espera de la respuesta por parte de la empresa de origen chino, ByteDance, creadora de TikTok tras la fuerte advertencia que podría desencadenar en el fin de su funcionamiento en los territorios del ‘viejo continente’. La cruzada que comenzó la UE contra el sitio de creación de contenido, se suma al proyecto de ley de los Estados Unidos que buscará su prohibición en territorio norteamericano a través del Congreso. En tanto que, la Unión Americana de Libertades Civiles se opone a la potencial normativa de la Cámara de Representantes estadounidense y alegó “motivos de libertad de expresión”. FUENTE: »La Unión Europea amenazó a TikTok por poner en riesgo la protección al consumidor e infringir el mercado único digital» Perfil.com. 25/05/2024. (https://www.perfil.com/noticias/internacional/a31la-union-europea-amenazo-a-tiktok-por-poner-en-riesgo-la-proteccion-al-consumidor-e-infrigir-el-mercado-unico-digitla.phtml).
Aumentan un 35% las denuncias a los negocios por incumplir la protección de datos con sus empleados

La Agencia Española de Protección de Datos (AEPD) ha publicado su Memoria Anual de 2023, en la que se muestra un importante incremento de las sanciones contra los negocios por incumplir la normativa. Especialmente, en el Comercio, la Hostelería y el Transporte. Los procedimientos de inspección y las sanciones a los negocios por incumplir la protección de datos crecieron de forma significativa el año pasado. Así lo mostró la Memoria Anual 2023 recién publicada por la Agencia Española de Protección de Datos (AEPD), en la que se muestra un incremento notable de los casos de incumplimiento en el ámbito laboral. Y, especialmente, en los sectores de Comercio, Hostelería y Transporte. En concreto, las reclamaciones efectuadas a la AEPD en el ámbito laboral contra las empresas -crecieron un 35% el año pasado, superando los 700 recursos. Esta cifra es aún mayor en el caso de los negocios dedicados al Comercio, a la Hostelería y al Transporte, donde superaron las 1.500 reclamaciones, un 66% más que el año pasado. A tenor de estos datos, conviene recordar que la vigilancia sobre los negocios en el apartado de la protección de datos sigue creciendo, y que muchos de ellos no cumplen con toda la legislación vigente. Todo, a pesar de que las multas pueden suponer, incluso, el cierre de la empresa, al alcanzar un máximo de 300.000 euros en el caso de las faltas consideradas graves. El Comercio, la Hostelería y el Transporte sufrieron un 66% más de reclamaciones por incumplir la protección de datos Atendiendo a los datos de la Memoria Anual de la Agencia Española de Protección de Datos (AEPD), los negocios del Comercio, la Hostelería y el Transporte fueron los que más reclamaciones por incumplir la normativa sufrieron el año pasado. En concreto, éstas crecieron un 66% en 2023, hasta las 1.504. Sin embargo, no todas terminaron en sanción. El número de multas a los negocios de estos sectores creció un 24% el año pasado. Sobre todo, en el uso de datos personales -en el caso del sector del Transporte o la Hostelería-, pero también sobre las cámaras de videovigilancia instaladas en los locales comerciales, un apartado donde, por sí mismo, las reclamaciones se incrementaron un 29% en 2023. Podría interesarle: Neuroderechos, el nuevo horizonte en la protección de datos personales Asimismo, las reclamaciones a la AEPD contra los negocios por incumplir la protección de datos crecieron de manera importante, durante el año pasado, en el ámbito de la publicidad. En concreto, estas protestas formales se multiplicaron por dos el año pasado, superando las 4.200 por las 2.000 del año anterior. Además, la Memoria Anual de la AEPD mostró cómo los negocios que ofrecen servicios en Internet cada vez son más susceptibles de sufrir una reclamación por incumplir la protección de datos con sus clientes. En 2023 éstas superaron las 2.800, un 30% más que durante 2022. Las reclamaciones y las multas de la AEPD a los negocios llevan tres años creciendo “de forma explosiva” Los datos de la Memoria Anual 2023 de la AEPD mostraron cómo, en el último trienio -entre 2021 y 2023-, se ha producido una “nueva fase de crecimiento explosivo de las reclamaciones, finalizando el año con un volumen que será cercano a las 22.000 reclamaciones, por tanto, más del doble que solo tres años antes”, destacaron desde la Agencia Española de Protección de Datos. Según explicaron, durante estos años “las reclamaciones más frecuentas pasan a ser las relacionadas con los servicios de Internet, seguidas de las de videovigilancia y de las relacionadas con la publicidad. Entre estos tres ámbitos se acumulan el 40% de las reclamaciones recibidas en la Agencia.” En materia laboral, la AEPD destacó uno de los aspectos sobre los que los jueces se han pronunciado en los últimos meses: el registro de la jornada mediante huella dactilar o utilizando otros datos biométricos. En este sentido, “las reclamaciones por el tratamiento de datos biométricos no son aún muy numerosas en datos absolutos, pero también están en claro crecimiento, habiéndose triplicado en estos dos años.” ¿Por qué puede sancionar la AEPD a los negocios en materia de protección de datos? La Agencia Española de Protección de Datos (AEPD) es el organismo encargado de realizar las inspecciones en materia de cumplimiento de esta materia, así como de imponer las sanciones a los negocios. Estas multas pueden alcanzar los 40.000 euros en el caso de las infracciones más leves, y hasta los 300.000 en el caso de las graves, por lo que es conveniente que los autónomos revisen el cumplimiento de sus obligaciones en esta materia. Pero, ¿cuáles son exactamente estas obligaciones? La legislación recoge diferentes aspectos a tener en cuenta, dependiendo del tamaño o el sector de la empresa. Sin embargo, todos los autónomos y negocios deben tratar los siguientes asuntos, como destacaron a este diario en otra ocasión: Por ejemplo, serían objeto de sanción el incumplimiento del deber de confidencialidad o infringir las disposiciones sobre los principios relativos al tratamiento, impedir u obstaculizar el ejercicio de derechos, incumplir un requerimiento de la AEPD, no adoptar medidas técnicas y organizativas apropiadas para el tratamiento de datos, no notificar a la AEPD sobre una brecha de seguridad o no disponer de un Registro de Actividades del Tratamiento completo. FUENTE: Adelantado, Diego S. »Aumentan un 35% las denuncias a los negocios por incumplir la protección de datos con sus empleados» Autonomosyemprendedor.es. 24/04/2024. (https://www.autonomosyemprendedor.es/articulo/actualidad/consumidores-espanoles-son-cada-vez-menos-fieles-grandes-marcas/20240430110859036089.html).