El futuro de la ciberseguridad en Europa: cómo la nueva ley de la UE protegerá a usuarios y empresas

La Ley de Ciberresiliencia de la Unión Europea marcará un antes y un después en la seguridad digital y las firmas Letslaw, RSM y 4Geeks exploran cómo la nueva normativa elevará la seguridad de las organizaciones, así como los derechos y obligaciones que plantea. La Ley de Ciberresiliencia de la Unión Europea (Cyber Resilience Act, CRA), prevista para su entrada en vigor este año, establecerá un marco regulatorio esencial para mejorar la seguridad cibernética de los productos con elementos digitales y abordar los riesgos actuales del mercado. Este reglamento pionero establece directrices de ciberseguridad para productos con elementos digitales, afectando tanto a hardware como a software, y promete transformar el mercado europeo en un entorno más seguro para usuarios y empresas. Según la firma de abogados Letslaw, los consumidores y usuarios profesionales son los más afectados por la falta de ciberseguridad en muchos productos conectados. “En un mundo cada vez más interconectado, es importante tener una regulación que garantice la protección de los usuarios ante los productos con acceso a internet, ya que cuantos más puntos de acceso existen, más puntos de entrada tienen los ciberdelincuentes”, afirma Alberto Malo, Manager en el Departamento de Nuevas Tecnologías de Letslaw. Responsabilidades y oportunidades para los fabricantes La Ley de Ciberresiliencia ha centrado su atención en varios riesgos presentes en el mercado actual. El bajo nivel de ciberseguridad de muchos productos inalámbricos y por cable conectados a internet, así como de los programas informáticos introducidos en el mercado de la UE, es una preocupación constante. Otro principal riesgo es la falta de actualizaciones por parte de los fabricantes para solucionar las vulnerabilidades detectadas, lo que agrava la situación. Lea también: La importancia de la protección de datos personales en el sistema empresarial de México Además, de acuerdo con Alberto Malo, “las empresas y los consumidores no suelen disponer de la información precisa y necesaria que permita conocer si un producto es seguro en el ámbito de la ciberseguridad. Es más, suelen desconocer qué elementos buscar para asegurarse de que los productos que compran se instalan de manera segura. Los fabricantes se encuentran ante una oportunidad de oro para poder posicionar sus productos como líderes de seguridad en el mercado”. Formación y ciberseguridad, prioritarios Los sistemas informáticos, administrados por el capital humano de las organizaciones, deben precisar de una formación apropiada para los desafíos que plantea la nueva Ley de Ciberresiliencia, así como concienciarse en tener una estructura robusta ante las ciberamenazas. 4Geeks Academy, una escuela de programación, enfocada en el desarrollo de software y habilidades tecnológicas, ha desarrollado un programa de ciberseguridad ante la importancia de la seguridad en el espacio cibernético y las consecuencias de un ciberataque o fuga de información. “La ley fomenta una cultura de ciberseguridad continua, transformando nuestro entorno digital en un espacio seguro y preparado para el futuro”, apunta Daniela Maissi, investigadora en materia de ciberseguridad y creadora de programas formativos en 4Geeks Academy. “Tenemos una política de protección de datos y uso de dispositivos muy rigurosa para disminuir las probabilidades de sufrir algún ciberataque y de la misma forma contamos con un plan de acción y protocolo de actuación por si llegara a ocurrir disminuyendo el impacto del mismo”, explica. Un futuro más seguro Desde Letslaw apuntan que la nueva ley establecerá un período de soporte que coincida con la duración prevista de uso del producto, “asegurarse de que se proporcionen actualizaciones de seguridad durante este período siendo de al menos cinco años, a excepción de los productos cuyo uso previsto sea más corto”. La implementación de la Ley de Ciberresiliencia promete un mercado más seguro y transparente. Los usuarios podrán adquirir productos con la tranquilidad de que se han tomado medidas para proteger su información personal. Así, el marco legal de la Ley de Ciberresiliencia no solo eleva los estándares de seguridad para productos digitales, sino que también asegura una mayor transparencia y protección para los usuarios finales, estableciendo así un entorno digital más seguro y fiable, como expone Gallardo. “Eso representa un avance significativo en la regulación de la ciberseguridad en Europa, imponiendo estrictas obligaciones a las empresas y otorgando derechos cruciales a los usuarios. Esta legislación horizontal es fundamental para enfrentar los desafíos de seguridad en un mundo cada vez más digitalizado”, asegura. FUENTE: M.H. »El futuro de la ciberseguridad en Europa: cómo la nueva ley de la UE protegerá a usuarios y empresas» Europasur.es. 06/07/2024. (https://www.europasur.es/tecnologia/futuro-ciberseguridad-europa-nueva-ley_0_2001385647.html).
La UE contra Meta: ¡Sus sucripciones pagas no bastan para anuncios!

El EDPB, el Comité Europeo de Protección de Datos, ha solicitado al garante de privacidad irlandés que imponga a Meta una prohibición del uso de datos personales para alimentar la llamada publicidad basada en comportamientos, es decir, la exhibición de anuncios dirigidos basados en los hábitos de navegación del usuario. La solicitud se envió a Irlanda porque Meta tiene su sede legal europea en Dublín, y se solicita que la disposición se ponga en marcha en un plazo de dos semanas. Ya en septiembre, la autoridad noruega para la protección de datos, Datatilsynet, había enviado una solicitud al EDPB para extender la prohibición ya vigente en Noruega a todo el Espacio Económico Europeo (EEE). De esta forma, Meta no podría usar los datos personales para mensajes dirigidos en Facebook e Instagram, lo que crearía un enorme obstáculo en los planes de redes sociales de la empresa. Ya en diciembre de 2022, el EDPB aclaró que el contrato de Meta con el usuario final no constituye una base jurídica adecuada para el tipo de procesamiento de datos personales realizado por Meta para la publicidad basada en comportamientos. Una posición diametralmente opuesta a la de la empresa de Mark Zuckerberg, quien sostiene que el contrato de Términos y Condiciones, que los usuarios de sus servicios aceptan, representa una base jurídica válida para manejar los datos personales y proporcionar anuncios publicitarios dirigidos basados en comportamientos. Sin embargo, según algunos tribunales europeos que se han pronunciado sobre el asunto, bajo el Reglamento General Europeo de Protección de Datos de 2018, los usuarios deben dar un consentimiento específico antes de que se les muestren anuncios personalizados. Podría interesarle: La protección de datos, un elemento clave para las elecciones europeas Nos encontramos en medio de un largo pulso entre la Unión Europea y Meta, que parecía haber llegado a una conclusión con el anuncio de la semana pasada sobre las suscripciones de pago para Facebook e Instagram, cuya entrada en vigor está prevista para noviembre. Meta ha introducido esta medida, de hecho, porque cree que una reciente sentencia del Tribunal de Justicia de la Unión Europea (TJUE) ha reconocido expresamente que un modelo de suscripción representa una forma válida de consentimiento para un servicio financiado por la publicidad. En una declaración a The Register, un portavoz de Meta parece sorprendido por la prohibición de recopilación de datos del EDPB. El gigante de la publicidad cree que, si pide consentimiento a los usuarios, se le permitirá continuar procesando la información personal para los anuncios dirigidos. Meta, además, sigue afirmando que cree firmemente en una internet libre y respaldada por la publicidad. FUENTE: Portillo, Lucas. »¡ESCÁNDALO! LA UE CONTRA META: ¡SUS SUSCRIPCIONES PAGAS NO BASTAN PARA ANUNCIOS!» Tecnologizados.com. 27/05/2024. (https://www.tecnologizados.com/escandalo-la-ue-contra-meta-sus-suscripciones-pagas-no-bastan-para-anuncios/).
La protección de datos, un elemento clave para las elecciones europeas

El domingo 9 de junio se celebrarán en España las Elecciones al Parlamento Europeo 2024, unos comicios electorales en los que la seguridad informática y la protección de los datos personales serán claves para problemas tanto en las propias votaciones como en el desarrollo de la campaña electoral, que comenzó hace unos días. El 6 de mayo se activó la red de coordinación de seguridad nacional para garantizar la seguridad en este proceso electoral. Esta red sigue las recomendaciones de la Unión Europea para salvaguardar el derecho al voto de la ciudadanía en medio de un contexto internacional sujeto en la actualidad a nuevas amenazas sobre las comunicaciones y sistemas informáticos, además de procesos de desinformación. En el ámbito de la seguridad física de los comicios, en el que se incluye el despliegue de efectivos de Policía Nacional, Guardia Civil, policías autonómicas y locales, la red se ocupará también de la protección frente a las ciberamenazas. Lea también: La AEPD lanza una nueva versión de su herramienta Gestiona RGPD Los centros de respuesta ante emergencias informáticas (CERT) y el Instituto Nacional de Ciberseguridad (INCIBE) están velando las 24 horas por la seguridad digital de las principales entidades y empresas con papeles activos en estos comicios, como los partidos políticos, las empresas de soporte a los procesos electorales o los operadores de servicios críticos, esenciales y de interés público. Para cumplir con los objetivos de este cometido, las instituciones públicas de seguridad online realizan vigilancias digitales sobre datos en fuentes abiertas y de terceros, así como datos que provengan de fuentes de inteligencia de acceso público o privado, y vigilancia digital en fuentes opacas, como en la Deep Web (redes anónimas) o la Dark Web (contenido web no indexado), que no son accesibles mediante métodos tradicionales. FUENTE: La Región. »La protección de datos, un elemento clave para las elecciones europeas» Laregion.es. 26/05/2024. (https://www.laregion.es/articulo/sociedad/proteccion-datos-elemento-clave-elecciones-europeas/202405262005051298003.html).
«Escalofriante»: Científicos de todo el mundo denuncian que la Unión Europea amenaza con impulsar la «vigilancia masiva» en Internet

La privacidad en la Unión Europea (UE) podría tener los días contados. Así lo denuncian un total de 254 científicos e investigadores de 33 países, que advierten en una carta abierta publicada este jueves de que la nueva ley contra el abuso sexual infantil negociada en secreto por los Estados miembros amenaza con impulsar la «vigilancia masiva» de los ciudadanos en Internet. De aprobarse, advierten, tendrá «consecuencias catastróficas» que pueden afectar negativamente «a las democracias de todo el planeta». A mediados de 2022, la Comisión Europea propuso que la mejor forma de combatir la circulación de material pederasta en la red era obligar a las grandes plataformas, desde TikTok a WhatsApp, a escanear la comunicaciones encriptadas de sus usuarios en busca de imágenes o vídeos delictivos contra menores. «Sería como colocar una cámara dentro de tu casa, un espía que no sabes qué está buscando, y decirte que no te preocupes, que no se usará mal», lamenta Carmela Troncoso, una de las impulsoras de la carta, en declaraciones a EL PERIÓDICO. Tras meses de polémica, a finales de octubre el Parlamento Europeo votó en contra del escaneo de las telecomunicaciones de los ciudadanos, un importante revés a las intenciones de Bruselas. Sin embargo, los países siguieron negociando y, el pasado 13 de marzo, la presidencia belga del Consejo de la UE introdujo una nueva propuesta de ley pretendidamente más específica y segura con los datos cifrados. Para los expertos, esos cambios son «cosméticos», una «decepción» que «no cambia nada». Vigilancia masiva La carta publicada hoy alerta de que el nuevo plan de Bruselas creará «capacidades sin precedentes para la vigilancia y el control de los usuarios de Internet» y «socavará por completo la seguridad de las comunicaciones y los sistemas», poniendo en peligro los procesos democráticos dentro y fuera de Europa. Los expertos lamentan que la ley confía la detección de material pederasta a una tecnología «defectuosa«, «fácil de eludir» y «de bajo rendimiento». Advierten que, de usarse, se traducirá en «miles de millones de falsas alarmas», como que el sistema categorice como abuso sexual las fotos que unos padres puedan mandar (entre ellos, a familiares, al médico…) de sus hijos en la playa o en el baño. «Mucha gente inocente puede ser acusada», asegura Troncoso, profesora en la Escuela Politécnica Federal de Lausana. ¿Adiós a la privacidad? El año pasado, más de 500 académicos denunciaron que el método de escaneo planteado por la UE abriría un agujero en los sistemas de cifrado de extremo a extremo, el único método que garantiza esa privacidad de las comunicaciones. Incluso el Comité Europeo de Protección de Datos también pidió retirar la propuesta. Lea también: El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial La oleada de críticas obligó a los países a cambiar la ley, pero esta sigue contemplando el escaneo de todas las comunicaciones. «Sienta un precedente para el filtrado de Internet, e impide a la gente utilizar algunas de las pocas herramientas disponibles para proteger su derecho a una vida privada en el espacio digital», apunta la carta. «Tendrá un efecto escalofriante, en particular para los adolescentes que dependen en gran medida de los servicios en línea para sus interacciones (…) Todos los usuarios están en peligro». Además, el nuevo texto reza —al mismo tiempo— que permitirá el rastreo de los mismos datos cifrados que busca «proteger«, promesa que los expertos denuncian como un contrasentido. «Es como decirte que un sobre protege mucho una carta, pero que alguien va a leerla antes. Entonces, ¿para qué quiero el sobre?», compara Troncoso, reputada experta en privacidad. Lamentable Los más de 230 científicos e investigadores consideran «esencial» que tanto los gobiernos como los proveedores de servicios digitales «asuman una gran responsabilidad» para combatir los «delitos graves» que son el abuso y la explotación sexual infantil. Sin embargo, abogan no por una solución tecnocéntrica, sino por aumentar la inversión en medidas ya probadas como la educación sexual y sobre el consentimiento, las líneas directas de denuncia o la alfabetización digital. La carta concluye que los cambios propuestos no agilizarán la detección de contenido pederasta ni pondrán trabas a los agresores y, en cambio, generan nuevos problemas como la falta de transparencia algorítmica. Es por eso que solicitan que la ley «no salga adelante». Además, consideran «bastante lamentable» que los políticos europeos no hayan consultado a expertos en privacidad y ciberseguridad antes de presentar una propuesta «que no puede funcionar tecnológicamente». FUENTE: Planas Bou, Carles. »»Escalofriante»: Científicos de todo el mundo denuncian que la Unión Europea amenaza con impulsar la «vigilancia masiva» en Internet» Elperiodico.com. 02/05/2024. (https://www.elperiodico.com/es/internacional/20240502/cientificos-denuncian-union-europea-privacidad-vigilancia-abuso-sexual-infantil-gdpr-datos-101799229).
El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial

El Consejo de Europa ha adoptado el primer tratado internacional jurídicamente vinculante destinado a garantizar el respeto de los derechos humanos, del Estado de derecho y las normas jurídicas democráticas en el uso de los sistemas de inteligencia artificial (IA). El tratado, que también está abierto a países no europeos, establece un marco jurídico que abarca todo el ciclo de vida de los sistemas de IA y que se ocupa de los riesgos que pueden plantear, a la vez que promueve la innovación responsable. El convenio adopta un enfoque basado en el riesgo para diseñar, desarrollar, usar y decomisar sistemas de IA, que exige considerar cuidadosamente cualquier posible consecuencia negativa del uso de sistemas de IA. El Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho, ha sido adoptado en Estrasburgo durante la reunión ministerial anual del Comité de Ministros del Consejo de Europa, que reúne a los ministros de Asuntos Exteriores de los 46 Estados miembros del Consejo de Europa. Podría interesarle: Dictamen del Comité Europeo de Protección de Datos sobre la validez del consentimiento en los modelos de pago para las grandes plataformas en línea El convenio es el resultado de dos años de trabajo de un órgano intergubernamental, el Comité sobre Inteligencia Artificial (CAI por sus siglas en inglés), que reunió para redactar el tratado a los 46 Estados miembros del Consejo de Europa, la Unión Europea y 11 Estados no miembros (Argentina, Australia, Canadá, Costa Rica, Estados Unidos, Israel, Japón, México, Perú, la Santa Sede y Uruguay), así como a representantes del sector privado, la sociedad civil y el mundo académico, que participaron como observadores. El tratado cubre el uso de sistemas de Inteligencia Artificial en el sector público -incluidas las compañías que actúan en su nombre- y en el sector privado. El convenio ofrece a las partes dos formas de cumplir sus principios y obligaciones a la hora de regular el sector privado: las partes pueden optar por quedar obligadas directamente por las disposiciones pertinentes del convenio o, como alternativa, adoptar otras medidas para cumplir con las disposiciones del tratado a la vez que se respetan plenamente sus obligaciones en materia de derechos humanos, democracia y Estado de derecho. Este enfoque es necesario dadas las diferencias entre los sistemas jurídicos de todo el mundo. Las demandas con el nuevo convenio sobre IA El convenio establece requisitos de transparencia y supervisión adaptados a contextos y riesgos específicos, incluida la identificación de contenidos generados por sistemas de IA. Las partes tendrán que adoptar medidas para identificar, evaluar, prevenir y mitigar posibles riesgos y evaluar la necesidad de una moratoria, una prohibición u otras medidas apropiadas en relación con el uso de sistemas de IA, cuando sus riesgos puedan ser incompatibles con las normas de los derechos humanos. También tendrán que garantizar la rendición de cuentas y la responsabilidad por el impacto negativo, y que los sistemas de IA respeten la igualdad, incluida la igualdad de género, la prohibición de la discriminación y el derecho a la intimidad. Además, las partes del tratado tendrán que garantizar la disponibilidad de recursos legales para las víctimas de violaciones de los derechos humanos relacionadas con el uso de sistemas de IA y de garantías procesales, incluida la notificación a todas las personas que interactúen con sistemas de IA de que están interactuando con estos sistemas. En cuanto a los riesgos para la democracia, el tratado requiere a las partes que adopten medidas para garantizar que los sistemas de IA no se utilicen para minar las instituciones y procesos democráticos, incluido el principio de separación de poderes, el respeto de la independencia judicial y el acceso a la justicia. Lea también: Las autoridades de control de protección de datos publican unas orientaciones para tratamientos que incorporen tecnologías de seguimiento Wi-Fi Las partes del convenio no estarán obligadas a aplicar las disposiciones del tratado a las actividades relacionadas con la protección de los intereses de la seguridad nacional, pero sí a garantizar que estas actividades respetan el derecho internacional y las instituciones y procesos democráticos. El convenio no se aplicará a asuntos de defensa nacional ni actividades de investigación y desarrollo, excepto cuando las pruebas de los sistemas de IA puedan interferir potencialmente con los derechos humanos, la democracia o el Estado de derecho. Para garantizar su aplicación efectiva, el convenio establece un mecanismo de seguimiento en forma de Conferencia de las Partes. Por último, el convenio exige que cada parte establezca un mecanismo de supervisión independiente para vigilar que se cumple con el convenio, que se sensibilice y estimule un debate público informado, y que se lleven a cabo consultas con múltiples partes interesadas sobre cómo debería ser utilizada la tecnología de la IA. El convenio marco se abrirá a la firma en Vilna (Lituania) el 5 de septiembre, coincidiendo con una conferencia de ministros de Justicia. FUENTE: Comité de Ministros. »El Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial» Coe.int. 17/05/2024. (https://www.coe.int/es/web/portal/-/council-of-europe-adopts-first-international-treaty-on-artificial-intelligence).
Una asociación demanda a OpenAI por infringir la ley de protección de datos de la Unión Europea

La organización de derechos digitales Noyb afirma que ChatGPT de OpenAI viola el Reglamento General de Protección de Datos de la UE porque genera información falsa sobre las personas. ChatGPT de OpenAI sigue generando información falsa sobre las personas, según reclama la organización de derechos digitales Noyb, lo que infringe las disposiciones del Reglamento General de Protección de Datos (RGPD) de la Unión Europea. Por ello, Noyb, con sede en Austria, interpuso una denuncia contra OpenAI ante la Autoridad Austriaca de Protección de Datos (DSB, por sus siglas en alemán), pidiéndole que tome medidas contra la empresa estadounidense para que cumpla la normativa europea. Información personal inventada, cortesía de ChatGPT De acuerdo con el RGPD, toda la información sobre las personas que se difunda en internet tiene que ser exacta y precisa, y debe garantizar a los usuarios el pleno acceso a ella, así como a las fuentes de las que procede. A pesar de ello, según Noyb, OpenAI reconoció abiertamente que no es capaz ni de corregir los datos incorrectos proporcionados por ChatGPT, los llamados “delirios”, ni de determinar de dónde vienen. Es más, ni siquiera sabría qué información personal almacenó su chatbot de inteligencia artificial (IA). Como se informa en el sitio web de Noyb, OpenAI se limita a declarar que “la precisión de los hechos en los grandes modelos de lenguaje”, como los chatbots de IA, “sigue siendo un área de investigación activa”. En otras palabras, con esta frase, OpenAI explica que aún no tiene control sobre lo que ChatGPT expresa. Pero facilitar datos erróneos, engañosos o incluso completamente inventados resulta bastante perjudicial, sobre todo si estos conciernen a las personas. Una encuesta de The New York Times revela que los chatbots inventan información entre el 3 y el 27% de las veces. “Inventar información falsa ya es problemático de por sí. Pero cuando se trata de datos falsos sobre las personas, las consecuencias son graves. Está claro que actualmente las compañías no son capaces de hacer que los chatbots como ChatGPT cumplan la legislación de la UE cuando se trata de información sobre individuos. Si un sistema no brinda resultados precisos y transparentes, no debe emplearse para generar información acerca de la gente. La tecnología tiene que seguir los requisitos de la ley, y no al revés”, manifestó Maarje de Graaf, abogada especializada en protección de datos de Noyb. Lea también: La Unión Europea amenazó a TikTok por poner en riesgo la protección al consumidor e infringir el mercado único digital La organización de derechos digitales sostiene que “si bien la información inexacta llega a ser tolerable cuando un estudiante usa ChatGPT para que le ayude con sus deberes, es inaceptable cuando se trata de información sobre individuos”. Y hace hincapié en que la legislación de la Unión Europea (UE) exige que los datos personales sean exactos, lo que contempla el artículo 5 del RGPD, así como que las personas de la región tienen derecho a la rectificación en virtud del artículo 16 del mismo reglamento si la información es incorrecta y pueden solicitar que se elimine cuando sea falsa. También entre las quejas que reclama Noyb, destaca la incapacidad de OpenAI para detener los “delirios” de su famoso chatbot: “Aunque la empresa dispone de numerosos datos de entrenamiento, no hay forma de garantizar que ChatGPT muestre a los usuarios información correcta. Por el contrario, se sabe que las herramientas de IA generativa suelen “delirar”, es decir, se inventan las respuestas”. Por ello, Noyb pidió a la DSB que tomara acciones contra OpenAI, abriendo una investigación que conduzca a la imposición de medidas correctivas, sanciones y una decisión final sobre los “delirios” de ChatGPT. La organización también dirigió su denuncia contra una de las ramificaciones con fines comerciales de OpenAI, la OpenAI OpCo ubicada en Estados Unidos, alegando que la sede europea de la misma, en Irlanda, es únicamente una fachada y que las decisiones se toman solo en la oficina estadounidense. FUENTE: Carboni, Kevin. »Una asociación demanda a OpenAI por infringir la ley de protección de datos de la Unión Europea» Es.wired.com. 30/04/2024. (https://es.wired.com/articulos/asociacion-demanda-a-openai-por-infringir-ley-de-proteccion-de-datos-de-union-europea).
Dictamen del Comité Europeo de Protección de Datos sobre la validez del consentimiento en los modelos de pago para las grandes plataformas en línea

El 17 de abril de 2024 el Comité Europeo de Protección de Datos (CEPD/EDPB) publicó el Dictamen 08/2024 sobre la validez del consentimiento en el contexto de los modelos de consentimiento o pago (Consent or Pay) para las grandes plataformas en línea. El Dictamen ha sido adoptado dada una solicitud realizada por algunas autoridades de protección de datos de la UE (Neerlandesa, Noruega y Alemana – Hamburgo) al Comité Europeo de protección de Datos (CEPD/EDPB) y analiza la licitud de aquellos modelos que ofrecen la posibilidad de elección al usuario entre un modelo de pago o uno gratuito con aceptación del uso de datos personales para finalidades publicitarias. En concreto, el EDPB analiza aquellos modelos que activan las grandes plataformas en línea, en su modalidad gratuita, finalidades del tratamiento de datos personales para llevar a cabo publicidad basada en el comportamiento de los usuarios (publicidad personalizada). El EDPB trabajará en un futuro segundo posicionamiento aplicable a todos los modelos de consentimiento o pago y no solo a los implementados por las grandes plataformas en línea. Puntos clave del dictamen del Comité Europeo de Protección de Datos Podría interesarle: La Unión Europea amenazó a TikTok por poner en riesgo la protección al consumidor e infringir el mercado único digital FUENTE: »DICTAMEN DEL COMITÉ EUROPEO DE PROTECCIÓN DE DATOS SOBRE LA VALIDEZ DEL CONSENTIMIENTO EN EL CONTEXTO DE LOS MODELOS DE CONSENTIMIENTO O PAGO PARA LAS GRANDES PLATAFORMAS EN LÍNEA» Iabspain.es. 17/04/2024. (https://iabspain.es/dictamen-del-comite-europeo-de-proteccion-de-datos-sobre-la-validez-del-consentimiento-en-el-contexto-de-los-modelos-de-consentimiento-o-pago-para-las-grandes-plataformas-en-linea/).
La Unión Europea amenazó a TikTok por poner en riesgo la protección al consumidor e infringir el mercado único digital

La Unión Europea (UE) amenazó a TikTok tras implementar una nueva función paga que, obliga a sus consumidores a volcar una serie de datos personales, y pone en riesgo los estándares de protección de quienes la utilizan. Por lo que, ha expresado su compromiso de “mantener un entorno digital seguro y justo, en el que se fomente una competencia leal”. La famosa aplicación de videos cortos anunció que permitirá a sus usuarios el acceso a contenido exclusivo, siempre y cuando, cuenten con suscripción. Por su parte, la Comisión de la UE aboga por garantizar un entorno digital seguro y transparente. Podría interesarle: Europa va contra Mark Zuckerberg por vulnerar la privacidad de los usuarios La institución también conocida como Ejecutivo comunitario ha sido clara en su mensaje de que “cualquier servicio digital que opere dentro de sus fronteras debe adherirse a las leyes de protección al consumidor” y refleja la preocupación de los crecientes efectos nocivos de las redes sociales y las aplicaciones móviles en la sociedad y la dinámica económica. Se espera la respuesta de TikTok ante la advertencia de la Unión Europea La Comisión de la Unión Europea se encuentra a la espera de la respuesta por parte de la empresa de origen chino, ByteDance, creadora de TikTok tras la fuerte advertencia que podría desencadenar en el fin de su funcionamiento en los territorios del ‘viejo continente’. La cruzada que comenzó la UE contra el sitio de creación de contenido, se suma al proyecto de ley de los Estados Unidos que buscará su prohibición en territorio norteamericano a través del Congreso. En tanto que, la Unión Americana de Libertades Civiles se opone a la potencial normativa de la Cámara de Representantes estadounidense y alegó “motivos de libertad de expresión”. FUENTE: »La Unión Europea amenazó a TikTok por poner en riesgo la protección al consumidor e infringir el mercado único digital» Perfil.com. 25/05/2024. (https://www.perfil.com/noticias/internacional/a31la-union-europea-amenazo-a-tiktok-por-poner-en-riesgo-la-proteccion-al-consumidor-e-infrigir-el-mercado-unico-digitla.phtml).
Europa va contra Mark Zuckerberg por vulnerar la privacidad de los usuarios

La Unión Europea le pone los puntos a Meta, la compañía de Mark Zuckerberg: pagar por utilizar Facebook e Instagram sin anuncios es una práctica que no será tolerada. El Comité Europeo de Protección de Datos de la Unión Europea ha plantado cara a Meta y su proposición respecto a las cookies. La propuesta que ofreció la empresa estadounidense basada en un modelo de «consentimiento o pago» no será aceptada en la UE, Meta deberá ofrecer una opción real a los usuarios para el tratamiento de sus datos. Tecnología Este modelo que ha presentado Meta no ofrece una opción real a los usuarios. En lugar de una opción genuina, los usuarios que utilizan los servicios de la empresa se ven obligados a ceder sus datos personales o pagar una tarifa para que esta información no sea empleada por la empresa. Pagar o aceptar las cookies: un modelo que no funciona y que la Unión Europea no consentiráLos cambios que llegan con la Ley de Protección de Datos aprobada por la Unión Europea en 2023 obligaron a Meta a lanzar una versión de pago para sus servicios. Instagram y Facebook ofrecen una suscripción que permite eliminar por completo la publicidad y, además, evitar que Meta utilice la información que recopila de tu actividad en ambas redes sociales. El precio de la cuota es de 9,99 euros si se paga mediante la versión web de ambas redes sociales o de 12,99 en caso de hacerlo en Android o iOS para así amortizar la comisión que cobra tanto Google como Apple a Meta por utilizar la pasarela de pago de sus respectivas plataformas. Eso sí, existen rumores que hablan acerca de una reducción de esta cuota. Podría interesarle: La Unión Europea prohíbe a Meta el uso de datos personales para publicidad Al lanzar un sistema de suscripción como respuesta a las nuevas medidas aprobadas por la Unión Europea lo que se ha creado es una situación completamente descompensada y en la que los usuarios siempre salen perdiendo. Aquellas personas que no quieran pagar verán cómo su información es utilizada con fines publicitarios, mientras que los que paguen estarán engrosando los ingresos de una empresa multimillonaria. Ante esta situación, el último Pleno del Comité Europeo de Protección de Datos dictaminó que Meta ha de ofrecer una tercera vía que no vulnere la privacidad de los usuarios y, por supuesto, no esté bajo un sistema de pago. La situación pone a Meta contra las cuerdas, obligando a la empresa a ceder si es que quiere seguir operando en el Espacio Económico Europeo. “Los controladores deben tener cuidado en todo momento para evitar transformar el derecho fundamental a la protección de datos en una característica que las personas tienen que pagar para disfrutar. Los individuos deben ser plenamente conscientes del valor y las consecuencias de sus elecciones”. Esas fueron las declaraciones de Anu Talus, presidente del Comité Europeo de Protección de Datos. Este organismo deberá hacer frente a Meta, haciendo que cumplan con la normativa europea si quieren operar dentro de este espacio y, es que, otro de los problemas a los que se enfrenta el organismo es hacer que su normativa vigente sea respetada por las multinacionales. FUENTE: Tecnología. »Europa va contra Mark Zuckerberg por vulnerar la privacidad de los usuarios» Eltribuno.com. 19/04/2024. (https://www.eltribuno.com/salta/tecnologia/2024-4-19-17-46-0-europa-va-contra-mark-zuckerberg-por-vulnerar-la-privacidad-de-los-usuarios).