AT&T investiga la publicación de datos de millones de clientes en la internet profunda

La empresa AT&T informó este sábado que investiga un incidente en que información de millones de clientes, como su dirección y seguro social, fueron publicados hace dos semanas en la «internet profunda» (Darkweb), a la que se accede en la mayoría de los casos a través de aplicaciones y navegadores específicos. La compañía indicó en un comunicado de prensa que aunque tomó esa acción, «aún no se sabe si los datos en esos campos se originaron en AT&T o en uno de sus proveedores» e incluye también a exclientes. La investigación la realizan expertos en ciberseguridad internos y externos para determinar cómo los datos de aproximadamente 7,6 millones de clientes y de unos 65,4 millones de antiguos titulares de cuentas fueron a parar a dicho lugar. Podría interesarle: Ciberseguridad: Los riesgos digitales que representa el uso de las Apple Vision Pro El análisis preliminar que ha hecho la compañía apuntan a que estos datos son de 2019 o antes, agrega el comunicado. «AT&T no tiene evidencia de acceso no autorizado a sus sistemas que resulte en la filtración de los datos», afirmó la empresa. La compañía indicó además que se está comunicando con los afectados y los exhortó a que visiten www.att.com/accountsafety para obtener más información. El pasado febrero, AT&T se disculpó con miles de usuarios afectados con una interrupción del servicio causado por problemas técnicos que afectó a mies de personas en Atlanta, los Ángeles y Nueva York, y que ocurrió por un problema técnico mientras la compañía intentaba expandir su red. FUENTE: Newsroom Infobae. »AT&T investiga la publicación de datos de millones de clientes en la internet profunda» Infobae.com. 30/04/2024. (https://www.infobae.com/america/agencias/2024/03/30/att-investiga-la-publicacion-de-datos-de-millones-de-clientes-en-la-internet-profunda/).
Chile contará con la primera agencia nacional de ciberseguridad de Latinoamérica

Chile cuenta desde este martes con su primera ley de ciberseguridad, que crea una agencia nacional pionera en Latinoamérica y que permitirá poner multas de más de 2,6 millones de dólares. “Vamos a poder prevenir y enfrentar mejor casos muy concretos como la suplantación de identidad, el envío de virus, cortes de servicios, sabotajes y el spam”, dijo el presidente Gabriel Boric durante la promulgación dela llamada Ley Marco de Ciberseguridad. Lea también: Italia busca reforzar su ciberseguridad con mayores controles y sanciones Gracias a la norma, agregó el mandatario, “Chile se convierte en el primer país de América Latina y el Caribe en tener una Agencia Nacional de Ciberseguridad (ANCI) y un marco regulatorio de vanguardia”. El proyecto de ley fue presentado a finales del segundo mandato del expresidente conservador Sebastián Piñera (2018-2022) y recibió el apoyo transversal en ambas Cámaras. El panorama de Chile y Latam en materia de ciberseguridad “Se ha logrado que proyectos iniciados en una administración se sigan en la otra, se han logrado construir acuerdos a pesar de que haya diferencias (…) Eso habla de una manera de actuar que ojalá contagiara a muchas otras materias”, indicó por su parte la ministra del Interior, Carolina Tohá, que agradeció a varios parlamentarios opositores que contribuyeron a tramitar la ley y acudieron a la promulgación. La ley regula y obliga a aplicar medidas específicas para prevenir incidentes en ciberseguridad distintos a servicios públicos y privados, las telecomunicaciones, los servicios digitales, los servicios de salud y los servicios financieros y de mensajería, entre otros. Según Naciones Unidas, hay un ataque informático en el mundo cada 39 segundos. En Latinoamérica, Brasil, México, Colombia y Perú son los países de la región que sufrieron el mayor número de ataques de malware durante 2023. De acuerdo a los últimos datos de National Cyber Security (NCSI), Chile bajó 10 puestos en el índice de ciberseguridad, del puesto 46 al 56, posicionándose por debajo de Paraguay, Argentina y Perú. FUENTE: »Chile contará con la primera agencia nacional de ciberseguridad de Latinoamérica» Swissinfo.ch. 26/03/2024. (https://www.swissinfo.ch/spa/chile-contar%C3%A1-con-la-primera-agencia-nacional-de-ciberseguridad-de-latinoam%C3%A9rica/74359672).
Un fallo informático global deja sin servicio varios restaurantes de McDonald’s

McDonald’s aseguró que los problemas no estaban relacionados con un ataque de ciberseguridad, sin dar más detalles. Este viernes se han reportado fallos en el sistema de McDonald’s en todo el mundo, lo que provocó el cierre de algunos restaurantes durante varias horas y generó quejas de los clientes en redes sociales, en lo que la cadena de comida rápida llamó un «fallo tecnológico» que se estaba solucionando. McDonald’s Corp., con sede en Chicago en Estados Unidos, dijo que los problemas no estaban relacionados con un ataque de ciberseguridad, sin dar más detalles sobre qué los causó. «Estamos al tanto de un fallo tecnológico que impactó a nuestros restaurantes. El problema ya se está resolviendo», dijo el gigante de hamburguesas en un comunicado. «Agradecemos a los clientes por su paciencia y nos disculpamos por cualquier inconveniente que esto pueda haber causado». Sus operaciones están temporalmente suspendidas Anteriormente, McDonald’s en Japón publicó en X, antes Twitter, que «las operaciones están temporalmente suspendidas en muchos de nuestros restaurantes en todo el país», calificándolo de «un fallo del sistema». El sitio web Downdetector también informó de un aumento de los problemas con la aplicación de McDonald’s en las últimas horas. Lea también: Ciberseguridad, el nuevo centro de preocupación para las empresas latinoamericanas Algunos restaurantes de la cadena volvieron a funcionar con normalidad después del apagón, y la gente pedía y recibía su comida en locales de Bangkok, Milán y Londres. Los medios de comunicación informaron que clientes desde Australia hasta el Reino Unido se habían quejado de problemas con los pedidos. FUENTE: Euronews. »Un fallo informático global deja sin servicio varios restaurantes de McDonald’s» Es.euronews.com. 15/03/2024. (https://es.euronews.com/business/2024/03/15/un-fallo-informatico-global-deja-sin-servicio-varios-restaurantes-de-mcdonalds).
Italia busca reforzar su ciberseguridad con mayores controles y sanciones

El Gobierno de Italia quiere reforzar la seguridad de los sistemas informáticos nacionales, en medio de un sonado caso de supuesto acceso ilícito, y este miércoles presentó un proyecto de ley dirigido a aumentar los controles y sanciones, también en medio del “actual contexto geopolítico”. El texto lleva la firma de la primera ministra, Giorgia Meloni, y de su titular de Justicia, Carlo Nordio, y ha sido presentado ante la comisión de Asuntos Constitucionales de la Cámara de Diputados, que deberá iniciar su tramitación parlamentaria. El objetivo, según se lee, es “conseguir una mayor capacidad de protección y respuesta ante las emergencias cibernéticas” en un “contexto geopolítico” actualmente marcado por “graves conflictos internacionales” que “favorece las amenazas informáticas”. El proyecto, entre otras cosas, obliga a las administraciones públicas a notificar en menos de 24 horas cualquier incidente en sus redes informáticas a la Autoridad Nacional de Ciberseguridad (ACN) y establece sanciones en caso de incumplimiento. Asimismo propone cambios en el Código Penal, sobre todo en el delito de acceso ilícito a sistema informático, que en la actualidad acarrea penas de cárcel de hasta 8 años si se entra en redes militares o estratégicas (como de Sanidad o Protección Civil). La frecuencia de los ciberataques a Italia En este caso, por ejemplo, el castigo previsto aumentará hasta los 12 años, con la introducción de agravantes. La propuesta por parte del Ejecutivo llega entre frecuentes ataques informáticos, como en otros países del mundo, pero también en medio de un polémico caso de supuestas búsquedas y filtraciones de datos sensibles. La Fiscalía italiana actualmente indaga la supuesta búsqueda de datos sensibles de decenas de políticos y personajes famosos del país por parte de un agente de policía, investigado con otras quince personas, como un magistrado y varios periodistas. Podría interesarle: Ciberseguridad industrial: protegiendo los pilares de las infraestructuras críticas En el centro del caso está Pasquale Striano, un agente de la Guardia de Finanza (policía fiscal) que prestaba servicio en la Fiscalía Nacional Antimafia y que durante meses efectuó al menos 800 accesos irregulares al banco de datos de la entidad. Entre sus búsquedas figuran numerosos miembros del actual Gobierno, como el ministro de Defensa, Guido Crosetto -de cuya denuncia partieron las pesquisas-, así como el ex primer ministro Matteo Renzi o la última novia de Silvio Berlusconi, Marta Fascina. En total están siendo investigadas 15 personas, entre los que están el fiscal sustituto de la Dirección Nacional Antimafia, Antonio Laudati, con acceso al ‘Sistema SOS’, receptor de alertas sobre operaciones tributarias sospechosas, y tres periodistas que podrían haber tenido acceso a esos datos confidenciales. Precisamente hoy el Gobierno italiano abordó esta cuestión con el gobernador del Banco de Italia, Fabio Panetta, el fiscal nacional Antimafia, Giovanni Melillo, el jefe de la Policía, Vittorio Pisani, el comandante de la Guardia de Finanza, Andrea De Gennaro, y la cúpula de los servicios de Inteligencia, entre otras autoridades. En el encuentro, según un comunicado del Ejecutivo, se acordaron “procedimientos administrativos para hacer más estricto el sistema de control, con alertas adecuadas y verificaciones periódicas”. FUENTE: »Italia busca reforzar su ciberseguridad con mayores controles y sanciones» Swissinfo.ch. 13/03/2024. (https://www.swissinfo.ch/spa/italia-busca-reforzar-su-ciberseguridad-con-mayores-controles-y-sanciones/73701232).
El Parlamento Europeo aprueba la primera ley de inteligencia artificial del mundo: claves de la regulación

El Parlamento Europeo ha ratificado este miércoles la primera ley de inteligencia artificial (IA) del mundo. La normativa ha recorrido un largo camino desde la propuesta que realizó ya en 2021 la Comisión Europea para crear el primer marco regulador sobre IA. El pasado mes de diciembre, se dio otro paso con un acuerdo político entre el Consejo y el Parlamento Europeo. Los derechos humanos, en el centro de la IA El planteamiento de la ley se basa en impulsar la excelencia y la innovación tecnológica mientras asegura la protección de los derechos humanos. La Unión Europea reconoce el potencial de la inteligencia artificial para el desarrollo de las sociedades, pero defiende la necesidad de regularla para mitigar sus riesgos. Al tratarse de la primera propuesta legislativa sobre IA del mundo, aspira a convertirse en referente internacional. Su objetivo es vigilar y evitar los riesgos “para la salud, la seguridad y los derechos fundamentales”. Para ello, establece unos criterios específicos que permitan determinar cuándo un programa debe categorizarse como IA. Cuatro niveles de riesgos La Comisión plantea un enfoque basado en el riesgo. Determina cuatro niveles de riesgo para etiquetar los sistemas de inteligencia artificial: riesgo mínimo, riesgo limitado, alto riesgo y riesgo inadmisible. Los softwares de IA considerados de riesgo mínimo no tendrán obligaciones jurídicas adicionales. A esta categoría pertenecen la mayoría de sistemas de IA que se utilizan en la actualidad. La ley anima a sus proveedores a autorregularse de forma voluntaria. El “riesgo limitado” se refiere a obligaciones específicas en materia de transparencia. Algunos sistemas deberán vigilar especialmente esta cuestión, como es el caso de los chatbots, debido al riesgo de manipulación. Podría interesarle: ¿Qué es el Reglamento DORA? así ha cambiado la gestión del riesgo tecnológico en las entidades financieras Por alto riesgo, la ley entiende todos los sistemas de IA que puedan tener un impacto negativo en la seguridad o los derechos de las personas. Para identificarlos, el texto establece en un anexo una lista de sistemas de alto riesgo que sirvan como referencia. En este catálogo aparecen algunos sistemas de identificación biométrica, determinados sistemas de uso policial o de control de fronteras y ciertas herramientas enfocadas a la evaluación educativa, entre otros. La Comisión se compromete a mantener el listado actualizado para que cumpla su función también en el futuro. En último lugar, el documento considera que algunos programas presentan un riesgo inadmisible. Se trata de una cantidad mínima de usos de la IA que vulneran los derechos fundamentales y resultan especialmente nocivos. Entre ellos, se encuentran los sistemas de puntuación social, actuación policial predictiva individual y el reconocimiento de emociones en el lugar de trabajo o institución educativa, a excepción de motivos médicos o de seguridad. Datos biométricos y sesgos, entre los riesgos En los últimos días ha crecido el debate en torno a la importancia de los datos biométricos. La ley de inteligencia artificial de la UE legisla también en este sentido, prohíbe el uso de identificación biométrica remota en tiempo real en lugares de acceso público con fines policiales, a excepción de algunos delitos. Del mismo modo, tampoco se permite la identificación biométrica remota posterior sin autorización. El texto alude a la necesidad de evitar el riesgo de condenar a una persona inocente por un fallo de precisión. Otra de las cuestiones más polémicas en el ámbito de la IA es la reproducción de sesgos. La ley europea afirma que, con un diseño y uso adecuado, “los sistemas de inteligencia artificial pueden contribuir a reducir los prejuicios y la discriminación estructural”. En consecuencia, la normativa establece requisitos para que los falsos resultados no causen perjuicio a los grupos protegidos. Así, los sistemas de alto riesgo deberán entrenarse con datos representativos y será necesario que la documentación del proceso se pueda rastrear y auditar. La ley aborda también la necesidad de respetar la legislación de derechos de autor en los entrenamientos de los modelos y de especificar los contenidos generados a partir de IA. Lea también: Ciberseguridad en la agenda global Aunque de manera sucinta, el documento aborda el impacto ambiental de la IA. Entiende que la protección del medioambiente está íntimamente ligada a los demás intereses jurídicos que justifican la necesidad de esta normativa. Señala la importancia de evaluar el consumo energético y de otros recursos por parte de los sistemas de IA, así como de avanzar hacia un desarrollo más eficiente. Próximos pasos La ley se aplicará a todos los agentes públicos y privados, con independencia de su procedencia, cuando sus sistemas de IA entren en la UE o afecten a personas establecidas en ella. Su aplicación será gradual, hasta implantarse de manera definitiva en 2026. Desde su entrada en vigor, cualquier nuevo sistema de IA se someterá a una evaluación de su impacto en los derechos fundamentales. Los proveedores que deseen comercializar un sistema de alto riesgo deberán demostrar que cumple con los requisitos y aplicar sistemas de gestión de la calidad y los riesgos para lograr minimizarlos lo máximo posible. Será necesario que se registren en una base de datos pública de la UE para que se realice un seguimiento. La transparencia será un elemento fundamental para que los proveedores puedan introducirse en el mercado europeo. Para garantizar el cumplimiento de la normativa, los Estados deberán implementar sanciones “efectivas, proporcionadas y disuasorias”. Además, designarán a las autoridades nacionales competentes para su supervisión, que además representará al país en el Comité Europeo de Inteligencia Artificial. La ley establece también la creación de otros instrumentos europeos en materia de IA. La Oficina Europea de Inteligencia Artificial supervisará la aplicación de las normativas y el desarrollo de los modelos más avanzados. Por su parte, el Foro Consultivo se compondrá de representantes de las partes interesadas para asesorar al Comité y la Comisión. Además, se creará la Comisión Científica de Expertos Independientes. Uno de los principales propósitos de la UE con esta normativa es garantizar que sea pertinente a lo largo de los años, de manera que pueda actualizarse conforme evoluciona la tecnología. FUENTE: Modrón, Inés. »El Parlamento Europeo aprueba la primera ley de inteligencia artificial del mundo: claves de la regulación» Rtve.es. 13/03/2024. (https://www.rtve.es/noticias/20240313/eurocamara-vota-primera-ley-inteligencia-artificial/16011963.shtml).
La Comisión Europea infringió la Ley de Protección de Datos por usar las aplicaciones de Microsoft 365

Normalmente, es la Comisión Europea quien se encarga de supervisar que las grandes compañías tecnológicas cumplan las leyes relacionadas con la privacidad y el uso de los datos personales de los usuarios, como ya lo hizo en el caso de TikTok. Pero esta vez, la propia CE ha sido acusada de infringir las normas de protección de datos por utilizar las aplicaciones de Microsoft 365. Así lo ha confirmado el organismo Supervisor Europeo de Protección de Datos en una nota de prensa, donde culpa a la Unión Europea de haberse saltado varias de las restricciones clave en materia de protección de datos. 9 de diciembre: fecha límite para suspender el envío de datos desde la Comisión Europea a Microsoft El organismo EDPS o «European Data Protection Supervision» es el encargado de supervisar y regular el cumplimiento de las normas de protección de datos por parte de las instituciones de la Unión Europea. La investigación a la Comisión Europea por el uso de los servicios de Microsoft 365 dio comienzo en mayo de 2021, y el resultado se ha dado a conocer hoy. Podría interesarle: Howden considera que la protección de datos es el reto principal para las smartcities Explican que la Comisión Europea no ha proporcionado las salvaguardias adecuadas para garantizar que los datos personales transferidos fuera de la Unión Europea cuenten con un nivel de protección equivalente al que tendrían dentro del Espacio Económico Europeo. Además, tampoco se ha detallado qué tipo de datos han sido compartidos con Microsoft y otras compañías asociadas. Por ello, la EDPS ha impuesto la obligación de suspender todos los flujos de datos derivados del uso de Microsoft 365 a la Comisión Europea a partir del día 9 de diciembre. Del mismo modo, se insta a las instituciones a ajustar sus actividades con servicios como los de Microsoft 365 de modo que cumplan el reglamento en materia de protección de datos. FUENTE: Collado, Cristian. »La Comisión Europea infringió la Ley de Protección de Datos por usar las aplicaciones de Microsoft 365» Lavanguardia.com. 11/03/2024. (https://www.lavanguardia.com/andro4all/tecnologia/la-comision-europea-infringio-la-ley-de-proteccion-de-datos-por-usar-las-aplicaciones-de-microsoft-365).
España le prohíbe a Worldcoin seguir recopilando datos de iris en el país

La Agencia Española de Protección de Datos (AEPD) ha tomado una medida cautelar que prohíbe a Worldcoin continuar recopilando datos de iris en España. Esta decisión llega después de que la compañía, en colaboración con Tools for Humanity Corporation, recolectara fotografías de alta resolución del iris de 400.000 usuarios desde el verano pasado, ofreciendo compensaciones monetarias a cambio. La AEPD ha recibido al menos 13 reclamaciones que denuncian falta de información suficiente, captación de datos de menores y falta de posibilidad de retirar el consentimiento, entre otros problemas. La directora de la AEPD, Mar España, ha anunciado esta medida extraordinaria, señalando que Worldcoin está siendo investigada por el Comité Europeo de Protección de Datos. Se espera una respuesta coordinada, aunque no se han establecido plazos concretos y se determina que si después de los tres meses de las medidas cautelares se determina que persisten los problemas, la agencia podría invocar el artículo 66.2 del Reglamento General de Protección de Datos (RGPD) para suspender permanentemente las actividades de Worldcoin en España. La AEPD ha notificado a Tools for Humanity, con sede en Alemania, que debe cesar la recopilación y tratamiento de datos biométricos en España, así como abstenerse de utilizar los datos de los 400.000 usuarios recopilados hasta ahora, los cuales se encuentran bloqueados y no pueden o deberían ser compartidos con terceros. El incumplimiento de esta medida podría resultar en una multa que oscila entre los 20 millones de euros y el 4% de la facturación anual de Worldcoin. La sensibilidad de los datos biométricos, la base detrás de la prohibición a Worldcoin por parte de la AEPD La directora de la agencia ha hecho hincapié en la sensibilidad de los datos biométricos, que son inmutables y tienen un tratamiento especialmente estricto según el RGPD. Esta medida cautelar busca evitar daños potencialmente irreparables y garantizar la protección de los derechos de los ciudadanos. La investigación en curso abarca el tratamiento de los datos biométricos y si se informó adecuadamente a los usuarios sobre los riesgos involucrados. La AEPD revisará contratos, analizará los consentimientos otorgados por los usuarios y examinará detenidamente las prácticas de Worldcoin en relación con estos datos. Worldcoin inició la recopilación de datos de iris en julio del año pasado en 14 centros comerciales de España, utilizando dispositivos llamados Orbs. Estos dispositivos fotografían el iris de los usuarios y les otorgan acceso a la moneda digital «Worldcoin», aunque inicialmente el proceso pasó desapercibido, recientemente ha generado gran interés debido al aumento del valor de cambio de la moneda. Esta prohibición en España se suma a las investigaciones y restricciones similares impuestas en otros países, como Francia, Alemania y algunos estados de EE. UU., donde se cuestiona la legalidad y seguridad de la práctica de recopilación de datos biométricos por parte de estas empresas. FUENTE: Tudares, Diego. »España le prohíbe a Worldcoin seguir recopilando datos de iris en el país» Mundiario.com. 07/03/2024. (https://www.mundiario.com/articulo/tecnologia-ciencia/espana-prohibe-worldcoin-recopilacion-datos-iris/20240306231803300657.html).
Google abre en Tokio un primer centro de investigación de ciberseguridad en Asia-Pacífico

La multinacional estadounidense de tecnología Google abrió este jueves en Tokio su primer centro de investigación sobre ciberseguridad en la región de Asia-Pacífico, destinado a reformar la seguridad en la zona. El gigante tecnológico busca promover la investigación de medidas para contrarrestar ciberataques compartiendo información pertinente con funcionarios, instituciones públicas, empresas y universidades vinculadas a Japón, y se servirá también de este nuevo centro como base para la formación de expertos regionales en ciberseguridad. Ubicado en el distrito capitalino de Roppongi, las instalaciones funcionarán como base para Asia y abarcará a 13 países, entre ellos Japón, Corea del Sur, India, Australia y otros territorios del sudeste asiático. Google invitará a ingenieros de estas potencias para estudiar posibles contramedidas a este tipo de ataques. La apertura del centro se produce en medio de la creciente preocupación sobre el acceso no autorizado a redes gubernamentales y empresariales japonesas por parte de piratas informáticos, de los que se han producido varios en años recientes, de distinto calado. Lea también: Ciberseguridad, el nuevo centro de preocupación para las empresas latinoamericanas En 2022, el servicio de internet basado en la nube Fenics de Fujitsu, utilizado por agencias gubernamentales, sufrió varios ciberataques supuestamente por parte de ‘hackers’ chinos. En julio de 2023 un ataque informático de tipo ‘ransomware’ al puerto de Nagoya, el mayor del país, ocasionó graves pérdidas económicas y entre octubre de 2022 y junio de 2023 el propio centro de ciberseguridad del Gobierno nipón registró un acceso no autorizado, atribuido nuevamente a piratas informáticos de China, entre otros casos. La vecina Corea del Norte también es conocida por sus actividades en materia de ciberataques, incluidas en Japón. Google fundó su primera filial en el extranjero en Japón, en 2001. La vicepresidenta de la empresa y fundadora de su equipo de ciberseguridad, Heather Adkins, ha estado involucrada más de dos décadas en este campo y en declaraciones al diario japonés Nikkei, ha dicho que los expertos de institutos de investigación japoneses están listos para ayudar en investigaciones conjuntas. FUENTE: EFE. »Google abre en Tokio un primer centro de investigación de ciberseguridad en Asia-Pacífico» Revistasumma.com. 07/03/2024. (https://revistasumma.com/google-abre-en-tokio-un-primer-centro-de-investigacion-de-ciberseguridad-en-asia-pacifico/).
«Destruirá la privacidad»: la UE baraja de nuevo escanear tus mensajes para combatir el abuso sexual infantil

La Unión Europea (UE) quiere aprobar una ley que permita escanear los mensajes privados de todos sus ciudadanos en busca de contenidos que supongan abuso sexual infantil. Tras meses de polémica y denuncias, el Parlamento Europeo decidió a finales octubre excluir de la propuesta el rastreo de las telecomunicaciones. Sin embargo, un documento filtrado el pasado martes por el portal Netzpolitkik revela que los Estados miembros pretenden impulsar una medida que, según denuncian los críticos, podría suponer el fin de la privacidad en el continente. Sin hacer mucho ruido, la presidencia belga del Consejo de la UE ha presentado a sus socios una propuesta para que las órdenes de detección de contenido pederasta sean «más específicas y proporcionales». Aun así, el texto modificado sigue poniendo bajo posible vigilancia a servicios de mensajería que, como WhatsApp, Signal o Telegram, utilizan el cifrado de extremo a extremo para proteger lo que circula por sus plataformas. La diferencia es que ahora sugiere que se evalúen las tecnologías de rastreo usadas para determinar su efectividad, su incidencia en los derechos fundamentales y sus riesgos para la ciberseguridad. «Se acabaría con la privacidad y, además, no tenemos ninguna prueba de que la tecnología de detección propuesta sirva para salvar a los niños, es muy frágil y comete muchos errores», explica Carmela Troncoso, profesora en la Escuela Politécnica Federal de Lausana, a EL PERIÓDICO. Esta reputada experta en privacidad advierte que lo sistemas de detección podrían dar falsos positivos, es decir, marcar contenidos inofensivos (como imágenes de tus hijos en la playa) como abuso sexual infantil, dando lugar a «consecuencias horribles». «No te estarán acusando de evadir impuestos o de no pagar una factura, sino de abusar de niños». División entre países Este lunes, los 27 ministros de Interior se han reunido en Bruselas para debatir la modificación del reglamento. Según Netzpolitkik, las delegaciones de varios países europeos han solicitado incluir los servicios cifrados, pues consideran que no hacerlo debilitará la lucha contra la mal llamada pornografía infantil. Es el caso de Irlanda o Dinamarca. Otros, como Alemania, Austria, Países Bajos o Polonia, han expresado su preocupación por el impacto que esa propuesta pueda tener en la privacidad. La presidencia belga tiene como misión sacar adelante un texto que satisfazca a ambas partes, una opción que no convence a la sociedad civil. «No puedes escanear las comunicaciones de forma privada, es como lavarte las manos sin mojarte», asegura Ella Jakubowska, asesora política de la organización European Digital Rights (EDRi). «En lugar de pensar en soluciones reales están poniendo toda la atención política en una tecnología que no entienden». La posición de España parece inclinarse hacia el escaneo de los mensajes encriptados propuesto inicialmente por la Comisión Europea. Un documento filtrado por la revista Wired el pasado mayo reveló que el Gobierno pedía debilitar el cifrado de extremo a extremo para agilizar el trabajo de la policía. Sin embargo, Madrid negó esa información. Preguntado por EL PERIÓDICO, el Ministerio del Interior ha explicado que la reunión de este lunes se ha abordado «como punto informativo» para la presidencia belga del Consejo de la UE, pero no ha dado detalles de su posición. «España nunca ha sido uno de los gobiernos interesados en defender los derechos digitales», añade Jakubowska. En defensa de la encriptación A mediados de febrero, el Comité Europeo de Protección de Datos emitió una opinión en la que mostraba su preocupación por la «falta de criterios» establecidos en la propuesta de ley para decidir a qué personas se debe identificar. «Nos preocupa que la posición del Parlamento Europeo siga permitiendo la emisión de órdenes de detección de carácter general e indiscriminado.» También a mediados de febrero, el Tribunal Europeo de Derechos Humanos prohibió en una sentencia socavar el cifrado de extremo a extremo y reafirmó que la encriptación de las comunicaciones «garantiza y proteje la privacidad», vela por «el disfrute de otros derechos fundamentales, como la libertad de expresión» y «parece ayudar a los ciudadanos y a las empresas a defenderse de abusos como la piratería informática, el robo de datos personales o el fraude». Lea también: La AEPD participa en una acción europea para analizar la aplicación del derecho de acceso «El acceso directo por parte de los servicios de seguridad a los datos almacenados sin las garantías adecuadas contra el abuso y el requisito de descifrar las comunicaciones cifradas, como las que se aplica a las comunicaciones cifradas de extremo a extremo, no puede ser considerado en una sociedad democrática», reza el auto en referencia a un caso en el que el seguridad federal ruso (FSB) exigió a Telegram descifrar la comunicación de un usuario. «La paranoia de las fuerzas del orden sobre las ‘amenazas’ y los ‘riesgos’ no justifica el despliegue de máquinas de sospecha poco fiables para registrar y exponer las comunicaciones privadas e íntimas de millones de ciudadanos respetuosos con la ley», ha valorado el eurodiputado alemán Patrick Breyer, miembro del Partido Pirata. También ha advertido en un comunicado que, de prosperar, la propuesta belga supondrá la «destrucción de la privacidad digital». FUENTE: Bou Planas, Carles. «Destruirá la privacidad»: la UE baraja de nuevo escanear tus mensajes para combatir el abuso sexual infantil» Elperiodico.com. 04/03/2024. (https://www.elperiodico.com/es/internacional/20240304/privacidad-union-europea-escanear-mensajes-chat-control-vigilancia-abuso-sexual-infantil-porno-98889261).