La urgente necesidad de implementar la figura del Delegado de Protección de Datos

A pesar de los avances en materia de protección de datos personales en Argentina, con la aprobación hace ya varios años de la Resolución 40/2018 de la Agencia de Acceso a la Información Pública (AAIP), que establece una política modelo de Protección de Datos Personales para Organismos Públicos, la triste realidad es que aún no existe ni un solo organismo público en el país que haya designado un Delegado de Protección de Datos (DPD). Esta omisión resulta particularmente preocupante, teniendo en cuenta que la designación del DPD es una pieza clave para garantizar el cumplimiento efectivo de la normativa de protección de datos. El DPD actúa como el enlace entre la organización y la autoridad de control, supervisando el cumplimiento de las obligaciones legales y asesorando a la entidad en materia de protección de datos. En el contexto internacional, la figura del Delegado de Protección de Datos (DPD) está ampliamente reconocida y regulada. Esta figura se encuentra detallada en el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, en la Ley General de Protección de Datos (LGPD) de Brasil, y en normativas de protección de datos de muchos otros países. Podría interesarle: Derecho al habeas data es una garantía constitucional autónoma e independiente del buen nombre Tanto el RGPD como la LGPD establecen la obligatoriedad de contar con un DPD, un profesional especializado encargado de velar por el adecuado tratamiento de los datos personales. Esto demuestra la importancia que a nivel global se le otorga a la figura del DPD como garante del cumplimiento de las regulaciones en materia de protección de datos. Incluso en el proyecto de reforma de la Ley de Protección de Datos de Argentina, también se contempla la figura del DPD. Además, en este proyecto se brinda la opción de externalizar dicha posición, lo que permite a las organizaciones contar con los servicios de un DPD sin necesidad de tenerlo contratado internamente. La ausencia de DPD en la administración pública argentina pone de manifiesto una grave falencia en el compromiso de las autoridades con la protección de los datos de los ciudadanos. Esto resulta particularmente preocupante en un contexto en el que se han denunciado reiterados incidentes de seguridad y filtraciones de información sensible provenientes de organismos estatales. Lea también: Acciones clave para la protección de datos personales en las organizaciones Es urgente que las autoridades competentes tomen medidas concretas para implementar la figura del DPD en todos los organismos públicos del país. Esto no solo cumplirá con lo establecido en la Resolución 40/2018, sino que también demostrará un verdadero compromiso con la protección de los derechos digitales de la ciudadanía. La designación de DPD en el sector público debe ser acompañada por un proceso de capacitación y profesionalización de estos perfiles, de modo que puedan desempeñar sus funciones de manera efectiva. Asimismo, es necesario que se les otorgue la independencia y los recursos necesarios para cumplir con su rol de manera efectiva. La ausencia de DPD en los organismos públicos argentinos es una brecha que debe cerrarse de manera urgente. Contar con esta figura clave en materia de protección de datos personales no solo es una obligación legal, sino también una necesidad apremiante para recuperar la confianza de la ciudadanía en las instituciones públicas. Es hora de que Argentina dé un paso adelante y se ponga a la altura de los estándares internacionales en esta materia. FUENTE: Monastersky, Daniel. »La urgente necesidad de implementar la figura del Delegado de Protección de Datos» Infobae.com. 18/04/2024. (https://www.infobae.com/opinion/2024/04/18/la-urgente-necesidad-de-implementar-la-figura-del-delegado-de-proteccion-de-datos/).

Derecho al habeas data es una garantía constitucional autónoma e independiente del buen nombre

El derecho al habeas data es una garantía constitucional autónoma e independiente del buen nombre. Sin embargo, su afectación está directamente relacionada con la vulneración del derecho a la dignidad humana, resultando necesario que la información que se publica sobre las personas sea veraz y conforme con la realidad. La jurisprudencia en materia de ‘habeas data’ ha concluido que la actividad de administración de datos personales debe someterse al cumplimiento de los principios de finalidad, necesidad, utilidad y circulación restringida, con el fin de fijar un límite al ejercicio de las competencias de los administradores de bases de datos, determinar el margen de su actuación y constituir una garantía para las libertades de los sujetos concernidos por la información administrada. Habeas Data, derecho autónomo e independiente del buen nombre En el caso en concreto, el accionante pretendía que se retire de la página web de consulta de procesos de la Rama Judicial unas investigaciones penales que la Fiscalía General de la Nación relacionó en unos documentos que aportó dentro de un expediente, a juicio del actor esa información es reservada. Lea también: Ley de Habeas Data: de qué se trata, quién la aplica y cuál es su importancia No obstante, el Consejo de Estado encontró que el actor no individualizó los documentos para que fuera posible determinar cuál era la presunta vulneración de sus derechos fundamentales a la vida, debido proceso, honor, buen nombre y habeas data, pues el simple hecho de manifestar que estos eran reservados no los hace ostentar tal calidad. Adicionalmente, aclaró la Sala que el aviso de confidencialidad de los correos electrónicos no le da el carácter de reservado a la información, pues solo puede ser así por disposición constitucional o legal, de conformidad con el artículo 2° de la Ley 1712 del 2014. En razón de lo anterior, negó la protección constitucional. FUENTE: Mercantil. »Derecho al ‘habeas data’ es una garantía constitucional autónoma e independiente del buen nombre» Ambitojuridico.com. 24/04/2024. (https://www.ambitojuridico.com/noticias/mercantil/constitucional-y-derechos-humanos/derecho-al-habeas-data-es-una-garantia).

‘Paga o acepta las cookies’ La estrategia comercial de moda, ¿es realmente legal?’

«La nueva estrategia comercial en forma de cookie wall genera muchas dudas sobre la validez del consentimiento obtenido por parte de los usuarios, que son obligados a suscribirse al servicio si no quieren aceptar la instalación de cookies.» Parece que todos los medios de comunicación online se hayan puesto de acuerdo durante las últimas semanas para adoptar una nueva estrategia conocida como Pay or Consent o Pay or ok mediante la que se ofrece al usuario dos opciones, en primer lugar, navegar gratis con cookies publicitarias, o bien, navegar sin cookies pagando una suscripción. El término cookie wall se utiliza para denominar un mecanismo que bloquea el contenido del sitio web con el objetivo de que los usuarios acepten la instalación de cookies. Se trata de una estrategia muy útil para generar ingresos basada en la monetización de los datos que no está prohibida siempre que se ofrezca a los usuarios una elección genuina y equivalente. Podría interesarle: La Casa Blanca publica las pautas de gobernanza de los sistemas de IA utilizados por las administraciones públicas norteamericanas La cuestión más importante que debatir, por tanto, es si las opciones ofrecidas al usuario son verdaderamente “libres” y “justas”. La empresa Meta implementó esta práctica a finales de año para todos los usuarios de Facebook e Instagram que residan en el Espacio Económico Europeo, a lo que la organización NOYB ya ha reaccionado interponiendo dos quejas ante la autoridad austriaca de protección de datos, alegando que este mecanismo no ofrece un consentimiento libre al usuario ni permite retirar el consentimiento inicialmente otorgado de una manera sencilla. Se le pide al CEPD que adopte una posición oficial respecto al comportamiento de las empresas con las cookies Llevará tiempo obtener una resolución por parte de las autoridades, si bien algunas como la holandesa, la noruega o la autoridad de Hamburgo ya han pedido al Comité Europeo de Protección de Datos que adopte una posición formal respecto a este tipo de prácticas comerciales hasta que se adopte una posición al respecto, determinar la legalidad o ilegalidad de esta práctica no es un asunto sencillo. Por un lado, existen argumentos que parecerían legitimar la estrategia: la sentencia del Tribunal de Justicia de la Unión Europea C-252/21 establece la posibilidad de solicitar a los usuarios una remuneración adecuada, si bien, dicha alternativa no puede en ningún caso ir acompañada de tales operaciones de tratamiento de datos (significa que al usuario que paga, en ningún caso se le pueden instalar las cookies que ha rechazado). Se trata de una observación dentro de una sentencia de la que desconocemos las posibilidades de que sea vinculante, en todo caso, asumiendo que la posición en Europa consolidase la posibilidad de pedir el pago a los usuarios que no quieran recibir publicidad dirigida, cabe preguntarse cuál es el criterio para determinar que estamos ante una remuneración adecuada. La elección de las cookies, ¿Libre? Por ejemplo, la propuesta de Meta es el pago de 12,99 euros al mes por la cuenta de Facebook más un extra de ocho euros por cada cuenta asociada (por ejemplo, Instagram); para un usuario medio la alternativa al consentimiento por cookies le costaría unos 252 euros al año, ¿se estaría ofreciendo al usuario una verdadera opción? ¿cuándo se considera que el consentimiento está siendo libremente otorgado? Las voces más críticas consideran que dada la presión indebida e influencia significativa que esta modalidad de consentimiento conlleva para los usuarios, su libertad de elec ción estaría comprometida, además de la tarifa exigida como alternativa a la “gratuidad”, no resultando una opción económicamente viable para la mayoría de los interesados, obligándoles a optar por la versión “gratuita” (con una cesión de datos “voluntaria” asociada), sin reflejar ésta su elección genuina. Se trata sin duda de un asunto complejo que abre un debate muy interesante sobre el justo equilibrio entre los intereses comerciales de las compañías y la posibilidad de monitorizar los datos personales, como forma de compensar la pérdida de ingresos publicitarios al no utilizar publicidad personalizada, frente a los derechos de los usuarios. FUENTE: Garralón, Paula. »’Paga o acepta las cookies’ La estrategia comercial de moda, ¿es realmente legal?» Periodicopublicidad.com. 01/04/2024. (https://www.periodicopublicidad.com/articulo/opiniones/paga-acepta-cookies-estrategia-comercial-moda-es-realmente-legal/20240401122149140372.html).

La Casa Blanca publica las pautas de gobernanza de los sistemas de IA utilizados por las administraciones públicas norteamericanas

La Casa Blanca ha publicado su política de gobernanza de inteligencia artificial (IA), en desarrollo de la orden ejecutiva 14110 sobre el desarrollo y uso de una IA segura y confiable, emitida el pasado mes de octubre por el presidente Biden. El Memorandum “Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence” (Fomento de la gobernanza, la innovación y la gestión de riesgos en el uso de la inteligencia artificial por parte de las agencias), elaborado por la oficina ejecutiva de gestión y presupuestos de la Casa Blanca, establece nuevos requisitos y orientaciones para la gobernanza, la innovación y la gestión de riesgos de los sistemas de IA utilizados o adquiridos por la Administración de los EEUU. Entre otras medida, se establece la figura del CAIOs (Chief Artificial Intelligence Officer), del que se describen sus funciones, responsabilidades, antigüedad, posición y estructuras de información. Mejora de la gobernanza de la IA El memorándum parte de la premisa de que gestionar el riesgo de la IA y promover su innovación requiere una gobernanza eficaz. Esta eficiencia se plantea en base a las siguientes medidas, que deberán adoptar los responsables de los organismos y agencias que utilicen IA: i. Designación de un Chief Artificial Intelligence Officer (CAIO) o Director de AI Tal y como exige la Orden Ejecutiva 14110, en un plazo de 60 días a partir de la fecha de publicación de este memorando el director de cada organismo a debe designar un Director de Inteligencia Artificial (CAIO). Para garantizar que el CAIO pueda cumplir con las responsabilidades establecidas en este memorando, las agencias que ya han designado un CAIO deben evaluar si necesitan proporcionar a esa persona autoridad adicional o nombrar un nuevo CAIO. Las agencias deben identificar a estos funcionarios ante la OFFICE OF MANAGEMENT AND BUDGET OF THE PRESIDENT OMB a través del proceso de Recopilación Integrada de Datos de la OMB o un proceso sucesor designado por la OMB. Cuando la persona designada cambie o el puesto quede vacante, los organismos deberán notificarlo a la OMB en un plazo de 30 días. Además, dado que la IA está profundamente interconectada con otras áreas técnicas y políticas, como los datos, la tecnología de la información (TI), la seguridad, la privacidad, los derechos civiles y las libertades civiles, la experiencia del cliente y la gestión del personal, los CAIO deben trabajar en estrecha coordinación con los funcionarios y organizaciones responsables existentes dentro de sus agencias. Por ello el Memorandum establece que los CAIO deben tener las habilidades, conocimientos, formación y experiencia necesarios para desempeñar las responsabilidades descritas en esta sección. ii. Convocatoria de los órganos de gobierno de IA de las agencias En un plazo de 60 días a partir de la publicación de este memorándum, cada agencia de la Ley CFO debe convocar a sus altos funcionarios pertinentes para coordinar y gobernar las cuestiones relacionadas con el uso de la IA en el Gobierno Federal, de conformidad con la Sección 10.1(b) de la Orden Ejecutiva 14110 y las orientaciones detalladas de la Sección 3(c) de este memorándum. iii. Planes de cumplimiento De conformidad con la Sección 104(c) y (d) de la Ley de AI in Government Act of 2020 (Ley sobre la IA en el Gobierno de 2020), en un plazo de 180 días a partir de la publicación de este memorando o de cualquier actualización del mismo, y posteriormente cada dos años hasta 2036, cada organismo deberá presentar a la OMB y publicar en el sitio web del organismo un plan para lograr la coherencia con este memorando, o bien una determinación por escrito de que el organismo no utiliza ni prevé utilizar IA cubierta. Los organismos también deben incluir planes para actualizar los principios y directrices internos existentes en materia de IA a fin de garantizar la coherencia con este memorándum. La OMB proporcionará plantillas para estos planes de cumplimiento. iv. Inventarios de casos de uso de IA Cada organismo (excepto el Departamento de Defensa y la Comunidad de Inteligencia) debe inventariar individualmente cada uno de sus casos de uso de IA al menos una vez al año, presentar el inventario a la OMB y publicar una versión pública en el sitio web del organismo. La OMB publicará instrucciones detalladas sobre el inventario y su alcance a través de su proceso de Recogida Integrada de Datos o de un proceso sucesor designado por la OMB. A partir del inventario de casos de uso para 2024, se exigirá a los organismos, según proceda, que identifiquen los casos de uso que afectan a la seguridad y los que afectan a los derechos en materia de IA y que informen con más detalle sobre los riesgos -incluidos los riesgos de resultados no equitativos- que plantean dichos usos y sobre cómo los organismos gestionan esos riesgos. v. Informes sobre casos de uso de IA no sujetos a inventario Algunos casos de uso de la IA no están obligados a ser inventariados individualmente, como los del Departamento de Defensa o aquellos cuya divulgación sería incompatible con la legislación aplicable y la política gubernamental. No obstante, los organismos deberán comunicar y publicar anualmente los datos agregados sobre los casos de uso que entren en el ámbito de aplicación del presente memorando, el número de casos de este tipo que afecten a los derechos y la seguridad, y el cumplimiento de las prácticas del artículo 5(c) del presente memorando. La OMB publicará instrucciones detalladas para la presentación de estos informes a través de su proceso integrado de recopilación de datos o de un proceso sucesor designado por la OMB. Gestión de los riesgos derivados del uso de la Inteligencia Artificial Las agencias y organismos norteamericanos, deben gestionar una serie de riesgos derivados del uso de la IA. Este memorándum establece nuevos requisitos y recomendaciones que, tanto de forma independiente como colectiva, abordan los riesgos específicos de confiar en la IA para informar o llevar a cabo decisiones y acciones de los organismos, en particular cuando dicha confianza afecta a los derechos y la

Los legisladores estadounidenses llegan a un acuerdo sobre privacidad de datos

Las políticas norteamericanas en torno a la privacidad de datos vuelven a la primera plana. Y es que, tal y como avanza Reuters, dos legisladores estadounidenses “clave” han confirmado haber llegado a un acuerdo sobre el proyecto de ley bipartidista en torno a la privacidad de datos. Una normativa que restringiría los datos de los usuarios que las grandes empresas tecnológicas pueden recopilar y daría a los estadounidenses el poder de impedir la venta de información personal u obligar a su eliminación. El acuerdo alcanzado entre la senadora demócrata Maria Cantwell, presidenta del Comité de Comercio, y la representante Cathy McMorris Rodgers, presidenta republicana del Comité de Energía y Comercio de la Cámara de Representantes, daría a los individuos control sobre el uso de su información personal y requeriría de una notificación en caso de que los datos hayan sido transferidos a países extranjeros. De esta manera, una declaración conjunta, las autoridades competentes confirmaron que el plan otorga a la Comisión Federal de Comercio y a los fiscales generales estatales amplia autoridad para supervisar las cuestiones de privacidad del consumidor y establecer «mecanismos de aplicación sólidos para responsabilizar a los infractores, incluido un derecho de acción privado para los individuos». El proyecto de ley da prioridad a la elección de los consumidores y la privacidad de datos, respecto a la publicidad teledirigida El proyecto de ley no prohíbe la publicidad dirigida, pero brinda a los consumidores la posibilidad de optar por no recibirla. La FTC crearía una nueva oficina centrada en la privacidad y podría imponer multas por violaciones de la privacidad que también cubrirían a las empresas de telecomunicaciones. De acuerdo con lo anterior, las legisladoras estadounidenses Cantwell y Rodgers añadieron que «este proyecto de ley bipartidista y bicameral es la mejor oportunidad que hemos tenido en décadas para establecer un estándar nacional de seguridad y privacidad de datos que brinde a las personas el derecho a controlar su información personal». Podría interesarle: El turismo digital y la protección de datos biométricos: un desafío contemporáneo La medida permitiría a las personas optar por no participar en el procesamiento de datos si una empresa cambia su política de privacidad. Requiere «consentimiento expreso y afirmativo antes de que los datos confidenciales puedan transferirse a un tercero». Así mismo, ñlos consumidores podrían demandar a «malos actores que violan sus derechos de privacidad -y recuperar dinero por daños y perjuicios cuando hayan sido perjudicados-» y evitarían que «las empresas utilicen la información personal para discriminarlas», reza el comunicado. El proyecto de ley requeriría «revisiones anuales de los algoritmos para garantizar que no pongan a las personas, incluidos nuestros jóvenes, en riesgo de sufrir daños». FUENTE: Álvarez Iglesias, Irene. »Los legisladores estadounidenses llegan a un acuerdo sobre privacidad de datos» Cso.computerworld.es. 08/04/2024. (https://cso.computerworld.es/legislacion/los-legisladores-estadounidenses-llegan-a-un-acuerdo-sobre-privacidad-de-datos).

El turismo digital y la protección de datos biométricos: un desafío contemporáneo

En el ámbito del turismo digital, donde la tecnología redefine constantemente la experiencia del viajero, la protección de datos biométricos emerge como un tema de gran relevancia. Recientemente, la Audiencia Nacional (AN) ha emitido un auto que avala la suspensión cautelar adoptada por la Agencia Española de Protección de Datos sobre la recopilación de datos biométricos por parte de la empresa Worldcoin en España, en un caso que ha captado la atención tanto de la comunidad legal como de la industria turística. La reciente controversia en torno al proyecto Worldcoin de OpenAI, que ha estado recopilando datos biométricos del iris del ojo en centros comerciales de Barcelona, ha puesto de relieve la importancia de abordar este tema con precaución y responsabilidad. La AN ha respaldado la medida cautelar de la Agencia Española de Protección de Datos (AEPD), que ordenó a Worldcoin detener la recopilación de datos biométricos, como los del iris, los ojos y el rostro, utilizados para su posterior procesamiento a cambio de criptomonedas. Este auto, destaca la importancia de proteger el derecho fundamental a la privacidad de los individuos frente a los intereses económicos de las empresas. Debe priorizarse el derecho a la protección de datos personales en el turismo digital En su auto, la AN ponderó cuidadosamente los intereses en conflicto y determinó que prevalece «la salvaguarda del interés general que consiste en el derecho a la protección de datos personales de los interesados frente al interés particular de la empresa recurrente de contenido fundamentalmente económico». Además, la AN subrayó que la resolución de la AEPD se basa en la falta de consentimiento y la insuficiente información proporcionada a los usuarios, especialmente a los menores, lo que constituye un tratamiento de datos sin el debido consentimiento. Este caso plantea importantes interrogantes sobre el uso de datos biométricos en el sector turístico. Si bien la tecnología puede mejorar la seguridad y la experiencia del viajero, su implementación debe realizarse dentro de un marco ético y legal que garantice la protección de la privacidad de los individuos. La resolución temporal de la AN, con una duración máxima de tres meses, brinda un espacio para reflexionar sobre cómo abordar este desafío de manera responsable y equilibrada. El Reglamento General de Protección de Datos (RGPD) establece que los datos biométricos son sensibles y deben ser tratados con especial precaución. El principio de minimización, que dicta que los datos deben ser limitados a lo estrictamente necesario para cumplir con una finalidad específica, se convierte en un punto clave cuando se trata de datos biométricos en el sector turístico. Podría interesarle: Protección de datos personales y licencias que otorgan creadores de contenido a OnlyFans Es fundamental que las empresas turísticas se mantengan al tanto de las regulaciones y decisiones judiciales relacionadas con la protección de datos biométricos, ya que estas tienen un impacto directo en la forma en que operan y brindan servicios a los viajeros La transparencia, el consentimiento informado y el respeto por la privacidad de los usuarios deben ser pilares fundamentales en el desarrollo y la implementación de nuevas tecnologías en el turismo digital. En última instancia, la decisión de la Audiencia Nacional destaca la importancia de encontrar un equilibrio entre la innovación tecnológica y la protección de la privacidad en el sector turístico. Solo adoptando un enfoque cauteloso y ético hacia el uso de datos biométricos podemos garantizar una experiencia turística segura, transparente y respetuosa con la privacidad de los viajeros en la era digital. FUENTE: Caro, Guillermo. »El turismo digital y la protección de datos biométricos: un desafío contemporáneo» Hosteltur.com. 03/04/2024. (https://www.hosteltur.com/comunidad/005689_el-turismo-digital-y-la-proteccion-de-datos-biometricos-un-desafio-contemporaneo.html).

Ejercer control con la identificación biométrica sale muy caro: la AEPD multa con 365.000 euros a una empresa española

Los sistemas de identificación biométrica para el control horario se está convirtiendo en un foco de problemas para las empresas desde que el Comité Europeo de Protección de Datos unificó su criterio de Autenticación e Identificación de datos biométricos, entrando en conflicto con el que hasta la fecha mantenía la normativa española, mucho más permisiva con el uso de la huella dactilar o el reconocimiento facial para el control horario de la jornada laboral en las empresas. A raíz de esa unificación de criterios a nivel comunitario, la Agencia Española de Protección de Datos ha comenzado a sancionar a aquellas empresas que no cumplen con las recomendaciones y ha impuesto una multa de 365.000 euros a una empresa por utilizar la huella dactilar de sus empleados para fichar. Vulneración reiterada de la normativa Según publica el medio especializado Confilegal, la AEPD argumenta su sanción en la vulneración de distintos artículos del Reglamento General de Protección de Datos. En primer lugar, la empresa no habría informado debidamente a los empleados sobre el sistema de recopilación de datos biométricos, no habían implementado las medidas de seguridad apropiadas para su uso y no contaba con un análisis de riesgos adecuado. La multa por partes La sanción total se desglosa en función de la gravedad de los artículos del Reglamento que vulnera: Además de las sanciones, la AEPD ha dado a la empresa un plazo de seis meses para corregir esas deficiencias. Pese a la dureza de la multa, la sanción no es firme y la empresa puede recurrirla ante la Audiencia Nacional. La trampa de los sistemas de identificación biométrica  Algunas empresas llevan años usando sistemas de identificación de huella dactilar o reconocimiento facial para registrar la jornada de sus empleados, siendo un sistema más certero que el de la identificación por tarjeta. Durante todo ese tiempo, su uso ha sido perfectamente legal e incluso contaba con la aprobación del Tribunal Supremo. Lea también: ¿Qué es y por qué debe cuidar su huella digital? Sin embargo, la unificación de criterios trajo un cambio importante en el artículo 12 del Reglamento entre “Autenticación” e “Identificación”. Ahora, ambas son consideradas como “Categoría especial” haciendo más sensible su uso y tratamiento. El uso de huella dactilar o reconocimiento facial queda relegado a situaciones de interés público o sanitario, seguridad pública, etc., descritas en el artículo 9 del Reglamento, pero no para un ámbito como el control de acceso al lugar de trabajo en el que pueden usarse otras alternativas menos intrusivas. Mantener estos sistemas es legal, pero no rentable El uso de sistemas de control horario basado en datos biométricos continúa siendo legal. Sin embargo, los sistemas, que hasta hace unos meses eran legales, ahora dejan de serlo y requieren una serie de medidas de información y protección adicionales para poder seguir usándolos. Eso implica que las empresas deben realizar una inversión adicional en materia de seguridad y procedimientos para mantenerlos en funcionamiento, por lo que a muchas empresas les compensa cambiar a alguna alternativa menos conflictiva que no la deje expuesta a sanciones tan importantes como la de esta empresa. FUENTE: Andrés, Rubén. »Fichar con la huella dactilar sale muy caro: la AEPD multa con 365.000 euros a una empresa española» Xataka.com. 04/04/2024. (https://www.xataka.com/privacidad/fichar-huella-dactilar-sale-muy-caro-multa-365-000-euros-a-empresa).

Protección de datos personales y licencias que otorgan creadores de contenido a OnlyFans

Las plataformas de creación de contenido como las redes sociales han tomado demasiada fuerza. Cada vez son más las que permiten la creación y monetización de contenidos de diferentes tipos y para diferentes públicos, algunas llevan años en el mercado como YouTube, y otras son más recientes como OnlyFans. La Ley 1581 de 2012 es en la cual se establecen la protección de los datos personales y las acciones por infracción de datos personales. Esta última plataforma es un servicio OTT que permite a los creadores de contenido ofrecer material, generalmente dirigido a mayores de edad, aunque también de otra naturaleza, por el que los suscriptores pagan un monto determinado. Sin embargo, un tema que ha sido punto de debate sobre este tipo de plataformas se trata de cómo funcionan los derechos de autor en estos entornos digitales. ¿Qué dicen los expertos sobre las licencias de OnlyFans? De acuerdo con Ana Sofía Cabrales, asociada del área de propiedad intelectual de Holland & Knight, “en plataformas como OnlyFans los creadores de contenido tienen derechos de autor sobre dichos contenidos, los cuales, en la gran mayoría de casos, constituyen obras fotográficas y audiovisuales”. En este sentido, los creadores pueden disponer de estas e impedir que terceros utilicen, reproduzcan, distribuyan y desarrollen obras derivadas de sus obras sin su autorización. Lea también: Un fallo informático global deja sin servicio varios restaurantes de McDonald’s Aún así, David Santiago Casadiego, asociado de Derecho de Autor y del Entretenimiento de OlarteMoure & Asociados S.A.S, agregó que los creadores “otorgan una licencia de uso, gratuita, no exclusiva, perpetua y mundial al momento de suscribirse”; y de hecho “la licencia está regulada por la Ley de Inglaterra. OnlyFans tiene un estricto protocolo de TakeDown bajo el protocolo Dmca, similar al de YouTube”, puntualizó el experto en la materia. En Colombia , según lo explicado por Casadiego, estas plataformas y los contenidos que se gestionan a través de estas son regulados por dos vías. La primera es el “régimen normativo general de derecho de autor comprendido por la Ley 23 de 1982, la Decisión 351 de 1993 y jurisprudencia especializada relativa a la protección de los intérpretes (actores y actrices) de contenido para adultos, principalmente la Sentencia T407A/18”. Sobre esto aclaró que dependiendo de la modalidad de la plataforma podría estar comprendida dentro de los efectos laborales dispuestos en la Sentencia T-109 de 2021. Las vías legales detrás de este asunto La segunda vía se trata de términos de servicio que regulan el uso de estas plataformas entre los que participan en el proceso de creación, consumo y la plataforma directamente. El contenido, al estar protegido por los derechos de autor, no puede ser utilizado por los subscriptores sin consentimiento, de ocurrir esto, según Juan Francisco Navarrete González, abogado Navarrete Consultores, “al tratarse de contenido que puede ser de índole íntimo, se encienden los protocolos de protección a los derechos a la intimidad, protegido por la Constitución Política”. Asimismo, Ana Sofía Cabrales agregó que en el caso de esta plataforma existe “un servicio de soporte mediante el cual los creadores de contenido pueden hacer valer sus derechos sobre dichos contenidos, informando sobre el uso no autorizado de los mismos para que OnlyFans investigue lo sucedido y tome las acciones correctivas pertinentes”. Asimismo, Ana Sofía Cabrales agregó que en el caso de esta plataforma existe “un servicio de soporte mediante el cual los creadores de contenido pueden hacer valer sus derechos sobre dichos contenidos, informando sobre el uso no autorizado de los mismos para que OnlyFans investigue lo sucedido y tome las acciones correctivas pertinentes”. FUENTE: Duarte Torres, Sofía Alexandra. »Protección de datos personales y licencias que otorgan creadores de contenido a OnlyFans» Asuntoslegales.com. 01/04/2024. (https://www.asuntoslegales.com.co/consumidor/proteccion-de-datos-personales-y-licencias-que-otorgan-creadores-de-contenido-a-onlyfans-3830011).

AT&T investiga la publicación de datos de millones de clientes en la internet profunda

La empresa AT&T informó este sábado que investiga un incidente en que información de millones de clientes, como su dirección y seguro social, fueron publicados hace dos semanas en la «internet profunda» (Darkweb), a la que se accede en la mayoría de los casos a través de aplicaciones y navegadores específicos. La compañía indicó en un comunicado de prensa que aunque tomó esa acción, «aún no se sabe si los datos en esos campos se originaron en AT&T o en uno de sus proveedores» e incluye también a exclientes. La investigación la realizan expertos en ciberseguridad internos y externos para determinar cómo los datos de aproximadamente 7,6 millones de clientes y de unos 65,4 millones de antiguos titulares de cuentas fueron a parar a dicho lugar. Podría interesarle: Ciberseguridad: Los riesgos digitales que representa el uso de las Apple Vision Pro El análisis preliminar que ha hecho la compañía apuntan a que estos datos son de 2019 o antes, agrega el comunicado. «AT&T no tiene evidencia de acceso no autorizado a sus sistemas que resulte en la filtración de los datos», afirmó la empresa. La compañía indicó además que se está comunicando con los afectados y los exhortó a que visiten www.att.com/accountsafety para obtener más información. El pasado febrero, AT&T se disculpó con miles de usuarios afectados con una interrupción del servicio causado por problemas técnicos que afectó a mies de personas en Atlanta, los Ángeles y Nueva York, y que ocurrió por un problema técnico mientras la compañía intentaba expandir su red. FUENTE: Newsroom Infobae. »AT&T investiga la publicación de datos de millones de clientes en la internet profunda» Infobae.com. 30/04/2024. (https://www.infobae.com/america/agencias/2024/03/30/att-investiga-la-publicacion-de-datos-de-millones-de-clientes-en-la-internet-profunda/).

¡No te pierdas nada!

Inscríbete ahora y sé el primero en recibir todas las novedades y actualizaciones exclusivas de nuestra página

Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.
×

Hola!

Recibe información gratuita y personalizada

× ¡Recibe info personalizada!