Connect with us
Legislación

Las grandes plataformas son las protagonistas de la nueva Ley de Servicios Digitales

La norma es clave para luchar contra los problemas que afectan a la sociedad digital, como el discurso de odio, la desinformación y el abuso de datos personales

(Imagen: E&J)

Luisja Sánchez

Periodista jurídico




Tiempo de lectura: 10 min

Publicado




Legislación

Las grandes plataformas son las protagonistas de la nueva Ley de Servicios Digitales

La norma es clave para luchar contra los problemas que afectan a la sociedad digital, como el discurso de odio, la desinformación y el abuso de datos personales

(Imagen: E&J)



Desde el pasado viernes, 25 de agosto, la Ley de Servicios Digitales (DSA, por sus siglas en inglés) comienza a ser obligatoria para las grandes plataformas designadas por la Comisión Europea el pasado abril.

Las grandes plataformas y motores de búsqueda en línea (denominadas VLOPs/VLOSEs, por sus siglas en inglés, y que tienen más de 45 millones de usuarios activos mensuales en la Unión Europea), como Google, Facebook, Twitter o TikTok, están sujetas a las nuevas obligaciones de la DSA.



Las obligaciones de estas plataformas digitales tienen que ver con la necesidad de tomar medidas rápidas contra el contenido ilegal, como el discurso de odio o los productos ilegales; Informar a las personas usuarias sobre cómo denunciar contenidos ilegales y tomar medidas para prevenir riesgos sistémicos, como la desinformación o las notificas falsas.

Junto a ello deberán estar sujetas a auditorías independientes de sus acciones contra la desinformación, las fake news o el discurso de odio y proteger los derechos de las personas consumidoras, como favorecer el ejercicio de los derechos de desistimiento y reembolso al facilitar, por ejemplo, la posibilidad de identificar a los vendedores de productos ilegales.

Beneficios de la DSA para los consumidores

La Federación de Consumidores y Usuarios CECU considera la ley un paso muy importante en la protección de las personas consumidoras, si bien defiende que sigue siendo insuficiente para hacer frente a vigilancia comercial y el uso indebido de los datos personales.  Se trata de crear un entorno digital más seguro y justo para todas. Para esta entidad, la ley  será clave para luchar contra los problemas que afectan a la sociedad digital, como el discurso de odio, la desinformación y el abuso de los datos personales.



Anabel Arias, experta en derechos digitales de CECU, recuerda que: “La DSA es un paso en la buena dirección, pero aún queda mucho por hacer para proteger a las personas consumidoras de los riesgos de la sociedad digital. Desde CECU seguiremos trabajando para garantizar que las leyes protejan adecuadamente a las personas en la era digital, y en monitorear de cerca la implementación y aplicación de la DSA”.

Al mismo tiempo es consciente de que aún no es suficiente para hacer frente al modelo dominante de vigilancia comercial y el uso indebido de los datos personales, que tiene un impacto negativo en la privacidad, seguridad y libertad de elección de las personas.

Para CECU hay beneficios claros para las personas consumidores, entre ellos destaca un entorno en línea más seguro: “la DSA obliga a las plataformas a tomar medidas rápidas para abordar el contenido ilegal”. Así como una mayor transparencia.La DSA obliga a las plataformas a ser más transparentes sobre sus algoritmos y prácticas comerciales, lo que ayudará a las personas consumidoras a tomar decisiones más informadas”.

También indica una mayor diligencia y transparencia en la moderación de contenidos: “Las personas consumidoras podrán participar en las decisiones de moderación de contenido que tomen las empresas e impugnarlas formalmente”.

Otra cuestión que CECU valora es que habrá mayores protecciones para las personas consumidoras frente a la publicidad personalizada: “La DSA prohíbe la publicidad dirigida a menores basada en la elaboración de perfiles y la publicidad personalizada basada en la elaboración de perfiles utilizando categorías especiales de datos personales. Además, las plataformas deberán etiquetar todos los anuncios e informar sobre quién los pone”.

En este entorno esta organización de consumidores aclara que serán importante los mecanismos de reclamación y resolución de conflictos.La DSA establece que las grandes plataformas digitales deben poner a disposición de las personas consumidoras mecanismos accesibles y eficientes para presentar reclamaciones y resolver disputas de manera justa y transparente·. Sin embargo, subrayan que todavía persisten muchas dudas sobre cómo se aplicarán todas estas nuevas obligaciones en realidad, por lo que serán necesarias las interpretaciones de las autoridades de aplicación e incluso de los tribunales.

Para Arias, la aplicación efectiva de la DSA dependerá de que, tanto la Comisión Europea, como los Coordinadores de Servicios Digitales de cada Estado Miembro, –que en España aún no ha sido designado- efectúen un control exhaustivo del cumplimiento de las nuevas obligaciones.

En este punto, desde CECU se recuerda que dos (Amazon y Zalando) de las 19 VLOPs/VLOSEs designadas ya han cuestionado tales designaciones. Ahora bien, tal y como cuestiona la organización europea BEUC, la pregunta que cabe hacer es si Amazon no es una VLOP, ¿Entonces quién lo es?

A juicio de esta asociación de consumidores es esencial que tanto la Unión Europea como las autoridades nacionales incluyan la visión de la sociedad civil en la implementación y aplicación de la DSA.

En tal sentido, destacan  que varias organizaciones de la sociedad civil ya han pedido esta semana que la Comisión Europea utilice sus poderes bajo la DSA para garantizar que las grandes plataformas informen sobre cómo mitigarán los riesgos sistémicos (como la desinformación o el discurso de odio) en el contexto de las elecciones europeas 2024.

Anabel Arias, abogada experta en derechos digitales de CECU (Foto: CECU)

La necesidad de controles “ex ante”

Santiago Mediano, presidente del despacho que lleva su nombre, experto en propiedad intelectual y presidente de la sección de robótica e inteligencia artificial del ICAM, cree que la DSA “implica a los grandes agentes tecnológicos en tener un ciberespacio limpio de piratería, de servicios ilegales y seguro para los usuarios, con un nivel de protección más elevado para menores de edad o ciertas minorías, supone un avance importante en el entorno actual”.

A su juicio “hay muchos más temas en los que se puede profundizar y en los que creo que se podría pedir más implicación a las propias plataformas digitales. Se trata de que estos operadores desarrollen la teoría del KYC, ‘Conoce a tu Cliente’. Se trata de pedirles a sus usuarios más transparencia, que se identifiquen y que las plataformas queden obligadas a saber y conocer las identidades de quién está detrás de los usuarios registrados. Podría verse como algo necesario para hacer de Internet un entorno más seguro y justo”.

Para este experto “desde hace años hemos sacrificado en aras de la celeridad y la inmediatez, valores importantes para el usuario como es la seguridad o los problemas que han surgido sobre propiedad intelectual, así como la protección de menores o minorías. Hoy en día hay determinadas conductas de desinformación y odio que son un problema. Creo que se podrá ir más allá en esas políticas desde la DSA, pero podría profundizarse aún más”.

Desde un punto de vista práctico, este jurista subraya que su implementación va a depender de la actitud de las plataformas digitales u operadores de gran volumen. “Hemos pasado de un escenario donde no se abordaban los problemas y cada uno campaba a sus anchas. Que esos intermediarios y plataformas digitales no tuvieran responsabilidad propició el crecimiento de Internet, pero también de la piratería y distintas fechorías a través de la red”, afirma Mediano.

Este experto en propiedad intelectual reconoce que la evolución ha sido lenta y positiva y que “aquello no era bueno para nadie”. Pues, a su juicio, “se ha ido incrementando cada vez más la responsabilidad de los prestadores de esos servicios. Todo esto ha estado basado en controles a posteriori de las actividades para retirar contenidos ilegales o productos piratas, como es el caso de Amazon que tiene un sistema para esos productos. Sin embargo, perseguir a los infractores era algo muy complicado de lograr”.

En su opinión, “todos esos controles están bien, sin embargo, hay una posibilidad que sería la opción de desarrollar controles ex ante. Te das de alta en un servicio como usuario y la plataforma debe tener un sistema para confirmar tu identidad, por lo que estarías obligado a darle datos de contactos y las plataformas deberían chequear esos datos. Estos controles ya existen en las entidades financieras, que te piden información si vas a abrir una cuenta. Con este tipo de iniciativas se ponen coto a muchos delitos y conductas irregulares”.

Para Mediano “este tipo de controles podría reducir la problemática existente, porque ya se sabría la titularidad real de los propietarios de dichas cuentas. Se trata de luchar contra el anonimato y que el pirata, cuando se le bloquee la cuenta, no tenga la posibilidad de abrir otra cuenta y seguir operando, y que los prestadores de servicio tengan la obligación de saber quién está detrás de dichas cuentas o actividades. Esto sí que sería oportuno”.

Santiago Mediano, presidente de la firma de Santiago Mediano Abogados (Foto: Santiago Mediano Abogados)

Libertad de expresión y censura

Borja Adsuara, abogado, consultor y profesor universitario, experto en derecho digital, privacidad y protección de datos y uno de los miembros del Comité de Expertos de la Carta de Derechos Digitales, afirma que “a falta de que se nombre el Coordinador de Servicios Digitales y que se conozca cuál va a ser la autoridad administrativa que supervise esta normativa, el problema es quién va a decidir si estamos ante contenidos de discurso de odio o de desinformación; algo que va a afectar de forma notable no sólo a los particulares, sino también a los medios de comunicación”.

Este jurista recuerda que serán los algoritmos de estas plataformas digitales las que detectarán este tipo de contenido irregular. “Si ya es complicado para un juez decidir si un contenido es legal o ilegal, esta norma lo que hace es permitir que las redes sociales o plataformas digitales puedan borrar cualquier contenido, aunque no sea ilegal. Esto hace que estemos ante un problema de libertad de expresión”.

A su juicio “hay que tener claro que, si bien la Constitución Española señala que el único límite de la libertad de expresión es la ley, el reglamento DSA permite a cualquier red social borrar cualquier contenido que ellos quieran, con tal de que quede reflejado previamente en sus normas internas y términos de uso. Las redes sociales van a decidir sobre la veracidad de esos contenidos. Puede ser una manera de limitar la libertad de información y de expresión”.

Desde su punto de vista “es previsible que muchas redes sociales o plataformas digitales, antes de que el Gobierno nacional de turno les abra un expediente sancionador con multas sobre el seis por ciento de la facturación anual, se dediquen a borrar determinados contenidos que puedan molestar a aquella autoridad que pueda abrir dicho expediente sancionador. Estaríamos ante la censura indirecta”.

Adsuara explica que, en este contexto, el Reglamento de Servicios Digitales ha planteado una iniciativa de autorregulación, parecida a la de Autocontrol de la Publicidad, de supervisión de las decisiones de las plataformas de moderación de contenidos. “Que haya un organismo sectorial independiente, formado por un jurado de profesionales, que pueda revisar las quejas de usuarios por el borrado de determinados contenidos por una red social o plataforma. La clave, por tanto, es que ese borrado de contenidos no lo decidan ni los Gobiernos ni las propias redes sociales o plataformas digitales”.

En su opinión, “la norma ya entra en vigor para las plataformas de gran tamaño y todavía no se han aprobado ni la figura del Coordinador de Servicios Digitales, ni los códigos de conducta ni se ha puesto en marcha el organismo sectorial independiente para la resolución extrajudicial de conflictos. Creo que tenemos ser diligentes porque el 7 de febrero del 2024 se aplica totalmente el Reglamento y debemos tener hechos los deberes de implementación para dicha fecha”.

Respecto al impacto directo de la DSA sobre el marco global digital existente, Adsuara afirma que “es cierto que habrá un mayor control de la actividad y los contenidos. El problema es que ese control, en caso de dudas, pueda acabar con determinados contenidos o mensajes que no serían estrictamente ilegales. Con las multas tan grandes que se barajan, de hasta el seis por ciento de la facturación global, es previsible que las plataformas digitales, en caso de duda sobre la legalidad de un contenido, lo borren para evitar esas sanciones”.

En este contexto, el experto señala que «eso hará que se incrementen el número de quejas y de reclamaciones internas, y las plataformas digitales tendrán que contratar personal especializado que supervise la actividad de ‘moderación de contenidos’ que realizan los algoritmos. Habrá que ver si pueden tener un equipo que supervise todas las reclamaciones que les lleguen y en qué plazos”.

Borja Adsuara, abogado, consultor y profesor universitario, experto en derecho digital, privacidad y protección de datos y uno de los miembros del Comité de Expertos de la Carta de Derechos Digitales (Foto cedida a Economist & Jurist por Borja Adsuara)

La necesidad de un marco jurídico común

Javier Fernández-Lasquetty, socio de la firma Elzaburu, subraya que el control final de la actividad de las plataformas digitales “será de la Comisión Europea, a través de una serie de mecanismos de revisión periódica donde se comparte información. Hay que recordar que desde el 2015 la Unión Europea tiene la idea de crear un Mercado Único Digital. Se trata de unificar el marco disperso regulatorio existente tanto a nivel de cada país como de cada prestador de servicios”.

En su opinión “se había creado una especie de jurisdicción digital, un contexto en el que cuando tenías un problema de cualquier tipo, de propiedad intelectual o libertad expresión, por poner un ejemplo, tenías que atenerte a las normas de derecho material y de derecho procesal que establecían las plataformas. Pese a haber elementos comunes, cada una tenía sus criterios. Lo que se pretende ahora es establecer un marco jurídico común que dé seguridad jurídica a plataformas digitales y usuarios, así como a otros operadores de menor tamaño que también tienen sus plataformas”.

Para este jurista, la DSA tiene distintas fases. “En abril la Comisión Europea designó a las grandes plataformas a las que iba a afectar esa norma. Y tenían cuatro meses para implementar estas medidas. Hay algunas obligaciones que ya existían para dichas plataformas, como el establecer puntos de contacto, establecer canales para la interposición de denuncias penales. Esto ya lo hemos visto. Incluso, recordemos el esfuerzo que hizo YouTube para la prevención de infracciones en materia de propiedad intelectual, con un sistema de detectaba automáticamente infracciones”.

La Ley de Servicios Digitales es un reglamento de la UE establecido para modernizar la directiva sobre el comercio electrónico en lo referente a los contenidos ilegales, la publicidad transparente y la desinformación. “Al final incide en la gobernanza de los prestadores digitales, en cuanto a que pretende una mejor regulación del mercado digital. Ya existen normas parecidas en sectores como la banca o la distribución comercial. Ahora esta normativa emana en cada país de una autoridad gubernamental”, afirma.

Desde su punto de vista, “hay algunos criterios establecidos por algunas plataformas que es posible que tengan que readaptarse. El caso de YouTube es importante y es algo que pueda pasar en otras plataformas. Desde una firma como la nuestra gestionamos las denuncias de algunos clientes nuestros sobre contenidos ilícitos o venta de productos falsos. Lo cierto es que la reacción de las plataformas siempre ha sido muy buena. No va cambiar mucho el régimen interno de gestión de estos operadores de Internet”.

El experto continua afirmando que, “al final con la DSA debe mejorar las relaciones entre las grandes plataformas; proveedores de servicios en esas plataformas, otros intermediarios secundarios y los propios usuarios. Lo que se trata es de regular los derechos y obligaciones de cada uno de ellos.  Esta norma hay que ponerla en consonancia con el otro reglamento paralelo: la Digital Markets Act (DMA) o ley de mercados digitales, que es el marco donde se establecen las normas relacionadas con el derecho de la competencia”.

En opinión de este jurista “hasta el momento en la experiencia que tenemos en Elzaburu sobre la defensa de derechos de propiedad intelectual e industrial es buena. Es cierto que tendrán más actividad, pero ya están aplicando algunas de estas medidas. De alguna forma se pretende evitar acudir a los tribunales de Justicia. Sabemos que la Comisión Europea realizará una tutela para comprobar que esas medidas que implementan las plataformas digitales son suficientes. Estamos hablando de una autorregulación tutelada”.

Javier Fernández-Lasquetty, socio de Elzaburu (Foto: Elzaburu)

Click para comentar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *