7.1 C
Madrid
miércoles, abril 24, 2024

Europa estrecha el cerco al contenido ilícito en la red, a los patrones oscuros y al porno

Debes leer

Europa estrecha el cerco a las grandes plataformas digitales y el soporte jurídico que protege a los consumidores y a los colectivos más vulnerables da un paso más en febrero con la entrada en vigor del nuevo Reglamento Europeo de Servicios Digitales, que pone coto -aún más- a los contenidos ilícitos, a los patrones oscuros y al acceso al porno.

El Reglamento de Servicios Digitales (DSA, por sus siglas en inglés) fue aprobado en 2022 y algunos de sus puntos más importantes, sobre todo los referidos a las plataformas digitales y buscadores de gran tamaño (Instagram, TikTok, Youtube, Google o Bing) ya han comenzado a aplicarse, pero la ley entra en vigor y se despliega por completo a lo largo del mes de febrero.

Así, las plataformas en línea «de muy gran tamaño» (aquellas que son utilizadas por al menos el 10 por ciento de los 450 millones de europeos) deben ya cumplir requisitos más exigentes para evitar la proliferación de contenidos falsos, para asegurar la transparencia de sus algoritmos y para aumentar la protección de los consumidores frente a los patrones oscuros (los recurrentes «sólo queda una habitación como la que estás buscando»), los productos ilegales y las falsificaciones.

Y eso implica, por ejemplo, que los tres portales principales de pornografía en internet (Pornhub, Stripchat y XVideos) -que superan ese 10 por ciento por tener más de 45 millones de usuarios mensuales- están obligados por ley a adoptar medidas para proteger a los menores y evitar de una forma efectiva que puedan acceder a esos contenidos, lo que incluye la implementación de instrumentos de verificación de edad más sofisticados que la simple «autodeclaración».

La ley, que desde el próximo 17 de febrero será de obligado cumplimiento para todos los países de la UE y para todas las empresas que prestan servicios en Europa, obliga a las plataformas, buscadores y empresas a ajustar sus algoritmos a las preferencias de los consumidores, de forma que éstos puedan elegir los contenidos que quieran ver sin que prime siempre el historial de búsquedas.

Prohibido personalizar anuncios para menores

Y aunque las plataformas y las empresas podrán seguir recopilando información sobre las preferencias y los intereses de los «navegantes» y de consumidores a través de esos algoritmos y de la inteligencia artificial y podrán «conocer» sus perfiles para personalizar sus anuncios, esta práctica -la de personalizar los anuncios- queda prohibida en el caso de los niños y de los jóvenes menores de edad.

Los patrones oscuros («solo quedan tres plazas en ese avión»; «las entradas se están agotando») que tratan de precipitar las compras estarán a partir de ahora más regulados, deberán siempre ajustarse a la verdad y los usuarios podrán con más facilidad denunciar su utilización y su abuso.

Entre los principales objetivos del Reglamento que entra ahora en vigor destacan, además de una mayor protección de los consumidores, las normas para hacer frente a los contenidos y a los productos ilícitos, a los discursos de odio, a la desinformación, los bulos y la manipulación.

Pero el Reglamento Europeo incide sobre todo en la protección de los menores, y las plataformas en línea de «muy gran tamaño» (Instagram, TikTok o YouTube) y los motores de búsqueda de gran tamaño (Google o Bing) están ya obligados a reforzar la protección de los derechos de los usuarios, a garantizar su seguridad y a frenar la difusión de contenidos ilícitos o inapropiados -algunas de estas tecnológicas ya han comenzado a aplicar medidas-.

La norma pone el acento en tratar de garantizar la seguridad de los menores ante los riesgos que corren cuando están en internet, como el acceso al porno, el acoso, el hostigamiento, las informaciones falsas, los contenidos inapropiados o las personas que se hacen pasar por otras.

Y para ello, las plataformas digitales deben ya evaluar los posibles riesgos para los niños o jóvenes que usen sus servicios y adoptar medidas que sirvan para minimizar esos riesgos, similares a los que ya se usan en otros ámbitos (como las categorías de edad en las películas de cine o en los videojuegos) o frente a otros peligros (el alcohol o el tabaco).

Los menores, especialmente protegidos

El reglamento europeo comenzó a aplicarse en 2022 y las plataformas digitales y los motores de búsqueda más grandes ya han tenido que implementar muchas de las medidas previstas en la ley para proteger a los consumidores, especialmente a los menores, pero a partir de ahora todas, incluidas las más pequeñas, tienen que cumplir los mismos requisitos.

Datos de la propia Comisión Europea revelan que algunas de las más grandes (Snapchat, Google, Youtube, Instagram o Facebook) ya han adoptado medidas y no permiten a los anunciantes por ejemplo mostrar publicidad personalizada que se ajuste a los perfiles de los menores de edad; o que TikTok y Youtube convierten de forma automática en «privadas» las cuentas de los menores de 16 años para que sólo sus contactos puedan ver sus vídeos.

El reglamento de Servicios Digitales -que prevé multas que pueden alcanzar hasta el 6 por ciento de los beneficios globales de la empresa que incumpla- se suma a un amplio entramado legislativo europeo y nacional, que se completa entre otras leyes con el Reglamento Europeo de Protección de Datos (ya en vigor), que protege a las personas cuando están cediendo sus datos y al que se sumará la futura ley de Inteligencia Artificial.

Aunque le queda un largo recorrido, la Ley europea de Inteligencia Artificial -primera del mundo- permitirá o no el uso de esta tecnología en función del riesgo que suponga para las personas, y prohibirá por ejemplo los sistemas de reconocimiento o de categorización biométrica por creencias políticas, religiosas, filosóficas o por la raza y la orientación sexual de las personas.

Agencia Efe

- Anuncio -spot_img

Más artículos

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Anuncio -spot_img

Último artículo