MADRID, 09 (SERVIMEDIA)

Únicamente un pequeño porcentaje de las 500 páginas web más visitadas de España, desde sitios gubernamentales hasta plataformas de ‘streaming’ o de contenido para adultos, respeta los requisitos recogidos en el Reglamento General de Protección de Datos (RGPD).

Esta es una de las principales conclusiones de un estudio en el que han participado la Universitat Oberta de Catalunya (UOC), la Universidad de Girona y el Centro de Investigación en Ciberseguridad de Cataluña (Cybercat).

Los resultados, publicados en la revista ‘Computers & Security’, se obtuvieron tras la aplicación de nuevos métodos de análisis automatizado de las técnicas de rastreo y del cumplimiento de las normativas de privacidad en Internet.

La investigación también determinó que estos algoritmos de análisis detectaron la utilización de técnicas de rastreo poco conocidas por el usuario medio, como los ‘web beacons’ (píxeles invisibles o espía, o balizas web) o las tecnologías que se basan en la huella digital del navegador.

La aprobación del Reglamento General de Protección de Datos por parte del Parlamento Europeo en 2016, que en España tomó la forma de ley orgánica de protección de datos personales y garantía de los derechos digitales en 2018, «debía marcar un antes y un después en la protección de la privacidad de los ciudadanos»; no obstante, «la implementación real de la regulación avanza con paso desigual», según el estudio.

En ese sentido, Cristina Pérez-Solà, de la UOC, reseñó que «aún queda mucho camino por recorrer» en este ámbito, puesto que «muchas de las páginas web analizadas informan al usuario del uso de ‘cookies’, pero o bien no esperan a tener el consentimiento del usuario para utilizarlas o bien adquieren este consentimiento de manera incorrecta».

A partir del análisis de los 500 sitios web más visitados en España, según el ‘ranking’ de Alexa, el estudio concluye que un «gran porcentaje» de páginas no dispone de un formulario adecuado para recabar el consentimiento de los usuarios para el uso de ‘cookies’ y otras herramientas de recopilación de datos.

Quizás también te interese:  La Oferta Pública Inicial de Google: Un Punto de Inflexión

De hecho, sólo el 8,9% de estas páginas que recogen el consentimiento de los usuarios correctamente lo aplica con éxito.

Además, se observó el uso de casi siete ‘cookies’ de rastreo de media por web y 11 ‘web beacons’, pequeños fragmentos de código insertados en la página que sirven para recopilar de forma invisible ciertos tipos de información del tráfico web.

Del mismo modo, un 10% de las páginas analizadas utiliza técnicas de huella digital del navegador, también difíciles de detectar.

Al margen de los resultados del análisis, la importancia de la investigación reside en los algoritmos utilizados para estudiar el cumplimiento de las leyes de privacidad en Internet, un método que se basa en «una combinación de automatización e inspección manual» y que «navegan automáticamente por las páginas web analizadas y van tomando capturas de pantalla que después se inspeccionan manualmente», según Cristina Pérez-Solà.

Por último, esta investigadora de la UOC explicó que «conocer el detalle de las normativas que pueden aplicarse en cada momento y saber evaluar qué técnicas está usando una página web es una tarea que queda fuera del alcance de la mayoría de usuarios», una realidad ante la que «el ‘Websites Level of Confidence (WLoC) que proponemos permite conocer el estado de cumplimiento de las páginas web más populares y ver cómo éste evoluciona en el tiempo sin necesidad de tener conocimientos legales o técnicos».