Rate this post

Del estudio La evolución del dato: Del big data a la inteligencia artificial, de EAE, se extrae que el no cumplimiento de la normativa GDRP ha supuesto hasta septiembre de 2021 una cifra en multas superior a los ascienden a los 1.000 millones de euros, siendo Amazon la empresa a la que más multas se le ha impuesto, seguida por Whatsapp y Google.

“El hecho de que las empresas tengan una información sobre los usuarios que, antes no tenían, y herramientas como el big data para explotarla abre la puerta a considerar dónde queda el usuario ubicado en esta situación. Determinar si el big data es beneficioso para los usuarios es una tarea muy compleja. En algunos casos permite la existencia de ciertos servicios útiles pero, por otro lado, un mal uso del big data puede dar pie a abusos de los derechos de los usuarios”, advierte Pau Sabaté, co autor del estudio de EAE Business School.

En este sentido, el Reglamento General de Protección de Datos (RGDP) (GDPREU) regula la protección de las personas respecto a sus datos personales y la circulación de estos datos en todo el territorio europeo, que entró en vigor en 2016 y se aplica desde 2018, tal y como se recoge en el estudio de EAE. Este reglamento asegura los derechos de los usuarios en la recogida de datos, la introducción de derechos como el derecho al olvido, la limitación de su tratamiento y de los datos, obligación de hacer un análisis de los riesgos o el consentimiento de los usuarios, entre otros.

La irrupción del ecosistema digital ha generado de forma exponencial una cantidad de datos que parece no tener límite ni frenar su creación. En los últimos 5 años, se ha multiplicado por 4 la cantidad de datos digitales creados o replicados en todo el mundo, y se estima que para el 2025 se al menos doblará esta cifra, tal y como recoge el informe.

El coste energético del big data es otro tema a abordar. El consumo eléctrico de todos los data centers juntos ya representa un 1% de la demanda global de electricidad.

 Otro de los campos donde el big data está más inmaduro es en entender y gestionar el impacto que tiene a nivel social. Por ejemplo, tal y como señala el estudio, los sistemas de recomendación pueden crear burbujas informativas donde la gente sólo recibe información de la parte de la sociedad cercana a su ideología, a modo de sesgo de auto confirmación. Los sistemas de recomendación también son susceptibles de ser utilizados para difundir noticias falsas.

Otro riesgo puede ser la concesión de una hipoteca.  Al lanzar el modelo predictivo, puede dar menos posibilidades de financiación a un perfil social determinado, y por tanto de desarrollo, creando una posible desigualdad social.

“Este tipo de problemas, relacionados con la ética y la desigualdad, corresponden al área de fairness dentro del machine learning, y son difíciles de resolver, ya que no sólo requieren de conocimientos técnicos, sino también de conocimientos sociales”, explica el co-autor del estudio y profesor de EAE Business School, Aleix Ruiz de Villa.