Cuando hacemos un ‘like’ trabajamos para las GAFAM


¿Qué pasa cuando hacemos un ‘like’ en las redes? «Trabajamos para las GAFAS«(Google, Amazon, Facebook, Apple y Microsoft). Así de clara ha sido la investigadora de la Universidad Jaume I (UJI) Jessica Izquierdo, Que ha explicado al Congreso Social Móvil organizado por Sello que «somos la mina de donde se extrae el material precioso que son los datos, pero también somos los mineros porque somos nosotros los que las hacemos públicas».

Estos datos son infinitamente numerosas y generan beneficios multimillonarios cuando hablamos de cifras como una media de 40.000 búsquedas por segundo en Google O 1.000 millones de iPhones en activo. Las grandes tecnológicas son las propietarias de la economía digital, Que está basada en la atención, es decir, en el tiempo que dedicamos a cada actividad. ¿Qué nos interesa? Qué inclinaciones políticas tenemos? ¿Qué orientación sexual? Las GAFAM están presentes en todas nuestras actividades, apunta la ponente.

Lo están porque tienen presencia en todos los ámbito ya desde las infraestructuras con la producción de dispositivos, sistemas de nube, comercio electrónico, inteligencia artificial, vehículos no tripulados y, incluso, medios digitales. También porque «nos hemos definido en relación a la vinculación con las redes», continúa Izquierdo: «Hablamos de estar dentro o fuera de esta sociedad».

Y las tecnológicas contribuyen a que así siga siendo a través de los contenidos que crean y que las usuarias y usuarios creamos, que «los proporcionan nuestro comportamiento de consumo».

Las GAFAM «tienen el big data en su adn y expandirán a todas las áreas que les permitan seguir obteniendo esta información«, Dice Izquierdo, que explica la incursión de las tecnológicas en el ámbito de los medios de comunicación en el internet de las cosas y de la salud con sensores ópticos y corporales que monitorizan constantes vitales con el objetivo de obtener datos de nuestro cuerpo.

«Registran nuestras vidas, las transforman en datos y las convierten en su propiedad privada. Mantener este poder es posible gracias a una falta de regulación «, concluye, y se pregunta: «¿De qué mes pueden ser propietarios?»

Jose María Enriquez, de Universidad de Valladolid (UVa), Ha hecho autocrítica y ha lanzado el balón a las personas consumidoras. Considera importante que asumimos responsabilidad en el uso de las nuevas tecnologías para utilizar conscientemente los datos y reducir la obsolescencia percibida, es decir, la moda que nos puede hacer descartar un dispositivo.

«Por 2025 se prevé la generación de más de 460 exabytes de datos diarios. Su almacenamiento supone más de 830 millones de toneladas de dióxido de carbono anuales. Pero, aparte de las empresas, estamos dispuestas las consumidoras a la desconexión voluntaria?», es pregunta.

algoritmos sesgados

Estos datos personales que son sesgadas porque la sociedad digital lo es se usan para entrenar algoritmos que a menudo discriminan a las personas por su género o su raza. Una muestra de ello es el proceso de selección que se hizo en Amazon basado en datos de sus ingenieros, la mayoría hombres, que decía que las mujeres no eran aptos para el trabajo.

Lola Burgueño, de la Universidad Abierta de Cataluña (UOC), Estudia estas consecuencias muchas veces involuntarias que dañan la imagen de las empresas e instituciones. Un hecho cada vez más dado por las mismas compañías y las administraciones que intentan compensar estos datos para evitar sesgos. «Un primer paso es la ley de protección de datos», concreta.

Ante esto, pide abrir el sistema de aprendizaje automático de estos algoritmos conocido como ‘caja negra’ por su opacidad y más poder para la ciudadanía, que se ve obligada a aceptar las ‘cookies’ y las cláusulas para utilizar los servicios.



Publicación original

Cuando hacemos un ‘like’ trabajamos para las GAFAM
Salir de la versión móvil