4 casos sonados de algoritmos discriminatorios y cómo evitarlos


Los algoritmos reflejan y amplifican las discriminaciones existentes en nuestra sociedad. Así, son racistas, machistas, capacitistes, aporofòbics y repiten los patrones estéticos.

«Uno de los principales problemas es que los algoritmos utilizan datos históricos de comportamientos pasados ​​para detectar patrones y, de esta manera, hacer predicciones. Desgraciadamente, la sociedad presenta desigualdades estructurales que implican sesgos respecto colectivos vulnerables, y estos sesgos se encuentran presentes en los datos que se utilizan para crear los algoritmos «, explican desde la entidad DataforgoodBCN.

Otro de los motivos es que, generalmente, «se diseñan para actuar sobre un colectivo en concreto pero luego se usan sobre otros sectores de la población diferentes del primer» cuando «la realidad de los diferentes colectivos no tiene porque ser la misma «.

Cómo puede una máquina decidir por nosotros? Hacemos una recopilación de los cuatro casos más sonados de algoritmos discriminatorios que han trascendido:

Amazon descarta las mujeres

Hace unos años, el gigante de la paquetería diseñó un sistema algorítmico para facilitar la selección de personal que favorecía los hombres frente a las mujeres ya que su plantilla, en ese momento, estaba básicamente formada por hombres, y el algoritmo se había creado con los datos del personal de los últimos diez años. La multinacional prescindió, finalmente, de este sistema.

TikTok censura la disidencia

La publicación alemana Política de red tuvo entrada a documentos internos de Tiktok que apuntaban a que las personas que se dedicaban a moderar los contenidos de la aplicación estaban formadas para eliminar las publicaciones susceptibles al ciberacoso, que incluían personas con diversidad funcional, con cuerpos no normativos o LGTBIQ +. Cuando este información se hizo pública, la red social modificó esta política.

Un algoritmo para una justicia racista

Compas es un sistema de predicción que se utiliza en algunos juzgados de Estados Unidos desde 1998 para determinar las penas que se imponen a las personas acusadas según su riesgo de reincidencia, Que el ‘software’ dictamina segundo la evaluación de 137 aspectos de la persona. ProPublica demostró mediante un escrutinio de datos que el algoritmo presentaba un sesgo racista y determinaba que las personas negras eran más propensas a reincidir.

Hemos escogido nuestras parejas?

La periodista Judith Duportail confirmó que el suerte no existe en su investigación sobre tendremos en el libro ‘El algoritmo del amor’. Y es que esta aplicación de citas, y seguramente otros, tiene un ranking de usuarios secreto ordenado según parámetros como la belleza y el coeficiente intelectual para emparejar seleccionados según nuestro nivel de deseabilidad.

De esta manera, sólo podemos ver aquellas personas que están a nuestro nivel ya que, tal como admite el sistema de inteligencia artificial diseñado para Amazon que utiliza, «las personas con el mismo nivel de atractivo son más susceptibles de entenderse «.

Según explica Duportail, la posición sube cuando recibes ‘match’ y baja si te rechazan. Además, sigue una lógica patriarcal ya que premia a los hombres con estudios y penaliza las mujeres con estudios, al igual que favorece las relaciones entre hombres mayores y mujeres jóvenes.

Algoritmos justos?

Desde DataForGoodBCN apuestan por buenas prácticas como asegurar que los datos que se usarán representan adecuadamente al colectivo de estudio o que los datos con los que se trabajará son las mínimas necesarias para alcanzar el objetivo marcado.

También por elevaluación de impacto de los algoritmos, Un mecanismo de gobernanza que es obligatorio desde que entró en vigor el Reglamento General de Protección de Datos (RGPD) el año 2016, aunque son pocas las entidades que lo han integrado.

A nivel individual, aconsejan que nos informamos sobre los riesgos que derivan y recomiendan un curso gratuito en línea llamado Elementos de la IA.

Hay formación e información para pasar «de estar dirigidos por los algoritmos a dirigir los algoritmos».



(*4*)Publicación original

4 casos sonados de algoritmos discriminatorios y cómo evitarlos