Oasis, un buscador de los algoritmos que gobiernos y grandes empresas usan con nosotros


L ‘Observatorio de Algoritmos con Impacto Social (OASI) es un buscador de los algoritmos que grandes empresas y gobiernos utilizan con nosotros organizado por nombre, ámbito y país donde se desarrollan, entre otra información, como si tienen un sesgo discriminatorio.

Se trata de una herramienta sin precedentes creada por Fundación Eticas, Que trabaja para una tecnología participativa, y que nos muestra cómo estos sistemas de aprendizaje automatizados están más presentes en nuestras vidas de lo que creemos y como sus funcionalidades toman decisiones y tienen unas consecuencias en nuestra sociedad.

Como los avances tecnológicos, la entidad avisa que la herramienta se mantendrá en continua actualización, Y que lo hará de forma colaborativo. Es por ello que obre un canal para añadir algoritmos o modificar los existentes.

La transparencia los algoritmos es una demanda del sector de la tecnología social que hace un pequeño camino adelante con este buscador, que se complementa con información sobre qué son los algoritmos de ‘machine learning’ y cuál es su impacto. A pesar de ello, seguimos sin saber cómo funcionan la mayoría de estos algoritmos que tienen un funcionamiento interno conocido como «caja negra» por su opacidad.

El objetivo es, según la Fundación, entender mejor los riesgos y retos que representan. Estos sistemas automatizados con inteligencia artificial pueden servir para prever desastres naturales o para hacer una detección precoz de enfermedades a través del análisis de datos, pero también hemos visto cómo pueden generar discriminaciones por género, por etnia o por edad, y como pueden ser injustos e ineficientes.

Los algoritmos del Estado

Si buscamos cuáles son los algoritmos registrados que se han puesto en marcha en el Estado y que, por tanto, nos afectan sin rodeos, encontramos varios ejemplos a cuestionar.

El primero es un sistema para ofrecer oportunidades de trabajo del Servicio Público de Empleo Estatal (SEPE) cuestionado por sus deficiencias. En el momento que se puso en marcha, las prestaciones bajaron un 50%.

En segundo lugar, encontramos uno de la Policia Nacional para identificar denuncias falsas que genera un sesgo socioeconómico ya que tiene en cuenta la gramática y la morfología de los informes. También el Gobierno utiliza un sistema desde el departamento de Justicia para identificar el riesgo de reincidencia de las personas reclusas.

Finalmente, hay un algoritmo para detectar discursos de odio en Twitter que aún no se ha implementado y que podría discriminar ciertos grupos sociodemográficos. Creado por un analista de datos y desarrollado entre la Universidad Autónoma de Barcelona y el Ministerio del Interior, Es capaz de filtrar unas 500 palabras relacionadas con insultos, temas sensibles y colectivos que suelen sufrir violencia. Cada día, identifica entre 3.000 y 4.000 tuits con estas características.



Publicación original

Oasis, un buscador de los algoritmos que gobiernos y grandes empresas usan con nosotros
A %d blogueros les gusta esto: