Una Inteligencia artificial racista al servicio de la vigilancia masiva


La inteligencia artificial está vulnerando derechos humanos? Es el debate que ha centrado la mesa redonda sobre securización de fronteras y ciudades durante la jornada sobre inteligencia artificial organizada por Espacio Sociedad Abierta con la participación de Lafede.cat I m4Social.

alerta racismo

Los datos biométricos que se recogen con esta tecnología no nos permiten decidir si queremos participar o no, y se usan en controles fronteras para discriminar personas migrantes, ha denunciado Ana Valdivia, Investigadora en inteligencia artificial y ciencia de datos al King’s College de Londres. De hecho, ha habido casos de solicitudes de personas demandantes de asilo denegadas porque sus testigos se contradecían con los datos recogidos. «Se le da más importancia al resultado del algoritmo que el testimonio de la persona migrante», explicó.

Por su parte, Youssef M.Ouled, periodista e investigador, ha hablado del racismo estructural evidenciado con la pandemia para chocar el enfoque antirracista que debe tener la inteligencia artificial. La recogida de datos puede ser útil para denunciar las discriminaciones que sufren las personas migrantes, una obra denegada por las mismas instituciones, que en cambio permiten que se recojan para otros fines, como por ejemplo informar a la policía de su situación irregular o invadir sus comunicaciones a través de las redes sociales.

Un negocio con muchos beneficios

Pero qué empresas desarrollan estos algoritmos? Qué datos utilizan? ¿Qué métricas extraen y qué márgenes de error hay? desde Flujos de seguridad han estudiado los contratos de las principales empresas de seguridad fronteriza, que son Frontex I Lisa. Aunque son públicos, no hay transparencia en las empresas subcontratadas y en las descripciones. Valdivia afirma que las inversiones multimillonarias de estas multinacionales indican que hay un oligopolio dentro de este ecosistema.

De hecho, Abolir Frontex ha pedido la expulsión de esta agencia europea para opacidad y vulneración de derechos: «Utilizan dinero público para deportar personas migrantes y no se nos ha preguntado «.

Desde Security Flows también han analizado la taxa d’error del algoritmo idem, que es superior en mujeres racializadas.

Ouled ha denunciado el lucro de la industria de la securitzación, con unos beneficios que aumentan cada año, y donde hay empresas como Eulen, El Corte Inglés o Indra, Que son puertas giratorias para la clase política. «Son las mismas empresas que se encargan de programas de acogida y de integración, de la limpieza de los CIE, los sensores de las vallas, los equipos patrulleros de la guardia civil y la armada y de la detención y expulsión de personas migrantes, que da beneficios a aerolíneas como AirEuropa«. Además, muchas invierten en armas.

El periodista ha mencionado también la industria de los drons que se está implantando en los controles migratorios. «Lo que se vulnera es el derecho a la vida, el derecho a migrar, a la libre circulación», denuncia.

vigilancia masiva

Amnistía Internacional ya ha denunciado que se está amenazando la privacidad en países como los Estados Unidos, pero no estamos tan lejos, afirma el periodista: en Madrid, en Lavapies, donde hay presencia de personas racializadas, hay una fuerte presencia de cámaras y una retórica mediática que contribuye a legitimar y expulsar esta población aunque los índices de delincuencia no sean más altos que en otros barrios. En Barcelona también se han comprado cámaras con potencial de engranar estos ‘softwares’ para poner en determinados barrios.

Y es que, como ha apuntado Nora Miralles, investigadora Observatorio Derechos Humanos y Empresas en el Mediterráneo (ODHE), «La tecnología puede ser neutra, pero el contexto y su uso no lo sonidos» y se ha puesto «al servicio de la vigilancia masiva y del control» de las personas migradas y racializadas bajo la pretexto del terrorismo, Pero también de toda la población con la pretexto de la seguridad.

«Vemos una tendencia a aumentar las técnicas de control, que suponen cada vega más datos privados de la ciudadanía almacenadas sin que esté debidamente regulado o protegido», añadió. Además, ha denunciado que no se sabe cómo se almacenan estos datos ni dónde están ni cuándo y cómo se destruyen.

La pandemia, escenario de pruebas

La pandemia ha sido un escenario propicio para probar nuevos sistemas de control para garantizar el cumplimiento de las medidas o medir la temperatura de las personas con drones. Unos sistemas que vulneran los derechos civiles, que ya se han utilizado en manifestaciones, y que parece que han venido para quedarse. «Vamos hacia el castigo de comportamientos individuales de forma descontextualizada, hacia una cultura más punitiva«, Critica Miralles, que explica que los modelos de detección de comportamientos sospechosos activan cuando las personas corren o bailan.

La crisis ha contribuido a legitimar estos mecanismos, pero antes ya se estaban implementando, por ejemplo, para detectar ‘noticias falsas’. el concepto ‘Ciudades inteligentes’ también es un marco propicio para implementarlas con la pretexto del turismo y el progreso, considera Miralles, que alerta de la posibilidad de conectar estas tecnologías con el mando de la policía para dar más poder al Estado para controlar la ciudadanía y para criminalizar las personas migrantes y la disidencia política.

Durante el confinamiento, «las personas migrantes no salían a la calle ni para comprar medicinas porque era la garantía de ser controlado por fuerzas y cuerpos de seguridad», añade Ouled, que señala que se debe tener en cuenta la participación de personas racializadas en este debate y reflexionar sobre quién tiene la capacidad de estar.

Retos de futuro

No todas las experiencias son negativas. En Francia la inteligencia artificial se ha utilizado con la policía para comprobar que no había vulneraciones de derechos durante las manifestaciones. En el Reino Unido los cuerpos de seguridad deben publicar los datos sobre las personas detenidas: los resultados son que se realizan más controles a personas racializadas que blancas, pero que estas cometen menos delitos.

Para hacer frente a los grandes retos que plantea esta tecnología, hay que exigir transparencia a las empresas más y formar grupos interdisciplinares para entender cómo afecta a los derechos humanos, reivindica Valdivia. Mientras tanto, Ouled apuesta por «desnormalitzar la hipervigilància y desecuritzar la política «.

Miralles propone combatir esta cultura punitiva y sus instituciones repensando las fronteras, los castigos, los CIE, porque «los delitos tienen contextos y causas que estas tecnologías no solucionan». También apuesta por la prohibicioó del reconocimiento facial, Prohibido ya en San Francisco. Además, considera que se deberían promover las empresas éticas y castigar las que vulneran derechos.

En definitiva, la inteligencia artificial es sólo una herramienta. La lucha para que sea justa es el antirracismo y el antifascismo. Por ello, «hay que hacer pedagogía, Alarmar sobre la extrema derecha y construir sociedades diversas y tolerantes «.



Publicación original

Una Inteligencia artificial racista al servicio de la vigilancia masiva
A %d blogueros les gusta esto: