¿Para quién o para qué se usa la IA? ¿Es realmente indispensable? ¿A quién beneficia? ¿Qué coste medioambiental conlleva? ¿Contribuye a construir sociedades más participativas y democráticas o sostiene jerarquías ya existentes? ¿Quién tiene acceso a ella? ¿Quién participa en el debate? Algorace busca dar respuesta a estas cuestiones y analizar las aplicaciones de las herramientas tecnológicas y los algoritmos en España para evitar su sesgo racial.
La iniciativa también pretende aportar herramientas para generar “un amplio debate sobre el impacto que tiene el uso de la IA en las poblaciones racializadas” . El equipo del proyecto está formado por seis integrantes, tres de ellos personas racializadas y tres blancas, especialistas en IA, antirracismo, anticolonialismo y comunicación.
A través del diálogo con población racializada para concienciar sobre las consecuencias del uso racista de la IA, AlgoRace está llevando a cabo diversas campañas destinadas a sensibilizar y concienciar sobre cómo la Inteligencia Artificial, los algoritmos y los grandes conjuntos de datos "fomentan la discriminación de personas racializadas, reproduciendo la opresión racial". El objetivo final es trasladar recomendaciones a las instituciones para combatir el sesgo racial de las nuevas tecnologías.
A finales de mayo de 2022 organizaron las #JornadasDAR: Democracia, Algoritmos y Resistencias con las entidades Algorights y Lafede.cat en el Canódromo Ateneo de Innovación Democrática de Barcelona. Las jornadas reflexionaron en torno a una inteligencia artificial más democrática, decolonial y respetuosa con los derechos humanos.
En Barcelona, la Estrategia municipal para el impulso ético de la inteligencia artificial que se ha desarrollado en el marco de la Eurocities Digital Forum trabaja conjuntamente para desarrollar un modelo común de registro de algoritmos que garantice el uso adecuado de los datos.