Per a qui o per a què s'usa la IA? És realment indispensable? A qui beneficia? Quin cost mediambiental comporta? Contribueix a construir societats més participatives i democràtiques o sosté jerarquies ja existents? Qui té accés a ella? Qui participa en el debat? Algorace busca donar resposta a aquestes qüestions i analitzar les aplicacions de les eines tecnològiques i els algorismes a l'estat espanyol per a evitar el biaix racial que en tenen.
La iniciativa també pretén aportar eines per a generar “un debat ampli sobre l'impacte que té l'ús de la IA en les poblacions racialitzades”. L'equip del projecte està format per sis integrants, tres d'ells persones racialitzades i tres blanques, especialistes en IA, antiracisme, anticolonialisme i comunicació.
A través del diàleg amb població racialitzada per a conscienciar sobre les conseqüències de l'ús racista de la IA, AlgoRace està duent a terme diverses campanyes destinades a sensibilitzar i conscienciar sobre com la Intel·ligència Artificial, els algorismes i els grans conjunts de dades “fomenten la discriminació de persones racializadas, reproduint l'opressió racial”. L'objectiu final és traslladar recomanacions a les institucions per a combatre el biaix racial de les noves tecnologies.
A finals de maig de 2022 van organitzar les #JornadasDAR: Democràcia, Algorismes i Resistències amb les entitats Algorights i Lafede.cat al Canòdrom Ateneu d'Innovació Democràtica de Barcelona. Les jornades van reflexionar al voltant d'una intel·ligència artificial més democràtica, decolonial i respectuosa amb els drets humans.
A Barcelona, l'Estratègia municipal per a l'impuls ètic de la intel·ligència artificial que s'ha desenvolupat en el marc de l'Eurocities Digital Forum treballa conjuntament per desenvolupar un model comú de registre d’algoritmes que garanteixi l’ús adequat de les dades.