La profilazione etnica o razziale nelle attività di polizia è ancora “un fenomeno ampiamente diffuso nei Paesi del Consiglio d’Europa, nonostante la crescente consapevolezza sulla necessità di contrastarlo, supportata da una giurisprudenza in evoluzione”. Lo scrive Dunja Mijatović, Commissaria per i diritti umani del Consiglio d’Europa, puntando il dito contro le pratiche di controllo, sorveglianza e investigazione basate su fattori come la razza, il colore, la lingua, la religione, la nazionalità o l’origine nazionale o etnica.
In un Human Rights Comment pubblicato pochi giorni fa, la Mijatović ricorda che la profilazione etnica è favorita dall’eccessivo potere discrezionale lasciato alle forze dell’ordine ma, soprattutto, da taciti pregiudizi, che per esempio portano a fermare più spesso per i controlli minoranze e stranieri, in particolare alle frontiere e in hub come aeroporti o stazioni. Inoltre, nei sistemi penali, ora le minoranze rischiano pene più severe a causa di pregiudizi perpetuati da algoritmi di intelligenza artificiale.
Nell’articolo si citano diverse ricerche condotte in Paesi europei. Una di queste, per esempio, dimostra che in Francia i giovani maschi di origine araba o africana hanno un probabilità di essere fermati e perquisiti venti volte maggiore rispetto a quelli di altri gruppi etnici. Un’altra, che in Inghilterra e Galles questo succede ai neri nove volte e mezzo in più rispetto ai bianchi. La profilazione etnica sembra, inoltre, colpire i rom in tutta Europa, mentre controlli di identità arbitrari verso persone nel Nord Caucaso risultano all’ordine del giorno nella Federazione Russa.
Si moltiplicano, intanto, le sentenze nazionali e internazionali che censurano queste pratiche, citano espressamente la profilazione etnica nei controlli di polizia e arrivano a parlare di “razzismo istituzionale”, come ha fatto la Corte Europea per i Diritti dell’Uomo in un giudizio che vedeva da un lato una famiglia rom, dall’altro la Romania. In più di un caso, i giudici hanno stabilito che, una volta dimostrata la differenza di trattamento, sta ai governi l’onere di provare che è giustificata.
Mijatović parla anche dell’applicazione di algoritmi di machine learning ai sistemi penali, che ha già visto alcune sperimentazioni nel Regno Unito, Olanda, Germania e Svizzera, in particolare nel campo della polizia “preventiva”. Il rischio è che l’intelligenza artificiale agisca secondo i pregiudizi presenti nei dati sui quali ha appreso il proprio mestiere. È già successo, per esempio, con il sistema COMPAS, che negli Usa stimava il rischio di recidiva dei pregiudicati in modo da orientare le decisioni sulla libertà condizionata: a parità di precedenti, per i neri c’era una più alta probabilità di falso positivo (“alto rischio”), per i bianchi una più alta probabilità di falso negativo (previsione di “basso rischio”).
Mijatović, evidenzia l’importanza di “statistiche sulle attività di polizia disaggregate per nazionalità lingua, religione e background nazionale o etnico” e di cause pilota per far emergere queste pratiche e trovare soluzioni. “Gli Stati – aggiunge – dovrebbero dotarsi di leggi che definiscano chiaramente e proibiscano la profilazione discriminatoria e che circoscrivano i poteri discrezionali degli agenti delle forze dell’ordine”. Queste vanno formate e bisogna anche definire standard di “ragionevole sospetto” da applicare per controlli e perquisizioni, le cui motivazioni andrebbero sempre spiegate a chi le subisce.