Intelligenza artificiale in ambito penale, nel contrasto ai crimini. Il Parlamento europeo approva un documento
08 Ottobre 2021Il Parlamento europeo riunito in Assemblea plenaria a Strasburgo ha discusso tra i diversi temi in agenda di questa settimana, dal 4 al 7 ottobre, quello sull’Intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale ottenendo una risoluzione espressa con la votazione di 377 favorevoli (più della metà), 248 contrari e 62 astenuti su 687 votanti.
Tra il dovere di tutelare la sicurezza pubblica da parte delle autorità di polizia e giudiziarie e il diritto alla protezione dei dati personali e alla libertà personale da parte dei cittadini sono sorte perplessità e riflessioni sui rischi etici che l’applicazione delle nuove tecnologie di intelligenza artificiale può comportare nel campo delle indagini investigative e nel contrasto alle attività criminali e illecite informatiche mentre si ritiene opportuno avere una disciplina normativa uniforme nei Paesi dell’Unione Europea.
In un’ottica di orientamento etico in cui le strumentazioni tecnologiche sono sempre un mezzo e non un fine a se medesime per il raggiungimento di un determinato bene comune, sempre nel rispetto e al servizio dell’individuo, i sistemi di intelligenza artificiale devono essere concepiti già nella loro progettazione per la protezione e il vantaggio di tutti i membri della società, in sicurezza, trasparenza e affidabilità nel rispettare l’operatore umano e i diritti fondamentali e per la responsabilità umana. Sono i punti su cui il Parlamento tiene a precisare citando gli Orientamenti etici del gruppo indipendente di esperti ad alto livello sull’IA della Commissione Europea.
Emergono alcuni aspetti su cui prestare attenzione. La consapevolezza, ad esempio, che è la qualità dei dati immessi da cui dipende l’esito fornito dalle applicazioni di IA, generato dagli algoritmi, onde evitare distorsioni e discriminazioni nuove ed amplificare quelle esistenti, in particolare verso determinate comunità razziali o minoranze etniche. Da un lato si richiede la liceità, la correttezza e la specificazione legittima della finalità dei dati personali trattati e dall’altro di correggere o cancellare quei dati «imprecisi che dovrebbero, salvo restrizioni, essere corretti o cancellati e non dovrebbero essere conservati più a lungo del necessario» entro dei limiti temporali chiari per la cancellazione o la revisione periodica.
Il principio di precauzione andrebbe messo in pratica affinché non sia la tecnica a dominare e su cui affidarsi unicamente sui dati, sui profili e sulle raccomandazioni generati dalle macchine ma con l’acquisizione di «conoscenze e dimestichezza per mettere in dubbio o respingere una raccomandazione algoritmica».
C’è la necessità di avere un quadro giuridico specifico che disciplini le condizioni, le modalità e le conseguenze del loro utilizzo indicando le diverse responsabilità da un lato e dall’altro procedure facilmente accessibili di reclamo e di ricorso, compreso quello per via giudiziaria.
Riferisce che vi sono numerosi errori di identificazione e di classificazione rilevati in alcune tecnologie preposte a tale compito. Ed afferma che le persone hanno il diritto di essere identificate in modo corretto, altresì di non venire identificate qualora non sia richiesto per legge.
I diversi usi del riconoscimento facciale, per esempio la verifica di un volto dal vivo da una foto di un documento di riconoscimento o l’identificazione tra una fotografia e un database di immagini, hanno un impatto, di diverso grado, nella protezione dei diritti fondamentali e per questo secondo il Parlamento ci deve essere una finalità giustificata nel rispetto dei principi di proporzionalità e di necessità, motivo per cui chiede una moratoria in merito eccetto per l’identificazione delle vittime di reati finché norme tecniche non assicurino tali principi.
E su tale tema chiede il divieto di utilizzare database privati di riconoscimento facciale, motivato dalla conoscenza che un tipo Clearview AI ha raccolto più di tre miliardi di immagini illegalmente dai social network e altre fonti internet con il conseguente invito a indicare se si fa uso di tale tecnologia o simile di altri fornitori.
Infine l’uso di dati biometrici raccolti ad esempio attraverso il riconoscimento facciale automatizzato nei luoghi pubblici viene considerato ad alto rischio per la protezione dei diritti fondamentali, della dignità umana.
Petar Vitanov, che ha elaborato la proposta nel 2020, durante la discussione di lunedì scorso 4 ottobre, aveva riferito nella sua relazione che l’uso del riconoscimento facciale nei luoghi pubblici «può interferire con la libertà di opinione e di espressione della persona semplicemente perché la protezione dell’anonimato di un gruppo non esiste più se ciascuno nel gruppo possa essere potenzialmente riconosciuto. Questo potrebbe orientare verso quegli individui che cambiano il loro comportamento, ad esempio non partecipano più a dimostrazioni o a scioperi pacifici».