L’articolo esplora come le IA, oramai capaci di superare agilmente il «Test di Turing», ad oggi abbiano sviluppato capacità avanzate, come la creazione di deepfake e di «gemelli digitali». Queste tecnologie comportano rischi significativi di manipolazioni e di frodi, sollevando una serie di interrogativi bioetici. L’autore sottolinea la necessità di normative appropriate e strumenti tecnologici atti a verificare l’autenticità dei contenuti multimediali con il fine ultimo di proteggere la verità.
Nel 1950, Alan Turing, uno dei padri dell’informatica, propose una domanda cruciale: «le macchine possono pensare?». Per dare risposta a questo interrogativo, teorizzò il «Test di Turing». In questo esperimento, un esaminatore umano interagisce, tramite una conversazione scritta, con due interlocutori: un essere umano e una «macchina». L’obiettivo dell’esaminatore è determinare chi dei due interlocutori sia l’umano. Se la macchina riesce a rispondere in modo indistinguibile dall’umano, ingannando l’esaminatore, si può affermare che abbia superato il test e che, quindi, sia intelligente.
Attualmente, a distanza di settantacinque anni, le IA hanno raggiunto un livello di sofisticazione che Turing non avrebbe potuto immaginare. Non solo superano il test, ma sono in grado di creare deepfake, contenuti multimediali falsi ma incredibilmente realistici, capaci di «imitare» le sembianze di chiunque. Questa straordinaria capacità di imitazione, tuttavia, presenta insidie inquietanti, in quanto esiste il concreto pericolo di un utilizzo fraudolento e manipolatorio delle possibilità offerte dalla tecnica. Basti pensare alla creazione di fake news sempre più sofisticate, alla diffusione di video compromettenti creati con la tecnica del deepfake, etc.
Ma non è tutto. Una nuova minaccia si presenta all’orizzonte: quella dei «gemelli digitali cattivi». Si tratta di repliche digitali di persone reali, create tramite IA e «alimentate» da informazioni del «gemello reale» trovate online. Questi gemelli digitali possono essere utilizzati per attacchi informatici sempre più articolati, sfruttando lo stile di scrittura e la personalità della vittima per ingannare altri utenti. Immaginate, ad esempio, un hacker che, attraverso il vostro gemello digitale, riesca a convincere i vostri contatti a fornirgli informazioni riservate su di voi o a effettuare delle transazioni economiche.
L’uso dei deepfake e dei «gemelli digitali» solleva questioni bioetiche cruciali. È necessario sviluppare un quadro normativo che bilanci il progresso tecnologico e la protezione della verità.
Il diritto, in risposta alla diffusione dei deepfake, sta cercando di far introdurre dalle Big Tech degli elementi by design che permettano di appurare immediatamente se i contenuti multimediali dinanzi ai quali l’utente si trova siano stati generati da un’IA (si pensi, ad esempio, alle filigrane su immagini e filmati). Tuttavia, questo approccio, sebbene utile, non è risolutivo.
Per poter «combattere ad armi pari» è necessario sviluppare un’IA addestrata a riconoscere i deepfake. Questo strumento, una volta sviluppato, dev’essere facilmente accessibile agli utenti finali, i quali lo potranno utilizzare per verificare l’autenticità dei contenuti multimediali in loro possesso. Questo sistema di feedback dovrebbe essere pubblico per evitare che entità private detengano il potere di decidere cosa sia vero e cosa sia falso. L’UE potrebbe assumere un ruolo guida nella regolamentazione dell’IA, affrontando la sfida cruciale di creare un sistema di feedback affidabile. Se da un lato lo sviluppo tecnologico è spesso trainato da altri player internazionali, è altrettanto vero che il controllo normativo e bioetico non rientra tra le priorità di molti.
Proprio come ogni altra tecnologia, anche l’IA richiede un bilanciamento tra innovazione e sicurezza. È indispensabile dotarsi di strumenti tecnici e normativi (bioeticamente orientati) che tutelino la verità, garantendo ai cittadini un uso sicuro di queste potenti tecnologie.

© Bioetica News Torino, Marzo 2025 - Riproduzione Vietata