Strategie Crittografiche Contro i Deepfake nelle Elezioni USA
Con l’imminente tornata elettorale per la presidenza degli Stati Uniti, crescono le apprensioni riguardo l’abuso delle tecnologie di intelligenza artificiale generativa per fini di disordini e manipolazione. Questa sfida non è confinata solo al territorio americano ma si estende anche oltre l’Atlantico, in particolare con l’attenzione rivolta alle imminenti elezioni per il rinnovo del Parlamento Europeo previste dal 6 al 9 giugno 2024.
Per fronteggiare tali minacce, l’amministrazione della Casa Bianca ha implementato misure avanzate per certificare l’autenticità di video e documenti attribuiti al Presidente Joe Biden. A partire dal 2020, l’anno di inizio mandato del presidente in carica, gli USA hanno introdotto specifici controlli sull’uso dell’IA, ma i rapidi progressi tecnologici, segnatamente con l’emergere di ChatGPT e l’espansione globale delle capacità AI, hanno reso imprescindibile un’azione più decisa che tenesse conto delle novità più recenti.
Un aspetto fondamentale da considerare è che oggi l’intelligenza artificiale è diventata accessibile a una vasta platea e il suo utilizzo non richiede conoscenze tecniche approfondite. Di recente, la FCC ha bandito le cosiddette chiamate “robocall” che replicano la voce di Biden attraverso l’intelligenza artificiale, tuttavia, è chiaro che proibire non è sufficiente. È dunque cruciale fornire strumenti semplici e accessibili per verificare l’autenticità delle informazioni.
Per garantire la genuinità delle comunicazioni ufficiali, sia in forma scritta che video, emanate dalla Casa Bianca, si sta valutando l’adozione di sistemi di verifica crittografica. Il principio è che l’origine di un messaggio o documento generi un codice hash unico per ogni contenuto, che viene poi criptato utilizzando una chiave privata specifica. La decifrazione è possibile soltanto mediante una chiave pubblica corrispondente; se la decodifica si conclude con successo, l’autenticità della fonte viene automaticamente attestata. Questo metodo assicura che eventuali contenuti falsificati, non avendo l’hash originale, non possano essere decifrati con la chiave pubblica, garantendo così un’efficace protezione contro i tentativi di manipolazione tramite deepfake.
Lascia un commento