Strategie Crittografiche Contro i Deepfake nelle Elezioni USA

Con l’imminente tornata elettorale per la presidenza degli Stati Uniti, crescono le apprensioni riguardo l’abuso delle tecnologie di intelligenza artificiale generativa per fini di disordini e manipolazione. Questa sfida non è confinata solo al territorio americano ma si estende anche oltre l’Atlantico, in particolare con l’attenzione rivolta alle imminenti elezioni per il rinnovo del Parlamento Europeo previste dal 6 al 9 giugno 2024.

Per fronteggiare tali minacce, l’amministrazione della Casa Bianca ha implementato misure avanzate per certificare l’autenticità di video e documenti attribuiti al Presidente Joe Biden. A partire dal 2020, l’anno di inizio mandato del presidente in carica, gli USA hanno introdotto specifici controlli sull’uso dell’IA, ma i rapidi progressi tecnologici, segnatamente con l’emergere di ChatGPT e l’espansione globale delle capacità AI, hanno reso imprescindibile un’azione più decisa che tenesse conto delle novità più recenti.

Un aspetto fondamentale da considerare è che oggi l’intelligenza artificiale è diventata accessibile a una vasta platea e il suo utilizzo non richiede conoscenze tecniche approfondite. Di recente, la FCC ha bandito le cosiddette chiamate “robocall” che replicano la voce di Biden attraverso l’intelligenza artificiale, tuttavia, è chiaro che proibire non è sufficiente. È dunque cruciale fornire strumenti semplici e accessibili per verificare l’autenticità delle informazioni.

Per garantire la genuinità delle comunicazioni ufficiali, sia in forma scritta che video, emanate dalla Casa Bianca, si sta valutando l’adozione di sistemi di verifica crittografica. Il principio è che l’origine di un messaggio o documento generi un codice hash unico per ogni contenuto, che viene poi criptato utilizzando una chiave privata specifica. La decifrazione è possibile soltanto mediante una chiave pubblica corrispondente; se la decodifica si conclude con successo, l’autenticità della fonte viene automaticamente attestata. Questo metodo assicura che eventuali contenuti falsificati, non avendo l’hash originale, non possano essere decifrati con la chiave pubblica, garantendo così un’efficace protezione contro i tentativi di manipolazione tramite deepfake.


Ultime Notizie

  • Cuckoo: L’Emergente Pericolo Malware per gli Utenti di macOS

    Di recente, gli esperti di sicurezza di Kandji hanno identificato un nuovo tipo di malware che colpisce i dispositivi macOS, battezzato “Cuckoo” per il suo metodo parassitario di operare. “Abbiamo deciso di chiamare questo malware Cuckoo perché, simile all’uccello noto per deporre le sue uova nei nidi altrui, utilizza le risorse del sistema ospite per…

  • Il governo indiano considera molte AI anti-indiane

    Il governo indiano valuta molte AI come anti-indiane Il governo indiano si trova attualmente ad affrontare una sfida senza precedenti: valutare l’effettiva minaccia rappresentata dall’intelligenza artificiale (AI) e le sue implicazioni per la sicurezza nazionale. Secondo fonti ufficiali, il Dipartimento per lo Sviluppo dell’Intelligenza Artificiale del Ministero degli Affari Interni ha identificato diversi sistemi di…

  • Elon Musk fa causa a OpenAI: L’azienda doveva essere no-profit

    Il celebre imprenditore Elon Musk ha intentato una causa legale contro OpenAI, l’azienda che aveva contribuito a fondare con l’obiettivo di garantire che l’intelligenza artificiale fosse utilizzata per il bene dell’umanità. La questione principale riguarda il fatto che OpenAI avrebbe dovuto essere un’organizzazione no-profit, ma successivamente è diventata una società a scopo di lucro. Elon…

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *