Come difendersi da un'intelligenza artificiale che clona la tua voce
Una nuova tecnologia contro il deepfake impedisce la clonazione delle voci e quindi protegge dall'uso ingannevole: "AntiFake" rende più difficile per gli strumenti di intelligenza artificiale leggere le registrazioni vocali.
Le voci sintetiche non sono solo un argomento delicato per celebrità e politici. I recenti progressi nel campo dell'intelligenza artificiale generativa (AI) consentono di ottenere una sintesi vocale dal suono autentico, al punto che le persone non sono più in grado di distinguere a distanza se stanno parlando con una persona familiare o con un deepfake. Se la voce di una persona viene "clonata" da terzi senza il suo consenso, i malintenzionati possono usarla per inviare qualsiasi messaggio. Questo è l'aspetto negativo di questa tecnologia, che ha un potenziale utile grazie all'assistenza personalizzata o alla creazione deliberata di avatar e non solo fornisce concorrenza a oratori e attori professionisti o materiale per le bande di truffatori.
Tuttavia, il potenziale di abuso della clonazione di voci reali con il software per la voce profonda è ovvio: le voci sintetiche possono essere facilmente utilizzate per ingannare gli altri. E bastano pochi secondi di registrazione vocale per clonare in modo convincente la voce di una persona. Chiunque invii messaggi vocali anche occasionali o parli in segreteria telefonica ha già fornito al mondo materiale più che sufficiente per essere clonato.
L'informatico e ingegnere Ning Zhang ha sviluppato un nuovo metodo per impedire la sintesi vocale non autorizzata prima che avvenga. Zhang, che insegna informatica e ingegneria presso la McKelvey School of Engineering della Washington University di St. Louis, ha creato uno strumento chiamato "AntiFake". Zhang lo ha presentato a una conferenza specialistica a Copenaghen, in Danimarca, alla fine di novembre 2023. Se vuoi saperne di più, puoi già leggere la presentazione che Zhang ha tenuto lì negli atti della conferenza.
Prevenire i cloni AI della tua voce
I metodi convenzionali per individuare i deepfake hanno effetto solo quando il danno è già stato fatto. AntiFake, invece, parte dalla prevenzione per impedire la sintesi dei dati vocali in un deep voice fake. Lo strumento è stato progettato per battere i contraffattori digitali al loro stesso gioco: utilizza tecniche simili a quelle usate dai criminali informatici per la clonazione vocale per proteggere le voci dalla pirateria e dalla contraffazione. Il codice sorgente del progetto AntiFake è liberamente disponibile per tutti.
Il software anti-fake voice è stato progettato per rendere più difficile ai criminali informatici l'analisi dei dati vocali e la lettura delle caratteristiche importanti per la sintesi vocale. "Lo strumento utilizza una tecnica di intelligenza artificiale avversaria che originariamente faceva parte della cassetta degli attrezzi dei criminali informatici, ma che ora utilizziamo per difenderci da loro", spiega Zhang, spiegando cosa succede dal punto di vista tecnico: "Disturbiamo un po' il segnale audio registrato, distorcendolo o interrompendolo quel tanto che basta perché suoni ancora bene agli ascoltatori umani" - rendendolo al contempo inutile per l'addestramento di un clone vocale. Approcci simili esistono già per la protezione della copia di opere su internet - ad esempio, immagini che appaiono ancora naturali all'occhio umano, ma le cui informazioni non dovrebbero più essere leggibili dalle macchine a causa delle informazioni di interferenza presenti nel file dell'immagine che sono invisibili agli esseri umani.
Ad esempio, il software Glaze rende le immagini inutilizzabili per l'apprendimento automatico di modelli AI di grandi dimensioni, e alcuni trucchi proteggono dal riconoscimento facciale nelle foto. "AntiFake garantisce che sia difficile per i criminali sintetizzare le nostre voci e imitarci quando pubblichiamo i nostri dati vocali", spiega Zhang a proposito dello scopo dello strumento da lui sviluppato.
I metodi di attacco sono in costante miglioramento e gli aggressori stanno diventando sempre più professionali, come dimostra l'attuale aumento degli attacchi informatici automatizzati alle aziende, alle infrastrutture e alla pubblica amministrazione in tutto il mondo. Per garantire che AntiFake possa stare al passo con il panorama dinamico delle minacce e resistere il più a lungo possibile ai modelli di sintesi, Zhang e il suo dottorando Zhiyuan Yu hanno sviluppato il loro strumento in modo che sia il più ampio e generale possibile.
Il laboratorio di Zhang ha testato lo strumento contro cinque moderni sintetizzatori vocali. Si dice che abbia raggiunto un tasso di protezione del 95 percento, anche contro sintetizzatori commerciali sconosciuti per i quali AntiFake non è stato specificamente progettato. Zhang e Yu hanno provato il loro strumento con 24 partecipanti umani provenienti da diversi gruppi di popolazione. Per uno studio comparativo rappresentativo sarebbero necessarie ulteriori prove e un gruppo più numeroso.
Secondo questi dati, AntiFake è già in grado di proteggere dall'impersonificazione le registrazioni vocali più brevi, che sono statisticamente il formato più comune per la falsificazione da parte dei cybercriminali. Tuttavia, i creatori dello strumento ritengono che non ci sia nulla che impedisca di estenderlo anche a documenti audio più lunghi o alla musica, al fine di proteggere i documenti più grandi dagli abusi. Al momento gli utenti interessati dovrebbero farlo da soli, il che richiede competenze di programmazione. Il codice sorgente stesso è disponibile su internet.
"Prima o poi saremo in grado di proteggere completamente le registrazioni vocali", dice Zhang all'American Association for the Advancement of Science con fiducia, perché i sistemi di intelligenza artificiale sono ancora suscettibili di essere interrotti. Quella che è considerata una grande lacuna nell'uso critico dell'IA per la sicurezza può essere sfruttata nella lotta contro i deepfake. Tuttavia, anche i metodi e gli strumenti devono essere continuamente adattati alle possibilità dei criminali informatici, imparando e crescendo con loro.
Spettro della scienza
Siamo partner di Spektrum der Wissenschaft e vogliamo rendere più accessibili a te informazioni fondate. Segui Spektrum der Wissenschaft se ti piacciono gli articoli.
Immagine di copertina: Shutterstock / fizkes
Gli esperti della scienza e della ricerca riferiscono sulle ultime scoperte nei loro campi – competenti, autentiche e comprensibili.