“Papà aiutami. Ho bisogno di soldi. Ora”. La truffa dell’ AI Voce

È bastata una frase, detta con la voce inconfondibile del figlio, per spingere un uomo anziano della California a versare 25.000 dollari. Solo dopo ha scoperto che quella voce non era reale. Era una replica creata dall’intelligenza artificiale. Sembra una scena da thriller, e invece è una delle nuove forme di raggiro che sta crescendo a velocità impressionante grazie alle potenzialità – e ai rischi – dell’IA. Un fenomeno di cui si è occupata recentemente anche la CNN, lanciando un campanello d’allarme: le truffe con voci clonate stanno diventando un problema globale. Sempre più persone raccontano di aver ricevuto telefonate da familiari che sembrano in preda al panico, che implorano aiuto, che parlano con la loro stessa voce di sempre. Solo che dietro quella voce non c’è davvero la persona amata, ma una macchina. O meglio, qualcuno che con pochi secondi di audio ha generato una versione perfetta, credibile, spaventosamente familiare. E oggi, bastano davvero pochi secondi. Basta un video pubblico su TikTok, Instagram, YouTube. Basta un messaggio vocale in una chat che finisce nella rete sbagliata. E quella voce che conosci da sempre può essere replicata da software sempre più accessibili. Non si tratta solo di soldi. Il vero danno, in questi casi, è psicologico. È il senso di colpa, lo smarrimento, il trauma di chi si rende conto di essere stato ingannato nel punto più vulnerabile: l’affetto. Le vittime raccontano di sentirsi “svuotate”. Di non fidarsi più del telefono. Di iniziare a dubitare anche delle chiamate vere. È un impatto silenzioso, ma profondissimo, che ci tocca tutti, anche se ancora non ci ha colpiti in prima persona. Ecco alcuni consigli semplici, ma efficaci:
Fermati e verifica. Se ricevi una richiesta d’aiuto da un familiare, anche se ti sembra urgente, fai una verifica diretta. Chiama con un altro numero. Scrivi. Fai domande che solo la persona reale può sapere. Create una parola in codice. Una frase familiare, solo vostra, da usare in caso di emergenza. Un dettaglio segreto che può salvarvi da un errore. Occhio ai social. Tutto quello che pubblichiamo è potenzialmente “materia prima” per l’IA. Non significa sparire dalla rete, ma essere più consapevoli di ciò che condividiamo. Parla con i tuoi cari. Spesso, le vittime più vulnerabili sono gli anziani. Parliamo con i nostri genitori e nonni. Spieghiamo loro che queste cose succedono davvero, e che possono difendersi.
È evidente: non possiamo affrontare tutto questo da soli. Le aziende tecnologiche devono fare la loro parte. Non si può permettere che strumenti così potenti finiscano nelle mani sbagliate senza controllo. Serve regolamentazione, serve etica, serve trasparenza. Ma la verità è che, mentre la tecnologia corre, le regole spesso arrancano. L’intelligenza artificiale ci sta cambiando. Nel bene e nel male. Può salvare vite, ma può anche ingannare chi amiamo. Può semplificare la quotidianità, ma anche trasformarsi in una trappola sofisticata. Per questo è fondamentale essere preparati, essere consapevoli, essere umani. Parlare, condividere, informarsi. Perché nessuna tecnologia sarà mai più forte di una comunità che sa prendersi cura di sé.

A cura di Christian Apadula

Condividi articolo