IA e truffe telefoniche: ora si clona la voce

Una nuova truffa, che sfrutta le tecnologie dell’Intelligenza Artificiale, sta circolando in queste ultime settimane: come viene messa in atto.

Si moltiplicano le truffe con lo scopo dei malviventi di ottenere i dati personali delle vittime per poi sottrarre loro denaro. Raggiri via Sms, email, chiamate o attraverso siti internet che nel corso di questi anni hanno colpito migliaia di persone, in alcuni casi rubando tutti i loro risparmi.

Intelligenza Artificiale truffe telefoniche voce
Smartphone (Foto da Canva) – Bonus.it

Di recente si sarebbe diffusa una nuova truffa che sfrutta l’ormai nota Intelligenza Artificiale (Ai), tecnologia che simula conversazioni o operazioni umane e che negli ultimi anni ha avuto grande successo con lo sviluppo di numerosi chatbot, i software che, appunto, consentono la riproduzione di comportamenti o conversazioni umane.

Intelligenza Artificiale, nuova truffa: in cosa consiste il raggiro

Torna ancora a far parlare di sé l’Intelligenza Artificiale. Questa volta l’Ai è finita al centro di una nuova truffa escogitata negli Stati Uniti da alcuni malviventi e che sarebbe arrivata sino al nostro Paese.

Intelligenza Artificiale voce clonata
Intelligenza Artificiale (Foto da Canva) – Bonus.it

Ma come i criminali sfrutterebbero l’Intelligenza Artificiale? Secondo quanto spiegano gli esperti di Trend Micro, multinazionale che si occupa dello sviluppo di software per la sicurezza informatica, i malviventi utilizzerebbero dei programmi che, grazie all’Ia, sarebbero in grado di riprodurre un timbro di voce umana per poi simulare rapimenti ed estorcere denaro. Prima della chiamata, durante cui avviene la cosiddetta “clonazione vocale“, in modo da essere il più credibili possibile, vengono raccolte informazioni sulla vittima attraverso i social network. Inoltre, sempre attraverso l’Ai, le vittime vengono anche geolocalizzate.

Alcune segnalazioni di frodi simili sono state segnalate negli Stati Uniti, ma anche in Italia. Un esempio, come riporta la redazione di Sky Tg24, è quanto accaduto ad una donna in Arizona che è stata contattata da un anonimo il quale le diceva che la figlia era stata rapita chiedendo un riscatto. Attraverso l’Intelligenza Artificiale, il criminale era riuscito a riprodurre il pianto e la voce della bambina. La donna, però, è riuscita a verificare che la figlia fosse al sicuro e non ha pagato la cifra richiesta.

Per proteggersi da raggiri simili, gli esperti consigliano di non andare nel panico e gestire la situazione, soprattutto difronte a richieste di denaro. Inoltre, utile potrebbe essere quella di stabilire una parola chiave in presenza con i propri cari che non potrà essere scoperta dai malviventi e dall’Ai e che ci può far capire se si tratta di una chiamata reale o di una frode.

Gestione cookie