Possono clonare la tua voce, e non immagini come possono usarla: difenditi così e incrocia le dita

Al momento l’evoluzione della realtà tecnologica ci parla di qualcosa che fino a pochi anni fa non era minimamente ipotizzabile.

Pensiamo, per esempio a tutto ciò che riguarda la questione Intelligenza Artificiale. Niente di più inatteso, in un certo senso. Il quotidiano è più che mai segnato dall’evoluzione di questa specifica possibilità. Testi, video, audio, ogni cosa in qualche modo può essere modificata attraverso l’intervento di una intelligenza per l’appunto non umana. Basta dare un’occhiata ai social per capire in sintesi quello che può potenzialmente accadere. Ogni tipologia di prodotti, in quel senso, può essere tranquillamente alterata.

Possibili rischi
Fattore prevenzione – InformazioneOggi

Tutto è cambiato, nel quotidiano dei cittadini italiani e chiaramente non solo dal momento in cui è comparsa all’orizzonte una nuova specifica innovazione. Stiamo parlando di ChatGPT. Chiaramente il cambiamento riguarda la specifica presenza di tale elemento.

L’innovazione in questione, ha prodotto negli ultimi mesi una serie di favorevoli situazioni legate al’utilizzo specifico di quella che si definisce Intelligenza Artificiale. In parallelo, però, non sono poche le situazioni sgradevoli legate alla stessa funzione, verificatesi un po’ovunque.

Stiamo parlando di situazioni dall’impronta truffaldina. In molti casi, questo è cronaca di ormai tutti i giorni, si utilizza tale specifico strumento per la produzione e la diffusione stessa di tentativi più o meno velati di truffa. Il web, come sappiamo, è pieno zeppo di tali situazioni.

L’elemento più sgradevole in merito alla dinamica citata in precedenza è sicuramente legato alla possibilità che si riesca a clonare la voce di un individuo all’interno di logiche più che mai truffaldine. Richieste di soldi ed altri tentativi vari di approfittare inesorabilmente del prossimo.

Il tutto può essere possibile, per il malintenzionato di turno, approfittando del fatto che sui social, spesso, per non dire sempre, sono presenti le voci di milioni e milioni di persone. Utilizzare, per esempio un file audio per prendere un piccolo frammento di audio utile e da li dare il via alla clonazione.

Possono clonare la tua voce, oggi è realtà: come sfuggire alle cattive intenzioni dei truffatori

Uno degli ultimi casi riportati dalle cronache è di pochissimi giorni fa ed è relativo all’esperienza di una ragazza 15enne americana, precisamente dello Stato dell’Arizona. Malintenzionati senza scrupoli hanno infatti chiamato la madre della ragazza raccontando di averla rapita e chiedendo per la sua liberazione un riscatto di ben 1 milione di dollari.

La donna una volta accertatasi che la ragazza stava in realtà bene e completamente al sicuro ha subito immaginato potesse trattarsi di una truffa, all’interno della quale compare la voce clonata della 15enne.

Generalmente gli elementi che dovrebbero mettere in allarme i cittadini in merito a possibili tentativi di truffa sono i seguenti:

  • una richiesta urgente di denaro;
  • la richiesta di inviare criptovalute buoni regalo;
  • una qualità della registrazione vocale perfetta e l’assenza di rumori di fondo;
  • incoerenza in ciò che viene raccontato dalla voce familiare.

Altro consiglio più che mai utile è quello di eliminare dai social file video che in qualche modo possono contenere la voce dello stesso utente. Da li può avere inizio tutto. Massima attenzione dunque.

Impostazioni privacy