Truffe alimentate da AI e cosa fare al riguardo

AI è qui per aiutare, che si tratti di redigere un'email, creare qualche concept art o gestire una truffa con persone vulnerabili facendo loro pensare di essere un amico o un parente in difficoltà. L'AI è così versatile! Ma poiché alcune persone preferirebbero non essere truffate, parliamo un po' di cosa fare attenzione.

Negli ultimi anni abbiamo visto un enorme aumento non solo nella qualità dei media generati, dal testo all'audio alle immagini e ai video, ma anche in quanto economicamente e facilmente questi media possono essere creati. Lo stesso tipo di strumento che aiuta un concettista a inventare mostri o navicelle fantasy, o permette a un non madrelingua di migliorare il suo inglese commerciale, può essere utilizzato anche in modo maligno.

Non aspettatevi che il Terminator bussi alla vostra porta e vi convinca a partecipare a una truffa Ponzi; si tratta delle solite truffe con cui abbiamo dovuto confrontarci negli anni, ma con un tocco generativo di AI che le rende più facili, economiche o convincenti.

Questo non è certo un elenco completo, ma solo alcuni dei trucchi più ovvi che l'AI può potenziare. Ci assicureremo di aggiungerne di nuovi man mano che appaiono in libertà, o di eventuali ulteriori misure che potete adottare per proteggervi.

Clonazione vocale di familiari e amici

Le voci sintetiche esistono da decenni, ma è solo negli ultimi uno o due anni che i progressi della tecnologia hanno permesso di generare una nuova voce a partire da pochi secondi di audio. Ciò significa che chiunque abbia mai trasmesso in pubblico la propria voce - ad esempio in un reportage, un video su YouTube o sui social media - è vulnerabile alla clonazione della propria voce.

I truffatori possono e hanno usato questa tecnologia per produrre versioni false convincenti di persone care o amici. Questi possono essere fatti dire qualsiasi cosa, naturalmente, ma al servizio di una truffa sono più propensi a realizzare un clip vocale chiedendo aiuto.

Ad esempio, un genitore potrebbe ricevere una segreteria telefonica da un numero sconosciuto che suona come suo figlio, dicendo che gli hanno rubato le cose mentre viaggiava, una persona gli ha prestato il telefono e potrebbero Mamma o Papà inviare denaro a questo indirizzo, destinatario di Venmo, azienda, ecc. Si possono immaginare facilmente varianti con problemi alla macchina ('non mi rilasceranno l'auto finché qualcuno non paga'), problemi medici ('questo trattamento non è coperto dall'assicurazione'), ecc.

Questo tipo di truffa è già stata perpetrata utilizzando la voce del Presidente Biden! Hanno preso i responsabili di ciò, ma i futuri truffatori saranno più prudenti.

Come puoi difenderti dalla clonazione vocale?

Prima di tutto, non preoccuparti di cercare di individuare una voce fasulla. Migliorano ogni giorno di più e ci sono molti modi per mascherare eventuali problemi di qualità. Persino gli esperti vengono ingannati!

Tutto ciò che proviene da un numero, un indirizzo email o un account sconosciuti dovrebbe essere considerato automaticamente sospetto. Se qualcuno ti dice che è un tuo amico o familiare, contatta la persona nel modo in cui faresti normalmente. Probabilmente ti diranno che stanno bene e che si tratta (come avevi supposto) di una truffa.

I truffatori tendono a non fare un secondo tentativo se vengono ignorati - mentre un familiare probabilmente lo farebbe. Va bene lasciare un messaggio sospetto in sospeso mentre ci si pensa.

Phishing personalizzato e spam tramite email e messaggistica

Tutti riceviamo spam ogni tanto, ma l'AI che genera testo sta rendendo possibile inviare email di massa personalizzate per ogni singolo individuo. Con le violazioni dei dati che avvengono regolarmente, molte delle tue informazioni personali sono lá fuori.

È una cosa ricevere una di quelle email di spam del tipo 'Clicca qui per vedere la tua fattura!' con allegati ovviamente spaventosi che sembrano tanto poco impegnativi. Ma con anche un minimo di contesto, all'improvviso diventano abbastanza credibili, utilizzando località recenti, acquisti e abitudini per far sembrare che si tratti di una persona reale o di un vero problema. Armati di qualche dato personale, un modello di linguaggio può personalizzare in pochi secondi migliaia di queste email per migliaia di destinatari.

Quindi ciò che prima era 'Gentile Cliente, troverà in allegato la sua fattura' diventa qualcosa come 'Ciao Doris! Sono con il team promozionale di Etsy. Un articolo che hai guardato di recente è ora in offerta al 50%! E la spedizione al tuo indirizzo a Bellingham è gratuita se utilizzi questo link per ottenere lo sconto.' Un esempio semplice, ma comunque. Con un vero nome, abitudine agli acquisti (facile da scoprire), località generale (idem) e così via, all'improvviso il messaggio è molto meno ovvio.

In fin dei conti, si tratta comunque di spam. Ma questo tipo di spam personalizzato un tempo doveva essere realizzato da persone mal pagate in fattorie di contenuti in paesi stranieri. Ora può essere fatto su larga scala da un LLM con migliori capacità di prosa di molti scrittori professionisti!

Come puoi combattere lo spam via email?

Come per lo spam tradizionale, la vigilanza è la tua migliore arma. Ma non aspettarti di poter distinguere il testo generato da AI da quello scritto da umani al volo. Sono pochi quelli in grado di farlo, e certamente non (nonostante le affermazioni di alcune aziende e servizi) un altro modello AI.

Per quanto migliorato possa essere il testo, questo tipo di truffa ha comunque la sfida fondamentale di farti aprire allegati o link sospetti. Come sempre, a meno che tu non sia al 100% sicuro dell'autenticità e dell'identità del mittente, non fare clic o aprire nulla. Se sei anche solo un po' perplesso - e questa è una buona sensazione da coltivare - non fare clic, e se hai qualcuno competente a cui inoltrarlo per un secondo parere, fallo.

Frode di identità e verifica 'falso tu'

A causa del gran numero di violazioni dei dati degli ultimi anni (grazie, Equifax!), è sicuro dire che quasi tutti noi abbiamo una buona quantità di dati personali che si aggirano sul dark web. Se segui delle buone pratiche di sicurezza online, gran parte del pericolo è mitigato perché hai cambiato le tue password, abilitato l'autenticazione a due fattori e così via. Ma l'AI generativo potrebbe presentare una nuova e seria minaccia in questo settore.

Con così tanti dati su qualcuno disponibili online e, per molti, persino un clip o due della loro voce, è sempre più facile creare una persona AI che suona come un obiettivo e ha accesso a gran parte dei fatti utilizzati per verificare l'identità.

Pensateci così. Se aveste problemi a accedere, non riusciste a configurare correttamente l'app di autenticazione o aveste perso il telefono, cosa fareste? Chiamereste probabilmente il servizio clienti - e loro 'verificherebbero' la vostra identità utilizzando alcuni dati banali come la vostra data di nascita, il numero di telefono o il numero di previdenza sociale. Metodi ancora più avanzati come 'fatti un selfie' stanno diventando più facili da aggirare.

L'operatore del servizio clienti - per quanto sappiamo, anche un AI! - potrebbe benissimo accondiscendere a questo 'falso tu' e accordargli tutti i privilegi che avreste se chiamaste davvero. Cosa possa fare da quella posizione varia ampiamente, ma nulla di tutto ciò è buono!

Come per gli altri punti di questa lista, il pericolo non è tanto quanto realistico sarebbe questo 'falso tu', ma che sia facile per i truffatori effettuare questo tipo di attacco ampiamente e ripetutamente. Non molto tempo fa, questo tipo di attacco di impersonazione era costoso e impegnativo e, di conseguenza, sarebbe stato limitato a bersagli di alto valore come persone ricche e CEO. Oggi potreste costruire un flusso di lavoro che crea migliaia di agenti di impersonazione con un controllo minimo, e questi agenti potrebbero chiamare autonomamente i numeri dei servizi clienti di tutti gli account conosciuti di una persona - o addirittura crearne di nuovi! Solo un pugno deve avere successo per giustificare il costo dell'attacco.

Come puoi combattere la frode di identità?

Come era prima che gli AI giungessero a potenziare gli sforzi dei truffatori, la 'Cybersecurity 101' è la tua migliore opzione. I tuoi dati sono già lì fuori; non puoi rimettere il dentifricio nel tubo. Ma puoi assicurarti che i tuoi account siano adeguatamente protetti contro gli attacchi più ovvi.

Cybersecurity 101: Come proteggere la tua sicurezza online e la tua privacy digitale

L'autenticazione a due fattori è facilmente il passo singolo più importante che chiunque può compiere qui. Qualsiasi tipo di attività seria dell'account va direttamente al tuo telefono, e i tentativi di accesso sospetti o di cambiare le password compariranno in email. Non trascurare queste avvertenze o marcarle come spam, anche (soprattutto!) se ne stai ricevendo molte.

Deepfakes generati da AI e ricatti

Probabilmente la forma più spaventosa di truffa AI nascente è la possibilità di ricatti utilizzando deepfake di immagini di te o di una persona cara. Possiamo ringraziare il mondo in rapido movimento dei modelli di immagini aperte per questa prospettiva futuristica e terrificante! Persone interessate a certi aspetti della generazione di immagini all'avanguardia hanno creato flussi di lavoro non solo per rendere visibili i corpi nudi, ma per attaccarli a qualsiasi volto riescano a ottenere una foto. Non c'è bisogno di spiegare come vengono già utilizzati.

Ma una conseguenza non intenzionale è un'estensione della truffa comunemente chiamata 'revenge porn', ma più correttamente descritta come distribuzione non consensuale di immagini intime (anche se come 'deepfake', potrebbe essere difficile sostituire il termine originale). Quando le immagini private di qualcuno vengono rilasciate attraverso un hack o un'ex vendicativa, possono essere utilizzate come ricatto da parte di un terzo che minaccia di pubblicarle ampiamente a meno che non venga pagata una somma.

L'AI potenzia questa truffa facendo sì che non sia necessario che esista effettivamente un'immagine intima in primo luogo! Il volto di chiunque può essere aggiunto a un corpo generato da AI e, sebbene i risultati non siano sempre convincenti, è probabilmente sufficiente per ingannare te o altri se è pixelato, a bassa risoluzione o in altro modo parzialmente oscurato. E questo è tutto ciò che serve per spaventare qualcuno affinché paghi per mantenere il segreto - anche se, come la maggior parte delle truffe di ricatti, il primo pagamento è improbabile che sia l'ultimo.

Come puoi lottare contro i deepfake generati da AI?

Sfortunatamente, il mondo verso cui ci stiamo dirigendo è uno in cui immagini nude false di quasi chiunque saranno disponibili su richiesta. È spaventoso e strano e disgustoso, ma purtroppo il gatto è uscito dalla borsa qui.

Nessuno è contento di questa situazione tranne i cattivi. Ma ci sono un paio di cose a favore di tutti noi potenziali vittime. Può essere un conforto freddo, ma queste immagini non sono realmente tue e non ci vogliono foto nude reali per dimostrarlo. Questi modelli di immagine possono produrre corpi realistici in alcuni aspetti, ma come altri AI generativi, sanno solo su cosa siano stati addestrati. Quindi le immagini false mancheranno di segni distintivi, per esempio, e probabilmente saranno ovviamente sbagliate in altri modi.

E se la minaccia difficilmente diminuirà mai del tutto, c'è sempre più ricorso per le vittime, che possono legalmente obbligare gli host delle immagini a rimuovere le fotografie o vietare agli imbroglioni di siti dove le pubblicano. Man mano che il problema cresce, cresceranno anche i mezzi legali e privati per combatterlo.

TechCrunch non è un avvocato! Ma se sei vittima di ciò, informa la polizia. Non si tratta solo di una truffa, ma di molestie, e benché non puoi aspettarti che la polizia faccia il tipo di lavoro di detective sul profondo internet necessario per rintracciare qualcuno, questi casi talvolta trovano risoluzione, o gli imbroglioni sono spaventati dalle richieste inviate al proprio ISP o host del forum.