Microsoft avverte che l'intelligenza artificiale sta rendendo le truffe online più facili e veloci
Aggiornato il: 41-0-0 0:0:0

I criminali informatici sembrano essere molto affezionati all'IA generativa. Microsoft avverte che la tecnologia si è evoluta al punto che le truffe online possono ora essere completate in pochi minuti, piuttosto che in giorni o settimane, e con poche o nessuna conoscenza tecnica.

Nella sua ultima edizione del rapporto Cyber Signals, Microsoft scrive che l'intelligenza artificiale ha iniziato ad abbassare le barriere tecniche per le frodi e gli attori criminali informatici che cercano i propri strumenti di produttività.

La gamma di truffe informatiche per cui l'intelligenza artificiale può essere utilizzata è molto ampia. Ad esempio, questi strumenti possono aiutare a creare esche di ingegneria sociale scansionando e raschiando i dati Web per creare profili dettagliati di dipendenti o altri obiettivi.

Ci sono anche casi sofisticati di frode, che utilizzano recensioni di prodotti potenziate dall'intelligenza artificiale e vetrine generate dall'intelligenza artificiale, in cui i truffatori creano interi siti Web falsi e marchi di e-commerce falsi, oltre a falsificare la cronologia aziendale e le recensioni dei clienti. I truffatori possono persino utilizzare l'intelligenza artificiale per progettare chatbot del servizio clienti che mentono su addebiti inspiegabili e altre anomalie.

È stato a lungo riferito che l'evoluzione della tecnologia deepfake lo sta rendendo uno strumento popolare per i truffatori. L'abbiamo visto utilizzato per fare false sponsorizzazioni di celebrità, impersonare amici e familiari e persino, come sottolinea Microsoft, per assunzioni e colloqui di candidatura tramite videochiamate. La società ha notato che la sincronizzazione labiale ritardata, le voci robotiche o le strane espressioni facciali sono tutti segni che la persona all'altro capo della videochiamata potrebbe essere un deepfaker.

Microsoft consiglia ai consumatori di diffidare delle offerte a tempo limitato, dei conti alla rovescia e delle recensioni sospette. Dovrebbero anche ricontrollare i domini e le recensioni prima di effettuare un acquisto ed evitare di utilizzare metodi di pagamento privi di protezione dalle frodi, come bonifici bancari diretti e pagamenti in criptovaluta.

Anche le truffe del supporto tecnico sono in aumento. Sebbene l'intelligenza artificiale non sia sempre coinvolta, i truffatori del supporto tecnico spesso fingono di essere personale di supporto IT legittimo di aziende note e utilizzano tattiche di ingegneria sociale per guadagnare la fiducia dei loro utenti target. Lo strumento "Quick Assist" di Windows viene spesso utilizzato in tali truffe, consentendo agli aggressori di utilizzare una connessione remota per visualizzare lo schermo o assumere il controllo dello schermo per risolvere il problema. Di conseguenza, Microsoft sta aggiungendo un avviso a Quick Assist e chiedendo agli utenti di selezionare una casella di controllo per confermare le implicazioni di sicurezza della condivisione dei propri schermi. Microsoft consiglia inoltre di utilizzare "Guida remota" anziché "Assistenza rapida" nel supporto tecnico interno.

这篇文章虽然重点关注人工智能诈骗的危险,但也指出微软将继续保护其平台和客户免受网络犯罪分子的侵害。在2024年4月至2025年4月期间,微软阻止了价值40亿美元的欺诈企图,拒绝了4.9万个欺诈性合作伙伴注册,并阻止了每小时约160万次机器人注册尝试。