Les cybercriminels semblent être très friands d’IA générative. Microsoft prévient que la technologie a évolué au point que les escroqueries en ligne peuvent désormais être réalisées en quelques minutes, plutôt qu’en jours ou en semaines, et avec peu ou pas de connaissances techniques.
Dans sa dernière édition du rapport Cyber Signals, Microsoft écrit que l’IA a commencé à abaisser les barrières techniques pour les fraudeurs et les cybercriminels à la recherche de leurs propres outils de productivité.
L’éventail des cyber-escroqueries pour lesquelles l’IA peut être utilisée est très large. Par exemple, ces outils peuvent aider à créer des appâts d’ingénierie sociale en analysant et en grattant des données Web pour créer des profils détaillés d’employés ou d’autres cibles.
Il existe également des cas sophistiqués de fraude, utilisant des avis sur des produits améliorés par l’IA et des vitrines générées par l’IA, où les escrocs créent de faux sites Web entiers et de fausses marques de commerce électronique, ainsi que falsifient l’historique de l’entreprise et les avis des clients. Les escrocs peuvent même utiliser l’IA pour concevoir des chatbots de service client qui mentent sur des frais inexpliqués et d’autres anomalies.
Il a longtemps été rapporté que l’évolution de la technologie deepfake en fait un outil populaire pour les escrocs. Nous l’avons vu être utilisé pour faire de faux soutiens de célébrités, se faire passer pour des amis et de la famille, et même, comme le souligne Microsoft, pour des entretiens d’embauche et de candidature par appels vidéo. La société a noté que la synchronisation labiale retardée, les voix robotiques ou les expressions faciales étranges sont autant de signes que la personne à l’autre bout de l’appel vidéo peut être un deepfaker.
Microsoft conseille aux consommateurs de se méfier des offres à durée limitée, des comptes à rebours et des avis suspects. Ils doivent également vérifier les domaines et les avis avant d’effectuer un achat et éviter d’utiliser des méthodes de paiement qui ne sont pas protégées contre la fraude, telles que les virements bancaires directs et les paiements en crypto-monnaies.
Les escroqueries au support technique sont également en hausse. Bien que l’IA ne soit pas toujours impliquée, les escrocs du support technique se font souvent passer pour du personnel d’assistance informatique légitime d’entreprises bien connues et utilisent des tactiques d’ingénierie sociale pour gagner la confiance de leurs utilisateurs cibles. L’outil Windows « Quick Assist » est souvent utilisé dans de telles escroqueries, permettant aux attaquants d’utiliser une connexion à distance pour afficher l’écran ou de prendre le contrôle de l’écran pour résoudre le problème. Par conséquent, Microsoft ajoute un avertissement à l’assistance rapide et demande aux utilisateurs de cocher une case pour confirmer les implications de sécurité du partage de leurs écrans. Microsoft recommande également d’utiliser l’aide à distance au lieu de l’assistance rapide dans le support technique interne.
这篇文章虽然重点关注人工智能诈骗的危险,但也指出微软将继续保护其平台和客户免受网络犯罪分子的侵害。在2024年4月至2025年4月期间,微软阻止了价值40亿美元的欺诈企图,拒绝了4.9万个欺诈性合作伙伴注册,并阻止了每小时约160万次机器人注册尝试。