Hypertrucage et fraude bancaire: l’IA au service des mécréants

Après la politique et l’industrie de la porno, voilà l’hypertrucage (ou «deepfakes», en anglais) qui s’invite dans le monde des banques et des affaires. Les institutions bancaires commencent en effet à éduquer leur clientèle quant aux périls que l’intelligence artificielle (l’«IA», ou «AI» en anglais) a en réserve pour piéger les entreprises, en particulier pour aider les criminels à commettre des fraudes bancaires. Oui, vraiment.

Grâce à des applications basées sur l’IA (et suffisamment de vidéos ou de clips sonores souvent chapardés en ligne), des fraudeurs peuvent désormais entraîner un programme pour que celui-ci imite la voix d’agents d’entreprises lors de conversations téléphoniques. Une telle aptitude s’avère évidemment idéale afin de falsifier des instructions verbales, y compris quant à un transfert d’argent urgent qu’il faut réaliser. Bien que cela puisse ressembler à de la science-fiction, ce genre de capacité est bel et bien réel dès maintenant.

Bien que ce genre de capacité ne soit pas à la portée de tous les fraudeurs pour l’instant, on voit déjà poindre ce genre de manœuvre dans le domaine bancaire, un nouveau risque que les entreprises doivent connaître. Ironiquement, les entreprises de grande taille sont particulièrement susceptibles à ce type de fraude, compte tenu de l’ampleur de leurs budgets, de la quantité de leurs transactions habituelles et du fait qu’on pourra souvent trouver en ligne différents clips mettant en vedette leurs dirigeants clés et leur voix.

Question de se parer contre ce genre de fraude, les entreprises ont intérêt à mettre en place des protocoles quant aux instructions verbales de transfert d’argent, y compris en prévoyant un code ou une question/réponse secrète visant à confirmer l’identité de tout interlocuteur lorsqu’il est question de procéder à des transferts bancaires.