• Kirill

DeepFake, la personne qui vous parle n’est peut-être pas celle que vous croyez

Connaissez-vous DeepFake ? L’intelligence artificielle qui permet de synthétiser des visages pour faire dire ce que l'on veut à n'importe qui ? Et bien ce type de technologie est aussi déclinable pour synthétiser des voix !

De fausses vidéos tout à fait convaincantes de personnalités politiques prononçant des absurdités circulent actuellement sur le web (https://www.youtube.com/watch?v=cQ54GDm1eL0). Il n'aura pas fallu longtemps avant que cette technologie soit utilisée pour la fraude. Le Wall Street Journal rapporte que des cybercriminels auraient tenté d'extorquer 220 000 euros à une société du secteur de l’énergie anglaise en imitant la voix du PDG au téléphone.

La victime, persuadée que la voix était celle de son patron, notamment parce qu'elle avait le même accent allemand et le même modèle de voix, a immédiatement effectué le transfert. Cependant, une fois la transaction effectuée, les fraudeurs ont rappelé, demandant un autre transfert d'argent urgent. À ce moment-là, le PDG est devenu méfiant et a refusé de payer.

La société d'assurance en a produit un rapport et a remboursé la somme versée. L'incident montre que la fraude vocale, alimentée par l'intelligence artificielle, constitue une menace croissante pour la cybersécurité, tant pour les entreprises que pour les consommateurs. A l'heure actuelle, ce type de fraude serait en constante augmentation. Cependant, d'après les experts de Desa-news, une certaine expertise technique et une puissance de calcul non-négligeable serait nécessaires pour que des modèles comme celui-ci fonctionnent bien. La prochaine fois qu'un appel de ce genre vous parvient, la vigilance est de mise.

0 vue

2015 © WANNATH - MENTIONS LÉGALES & CRÉDITS

This site was designed with the
.com
website builder. Create your website today.
Start Now