Arnaque au faux colis : l'IA vocale au service des escrocs
Une nouvelle arnaque au faux colis utilise des messages vocaux synthétisés par IA pour tromper les victimes. Les escrocs exploitent des services comme ElevenLabs pour cloner des voix humaines, avec plus de 15 000 cas recensés en un mois en France.
« L’IA vocale, accessible à quiconque avec un compte ElevenLabs ou un équivalent chinois, clone une voix humaine à partir d’un échantillon de quelques secondes. » — Siecle Digital
Que faut-il retenir ?
- Les escrocs utilisent des messages vocaux synthétisés par IA pour tromper les victimes.
- L’IA vocale clone une voix humaine à partir d’un échantillon de quelques secondes.
- Plus de 15 000 victimes ont été recensées en un mois en France.
- Le préjudice estimé est de 4 millions d’euros.
Pourquoi cette nouvelle compte-t-elle ?
Cette arnaque montre comment l'IA vocale peut être utilisée pour tromper les utilisateurs, augmentant les risques de cybersécurité. Les professionnels doivent être vigilants face à ces nouvelles techniques de fraude.
15 000 victimes recensées en un mois
Public concerné : grand public
Comment se protéger des arnaques au faux colis utilisant l'IA vocale ?
Pour vous protéger, raccrochez et appelez le vrai service client avec le numéro officiel. Vérifiez l'existence du colis directement auprès du service de livraison.
Commentaires (0)
💡 Aucun lien externe ni code HTML accepté. Soyez respectueux. Les commentaires sont modérés avant publication.
Aucun commentaire pour le moment. Soyez le premier !