Arnaque : un simple « allo » peut désormais suffire avec l’IA

Avec cette nouvelle arnaque, décrocher son téléphone et répondre machinalement « allo » n’est plus un geste anodin. Avec l’essor du clonage vocal par intelligence artificielle, quelques secondes d’enregistrement suffisent désormais à reproduire une voix et à alimenter des escroqueries redoutablement crédibles.
L’arnaque au téléphone change de visage avec l’intelligence artificielle
Depuis plusieurs semaines, les signalements d’arnaque liés aux appels silencieux se multiplient en France et en Belgique. Le principe paraît banal : un numéro inconnu appelle, la personne décroche, prononce « allo », puis personne ne répond. Quelques secondes plus tard, l’appel coupe. Pourtant, derrière ce silence apparent peut se cacher une collecte vocale destinée à entraîner des outils d’intelligence artificielle.
Selon plusieurs médias spécialisés en cybersécurité, ces arnaques reposent désormais sur des technologies de clonage vocal capables de reproduire une voix humaine avec une quantité infime d’audio. Une étude de McAfee, régulièrement citée dans les alertes relayées depuis début mai, estime que trois secondes de voix suffisent à générer une imitation crédible. Le taux de ressemblance atteindrait même 85 % grâce à des techniques dites de « zero-shot ».
Les cybercriminels n’ont donc plus besoin de longues conversations. Un simple « oui », « bonjour » ou « allo » peut être exploité. L’objectif n’est pas forcément immédiat. D’abord, l’appel permet souvent de vérifier qu’un numéro est actif. Ensuite, la voix récupérée peut être injectée dans un logiciel d’IA générative afin d’imiter la victime lors d’un futur appel frauduleux.
Le ministère de l’Intérieur rappelle d’ailleurs, sur la plateforme Ma Sécurité, que des escrocs utilisent déjà des enregistrements vocaux récupérés « sur les réseaux sociaux ou autres plateformes » pour créer de faux messages semblant provenir d’un proche. Cybermalveillance.gouv.fr évoque de son côté une hausse continue des fraudes utilisant l’usurpation vocale et le phishing téléphonique.
Pourquoi un simple « allo » peut nourrir une arnaque
L’efficacité de cette arnaque repose surtout sur la réaction émotionnelle des victimes. Une fois la voix clonée, les escrocs peuvent appeler des proches en simulant une situation d’urgence : accident, arrestation, perte de papiers à l’étranger ou problème bancaire. La voix paraît familière, paniquée, parfois même en pleurs.
Les nouveaux modèles d’intelligence artificielle sont capables, en plus de reproduire le timbre de la voix, de simuler la peur, la colère, voire la panique. Cela rend les faux appels particulièrement crédibles.
Les fraudeurs exploitent également une vieille technique remise au goût du jour : l’arnaque au président ou au faux conseiller bancaire. Dans certaines entreprises, des salariés ont déjà reçu des appels utilisant une voix ressemblant à celle d’un dirigeant pour réclamer un virement urgent. Des PME françaises ont récemment signalé ce type d’usurpation.
Selon le spécialiste en cybersécurité Bitdefender, répondre à un appel silencieux confirme aussi que le numéro est utilisé. Celui-ci peut ensuite être revendu sur des bases de données circulant sur le dark web ou servir à d’autres campagnes d’escroquerie. Les victimes risquent alors une multiplication des appels frauduleux, du démarchage agressif ou des tentatives de phishing vocal.
Le problème devient d’autant plus difficile à détecter que les appels ne proviennent plus forcément de numéros inconnus. Grâce au spoofing téléphonique, les escrocs peuvent faire apparaître un numéro ressemblant à celui d’une banque, d’une administration ou même d’un proche.
Faut-il arrêter de parler quand on décroche le téléphone ?
Face à cette nouvelle forme d’arnaque, plusieurs experts recommandent désormais de modifier ses habitudes téléphoniques. Le premier conseil paraît contre-intuitif : éviter de parler immédiatement lorsqu’un numéro inconnu appelle.
Concrètement, certains spécialistes suggèrent de décrocher sans rien dire durant quelques secondes afin de laisser l’interlocuteur se présenter. Si l’appel reste silencieux ou si un robot demande de répéter « oui » ou « bonjour », mieux vaut raccrocher immédiatement.
D’autres internautes adoptent déjà des techniques plus originales. Certains envoient un bruit volontaire, comme une toux, un claquement de doigts ou un souffle dans le micro. L’idée consiste à signaler qu’une personne est bien présente sans fournir un échantillon vocal exploitable par une intelligence artificielle.
Une autre méthode commence aussi à circuler : utiliser une courte réponse enregistrée. Une voix synthétique ou préenregistrée peut alors répondre à votre place lors des premiers instants de l’appel. Cela permettrait de limiter les risques liés au clonage vocal tout en évitant de manquer un appel important.
Ces solutions ne garantissent évidemment pas une protection absolue. Les experts rappellent surtout qu’il faut limiter les contenus vocaux accessibles publiquement sur les réseaux sociaux. Messages audio, vidéos TikTok, stories Instagram ou publications professionnelles peuvent fournir une matière première précieuse aux fraudeurs.
Comment repérer une arnaque liée à l’intelligence artificielle
Certains signes doivent désormais alerter. Un silence prolongé après le décrochage constitue le premier indicateur. Même chose pour les appels répétitifs qui coupent systématiquement après quelques secondes.
Les spécialistes recommandent aussi de se méfier des demandes urgentes d’argent effectuées par téléphone, même lorsque la voix semble familière. En cas de doute, il est conseillé de raccrocher puis de rappeler directement la personne concernée avec son numéro habituel.
Cybermalveillance.gouv.fr recommande également de vérifier les informations via un autre canal, d’éviter les virements précipités et de conserver les preuves éventuelles des appels frauduleux. Le site rappelle que les demandes de paiement immédiat via cartes prépayées, cryptomonnaies ou mandats restent des signaux d’alerte fréquents.
Les experts estiment enfin que ce type d’arnaque risque de se développer rapidement. Les outils de clonage vocal deviennent moins coûteux, plus accessibles et plus performants. Certains logiciels disponibles en ligne permettent déjà de générer une imitation crédible pour quelques euros seulement.






