Bonjour à la communauté crypto. Parlons d'un sujet désagréable mais d'une importance cruciale. Le progrès technologique qui transforme notre monde est désormais activement utilisé contre nous. Je parle de l'intelligence artificielle.

De nouvelles données de Chainalysis sont choquantes : 2025 est devenu la pire année de l'histoire en matière de volume de fraude liée aux cryptomonnaies. Les pertes totales ont dépassé les 17 milliards de dollars, et ce chiffre devrait augmenter d'environ 24 % à mesure que de nouveaux escroqueries sont révélées.

Mais les chiffres ne sont pas la partie la plus effrayante.

Ce qui est encore plus préoccupant, c'est la montée des tragédies personnelles. Le montant moyen perdu par victime a explosé de 782 $ à 2 764 $, soit une augmentation de 253 %. Les escrocs sont devenus non seulement plus nombreux, mais aussi plus ciblés, extorquant bien plus d'argent à chaque tentative.

Pourquoi cela se produit-il ? La réponse est un mot : IA.

Les recherches donnent une image claire :

  • Les escrocs utilisant l'IA réalisent plus de 3,2 millions de dollars par opération. Sans IA, cela ne représente que 719 000 $.

  • Leur revenu moyen quotidien est de 4 838 $ contre 518 $ pour les escrocs « traditionnels ».

IA en action : des deepfakes aux informations internes

  1. Les deepfakes sont devenus la norme. Comme l'a noté JPMorgan en juillet 2025, les escrocs utilisent des voix et vidéos fausses mais très réalistes dans les arnaques de type « porc boucher » et les escroqueries amoureuses. Une victime voit un « investisseur » ou un « partenaire » lors d'un appel vidéo et lui fait entièrement confiance.

  2. Automatisation et personnalisation. L'IA permet de traiter des milliers de victimes potentielles simultanément, en adaptant chaque approche. La vitesse et l'échelle sont sans précédent par rapport au passé.

  3. Méthodes hybrides. Un exemple emblématique est l'affaire de Brooklyn (décembre 2025), où Ronald Spector, âgé de 23 ans, a été inculpé pour avoir volé 16 millions de dollars à des utilisateurs de Coinbase. Les escrocs ont acheté des informations internes auprès d'un employé du service client (250 000 $ pour des données sur 70 000 clients), puis, en se faisant passer pour des agents du support, ont utilisé des scripts soignés (potentiellement alimentés par l'IA) pour convaincre les victimes de transférer de l'argent vers des « portefeuilles sécurisés » contrôlés par eux.

Que font les autorités ?

La police judiciaire lutte contre ces pratiques. Will Lyne, chef de l'unité de cybercriminalité de la police métropolitaine de Londres, reconnaît que la criminalité organisée opère à une échelle et à un rythme sans précédent. Toutefois, il souligne que la coopération internationale et l'intelligence numérique commencent à porter leurs fruits : « Nous sommes aujourd'hui en position bien plus forte pour identifier les réseaux criminels, saisir les actifs illégaux et perturber les activités nuisibles à nos communautés. »

Le défi central pour 2025 et au-delà : l'IA brouille la frontière entre service légitime et piège sophistiqué. Les sites de phishing, les messages vocaux, les appels vidéo – tout cela semble désormais parfaitement réaliste.

Discussion pour notre communauté :

  • Quels outils et habitudes pensez-vous être désormais essentiels pour la sécurité ? (Portefeuilles matériels, vérification des adresses, ignorer le « support » sur les réseaux sociaux ?).

  • Avez-vous vu des exemples d'escroqueries améliorées par l'IA dans votre entourage ?

  • Les échanges et les projets devraient-ils mettre en place des « vérifications de bon sens » obligatoires pour les transferts importants ?

Partagez vos réflexions dans les commentaires. Prévenu est préparé. Protégeons ensemble notre communauté.

#Aİ #AI #artificialintelligence