Le 9 septembre 2024, Apple s’apprêtait à lancer ses nouveaux iPhone 16 lors de l’événement ‘Glowtime’. Tout se déroulait comme prévu jusqu’à ce que des pirates entrent dans la danse et décident d’apporter leur grain de sel illégal.
Ils ont inondé YouTube de vidéos qu’ils avaient prétendument publiées avec le PDG d’Apple, Tim Cook, dans lesquelles il promettait de doubler des crypto-monnaies si les auditeurs les lui envoyaient.
Bien sûr, c’était une arnaque, un deepfake incroyablement réaliste créé grâce à l’intelligence artificielle. Des milliers de spectateurs ont mordu à l’hameçon, pris au piège d’un stratagème de plus en plus familier à l’ère des IA et des deepfakes.
Prolifération des livestreams pendant l’événement « Glowtime » d’Apple
Le jour tant attendu du lancement de l’iPhone 16 n’a pas seulement vu des fans d’Apple émerveillés par les nouvelles fonctionnalités de l’appareil.
En parallèle, des hackers ont publié sur YouTube des livestreams mettant en scène un faux Tim Cook, produit par une IA impressionnante.
Deep fake Ai video of TimCook streaming on it asking for bitcoin, Ethereum and USDT.
Watch out of scammers, there is not such thing as free giveaway!!! pic.twitter.com/KBQi1rMYKt— Tokenpaddock (@tokenpaddock) September 10, 2024
Sous couvert de générosité, ce faux Cook a invité des spectateurs à participer à une prétendue campagne de donation en crypto-monnaie, leur promettant de doubler leur investissement en un clin d’œil.
Ces vidéos ont été balancées sur des chaînes qui se faisaient passer pour Apple, détenant même la petite coche bleue afin de leur permettre de paraître plus crédibles.
À première vue, elles auraient réussi à attirer plus de 350 000 curieux. Mais un problème se pose rapidement : divers analystes ont rapidement pu déterminer que beaucoup de ces « spectateurs » n’étaient même pas réels. C
‘était surtout des bots, là juste pour gonfler les chiffres et donner un faux air de sérieux à l’arnaque. En à peine 30 minutes, les livestreams ont pris une ampleur folle, surfant sur l’excitation générale autour de l’événement Apple et la naïveté de certains.
L’utilisation de deepfake et de fausses chaînes vérifiées
Ces escrocs ne se sont pas contentés d’un simple copier-coller maladroit pour arriver à leurs fins. Ils ont manipulé les outils de l’intelligence artificielle pour créer une imitation bluffante de Tim Cook.
La synchronisation labiale impeccable, les gestes, et même l’intonation de la voix imitaient parfaitement le PDG d’Apple. L’objectif était simple : convaincre les utilisateurs que cet appel à la contribution crypto venait d’une source fiable et prestigieuse.
Pour rendre la fraude encore plus convaincante, les pirates ont pris le contrôle de chaînes YouTube vérifiées ou ont cloné des comptes populaires. Ils ont ensuite diffusé leurs livestreams à une audience composée d’utilisateurs légitimes et de faux comptes.
Avec ces tactiques, l’arnaque a pris des allures de véritable opération de communication de la part d’Apple. Certains flux intégraient même des codes QR, rendant l’expérience interactive tout en redirigeant les spectateurs vers des sites web frauduleux.
Les défis à venir dans la lutte contre les escroqueries par deepfake
Face à cette vague d’arnaques, YouTube a rapidement pris des mesures en supprimant les vidéos et en désactivant les comptes impliqués. Cependant, l’incident a révélé à quel point les plateformes vidéo manquent encore de protections robustes contre ce type d’attaques.
Il devient évident que la lutte contre les deepfakes et autres formes de manipulation numérique ne fait que commencer. Pour l’heure, la réaction de YouTube reste modérée, avec une communication limitée sur les efforts à venir pour éviter de futurs cas similaires.
Cet incident soulève une question bien plus vaste : jusqu’où ira l’utilisation des deepfakes dans les fraudes numériques ? Des personnalités de premier plan comme Elon Musk ont déjà été ciblées dans des cas similaires, et avec l’évolution rapide des IA, ces arnaques ne feront que s’intensifier.
Le rapport 2024 du Forum économique mondial tire la sonnette d’alarme sur l’importance de réguler ces technologies pour protéger le public et contrer la prolifération des manipulations visuelles et sonores.
Réponse des régulateurs
Alors que la tendance à arnaquer davantage les individus avec des deepfakes se poursuit, des mesures correctives commencent à être prises pour limiter les dégâts. YouTube, par exemple, a mis à niveau ses algorithmes pour repérer les fausses vidéos plus rapidement.
Ils utilisent maintenant des technologies d’apprentissage automatique pour analyser les flux en direct et trouver les contenus faux. Ils demandent également aux utilisateurs de signaler ce qui sonne faux, en plus de travailler en étroite collaboration avec des experts en sécurité informatique pour affiner le contrôle.
Mais en plus de ces contrôles techniques, des lois sont en préparation. Aux États-Unis et en Europe, il est question de législation qui obligerait les individus à indiquer plus clairement lorsqu’ils écrivent des modèles IA.
Cela les rendrait plus transparents et imposerait des sanctions plus strictes aux plateformes qui laissent passer ce type de fraude inaperçu.
Certaines législations nécessiteraient même que les développeurs d’IA, comme OpenAI, utilisent des systèmes de traçabilité avec leurs modèles. Ce serait un moyen de détecter facilement les deepfakes malveillants et de limiter leurs effets à l’avenir.
Sur le même sujet :