La guerre de l’information a franchi un nouveau cap. Alors que la désinformation politique s’appuyait autrefois sur des armées de trolls et de faux articles, les campagnes d’influence, notamment celles menées par l’Iran, utilisent désormais des outils d’Intelligence Artificielle générative.

Leur nouvelle arme ? Des vidéos virales et parodiques ciblant des figures politiques comme Donald Trump. Plongée dans les coulisses technologiques de cette nouvelle propagande 2.0.
L’ère des deepfakes artisanaux est révolue. Aujourd’hui, avec la démocratisation des outils de Generative AI (GenAI), il suffit de quelques clics et d’une simple description textuelle pour générer des vidéos ultra-réalistes ou des animations parodiques. Les experts en cybersécurité ont récemment mis en lumière une stratégie iranienne inattendue : l’utilisation massive de l’IA pour inonder les réseaux sociaux de contenus satiriques, souvent sous forme de vidéos façon « LEGO » ou d’animations 3D, visant à moquer le président américain Donald Trump et à exacerber les tensions politiques occidentales.
Mais quelles sont exactement les technologies qui se cachent derrière ces campagnes ?
L’arsenal technologique : Quels outils IA l’Iran détourne-t-il ?
Les rapports d’analyse des menaces, émanant de géants de la sécurité informatique, révèlent que les acteurs étatiques ne développent pas nécessairement leurs propres intelligences artificielles. Ils détournent massivement des outils commerciaux occidentaux.
Voici les principales catégories d’outils exploités :
- Les générateurs « Text-to-Video » : Ce sont les moteurs de cette campagne. Des plateformes comme Runway (Gen-2/Gen-3), Luma Dream Machine ou Pika permettent de transformer un simple script en une séquence animée. C’est grâce à ces algorithmes que les propagandistes créent des visuels absurdes et viraux (comme des personnages politiques modélisés en briques de construction ou en personnages de dessins animés).
- Les logiciels de Deepfake et de synchronisation labiale : Pour manipuler des discours réels ou animer des visages, des outils comme HeyGen ou Rask.ai sont redoutables. Ils permettent de cloner une voix et de synchroniser parfaitement les mouvements des lèvres de la cible pour lui faire prononcer des propos qu’elle n’a jamais tenus, avec un réalisme troublant.
- L’Intelligence Artificielle musicale : Pour accompagner ces vidéos virales, les cyberattaquants utilisent des générateurs audio comme Suno AI ou Udio. Ces plateformes génèrent instantanément des musiques entraînantes (comme des morceaux de rap satiriques) qui favorisent la viralité du contenu sur des plateformes comme TikTok ou X (anciennement Twitter).
- Les Modèles de Langage (LLM) : Avant de générer la vidéo, il faut l’écrire. Les API de modèles performants (comme les versions open source de Llama ou des accès détournés à GPT-4) sont utilisées pour automatiser la rédaction de scripts percutants et de faux commentaires sur les réseaux sociaux, dans un anglais parfaitement idiomatique.
La « Stratégie du Mème » : L’humour comme arme de désinformation
Contrairement aux campagnes d’ingérence russes, historiquement axées sur la création de faux médias d’apparence sérieuse, cette récente ingérence iranienne adopte une approche radicalement différente.
- L’illusion de la viralité organique : En utilisant l’esthétique du jeu vidéo ou du mème Internet, ces vidéos ne cherchent pas à se faire passer pour des reportages sérieux. Elles visent le divertissement. Les utilisateurs partagent ces vidéos parce qu’elles sont « drôles » ou « choquantes », devenant ainsi, à leur insu, les relais d’une opération psychologique étrangère.
- Un ratio coût/impact imbattable : L’animation 3D traditionnelle nécessite des semaines de travail et des milliers d’euros. Avec l’IA générative, une équipe réduite peut produire des dizaines de vidéos par jour pour un coût dérisoire.
- L’objectif politique : Le but n’est pas forcément de faire changer d’avis un électeur sur le fond, mais d’amplifier la polarisation, de décrédibiliser les institutions démocratiques et de saturer l’espace médiatique.
Le saviez-vous ? Dans le jargon de la cybersécurité, ce type de campagne s’apparente au Trolling as a Service (TaaS), mais automatisé à une échelle industrielle grâce aux algorithmes génératifs.
Cybersécurité : Comment se protéger face à ces menaces ?
Pour les passionnés d’informatique et les citoyens, l’éducation aux médias et la vigilance technologique sont les meilleurs boucliers. Bien que les IA deviennent de plus en plus performantes, elles laissent encore des traces :
- Traquez les incohérences visuelles : Les générateurs vidéo ont encore du mal avec la physique complexe. Observez les mains (nombre de doigts, proportions), les reflets dans les miroirs ou les lunettes, et la fluidité des arrière-plans.
- Écoutez les artefacts audio : Les voix clonées manquent parfois d’inflexions émotionnelles naturelles ou présentent de légers bruits métalliques en fin de phrase.
- Les solutions techniques : Des initiatives émergent, comme l’intégration de filigranes numériques (watermarks) invisibles, à l’image du système SynthID développé par Google, qui permet d’étiqueter cryptographiquement les contenus générés par IA.
Conclusion
L’utilisation d’intelligences artificielles par l’Iran pour cibler Donald Trump à travers des vidéos parodiques marque un tournant dans l’histoire de la cybersécurité et de l’information.
La barrière à l’entrée pour créer de la propagande de haute qualité a disparu. Le défi des prochaines années, pour les géants de la tech comme pour les gouvernements, ne sera plus seulement de bloquer les attaques informatiques classiques, mais de développer des algorithmes capables de détecter et de neutraliser cette guerre psychologique menée à coups de mèmes et de pixels générés par ordinateur.