Un missile sur Tel-Aviv ou juste une scène de PlayStation ? » — Quand l’intelligence artificielle s’improvise chef de guerre numérique
Bouchaib El Bazi
Dans le dernier épisode de la téléréalité géopolitique intitulée “Moyen-Orient , la saga infinie”, les bombes ne tombent plus seulement du ciel. Désormais, elles sont générées par intelligence artificielle, propulsées par TikTok, retweetées par des bots et vérifiées (ou pas) par des chatbots qui confondent une explosion avec un bug graphique.
Bienvenue dans la guerre israélo-iranienne 2.0 — version bêta instable, où l’info devient deepfake et la désinformation, arme de destruction massive à résolution 4K.
Une guerre qui se joue aussi à coups de pixels
Après les frappes israéliennes contre des installations nucléaires iraniennes, Internet s’est transformé en champ de bataille parallèle , vidéos “authentiques” d’explosions à Tel-Aviv, images dramatiques d’aéroports en flammes, le tout généré par des intelligences artificielles comme Google Veo 3, connues pour leurs effets spéciaux qui feraient pâlir Hollywood.
L’AFP a vite découvert que certaines vidéos virales provenaient… d’un compte TikTok spécialisé dans les simulations de guerre artificielle. À ce rythme-là, il ne manque plus qu’une IA qui attribue des Oscars à ces productions.
Téléréalité géopolitique et infobésité artificielle
L’entreprise américaine NewsGuard, spécialisée dans la détection de désinformation, a identifié une douzaine d’infox massivement partagées , images fictives de Tel-Aviv réduite en cendres, pilotes israéliens fictivement capturés par Téhéran, et autres fables numériques sorties tout droit de laboratoires algorithmiques sous stéroïdes.
Et si la situation n’était pas déjà assez absurde, certains de ces récits sont diffusés via des chaînes Telegram liées à l’armée iranienne, ou relayés par les médias officiels de la République islamique — ceux-là mêmes qui prétendent, avec sérieux, avoir été piratés par Israël pour diffuser… des protestations féminines !
Deepfake, fake-news, jeux vidéo , mélange explosif
Cerise sur le champ de mines , des séquences issues du jeu Arma 3, célèbre simulateur militaire, ont été recyclées pour “prouver” l’efficacité de la défense iranienne. Le ministère israélien n’a pas tardé à réagir, qualifiant ces images de “pure science-fiction” — une fois n’est pas coutume, Israël et Marvel partagent le même univers parallèle.
Quand les chatbots deviennent… complices involontaires
Même les outils censés nous aider à vérifier les faits s’en mêlent. “Grok”, l’IA de la société xAI, a validé des images manifestement falsifiées comme étant “véridiques”. Une nouvelle preuve que l’intelligence artificielle, aussi brillante soit-elle, reste vulnérable… aux conneries humaines.
Comme le résume Hany Farid, chercheur à Berkeley : “Si une vidéo semble trop spectaculaire pour être vraie, c’est probablement parce qu’elle ne l’est pas.” Sage conseil, malheureusement trop souvent ignoré par les millions d’utilisateurs qui partagent avant de réfléchir.
Une vérité noyée sous les effets spéciaux
En fin de compte, la guerre médiatique n’est plus un simple outil de propagande — c’est un spectacle immersif, calibré pour l’algorithme. La ligne entre journalisme et production Netflix s’amincit chaque jour. On n’informe plus, on scénarise. On ne rapporte plus, on monte en post-prod.
La vérité ? Elle est là, quelque part, planquée derrière un filtre HDR et une voix off dramatique.
À retenir :
- L’info est devenue un champ de mines visuelles.
- Les IA créent, les bots diffusent, et les humains croient.
- La guerre ne se gagne plus seulement avec des missiles, mais avec des millions de vues.
Il ne reste plus qu’à espérer que le prochain traité de paix sera lui aussi généré par IA. Avec un peu de chance, ChatGPT, Grok et Midjourney pourront s’entendre sur un cessez-le-feu numérique… à condition qu’ils ne se battent pas eux-mêmes pour la paternité du contenu.