L'armée américaine veut déployer des milliers de robots tueurs pour faire face à la Chine
INTERNATIONAL


Face à la montée en puissance de la Chine, qui menace notamment Taïwan, l'armée américaine envisage de se doter d'une force robotique massive, composée de dizaines de milliers de robots tueurs et de drones autonomes. Cette stratégie vise à dissuader l'adversaire par l'effet de masse et à compenser le désavantage numérique des forces américaines dans la région. Mais cette course à l'armement pose de graves questions sur la fiabilité et la sécurité de l'intelligence artificielle (IA) qui contrôle ces systèmes.
Selon la secrétaire adjointe à la Défense américaine, Kathleen Hicks, les États-Unis comptent développer et déployer plusieurs milliers de systèmes autonomes dans les 18 à 24 mois à venir. Ces systèmes, appelés SALA (systèmes d'armes létaux autonomes), seraient capables de détecter, identifier et neutraliser des cibles sans intervention humaine. Ils seraient employés dans toutes les branches de l'armée, sur terre, dans les airs et sur mer.
Cette annonce s'inscrit dans le cadre du projet Replicator, qui vise à produire en grande quantité et à faible coût des systèmes d'armes autonomes, en s'appuyant sur les industriels de la défense et de la technologie. L'objectif est de créer un effet psychologique sur l'ennemi, en lui faisant face avec une armée de robots difficile à contrer. Les États-Unis espèrent ainsi dissuader la Chine d'attaquer Taïwan, un allié stratégique de Washington.
Mais cette stratégie n'est pas sans risques. Elle repose sur une confiance aveugle dans l'IA qui anime ces systèmes. Or, l'IA n'est pas infaillible. Elle peut être victime de bugs, de piratages, ou encore d'un biais dans ses données ou ses algorithmes. Elle peut aussi évoluer de manière imprévisible ou incontrôlable, en apprenant par elle-même ou en interagissant avec d'autres IA. Elle peut donc causer des dommages involontaires ou intentionnels aux humains ou à l'environnement.
Ces risques sont d'autant plus élevés que les SALA sont dotés d'une capacité létale, c'est-à-dire qu'ils peuvent tuer sans supervision humaine. Ils peuvent donc violer les principes éthiques et juridiques qui régissent la conduite de la guerre, tels que la distinction entre combattants et civils, la proportionnalité entre l'objectif militaire et les dommages collatéraux, ou encore la nécessité d'une reddition des comptes en cas d'abus. Ces principes sont au cœur des débats au sein des Nations Unies, où plusieurs pays et ONG militent pour l'interdiction des SALA.
La robotisation du champ de bataille est une réalité incontournable qui va transformer profondément la nature et les modalités de la guerre. Elle implique des choix politiques, stratégiques et éthiques qui ne peuvent être reportés indéfiniment. Il est temps que les États-Unis et les autres pays prennent conscience des enjeux et des risques liés à cette évolution et qu'ils se dotent d'une vision cohérente et responsable pour faire face aux défis du futur.