Les faits essentiels à propos de l’intelligence artificielle
par Robert C. Engen - Le 03 novembre 2021
temps de lecture : 10 min contenu du Collège des Forces canadiennes
Voici quelques facteurs à prendre en considération quant aux applications militaires de l’intelligence artificielle (IA); il s’agit d’un point de départ pour réfléchir à ce que cette avancée technologique peut signifier pour la profession des armes.
Définition. L’intelligence artificielle est définie comme la science et l’ingénierie permettant aux ordinateurs de faire le genre de choses que les esprits humains peuvent faire[1]. La chose la plus importante que les militaires doivent retenir au sujet de l’IA en 2021 est qu’elle ne peut pas raisonner, comprendre ou penser d’une manière qui soit comparable aux êtres humains.
Les algorithmes fondés sur des données sont intrinsèquement fragiles et ne peuvent pas généraliser[2]. L’IA n’est qu’un système de pondération algorithmique des probabilités. Le jugement (ou l’absence de jugement) qui la sous-tend reste soit terriblement humain, soit désespérément opaque.
Coût. Les systèmes d’IA coûtent très cher[3]. Les systèmes d’IA ne peuvent rien discerner sans un apprentissage intensif par ordinateur. Dans cette nouvelle ère de l’apprentissage automatique, la puissance des ordinateurs nécessaire pour rester à la fine pointe de la technologie double tous les 3,4 mois, et le « prodigieux appétit » de puissance des ordinateurs impose des limites strictes aux améliorations futures. Les « percées » de l’IA qui ont fait les gros titres au cours de la dernière décennie sont le fruit d’une méthode économiquement peu attrayante : exécuter les algorithmes plus longtemps sur un plus grand nombre de machines, et non les exécuter plus efficacement[4]. Le prix à payer pour la consommation d’énergie et les émissions de carbone est énorme. L’apprentissage d’un grand modèle de réseau neuronal au sujet des tâches associées au traitement du langage naturel en 2019 a produit autant d’émissions de CO2 que les émissions totales de cinq automobiles pendant leur durée de vie. Or, l’apprentissage d’une IA ne représente que dix à vingt pour cent du coût total de son fonctionnement dans des contextes de production réels[5].
Approche « réseau » par rapport à l’approche « batterie ». L’une des analogies les plus utiles de ces dernières années en ce qui concerne l’IA vient de Kai-Fu Lee, un entrepreneur du domaine de la technologie et auteur d’un livre récent intitulé A.I. Superpowers. Il caractérise le domaine de l’IA en fonction de la manière dont on distribue l’« électricité » de l’IA dans l’économie. L’approche « réseau » banalise l’IA et transforme l’apprentissage automatique en un service normalisé qui peut être acheté par n’importe quelle entreprise et auquel on peut accéder au moyen de plateformes informatiques en nuage qui font office de réseau et qui optimisent l’apprentissage automatique en fonction des problèmes de données que les utilisateurs paient pour télécharger. Il y a aussi l’approche « batterie » de l’IA, qui fonctionne au moyen de produits d’IA très précis pour chaque cas d’utilisation, les nouveaux produits et algorithmes étant mis au point pour des cas particuliers et incorporés dans des appareils particuliers plutôt que dans le nuage[6]. Les systèmes militaires qui exploitent l’IA auront besoin soit de ressources informatiques intégrées incroyablement puissantes (l’approche « batterie »), soit d’une connexion stable et sécurisée au « réseau » d’IA qui exécute les algorithmes. Les deux approches présentent des dangers. L’approche « réseau » sera sans doute moins dispendieuse, mais elle ne sera probablement pas assez sécuritaire et constituera une vulnérabilité pour son utilisation militaire sur le terrain.
Entrepreneurs. Plus la complexité d’une pièce d’équipement augmente, plus le soutien total nécessaire pour maintenir sa fonctionnalité augmente également. Le professeur Daniel Lake, auteur du livre The Pursuit of Technological Superiority, a noté que pour les pièces d’équipement, « plus le nombre de pièces (leur complexité) augmente, plus la probabilité qu’elles fonctionnent toutes en même temps diminue... et en outre, les équipements complexes sont plus longs à réparer lorsqu’ils tombent en panne ». Les dernières générations de matériel militaire sont devenues si complexes que leurs besoins en soutien ont enchaîné les armées à des entrepreneurs pour remplir ces fonctions[7]. Le coût de mise au point ou de possession des systèmes d’IA peut être prohibitif, et les petites forces armées devront probablement passer des contrats avec les grandes entreprises technologiques pour obtenir ces capacités plutôt que de les mettre au point à l’interne. L’externalisation elle‑même augmente les diverses fenêtres de menace et crée sans doute autant de problèmes qu’elle en règle[8].
Fiabilité. En août 2018, la bande dessinée en ligne sur le thème de la science xkcd, écrit par l’ancien roboticien de la NASA Randall Moore, a interpellé les ingénieurs en logiciels[9] :
https://imgs.xkcd.com/comics/voting_software.png
Les bogues, les erreurs et les défaillances sont inévitables dans les logiciels modernes et sont d’autant plus susceptibles de se produire à mesure que la complexité de ces systèmes augmente, en particulier si du temps et des ressources ne sont pas consacrés à une certification de sécurité robuste et à des essais rigoureux[10]. Plus un système est complexe, plus il est susceptible de tomber en panne de manière imprévisible, ce qui entraîne de nombreuses conséquences « en aval »[11]. Comme l’a dit l’économiste Gary Smith, les problèmes de complexité et de fiabilité touchent tous deux l’IA : lorsque nous ne savons pas comment un système d’IA parvient à ses conclusions (ce qui n’est généralement pas le cas), « nous n’avons aucun moyen de déterminer si les [erreurs] sont des erreurs de logique, des erreurs de programmation ou d’autres problèmes... les intrants sont nombreux, le processus est mystérieux et les résultats sont douteux »[12].
Déploiement. L’approche « réseau » de l’IA fonctionnera probablement pour le traitement institutionnel des chiffres, le renseignement, l’analyse et la cybernétique. Toutefois, lorsqu’il s’agit de systèmes d’armes pour les forces de campagne, cette approche ne fonctionnera pas du tout. Les problèmes de sécurité et de connectivité sur un champ de bataille électromagnétique font qu’une approche « réseau » qui nécessite d’appeler à la maison depuis le champ de bataille pour obtenir des services d’IA est vouée à l’échec. Nous aurons besoin d’une approche « batterie » si nous voulons que nos forces puissent un jour opérer dans un environnement électromagnétique contesté. Sauf percées fondamentales imprévues (qui ne se produisent pas de manière prévisible)[13], il faudra un certain temps pour adapter les systèmes d’IA à la guerre cinétique, du moins sur les petites plateformes comme les soldats individuels ou les véhicules de combat (les grandes plateformes comme les navires de guerre sont une autre histoire). Les systèmes d’IA complexes et à forte intensité informatique doivent donc également être robustes pour une utilisation dans le monde réel s’ils doivent passer dans les quartiers généraux. Sarah Taber, Ph. D., experte en sécurité industrielle, a récemment mis en évidence les problèmes liés au rendement en matière d’usage réel :
Si le mariage de l’IA et de la robotique dans les machines servant à la cueillette des fruits pose des problèmes, ceux des applications militaires de l’IA sont bien pires. Le coût d’une approche « batterie » et les problèmes de fiabilité des logiciels font que le saut du développement à la mise en œuvre opérationnelle des systèmes d’IA est grand et, à ce jour, il y a eu peu de succès pour amener ces technologies à maturité[14].
Robert C. Engen est professeur adjoint au département des études de la défense du Collège des Forces canadiennes (CFC) et il est directeur adjoint de la section Planification et opérations militaires. Il est responsable de la majeure partie du contenu du CFC sur l’intelligence artificielle. Il est l’auteur de trois livres sur la motivation au combat et du roman à paraître sur la guerre du futur publié par le Centre de guerre terrestre de l’Armée canadienne, Crisis in Baltika. Il est également l’historien officiel du régiment Princess Patricia’s Canadian Light Infantry.
Notes
[1] Margaret A. Borden, « Artificial Intelligence », What’s Next?, par Jim Al-Khalili (Londres, Profile Books, 2017), 1.
[2] Mary Cummings, « Artificial Intelligence and the Future of War », Research Paper (Londres, Chatham House, 2017), 7.
[3] Meredith Broussard, Artificial Unintelligence: How Computers Misunderstand the World (Cambridge, MIT Press, 2018), 191.
[4] Neil C. Thompson et al., « The Computational Limits of Deep Learning », MIT Initiative on the Digital Economy Research Brief (MIT, 2020),https://ide.mit.edu/wp-content/uploads/2020/09/RBN.Thompson.pdf.
[5] Emma Strubell, Ananya Ganesh et Andrew McCallum, « Energy and Policy Considerations for Deep Learning in NLP », 57th Annual Meeting of the Association for Computational Linguistics (Florence, Italie, 2019), https://arxiv.org/abs/1906.02243.
[6] Kai-Fu Lee, A.I. Superpowers: China, Silicon Valley, and the New World Order (New York, Houghton Mifflin Harcourt, 2018), 94–95.
[7] Daniel R. Lake, The Pursuit of Technological Superiority and the Shrinking American Military (Londres, Palgrave Macmillan, 2019), 52–54.
[8] André Tchokogué, Jean Nollet et Julie Fortin, « Outsourcing Canadian Armed Forces Logistics in a Foreign Theatre », Canadian Journal of Administrative Sciences 32, no 2 (2015) : 113–27; Paul R. Camacho, « Privatization of Military Capability Has Gone Too Far: A Response to Lindy Henecken’s ‘Outsourcing Public Security: The Unforeseen Consequences for the Military Profession’ », Armed Forces & Society 41, no 1 (2015) : 174–88.
[9] Randall Monroe, « Voting Software », Webcomic xkcd, le 8 août 2018, https://xkcd.com/2030/.
[10] Bruce Schneier, Click Here to Kill Everybody: Security and Survival in a Hyper-Connected World (New York, Norton, 2018), 34–35.
[11] Kartik Hosanagar, A Human’s Guide to Machine Intelligence (New York, Viking, 2019), 61.
[12] Gary Smith, The A.I. Delusion (Oxford, Oxford University Press, 2018), 81.
[13] Kai-Fu Lee, A.I. Superpowers, 91–92.
[14] Cummings, « Artificial Intelligence and the Future of War », 9.
contenu actuel
Previewf | 1 | Article | 4 | 5 |
---|
Détails de la page
- Date de modification :