Un expert affirme que l’examen de la défense australienne ne parvient pas à aborder la troisième révolution de la guerre : l’intelligence artificielle
Un expert affirme que l’examen de la défense australienne ne parvient pas à aborder la troisième révolution de la guerre : l’intelligence artificielle

La revue de la défense ne parvient pas à aborder la troisième révolution dans la guerre : l'intelligence artificielle
Crédit : Shutterstock

Tout au long de l'histoire, la guerre a été irrévocablement modifiée par l'avènement des nouvelles technologies. Les historiens de la guerre ont identifié plusieurs révolutions technologiques.

Le premier était le invention de la poudre à canon par les habitants de la Chine ancienne. Il nous a donné des mousquets, des fusils, des mitrailleuses et, éventuellement, toutes sortes de munitions explosives. Il n'est pas controversé d'affirmer que la poudre à canon a complètement transformé notre façon de faire la guerre.

Puis vint l'invention de la bombe nucléaire, faisant monter les enchères plus haut que jamais. Les guerres pourraient être terminées avec une seule arme, et la vie telle que nous la connaissons pourrait être terminée par un seul stock nucléaire.

Et maintenant, la guerre, comme tant d'autres aspects de la vie, est entrée dans l'ère de l'automatisation. L'IA traversera le "brouillard de la guerre", transformant où et comment nous combattons. Des systèmes sans équipage petits, bon marché et de plus en plus performants remplaceront les grandes plates-formes d'armes avec équipage coûteuses.

Nous en avons vu les débuts en Ukraine, où des drones artisanaux sophistiqués et armés sont en cours d'élaborationoù se trouve la Russie utilisant des mines "intelligentes" d'IA qui explosent lorsqu'ils détectent des pas à proximité, et où l'Ukraine a utilisé avec succès des bateaux "drones" autonomes lors d'une attaque majeure contre la marine russe à Sébastopol.

Nous voyons également cette révolution se produire dans nos propres forces en Australie. Et tout cela soulève la question suivante : pourquoi le récent examen stratégique de la défense du gouvernement n'a-t-il pas sérieusement pris en compte les implications de la guerre basée sur l'IA ?

L'IA s'est glissée dans l'armée australienne

L'Australie dispose déjà d'une gamme d'armes et de navires autonomes pouvant être déployés en cas de conflit.

Notre armée de l'air prévoit d'acquérir un certain nombre de 12 mètres de long sans équipage Chauve-souris fantôme avions pour assurer notre très cher F-35 avions de chasse ne sont pas des canards assis en faisant progresser les technologies.

En mer, la force de défense a testé un nouveau type de navire de surveillance sans équipage appelé la mouche bleue, développé par la société locale Ocius. Et sous la mer, l'Australie construit un prototype de requin fantôme de six mètres de long sous-marin sans équipage.

Il semble également prêt à développer de nombreuses autres technologies comme celle-ci à l'avenir. Le gouvernement vient d'annoncer un "accélérateur" d'innovation de défense de 3,4 milliards de dollars australiens visera à mettre en service plus tôt des technologies militaires de pointe, notamment des missiles hypersoniques, des armes à énergie dirigée et des véhicules autonomes.

Comment l'IA et l'autonomie s'intègrent-elles alors dans notre image stratégique plus large ?

Le récent examen de la stratégie de défense est la dernière analyse visant à déterminer si l'Australie dispose de la capacité de défense, de la posture et de la préparation nécessaires pour défendre ses intérêts au cours de la prochaine décennie et au-delà. Vous vous attendriez à ce que l'IA et l'autonomie soient une préoccupation importante, d'autant plus que l'examen recommande dépensant 19 milliards de dollars australiens non négligeables au cours des quatre prochaines années.

Pourtant, l'examen ne mentionne l'autonomie que deux fois (les deux fois dans le contexte des systèmes d'armes existants) et l'IA une fois (comme l'un des quatre piliers du programme de sous-marins AUKUS).

Les pays se préparent à la troisième révolution

Partout dans le monde, les grandes puissances ont clairement indiqué qu'elles considéraient l'IA comme un élément central de l'avenir militaire de la planète.

La Chambre des Lords du Royaume-Uni tient une enquête publique dans l'utilisation de l'IA dans les systèmes d'armes. Au Luxembourg, le gouvernement vient d'accueillir une conférence importante sur les armes autonomes. Et la Chine a annoncé son intention de devenir le leader mondial de l'IA d'ici 2030. Son plan de développement de l'IA de nouvelle génération proclame "L'IA est une technologie stratégique qui mènera l'avenir", à la fois d'un point de vue militaire et économique.

De même, le président russe Vladimir Poutine a a déclaré que "celui qui devient le leader dans ce domaine deviendra le maître du monde" - alors que les États-Unis ont adopté un "troisième stratégie de compensation" qui investira massivement dans l'IA, l'autonomie et la robotique.

À moins que nous ne mettions davantage l'accent sur l'IA dans notre stratégie militaire, nous risquons de nous retrouver dans des guerres avec des technologies obsolètes. La Russie en a vu les conséquences douloureuses l'année dernière, lorsque son croiseur lance-missiles Moscova, navire amiral de la flotte de la mer Noire, a coulé après avoir été distrait par un drone.

Réglementation future

Beaucoup de gens (dont moi-même) espèrent que les armes autonomes seront bientôt réglementées. J'ai été invité en tant que témoin expert à une réunion intergouvernementale réunion au Costa Rica plus tôt cette année, où 30 pays d'Amérique latine et d'Amérique centrale ont appelé à une réglementation, dont beaucoup pour la première fois.

La réglementation garantira, espérons-le, un contrôle humain significatif sur les systèmes d'armes autonomes (bien que nous ne soyons pas encore d'accord sur ce à quoi ressemblera un "contrôle significatif").

Mais la réglementation ne fera pas disparaître l'IA. Nous pouvons toujours nous attendre à voir l'IA, et certains niveaux d'autonomie, comme des éléments essentiels de notre défense dans un avenir proche.

Il y a des cas, comme dans le déminage des champs de mines, où l'autonomie est hautement souhaitable. En effet, l'IA sera très utile dans la gestion de l'espace d'information et dans la logistique militaire (où son utilisation ne sera pas soumise aux défis éthiques posés dans d'autres contextes, comme lors de l'utilisation d'armes létales autonomes).

Dans le même temps, l'autonomie créera des défis stratégiques. Par exemple, cela changera l'ordre géopolitique tout en réduisant les coûts et en augmentant les forces. La Turquie, par exemple, devient un grande superpuissance des drones.

Nous devons nous préparer

L'Australie doit réfléchir à la façon dont elle pourrait se défendre dans un monde activé par l'IA, où des terroristes ou des États voyous peuvent lancer des essaims de drones contre nous et où il pourrait être impossible de déterminer l'attaquant. Un examen qui ignore tout cela nous laisse terriblement mal préparés pour l'avenir.

Nous devons également nous engager de manière plus constructive dans les discussions diplomatiques en cours sur l'utilisation de l'IA dans la guerre. Parfois, la meilleure défense se trouve dans l'arène politique, et non militaire.

Fourni par La Conversation

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: Selon un expert, l'examen de la défense australienne ne parvient pas à aborder la troisième révolution dans la guerre : l'intelligence artificielle (2023, 28 avril) récupéré le 29 avril 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top