Un chercheur découvre que les militaires ne peuvent pas compter sur l'IA pour la stratégie ou le jugement

Crédit : Pixabay/CC0 Domaine public

L’utilisation de l’intelligence artificielle (IA) pour la guerre est la promesse de la science-fiction et des politiciens depuis des années, mais de nouvelles recherches du Georgia Institute of Technology soutiennent que seules certaines choses peuvent être automatisées et montrent la valeur du jugement humain.

“Tous les problèmes difficiles de l’IA sont vraiment des problèmes de jugement et de données, et ce qui est intéressant à ce sujet, c’est que lorsque vous commencez à penser à la guerre, les problèmes difficiles sont la stratégie et l’incertitude, ou ce qui est bien connu sous le nom de brouillard de guerre”, a déclaré Jon Lindsay, professeur agrégé à la School of Cybersecurity & Privacy et à la Sam Nunn School of International Affairs. “Vous avez besoin d’un sens humain et de prendre des décisions morales, éthiques et intellectuelles dans une situation incroyablement déroutante, tendue et effrayante.”

La prise de décision par l’IA repose sur quatre éléments clés : des données sur une situation, l’interprétation de ces données (ou prédiction), la détermination de la meilleure façon d’agir conformément aux objectifs et aux valeurs (ou jugement) et l’action. Les progrès de l’apprentissage automatique ont facilité les prédictions, ce qui rend les données et le jugement encore plus précieux. Bien que l’IA puisse tout automatiser, du commerce au transit, le jugement est l’endroit où les humains doivent intervenir, ont écrit Lindsay et le professeur Avi Goldfarb de l’Université de Toronto dans l’article, “Prediction and Judgment: Why Artificial Intelligence Augmentes the Importance of Humans in War”, publié dans Sécurité internationale.

De nombreux décideurs politiques supposent que les soldats humains pourraient être remplacés par des systèmes automatisés, rendant idéalement les militaires moins dépendants du travail humain et plus efficaces sur le champ de bataille. C’est ce qu’on appelle la théorie de la substitution de l’IA, mais Lindsay et Goldfarb affirment que l’IA ne doit pas être considérée comme un substitut, mais plutôt comme un complément à la stratégie humaine existante.

“Les machines sont bonnes pour la prédiction, mais elles dépendent des données et du jugement, et les problèmes les plus difficiles en temps de guerre sont l’information et la stratégie”, a-t-il déclaré. “Les conditions qui font que l’IA fonctionne dans le commerce sont les conditions les plus difficiles à remplir dans un environnement militaire en raison de son imprévisibilité.”

Un exemple mis en évidence par Lindsay et Goldfarb est la société minière Rio Tinto, qui utilise des camions autonomes pour transporter des matériaux, réduisant ainsi les coûts et les risques pour les conducteurs humains. Il existe des modèles de trafic de données abondants, prévisibles et impartiaux et des cartes qui nécessitent peu d’intervention humaine, à moins qu’il n’y ait des fermetures de routes ou des obstacles.

La guerre, cependant, manque généralement de données impartiales abondantes, et les jugements sur les objectifs et les valeurs sont intrinsèquement controversés, mais cela ne signifie pas que c’est impossible. Les chercheurs affirment que l’IA serait mieux employée dans des environnements bureaucratiquement stabilisés, tâche par tâche.

“Toute l’excitation et la peur concernent les robots tueurs et les véhicules mortels, mais le pire des cas pour l’IA militaire dans la pratique sera les problèmes classiquement militaristes où vous dépendez vraiment de la créativité et de l’interprétation”, a déclaré Lindsay. “Mais ce que nous devrions examiner, ce sont les systèmes de personnel, l’administration, la logistique et les réparations.”

Selon les chercheurs, l’utilisation de l’IA a également des conséquences pour l’armée et ses adversaires. Si les humains sont l’élément central pour décider quand utiliser l’IA dans la guerre, la structure et les hiérarchies de leadership militaire pourraient changer en fonction de la personne chargée de concevoir et de nettoyer les systèmes de données et de prendre des décisions politiques. Cela signifie également que les adversaires chercheront à compromettre à la fois les données et le jugement, car ils affecteraient largement la trajectoire de la guerre. La concurrence contre l’IA peut pousser les adversaires à manipuler ou à perturber les données pour rendre le jugement encore plus difficile. En effet, l’intervention humaine sera encore plus nécessaire.

Pourtant, ce n’est que le début de l’argumentation et des innovations.

“Si l’IA automatise la prédiction, cela rend le jugement et les données vraiment importants”, a déclaré Lindsay. “Nous avons déjà automatisé de nombreuses actions militaires avec des forces mécanisées et des armes de précision, puis nous avons automatisé la collecte de données avec des satellites et des capteurs de renseignement, et maintenant nous automatisons la prédiction avec l’IA. Alors, quand allons-nous automatiser le jugement, ou y a-t-il des composants de jugement qui ne peuvent pas être automatisés ?”

Jusque-là, cependant, la prise de décision tactique et stratégique par les humains continue d’être l’aspect le plus important de la guerre.


L’IA progresse pour accorder une plus grande valeur au jugement humain: experts de l’U de T


Plus d’information:
Avi Goldfarb et al, Prédiction et jugement : pourquoi l’intelligence artificielle augmente l’importance des humains dans la guerre, Sécurité internationale (2022). DOI : 10.1162/isec_a_00425

Fourni par Georgia Institute of Technology

Citation: Un chercheur constate que l’armée ne peut pas compter sur l’IA pour la stratégie ou le jugement (14 juin 2022) récupéré le 14 juin 2022 sur https://techxplore.com/news/2022-06-military-ai-strategy-judgment.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.