© U.S. Air Force photo/Staff Sgt. Brian Ferguson / Public domain, via Wikimedia Commons
© U.S. Air Force photo/Staff Sgt. Brian Ferguson / Public domain, via Wikimedia Commons

Aristote ou Kant? Les robots militaires ont un problème de morale

18 mai 2017
par Camille Stassart
Durée de lecture : 4 min

Transport, cuisine, comptabilité… Dans ces métiers, le robot remplacera peut-être un jour l’être humain. Si l’utilisation de ces machines soulève quelques questions morales, le problème se fait plus intense encore quand ces engins autonomes sont utilisés dans un contexte militaire

 

Cette question passionne la docteure en philosophie Marie-des-Neiges Ruffo de Calabre. Cette professeure à la Faculté de droit de l’Université de Namur s’est intéressée au cas des systèmes d’armement. Mais aussi aux problèmes éthiques posés par le remplacement de l’Homme par des robots.

 

Autonomie morale

 

Sa thèse, menée en cotutelle avec l’Université Paris-Sorbonne (une première collaboration du genre entre les deux institutions!) s’intéressait à la problématique de l’autonomie de la machine. Un concept qui revêt une définition assez différente pour le philosophe et l’ingénieure.

 

Dr Marie-des-Neiges Ruffo, UNamur.
Dr Marie-des-Neiges Ruffo, UNamur.

« Je me suis concentrée sur la programmation éthique des robots militaires », indique le Dr Ruffo. « Dans ce domaine, l’autonomie des machines serait fortement liée à des décisions morales importantes, à savoir la décision de tir ».

 

Dilemme éthique des officiers

 

La scientifique est partie du postulat que si l’on veut remplacer l’Homme par un robot, cela doit se justifier par un progrès.

 

« Mais dans le milieu militaire, est-il possible de demander à un robot d’être davantage éthique qu’un humain ? » s’interroge la Pr Ruffo.

Pour répondre à cette question, la philosophe a analysé des documents rapportant les capacités techniques de robots et logiciels militaires. En parallèle, elle a étudié des témoignages anonymes écrits par des officiers. Exposant leur façon de réagir face à des dilemmes éthiques.

 

Dommages collatéraux

 

À ce jour, il n’existe pas (encore) de robots militaires pleinement autonomes. C’est-à-dire qui prendraient eux-mêmes la décision de tirer sur l’ennemi. Et selon les conclusions du Dr Ruffo, c’est une limite à ne pas franchir.

 

« Il est indéniable qu’il existe des domaines dans lesquels les robots font mieux que les humains. Mais concernant les questions relevant de la moralité, les humains restent aux commandes ».

 

« Dans le cas étudié, la réalité militaire est jalonnée d’imprévus, d’inattendus, d’exceptions. Le but de l’ennemi, c’est quand même de vous tromper ! L’être humain est donc ici l’entité la plus adaptée à cette incertitude ».

 

Si l’on prend l’exemple des drones, nous savons que leurs frappes entraînent souvent des dommages collatéraux chez les populations civiles.

 

Écoutez le Dr Ruffo illustrer son propos avec l’exemple des combats urbains

La morale de Kant ou celle d’Aristote?

 

Si un jour nous utilisons des robots autonomes sur le champ de bataille, ils devront savoir faire preuve d’éthique.

 

« Mais quelle morale faudrait-il programmer ? La morale kantienne ? L’utilitarisme ? » s’interroge la chercheuse. « Selon moi, le cadre éthique le plus approprié pour la décision militaire serait la morale prudente d’Aristote ».

 

« Elle se définit comme une capacité à délibérer, à la fois sur les fins et les moyens, selon un juste milieu, en vue du Bien. Ce qui veut dire que le robot devra décider quels moyens mettre en œuvre pour atteindre sur le long terme un objectif fixé au préalable. Tout en prenant en compte le contexte » explique la Pr Ruffo.

 

Malheureusement, une telle capacité semble actuellement inaccessible à la machine. Et quand bien même de tels robots existeraient dans le futur, la chercheuse insiste sur l’idée que notre conscience humaine perdurera.

 

L’impression de responsabilité des militaires sera peut-être plus diffuse, car ils ne seront pas eux-mêmes sur le champ de bataille. Mais ils resteront responsables d’avoir envoyé ces machines sur le terrain. Et des conséquences humaines qui en découlent. « Créer des robots « éthiques » ne permettra donc pas de nous affranchir de notre propre sens moral », conclut-elle.

Haut depage