Un jumeau numérique pour voter à votre place ?

15 mai 2024
par Laetitia Theunis
Durée de lecture : 7 min

 

Série : La politique, c’est la vie (6/6)

 

De nos jours, la technologie et l’intelligence artificielle (IA) se retrouvent dans toutes les sphères de la société. Cette omniprésence implique inévitablement une dualité d’utilisation : bienveillante ou malveillante. Depuis plusieurs années, Dr Jérôme Duberry se penche sur le lien entre IA et démocratie. Et plus spécifiquement sur les impacts de l’utilisation de l’IA sur la société civile dans le contexte de processus démocratiques, en particulier des élections. Le chercheur du Graduate Institute de Genève est intervenu dans le cadre du cycle de conférences sur la démocratie organisé par le Parlement de la FWB en collaboration avec le Collège Belgique.

Inciter au vote

« Un rejet de l’IA en bloc n’est pas la solution. Il faut l’utiliser en connaissance de cause : être extrêmement vigilant, s’interroger sur les caractéristiques d’une IA (A-t-elle été créée en interne ou par une firme externe? Quelles sont les valeurs et la vision du monde des développeurs qui l’ont construite ?, NDLR), ainsi que sur la façon et les raisons de l’utiliser », c’est ce que préconise Jérôme Duberry.

« L’IA peut jouer un rôle positif afin de promouvoir les comportements démocratiques. Comme l’automatisation de la rédaction et de l’envoi de messages sur les élections à un large public, permettant ainsi de sensibiliser des personnes qui, initialement, ne pensaient pas aller voter. En leur donnant des informations sur la prochaine élection et en leur montrant l’importance de leur vote, on arrivera peut-être à les convaincre de voter. Evidemment, cette même approche peut également être utilisée à mauvais escient : désinformer, diffuser des fakenews, ce qui pourrait avoir comme conséquence de décourager certains à aller voter… »

Un deuxième usage positif de l’IA pour la démocratie est lié au profilage et au microciblage. C’est-à-dire l’analyse des données relatives aux usages des citoyens en ligne collectées pour créer leur profil. Au lieu d’utiliser ce profil afin de les inonder de publicités ciblées, comme le font les réseaux sociaux, l’idée serait d’identifier les populations qui ne votent pas et les convaincre de venir voter.

« Par ailleurs, l’écoute sociale, d’ores et déjà utilisée, permet à un gouvernement d’entendre, d’écouter, d’analyser ce qui se dit sur les réseaux sociaux par rapport à une thématique. Ce peut être une manière intéressante d’identifier des besoins émergents ou des besoins auxquels l’Etat n’a pas encore répondu », indique l’auteur du livre « Artificial Intelligence and Democracy. Risks and Promises of AI-Mediated Citizen–Government Relations ».

Un double numérique 

Il y a peu, le professeur chilien César Hidalgo, physicien, entrepreneur et spécialiste de la « société augmentée », énonçait une idée provocante : les réseaux sociaux foisonnent de tant d’informations sur leurs utilisateurs et utilisatrices qu’il serait techniquement possible de créer pour chacun et chacune un double numérique. Ces jumeaux pourraient prédire les habitudes de leur double et, ainsi, voter à leur place.

« Les défenseurs de cette approche disent que si chaque citoyenne et citoyen avait un jumeau numérique, le problème du déclin du taux de participation aux élections serait résolu : l’IA dirait à chaque instant ce que les citoyennes et citoyens pensent par rapport à un objet ou une question », explique Dr Duberry.

« Mais, évidemment, cette démarche soulève énormément de questions. Et c’est sans compter la fracture numérique. : une partie de la population n’est pas connectée par choix ou pas. Disposant de moins de données à leur sujet, leur créer un double numérique s’avérera complexe, voire impossible. »

« De plus, la prédiction reste très aléatoire. L’IA se base exclusivement sur des données du passé, et ne peut donc pas prédire des changements d’opinion avec une fiabilité de 100 %. Encore aujourd’hui, on a beaucoup de mal à comprendre comment et pourquoi on vote. Qu’est-ce qui fait qu’au dernier moment, on va choisir A plutôt que B ? Certainement un ensemble complexe de facteurs comprenant la famille, le contexte, ainsi que les informations et les désinformations. »

Dr Jérôme Duberry lors de la conférence qu’il a donnée au Parlement de la FWB, en collaboration avec le Collège Belgique © Parlement de FWB

Les réseaux sociaux gangrènent la démocratie

Un autre aspect de la démocratie est la délibération. Alors que le vote permet de partager ses préférences à l’Etat, la délibération conduit à forger sa propre opinion.

« La démocratie est notamment basée sur l’accès à une pluralité de sources d’information et sur la liberté de former son opinion sans aucune forme de coercition. Or, la surveillance, c’est une forme de coercition. Si vous savez que vous êtes épié, surveillé, vous allez avoir plus de difficultés à exprimer votre point de vue. Cela n’est pas constitutif d’une sphère publique saine. Or, sur les réseaux sociaux, les citoyens sont surveillés en permanence par différents acteurs. »

« Les réseaux sociaux n’ont pas du tout été pensés pour être une sphère publique, pour être un espace de délibération. Ils ont uniquement été créés pour générer du profit. Dans l’idée de nous garder en ligne le plus longtemps possible, on nous donne du contenu sur mesure fait d’informations sensationnalistes, exagérées, qui vont titiller et générer des émotions. Ce n’est pas du tout propice à l’échange raisonné d’opinions. »

« Et cela rend difficile la lutte contre la désinformation. Quand il s’agit de la réguler, l’Etat se tourne vers la plateforme et lui dit de modérer les contenus. C’est donc à la plateforme d’identifier quel est le contenu faux du contenu vrai, l’inapproprié de l’approprié. Cette tâche est d’abord réalisée par une IA, puis des personnes, souvent basées dans les pays du Sud global – Philippines, etc. – vont faire un deuxième tri. »

Le fait que l’IA, grande source de désinformation, soit utilisée pour lutter contre cette même désinformation, donne à ses créateurs, soit un petit groupe de personnes sur la planète, un énorme pouvoir. En effet, dans leur code, les développeurs expriment leur vision du monde, leur culture, leurs valeurs. Ainsi, dans les premières années de Facebook, la violence était totalement tolérée, mais la nudité était bannie : cela correspondait à une vision très américaine.

Une profonde réflexion est nécessaire avant toute décision

L’IA peut aussi être utilisée dans le contexte de l’action publique, c’est-à-dire des services offerts à la population. Etant confronté à une pression pour mieux utiliser les deniers publics et réduire ses coûts, mais aussi pour rendre ses services accessibles 24h/24, l’État trouve dans l’IA une solution pour optimiser différents processus routiniers. C’est ainsi que sont apparus les fameux chatbots, ces agents conversationnels qui répondent aux questions les plus usuelles.

Mais il suffit d’une IA mal conçue pour les effets soient catastrophiques. « Un malheureux exemple nous vient des Pays-Bas. Une IA a été développée pour décider de donner accès ou non à certaines aides financières aux populations défavorisées. Mais les développeurs qui l’ont conçue ne connaissaient pas suffisamment le système d’attribution de ces aides et cela a mené à des situations humaines absolument dramatiques », commente Dr Jérôme Duberry.

« Lorsque l’État utilise une intelligence artificielle, il est crucial de savoir qui a développé cet intermédiaire technologique. Quels sont ses intérêts et ses valeurs ? Il est à noter également que dans le cas d’une IA achetée à entreprise externe, l’acheteur n’a pas forcément accès au code ni aux données qui ont été utilisées pour l’entraîner, et donc n’a pas accès aux biais de cette IA. » C’est la fameuse boîte noire.

Jérôme Duberry alerte sur un dernier point : « parce que les formes d’IA actuelles sont faillibles, elles posent beaucoup de questions de transparence, d’audit. En les utilisant dans les processus démocratiques, on introduit du risque, des formes d’incertitude, dans la relation entre les citoyens et leur gouvernement. Il faut faire très attention, car si gagner la confiance prend du temps, la perdre peut se faire très rapidement. Il est, pour moi, essentiel que l’État prenne très au sérieux la décision d’utiliser l’intelligence artificielle et se pose les bonnes questions  : pourquoi, quand, comment, quelle IA utiliser ?  », conclut-il.

Haut depage