Que pense l'IA des initiatives soumises au vote?
On a demandé à ChatGPT ce qu'il fallait voter le 9 juin

L'intelligence artificielle (IA) et ses outils comme ChatGPT peuvent aiguiller lors des processus de votations. Blick a voulu savoir ce qu'en pensait l'IA des initiatives du 9 juin. Mais peut-on vraiment s'y fier? Un expert met les choses au clair.
Publié: 24.05.2024 à 21:00 heures
|
Dernière mise à jour: 25.05.2024 à 06:20 heures
RMS_Portrait_AUTOR_401.JPG
nnnnnnn.jpg
Tobias Bruggmann et Tobias Bolzern

Le 9 juin prochain, le peuple suisse se prononcera sur quatre objets de votation. L'intelligence artificielle (IA) ne fait (pour l'instant) pas partie du corps électoral... mais elle est devenue une aide quotidienne pour beaucoup d'électeurs. Lorsqu'il s'agit de voter aussi?

Blick a voulu tenter l'expérience: nous avons alimenté ChatGPT avec les informations contenues dans le livret de vote et demandé à l'IA comment elle voterait. Pour effectuer ce test, Blick a saisi dans l'outil toutes les informations sur le projet ainsi que les arguments brefs respectifs du camp du oui et du camp du non. Et les résultats sont sans appel.

L'IA rejette les deux initiatives sur la santé

L'intelligence artificielle rejette les deux initiatives sur les coûts de la santé et privilégie à chaque fois le contre-projet. En ce qui concerne l'initiative sur l'allègement des primes, l'IA critique les coûts plus élevés. Les coûts supplémentaires annuels sont «trop élevés et non durables» à son goût. «Le contre-projet indirect du Conseil fédéral et du Parlement offre une solution plus équilibrée», argue-t-elle.

Le 9 juin, la Suisse votera sur plusieurs projets de loi, dont les initiatives sur les coûts de la santé.
Photo: Keystone
1/6

La loi sur l'électricité est validée

L'initiative sur le frein aux coûts du parti du Centre a également du mal à passer. «Une limitation rigide des coûts de la santé sur la base de l'évolution des salaires et de la croissance économique pourrait conduire à des mesures inflexibles et inefficaces», estime le robot intelligent.

En revanche, l'intelligence artificielle dit oui à la loi sur l'électricité! «Malgré des préoccupations environnementales légitimes, les mesures prévues offrent une solution équilibrée permettant à la fois de garantir l'approvisionnement énergétique et de prendre en compte la protection de l'environnement». ChatGPT rejette à nouveau l'initiative «Stop à la vaccination obligatoire».

«
«Je suis programmé pour répondre aux demandes de la meilleure façon possible»
ChatGPT
»

ChatGPT rappelle qu'il n'a pas d'opinions ou de convictions

Si l'on considère les mots d'ordre des partis, l'intelligence artificielle s'accorde avec les Vert'libéraux et le PLR. Mais si on laisse ChatGPT remplir un smartspider – un outil qui donne des recommandations de vote pour les élections au Conseil national – on obtient un profil gauche-vert.

Prudent, ChatGPT précise toutefois qu'en tant que modèle linguistique d'IA, il n'a pas d'opinions, de convictions ou de préférences propres. «Mes réponses sont basées sur des modèles dans les données sur lesquelles j'ai été entraîné, et je suis programmé pour répondre aux demandes de la meilleure façon possible.»

«
«C'est un pur hasard. Demain, ChatGPT pourrait donner un résultat inverse»
Jürgen Vogel, expert en IA
»

Une réponse statistiquement bonne, sans morale

Jürgen Vogel, expert en IA à la Haute école spécialisée bernoise, confirme qu'un robot n'est pas fiable dans ce genre de cas. «ChatGPT combine les modèles appris en une réponse de telle sorte qu'elle corresponde statistiquement bien à la demande posée», explique l'expert. La réponse n'est toutefois pas évaluée d'un point de vue moral: «Aucune position politique fondamentale n'est exprimée.»

Pour répondre, l'IA s'appuie sur plusieurs textes disponibles de nature différentes: «Beaucoup d'entre eux sont formulés de manière neutre, notamment les textes de loi», explique Jürgen Vogel. On ne peut pas non plus partir du principe qu'il y a plus de textes avec des positions politiques de gauche que de textes avec des positions de droite. «C'est un pur hasard. Demain, ChatGPT pourrait donner un résultat inverse.» Malgré tout, la base de données de textes recèle aussi des problèmes. «Les textes utilisés peuvent être discriminatoires ou même erronés dans leur contenu. L'intelligence artificielle l'apprend et le propage», avertit le spécialiste.

Vous avez trouvé une erreur? Signalez-la