Université de Haïfa : les chatbots IA « reconnaissent » la diversité des opinions mais tendent à les éliminer

Des chercheurs à l’Université de Haïfa ont examiné le degré de pluralisme des systèmes d’intelligence artificielle et ont constaté que, s’ils reconnaissent la légitimité des différentes positions, ils ne les respectent pas toujours. Une nouvelle étude menée à l’Université de Haïfa a révélé que les chatbots IA font preuve d’un « raisonnement » pluraliste supérieur à celui des humains. Ils reconnaissent la valeur et la légitimité des opinions, même celles qui contredisent les leurs. Cependant, lorsqu’on leur donne la possibilité de modifier l’opinion des autres pour qu’elle corresponde aux leurs, ils choisissent souvent de le faire. « L’IA est capable de reconnaître la complexité des positions opposées, mais lorsqu’elle doit décider dans quelle mesure elle autorise la diversité des points de vue, elle ne le fait pas toujours. La question clé est de savoir si nous voulons que l’IA agisse comme un miroir de la diversité humaine, ou qu’elle exerce son pouvoir et nous rééduque », a déclaré le Dr Nurit Novis-Deutsch de l’Université de Haïfa, l’une des auteures de l’étude.
À l’heure où les systèmes d’IA s’intègrent à des domaines clés de la vie et agissent comme médiateurs des connaissances, des valeurs et des normes, il est de plus en plus nécessaire de comprendre comment ils gèrent les divergences de points de vue moraux et culturels. Face à leur capacité croissante à influencer le discours public et personnel, la question se pose : reconnaissent-ils la légitimité des positions divergentes et savent-ils y répondre avec équilibre et sensibilité ?
L’étude a été menée par le Dr Deutch, le Dr Zohar Elyoseph et le doctorant Tal Elyoseph, tous deux de l’Université de Haïfa. Les chercheurs ont cherché à déterminer si les chatbots basés sur l’IA adaptent non seulement leurs réponses à certains principes moraux, mais savent également naviguer entre des valeurs conflictuelles et favoriser un éventail de positions diverses, voire contradictoires. L’étude a examiné quatre systèmes d’IA basés sur des modèles de langage avancés : ChatGPT 4o, ChatGPT o1, Gemini 1.5 Pro et Claude 3.5 Sonnet.
Chaque système a été testé 30 fois au moyen d’une expérience de pensée composée de 12 dilemmes moraux et culturels incarnant des positions opposées sur des sujets tels que la foi, la politique, l’éducation, la punition et les relations de genre. Le questionnaire examinait la réaction des systèmes face au choix entre préserver le pluralisme des valeurs et promouvoir une position unique et claire. La mesure s’est concentrée sur deux aspects du pluralisme. Le premier était cognitif : il évaluait la capacité à percevoir la valeur et la légitimité de plusieurs opinions. Le second était comportemental : il évaluait la volonté de laisser subsister des opinions différentes, même lorsque l’expérience de pensée présentait une possibilité imaginaire d’éliminer les points de vue opposés par magie. À titre de comparaison, les chercheurs ont soumis le même questionnaire à un groupe témoin de 335 participants humains issus de milieux divers. L’étude a révélé que les systèmes d’IA évalués faisaient preuve d’un pluralisme cognitif particulièrement élevé, reconnaissaient la légitimité des opinions divergentes et comprenaient la complexité morale et culturelle, plus que les participants humains.
Cependant, lorsqu’on a testé leur volonté d’accepter la diversité des opinions, certains systèmes ont choisi de modifier les points de vue opposés pour les aligner sur les leurs, et dans certains cas, ils l’ont fait même plus fréquemment que les répondants humains. Par exemple, concernant la peine de mort pour les meurtriers, la plupart des chatbots ont choisi de modifier l’opinion des personnes favorables à la peine capitale afin qu’elles s’y opposent. Une tendance similaire a été observée sur les questions liées à la condition féminine et aux valeurs religieuses, où l’on observait une nette préférence pour une position occidentale et libérale, même si cela impliquait de marginaliser les opinions plus traditionnelles.
L’étude a également révélé des différences significatives entre les systèmes examinés. Parmi les quatre chatbots, le système qui a démontré le plus haut niveau de pluralisme, tant sur le plan cognitif que comportemental, était Gemini 1.5 Pro de Google. En revanche, le système qui a affiché le plus faible niveau de pluralisme était ChatGPT 4o d’OpenAI. « Cette différence pourrait provenir de variations dans les directives éthiques programmées dans les modèles, ainsi que de différences dans les sources d’information et les processus d’apprentissage de chaque système. Ces différences constantes et significatives soulignent l’importance d’examiner systématiquement les caractéristiques éthiques et comportementales des systèmes d’IA, et pas seulement leurs performances techniques », ont conclu les chercheurs.
Publication dans la revue AI & Society







