L’IA pourrait discrètement réduire les perspectives du monde, soutient un universitaire israélien

Un spécialiste juridique israélien met en garde contre l'intelligence artificielle qui réduit les perspectives du monde, limite la diversité culturelle et le discours démocratique. Une étude révèle des biais dans les outils d'IA générative tels que ChatGPT.

Par Pesach Benson • 7 août 2025

Jérusalem, 7 août 2025 (TPS-IL) — Alors que des outils d’IA générative comme ChatGPT s’intègrent dans la vie quotidienne, un éminent universitaire israélien soulève une préoccupation urgente : ces systèmes pourraient discrètement restreindre notre vision du monde.

Dans un article récemment publié dans le Indiana Law Journal, le Prof. Michal Shur-Ofry de l’Université hébraïque de Jérusalem, également chercheur invité à l’Institut de droit de l’information de l’Université de New York, soutient que les grands modèles linguistiques (LLM) ont tendance à générer un contenu standardisé et mainstream — au détriment de la diversité culturelle et du débat démocratique.

« Si tout le monde reçoit les mêmes réponses mainstream de l’IA, cela peut limiter la variété des voix, des récits et des cultures auxquels nous sommes exposés », a déclaré Shur-Ofry. « Avec le temps, cela peut rétrécir notre propre monde de pensées pensables. »

Son étude a exploré comment les réponses générées par l’IA, bien que souvent utiles et plausibles, sont fréquemment répétitives et culturellement étroites. Par exemple, lorsqu’on lui a demandé des informations sur des figures importantes du XIXe siècle, ChatGPT a renvoyé des noms comme Abraham Lincoln, Charles Darwin et la Reine Victoria — des personnalités importantes, mais majoritairement anglo-centrées. Un biais similaire est apparu lorsque le modèle a été invité à lister les meilleures séries télévisées : les résultats étaient fortement orientés vers les succès de langue anglaise, en omettant les alternatives non occidentales et non anglophones.

Le problème, explique Shur-Ofry, réside dans la manière dont ces systèmes d’IA sont construits. Les LLM sont entraînés sur de vastes quantités de texte internet, qui sont disproportionnellement en anglais et reflètent les normes culturelles dominantes. Les modèles utilisent des schémas statistiques pour prédire les réponses probables, ce qui signifie que ce qui est le plus courant apparaît le plus souvent. Bien que cette approche augmente la précision et la cohérence, elle marginalise les perspectives des communautés linguistiques et culturelles plus petites. Avec le temps, alors que les LLM se nourrissent de leurs propres sorties et continuent de s’entraîner sur le contenu numérique existant, l’effet de rétrécissement se renforce.

« Ce n’est pas seulement un bug technique », met en garde Shur-Ofry. « Cela peut avoir de profondes conséquences sociétales. Cela peut réduire la diversité culturelle, compromettre la tolérance sociale et affaiblir les fondements de la conversation démocratique et de la mémoire collective. »

Pour contrer cette tendance, Shur-Ofry propose un nouveau principe légal et éthique pour la gouvernance de l’IA : la « multiplicité ». Ce concept appelle à ce que les outils d’IA soient conçus de manière à soutenir activement l’exposition à des points de vue et récits divers, plutôt que de simplement renvoyer les réponses les plus statistiquement probables.

« Si nous voulons que l’IA serve la société, et non seulement l’efficacité, nous devons laisser place à la complexité, à la nuance et à la diversité », a-t-elle déclaré. « C’est ce que la multiplicité représente — protéger l’ensemble du spectre de l’expérience humaine dans un monde dirigé par l’IA. »

L’article met également en lumière deux moyens clés de promouvoir la multiplicité. Tout d’abord, en intégrant des fonctionnalités dans les plateformes d’IA permettant aux utilisateurs d’augmenter facilement la diversité des résultats — comme en ajustant le « température » du modèle, un paramètre qui élargit la gamme des réponses générées. Ensuite, en développant un écosystème de systèmes d’IA concurrents offrant aux utilisateurs la possibilité de rechercher des « deuxièmes avis » et des perspectives alternatives.

Shur-Ofry souligne également l’importance de l’alphabétisation en matière d’IA. « Les gens ont besoin d’une compréhension de base du fonctionnement des LLM et des raisons pour lesquelles leurs résultats peuvent refléter des points de vue populaires, plutôt que équilibrés ou inclusifs », a-t-elle déclaré. « Cette prise de conscience peut aider les utilisateurs à poser des questions de suivi, à comparer les réponses et à réfléchir de manière plus critique sur les informations qu’ils reçoivent. Cela les encourage à voir l’IA non pas comme une seule source de vérité, mais comme un outil — un outil contre lequel ils peuvent lutter à la recherche d’une connaissance plus riche et plus pluraliste. »

Elle collabore avec le Dr. Yonatan Belinkov et Adir Rahamim du Département d’informatique du Technion, et Bar Horowitz-Amsalem de l’Université hébraïque, pour mettre en pratique ces idées.