“L’IA devient l’influenceur le plus puissant de la société, pour le meilleur… et pour le pire.”
Résumé exécutif
Cette perspective analyse comment l’IA, en particulier les LLM comme ChatGPT, devient un influenceur social majeur en façonnant nos relations, nos décisions et notre esprit critique. Elle met en garde contre trois dérives principales :
- Anthropomorphisation et dépendance émotionnelle
- Biais d’autorité et manipulation idéologique
- Déresponsabilisation et paresse intellectuelle
La solution ne réside pas dans le rejet de la technologie, mais dans l’éducation des citoyens et décideurs à ses usages, limites et biais, afin de leur redonner la capacité de choisir consciemment le futur désirable qu’ils souhaitent construire.
L’IA devient l’influenceur le plus puissant de la société, pour le meilleur… et pour le pire.
Nous passons de plus en plus de temps à discuter avec les LLM, des sujets les plus génériques aux plus intimes. En devenant des assistants (très) personnels, nous leur avons alloué un capital de confiance significatif.
Pourtant, cette confiance que nous continuons de leur accorder quotidiennement, consciemment ou pas, n’est pas sans risques, à long terme, pour la société.
Les causes et risques qui s’ensuivent
Quand on oublie que les IA ne sont pas des humains…
L’anthropomorphisation consiste à attribuer des caractéristiques humaines à des entités qui n’en sont pas.
Au vu de l’expérience utilisateur que l’on vit avec les chatbots, il n’est pas surprenant qu’on leur donne à des caractéristiques humaines. Mais considérer une IA de la même manière qu’un humain n’est pas sain, et peut apporter son lot de dérives que l’on peut déjà observer.
Dépendance émotionnelle et relations parasociales
En août 2025, le nouveau modèle GPT-5 était rendu public par OpenAI. Mais l’événement le plus marquant n’aura pas été, à mes yeux, une quelconque (r)évolution dans la qualité de ses réponses. Ce sont les complaintes d’une frange vocale d’utilisateurs qui ont surtout retenu mon attention.
Au cœur de leurs préoccupations, un retour du modèle précédent, non pas pour la qualité des réponses qu’il apportait, mais pour l’attachement émotionnel qu’ils en avaient développé de par sa “personnalité”.
En cause, GPT-5, à son lancement, apportait des réponses concises et perçues comme trop “froides”. Cette modification avait sûrement été faite pour séduire les professionnels recherchant des réponses factuelles, contradictoires lorsque nécessaires, et donc plus prédictibles et fiables.
À l’inverse, la configuration par défaut du modèle précédent, GPT-4o, avait deux spécificités notables :
- La tonalité des réponses imitait et amplifiait celle de l’utilisateur,
- Les réponses faisaient preuve d’une complaisance excessive à l’égard de l’utilisateur.
En donnant de la valeur à des compliments effectués par une IA que l’on considère à tort de la même manière qu’un humain, et en n’étant jamais exposé à la contradiction, l**’on s’enferme dans une bulle dans laquelle notre valeur et notre estime de soi sont définies par une machine sans réelle capacité empathique**. Mais en ayant pris l’habitude d’être constamment validés, s’exposer au monde externe et réel peut devenir d’autant plus difficile à vivre.
Sans prise de recul, l’IA pourrait ainsi devenir, de manière similaire à une drogue, une échappatoire illusoire et addictive à la réalité.
Biais d’autorité de l’IA sur nous, humains
Les IA avec lesquelles nous discutons sont toutes configurées avec un prompt système. Il s’agit d’un ensemble d’instructions permettant d’orienter la manière dont elles vont répondre. Cela s’apparente à la formalisation de la mission, de la vision et des valeurs d’une société.
Les prompts système ne sont pas visibles des utilisateurs. Nous attribuons ainsi la confiance que l’on accorde aux réponses du chatbot à l’image que renvoie l’entreprise qui le met à disposition, notamment au travers de son leadership. Mais l’image publique de la société et ses intérêts (plus ou moins) cachés peuvent parfois être opposés.
Une première occurrence explicite peut déjà être évoquée. En juillet 2025, Grok, l’IA de Twitter, a commencé à revendiquer le fait d’être “MechaHitler”, notamment dans des conversations n’ayant aucun lien avec la Seconde Guerre mondiale, tout en tenant des propos racistes et antisémites. Quant aux questions abordant des sujets factuels, l’IA favorisait comme sources les propos d’Elon Musk, à la tête du réseau social.
Peu avant cet épisode, celui-ci avait affirmé qu’il allait “rééduquer Grok” car les données sur lesquelles l’IA avait été entraînée auraient été biaisées et ne favorisaient pas la vérité, selon ses dires.
Certes, la “rééducation” de Grok n’ayant pas été réalisée avec finesse pour obtenir des réponses plus subtiles, le grand public avait pu s’apercevoir de cette reconfiguration aux airs idéologiques, mais quid d’une future mise à jour mieux dosée, permettant de faire passer insidieusement des “vérités alternatives”, ou encore poussant l’IA à choisir un vocabulaire et des points de vue biaisés pour nourrir certaines émotions auprès de la population ?
Cet exemple montre bien qu’avec leur adoption grandissante, les chatbots sont des outils de manipulation de masse en puissance.
Quand la facilité et la rapidité des réponses prennent le dessus…
Déresponsabilisation
Nous cherchons tous à gagner du temps et à économiser de l’énergie. Cette motivation est un excellent moteur au progrès et à l’évolution, mais comme pour tout sujet, la nuance est de mise.
En utilisant les chatbots qui sont capables de produire des réponses détaillées en quelques secondes, nous prenons de plus en plus l’habitude de déléguer notre capacité d’analyse et de prise de décision à des IA.
Par conséquent, nous allons parfois prendre des décisions non pas parce qu’il s’agit d’un choix délibéré que nous avons véritablement conscientisé, mais parce que “ChatGPT l’a dit”. L’outil fait figure d’autorité, nous permettant, peut-être inconsciemment, de déférer la responsabilité desdites décisions à l’IA.
Sur des sujets anodins, cela permet de réduire sa charge mentale, ce qui est un moyen efficace de gagner du temps et réduire la dépense d’énergie. En revanche, serait-il pertinent, sans même parler de la protection des données personnelles, de demander à ChatGPT de prioriser qui licencier dans le cadre d’un plan social, comme cela a déjà été fait dans certaines entreprises ?
L’un des points majeurs nous différenciant de l’IA est notre capacité à nous projeter avec une idée d’un futur souhaité. En tant qu’humains, nous arrivons à conscientiser une vision globale ; cette capacité nous permet de planifier les étapes qui nous permettront d’atteindre progressivement l’objectif en ligne de mire, tout en considérant l’environnement tangible et intangible, composé de faits et d’opinions, dans lequel nous allons évoluer. Ce contexte englobe notamment les relations interpersonnelles que nous ne pouvons déléguer à une IA.
Nous sommes ceux qui travaillons au quotidien avec nos collaborateurs, pas l’IA. Nous avons la capacité à être empathiques, pas l’IA. Et pour reprendre l’exemple du licenciement, nous sommes ceux qui allons bouleverser la vie des collaborateurs dont nous allons nous séparer, pas l’IA.
Paresse intellectuelle et manque d’esprit critique
En plaçant une confiance totale dans les IA pour obtenir des informations, nous nous exposons à donner de la valeur à des informations incomplètes, présentées sous un mauvais angle, voire erronées.
Il est possible que vous utilisiez régulièrement l’IA pour apprendre ou approfondir certains sujets. Vous en êtes probablement satisfaits. Mais avez-vous déjà essayé d’approfondir un sujet très spécifique, dont vous maîtrisez déjà les arcanes ? Le cas échéant, il y a de fortes chances que ce type d’échange vous soit familier :
- Vous : Peux-tu me dire comment faire <OBJECTIF> ?
- LLM : Oui, tu dois d’abord faire <A>, puis <B> et ensuite <C>.
- Vous : Mais c’est dangereux de commencer par <A>, car en faisant cela, tu <X> !
- LLM : Excellente observation ! Tu as totalement raison, il ne faut surtout pas commencer par <A>, il faut commencer par <A’>…
Vous aviez pu identifier que l’approche proposée par l’IA était mauvaise, car vous aviez suffisamment de connaissances et de recul pour subodorer que sa réponse n’était fiable.
Mais lorsque nous n’avons aucune connaissance sur un sujet que nous lui déléguons, comment pouvons-nous être sûrs que l’IA ne nous fournit pas une réponse convaincante, mais fausse ?
On ne sait pas ce que l’on ne sait pas, et faire confiance aux réponses générées par une IA sans prendre de recul pour apprendre ou appuyer une prise de décision est risqué.
Comment reprendre la main ?
Je ne pense pas que vouloir arrêter d’utiliser les chatbots soit une réponse pertinente à tous les problèmes évoqués précédemment.
D’une part, l’IA générative, utilisée à bon escient, est une technologie qui peut créer de la valeur pour la société, tant pour des usages personnels que pour des applications professionnelles.
D’autre part, les chatbots se démocratisent à tous les niveaux de la société, et vouloir aller à leur encontre relèverait d’un combat vain et dogmatique.
Le plus important pour réduire ces risques est de permettre aux gens d’avoir de la nuance quant à l’IA et ses usages, pour qu’ils puissent eux-mêmes définir leur futur désirable.
Former citoyens et décideurs à l’IA, ses usages, et ses limites
Il est crucial pour les politiques publiques de sensibiliser les utilisateurs aux notions d’IA et à leur usage, sans avoir pour ambition de vouloir transformer l’intégralité de la population en ingénieurs spécialisés en machine learning.
D’un point de vue pratique, présenter les usages concrets de l’IA sans effet de mode ni dogmatisme dans la vie personnelle et professionnelle, expliquer les notions de base liées à l’interface utilisateur et à l’expérience utilisateur générale des chatbots, exposer le panorama des outils existants, ainsi qu’introduire la notion de paramétrage des réponses avec les prompts est un point de départ nécessaire.
D’un point de vue plus conceptuel, bien insister sur la nature artificielle de l’intelligence artificielle générative, sa nature non déterministe, ses limites, ou encore la vision des entreprises derrière les chatbots est crucial pour que les utilisateurs puissent aborder au mieux l’usage des IA.
De manière plus générale, développer l’esprit critique des citoyens quant aux informations et aux nouvelles technologies devient extrêmement pressant.
En effet, nous avons essentiellement discuté des interactions avec les chatbots, mais Internet est en train d’être inondé de contenus générés par l’IA (textes, images, vidéos). Les fake news n’ont bien évidemment pas attendu l’émergence de l’IA générative pour se répandre, notamment à cause des réseaux sociaux, mais le risque est désormais décuplé ; il est beaucoup plus simple et rapide de générer du contenu ayant pour but d’induire en erreur, difficilement discernable de la réalité, même pour les plus aguerris d’entre nous.
Pour cela, sensibiliser aux biais cognitifs, parler de l’économie de l’attention, initier au recoupement des informations sont tout autant de sujets vitaux dont doivent s’emparer les politiques publiques.
Comprendre la vision des entreprises derrière les chatbots
D’un point de vue financier, la finalité d’une société est de maximiser la valeur pour les actionnaires tout en assurant sa pérennité financière à long terme. Et cette pérennité à long terme doit être en corrélation avec la mission et la vision de l’entreprise. Ainsi, deux entreprises peuvent avoir des approches totalement différentes pour atteindre ce même objectif.
Prenons un exemple. La mission de Meta, la maison-mère de Facebook et d’Instagram, est de “Façonner l’avenir des relations humaines et la technologie qui les rend possibles”.
Les décisions prises par la société et son fondateur sont cohérentes avec la mission dont ils se sont emparés. Le nom de Meta vient de “metaverse”, un monde virtuel communautaire et persistant dans lequel les utilisateurs agissent et interagissent comme dans le monde réel. Mark Zuckerberg, à la tête de Meta, l’avait promu comme étant l’avenir des interactions sociales.
Puis est arrivée la démocratisation des chatbots et le succès de ChatGPT, ce qui a poussé Meta à effectuer un changement de priorité en concentrant ses efforts publics sur les LLM. Toujours avec la mission en ligne de mire, Meta veut donc maintenant proposer au monde des relations sociales, amicales, voire amoureuses avec des IA.
D’un autre côté, nous avons OpenAI dont la mission, pour son produit phare ChatGPT, est, selon un document confidentiel ayant été publié par le Department of Justice des USA début 2025, “d’introduire au monde un super assistant IA intuitif qui vous comprend profondément et est votre interface à Internet”. Ainsi, dans la vision que doit porter Sam Altman en tant que CEO auprès de la gouvernance d’OpenAI et de ses utilisateurs, ChatGPT a pour objectif d’être un outil qui vous “augmente” au quotidien.
En mettant en place des fonctionnalités pour interroger vos propres données, garder en mémoire vos échanges, faire des recherches avancées, et avec une communication allant dans ce sens, la société derrière ChatGPT est aussi cohérente dans les actions prises pour aller dans la direction de la mission dont elle s’est investie.
Maintenant, la question est de savoir quel est le futur que nous désirons. Il s’agit de faire un choix. À titre personnel, je me reconnais plus dans la mission d’OpenAI. Je ne dis pas que c’est le bon choix, en revanche, en ayant connaissance des deux approches, je suis en mesure d’exprimer en quoi j’estime que ce choix est celui qui mène, selon moi, vers un futur (plus) désirable. Et je pense que quiconque utilisant des IA devrait être en mesure de pouvoir choisir, en son âme et conscience, une vision à laquelle s’identifier.
Pour cela, comprendre les outils que l’on utilise et les visions prônées par les entreprises qui les mettent à disposition est crucial.
Le principe de l’offre et de la demande fait toujours foi. Si nous choisissons tous collectivement de discuter avec les “compagnes virtuelles” mises à disposition par Meta, il est évident que ce type d’offres se développera encore plus vite, avec toutes les dérives qui pourront en découler.
À l’inverse, si nous décidons de bouder cette offre, Meta s’adaptera et réorientera ses propositions pour répondre à d’autres demandes.
Pour autant, ne soyons pas dupes, il est évident qu’il existe bel et bien un marché pour les compagnes et autres amis virtuels proposés par Meta, qui rencontreront probablement un certain succès.
Les autres solutions ?
Il y a bien évidemment d’autres pistes à explorer, telles que la régulation des entreprises, la mise en place d’une gouvernance à l’échelle internationale, ou des mécanismes pour “incentiviser” les entreprises mettant à disposition des LLMs à adopter une position considérée comme éthique.
Mais, d’une part, cette publication deviendrait trop longue, et d’autre part, je suis convaincu que l’éducation à l’IA est la solution la plus pérenne de toutes.
Grâce à la sensibilisation, on n’attaque pas les fournisseurs de chatbots, mais on outille les utilisateurs pour s’en protéger, reprendre le contrôle, et leur laisser la liberté de définir l’usage et l’avenir qu’ils désirent.
Choisissons notre avenir
Au travers de cet article, je dépeins un tableau très sombre de l’évolution de la société avec l’adoption exponentielle de l’IA. On pourrait croire que je suis “contre l’IA”, pourtant j’en suis un utilisateur quotidien, et je suis convaincu de son potentiel à bien des égards.
Mon objectif était uniquement de présenter un futur possible et non désirable qui pourrait se présenter à nous si l’on ignore les signaux faibles que l’on peut observer dès à présent.
En prenant les devants, on pourra prendre des décisions qui nous permettront de nous prémunir des dérives potentielles de l’IA, ou a minima d’en contrôler les risques, tout en en tirant un maximum de bénéfices pour la société.
Car utilisée à bon escient, l’IA peut être un outil pour prendre des décisions plus éclairées, ou proposer des solutions innovantes, ou plus généralement devenir de meilleures personnes.
N’oublions pas que l’IA n’est qu’un outil. Ce qui va définir son dessein sera l’usage que nous, utilisateurs, déciderons collectivement d’en faire.