
Dans les années 90, Pierre Bourdieu nous mettait en garde contre la télévision...
Selon lui, pilotée par l’audimat, elle tendait à homogénéiser l’information (par concurrence mimétique), à produire des "penseurs rapides" et dépolitisait le débat public (“la télévision a une sorte de monopole de fait sur la formation des cerveaux […] en remplissant ce temps rare avec du vide, on écarte des informations pertinentes”).
Conséquence directe de son propos, il y voyait également un danger potentiel pour la démocratie via une censure “invisible” et la circulation circulaire des sujets (ou de l’information).
Depuis, le Web et les réseaux sociaux ont amplifié ces mécanismes : la personnalisation algorithmique (combinée à la proximité sociale) a permis de réduire l’exposition à la diversité et la capacité de nuancer (bulles de filtres, chambres d’écho…), facilitant la "pensée simpliste" et la désinformation au détriment des faits ou du réel.
Cette dynamique renvoie aussi au “modèle de la propagande” d’Edward S. Herman et Noam Chomsky, qui décrit la “fabrication du consentement” via cinq filtres :
On en retrouve aujourd’hui des équivalents dans la recommandation algorithmique, le microciblage et la plateformisation. Les récentes campagnes orchestrées lors des élections politiques (notamment sur X/Twitter ou Facebook), mêlant bots et humains, en sont une triste illustration. La mécanique "bourdieusienne" d’uniformisation, combinée à la viralité des plateformes Web a ainsi facilité la fabrique d’une opinion manipulable à souhait.
L’offre d’information stimulant une demande de moins en moins regardante sur la nuance, les discours politiques, économiques ou sociaux se sont adaptés, amplifiant le phénomène dans une boucle auto-alimentée.
“Multimodale et statistico-probabiliste à l’échelle hyperscale”, l’IA générative semble enfoncer le clou, et permet la multiplication (ou l’amplification) des deep fakes, des contenus synthétiques à l’échelle et de la persuasion de masse. Et, ce, d’autant que son développement très centralisé et énergivore accentue la dépendance à quelques plateformes facilement influençables / manipulables.
Plus récemment, la tendance récursive chez les principaux modèles à l’auto alimentation informationnelle (ou circulation circulaire des sujets, comme déjà vue) risque d’accentuer ces phénomènes “d’homogénéisation de l’information”, propices à l’abandon de tout esprit critique ou indépendant, et à un appauvrissement intellectuel généralisé des populations (citoyens électeurs).
Pour simplifier (puisque c’est la tendance 😉) on pourrait dire que la boucle « logique d’audience → uniformisation → viralité → contenus synthétiques → concentration technique → logique d’audience » s’amplifie au point d’asphyxier la pluralité politique, sociale ou économique.
Au-delà des récentes tentatives maladroites de l’agentique, plus axées sur le registre économique, une alternative résiderait peut-être dans la redirection de l’IA (pas forcément générative, ou du moins pas entièrement) au service du "citoyen-usager" : une IA centrée sur l’individu et ses interaction politiques sociales ou économiques, fondée sur le principe de subsidiarité, distribuée, autonome, située, systémique et décisionnelle.
A ce titre, les concepts existants de jumeaux numériques pourraient être étendus à des principes “d’exosquelettes cognitifs”, permettant aux humains qui les détiennent, les pilotent, les entraînent et les utilisent de reprendre une certaine capacité à “survivre” dans ce chaos ambiant.
Bien entendu, ces jumeaux numériques assisteraient des décisions opérées au plus proche de l’utilisateur, dans son intérêt propre, et porteraient la singularité en matière de compétences, préférences ou encore contextes (donc embarqués, par exemple sur smartphone, pour réduire la dépendance au cloud et permettre le contrôle par l’individu de ses objectifs et de ses données).
Indépendants, dotés d’architectures neuro symboliques natives (différentes des approches neuro symboliques hybrides actuelles car intrinsèques à leur architecture) et fonctionnant majoritairement en pair-à-pair, ils seraient interopérables entre eux ainsi qu’avec d’autres types de jumeaux (d’organisations, d’objets, etc.).
Par un effet systémique, multiplier ce type d’agents personnels et hétérogènes permettrait peut-être de réintroduire une certaine diversité (épistémique et opérationnelle), portée par la puissance du numérique distribué.
Qu'en pensez-vous ?...
PS : Cette vision d’une IA personnalisée et réellement émancipatrice n’a, aujourd'hui, plus rien de théorique : certaines entreprises, telle Spentia, s’emploient à la concrétiser. En effet, en développant des jumeaux numériques cognitifs qui fonctionnent comme de véritables extensions de l’intelligence individuelle, Spentia propose de passer d’une IA qui extrait et homogénéise à une IA qui amplifie la diversité humaine et l’autonomie. La vision de cette entreprise consiste à privilégier des architectures embarquées et neuro-symboliques qui placent la souveraineté de l’utilisateur (sur ses données comme sur ses décisions) au premier plan.
Cela représente une étape concrète pour rompre le cycle d’homogénéisation de l’information que Bourdieu dénonçait déjà il y a plusieurs décennies.
Le signal Spentia : des insights actionnables à la croisée de l'IA, de la transformation et des talents.
À chaque édition : le point sur ce qui bouge dans la transformation des organisations ; outils, méthodes, retours d'expérience et enjeux humains.