Article d’Atlantico un peu long mais qui permet de réfléchir aux avantages, inconvénients, risques… du développement de l’IA dans la sphère du pouvoir.
Entre promesse de transparence et risque de technocratie, l’irruption de l’intelligence artificielle dans la vie publique et politique ne relève plus de la science-fiction. Des expérimentations au Japon et en Albanie révèlent une mutation en cours : outil de lutte contre la corruption pour les uns, symptôme d’une défiance démocratique pour les autres, l’IA oscille entre levier d’efficacité et facteur d’érosion politique. Derrière l’effet d’annonce, une question s’impose déjà : peut-elle renforcer la démocratie sans en vider le sens ?
Atlantico : Entre une liste pilotée par l’IA au Japon et l’expérience d’un ministre IA en Albanie, on voit émerger des tentatives très concrètes d’intégrer l’intelligence artificielle dans la vie démocratique. Ces expériences relèvent-elles de simples coups de communication ou traduisent-elles une transformation plus profonde de nos systèmes politiques ?
Fabrice Epelboin : À mon sens, cela dépasse assez largement le simple coup de communication, même s’il y a évidemment, dans ce type d’initiatives, une dimension de mise en scène. Ce que l’on voit apparaître au Japon comme en Albanie, c’est moins un gadget qu’un signe avant-coureur d’une transformation possible de la vie publique.
Le point commun entre ces expériences, c’est qu’elles s’attaquent d’abord à un angle très concret : la corruption, et plus précisément la surveillance des appels d’offres publics et des réponses qui y sont apportées. Or c’est un domaine dans lequel l’IA peut être redoutablement efficace, parce qu’elle peut comparer, recouper, détecter des anomalies, identifier des schémas répétitifs, des incohérences ou des proximités suspectes à une vitesse et à une échelle que l’humain ne peut pas égaler.
Donc oui, il peut y avoir une part de communication. Mais derrière cette couche de communication, il y a quelque chose de beaucoup plus opérationnel. L’IA commence à apparaître comme un instrument crédible de contrôle, de rationalisation et de surveillance des mécanismes de la gouvernance des démocraties. Et ça, ce n’est pas anecdotique. Ce type d’usage a vocation à s’étendre, pas seulement dans les démocraties, mais dans tous les États qui, pour une raison ou pour une autre, veulent mieux encadrer leurs procédures, réduire la corruption ou restaurer la confiance dans l’action publique.
Autrement dit, la communication existe, bien sûr, mais elle accompagne aussi quelque chose de plus profond : l’installation progressive de l’idée que l’IA peut devenir un outil de régulation étatique à part entière.
Ensuite, il faut reconnaître qu’il existe, dans les deux cas, une part évidente de mise en scène. En Albanie, la figure d’un “ministre IA” relève aussi d’une performance politique, presque d’un geste symbolique. On personnifie une technologie qui, en réalité, n’a ni volonté propre, ni personnalité morale, ni responsabilité autonome. Autrement dit, on habille de vocabulaire politique un outil qui reste entièrement dépendant d’un cadre humain, administratif et gouvernemental. Au Japon, il existe également une part de stratégie de visibilité : faire exister un parti, marquer les esprits, incarner une modernité politique.
Mais s’arrêter à cette lecture serait insuffisant. Car derrière l’effet d’annonce, il y a quelque chose de plus profond qui se joue : une forme d’acculturation progressive. À mesure que ces initiatives se multiplient, même de façon encore marginale ou imparfaite, l’idée d’une présence de l’IA dans la sphère politique cesse d’apparaître comme aberrante. Elle s’installe dans le paysage mental collectif.
Et cela rencontre un autre phénomène, beaucoup plus structurel : la défiance croissante vis-à-vis du politique. Dans des sociétés où les responsables publics sont perçus comme inefficaces, corrompus ou déconnectés, l’idée qu’un outil présenté comme neutre, rationnel et incorruptible puisse occuper une place dans la gestion publique devient, pour une partie de l’opinion, non seulement acceptable, mais séduisante. C’est en ce sens que ces expériences, même lorsqu’elles relèvent encore largement de la communication, peuvent annoncer une transformation plus profonde de nos imaginaires politiques et, à terme, de nos systèmes eux-mêmes.
L’expérience albanaise, n’a pas produit les effets attendus. Mais ce cas ne pose-t-il pas une question plus profonde : ce sont peut-être moins les limites de l’IA qui apparaissent ici que celles de nos institutions, encore incapables d’intégrer ce type d’outils dans la décision publique ?
Fabrice Epelboin : Il faut d’abord rester prudent : l’expérience albanaise démarre à peine, et en tirer des conclusions définitives à ce stade relève davantage du réflexe politique que de l’analyse solide.
Là où la question devient réellement intéressante, c’est du côté des institutions. Intégrer ce type d’outils suppose d’accepter un niveau accru de transparence, voire une forme de mise à nu des pratiques existantes. Et tous les systèmes politiques ne sont pas prêts à affronter ce que ces technologies pourraient révéler, notamment en matière de corruption ou d’inefficacité. Il peut donc exister des résistances, conscientes ou non.
Mais ces réticences ont vocation à s’effriter. La pression budgétaire, la recherche d’efficacité et les premiers résultats concrets finiront par imposer ces outils. À long terme, ce ne sont pas seulement les pratiques administratives qui pourraient évoluer, mais la nature même de l’État.
Emmanuel Goffi : Je ne suis pas certain que le problème principal soit celui d’une incapacité des institutions à intégrer l’IA. La vraie question est peut-être plus en amont : est-il réellement nécessaire de vouloir intégrer ces systèmes dans la décision publique ? Et surtout, sur quelle base le fait-on ? Avec quelle réflexion préalable, avec quelle finalité politique, avec quelle démonstration de leur utilité réelle ?
Aujourd’hui, on a le sentiment que l’adoption de l’IA est poussée à marche forcée, dans le public comme dans le privé. En Europe, en France, on multiplie les plans, les stratégies, les feuilles de route, avec l’idée qu’il faudrait intégrer l’IA partout, presque par principe. Mais cette logique semble davantage portée par des intérêts économiques, industriels et concurrentiels que par une véritable réflexion de fond sur l’amélioration du service public ou du fonctionnement démocratique.
C’est d’autant plus problématique que le retour sur investissement réel de ces technologies reste, à ce stade, largement incertain. Les études disponibles sont souvent contradictoires, et les gains de productivité promis ne sont pas toujours démontrés. Il existe donc un risque de mythe technologique, c’est-à-dire l’idée selon laquelle l’IA serait, par nature, une solution supérieure, plus rapide, plus fiable, plus rationnelle que l’action humaine. Or cela reste, pour une large part, une croyance plus qu’un fait établi.
Cette difficulté n’est d’ailleurs pas propre aux institutions publiques. On la retrouve aussi dans les entreprises, où l’on adopte des outils d’IA sans toujours repenser en profondeur les organisations, les méthodes de travail, les processus de décision. Il y a souvent un effet vitrine, un effet d’équipement, sans transformation structurelle réelle.
Le problème, au fond, est peut-être moins une incapacité d’intégration qu’un déficit de réflexion critique. On déploie ces outils avant même d’avoir tranché les questions essentielles : à quoi doivent-ils servir ? Dans quelles limites ? Avec quels garde-fous ? Pour quels bénéfices concrets ? Tant que cette réflexion n’est pas menée sérieusement, on risque surtout de suivre une dynamique dictée par l’offre technologique et les intérêts de marché plutôt que par une vision politique claire.
Des outils comme Grok, capables d’analyser des masses considérables de textes, suggèrent, après avoir passé en revue la législation européenne, qu’une grande partie pourrait être inefficace ou obsolète. L’IA peut-elle devenir un levier pour améliorer la qualité de la loi, ou risque-t-elle au contraire de réduire la complexité du débat démocratique à une simple logique d’optimisation ?
Fabrice Epelboin : Il faut d’abord relativiser l’idée de “loi inefficace” ou “obsolète”. Dans toutes les démocraties, le droit se construit par couches successives : on ajoute, on corrige, on adapte. Avec le temps, cela produit un empilement complexe, souvent peu lisible, mais qui reflète aussi l’histoire des compromis et des alternances politiques.
Dans ce contexte, l’intérêt de l’IA réside surtout dans sa capacité de synthèse. Elle peut analyser des volumes massifs de textes, identifier les incohérences, les redondances ou les dispositions devenues inutiles, puis proposer une version plus claire, plus structurée, plus accessible. Sur ce plan, son efficacité est indéniable, notamment sur des corpus juridiques particulièrement complexes comme la législation européenne.
L’autre atout de l’IA face à un corpus juridique, c’est qu’elle peut aussi le rendre accessible aux néophytes, et l’expliquer dans des termes adaptés à chaque interlocuteur. Vous pouvez dès à présent donner un texte de loi ou une directive européenne à une IA et, en lui expliquant qui vous êtes et le contexte de votre demande, établir un échange où l’IA vous expliquera en détail tout ce que vous seriez bien incapable de déceler dans un texte technique destiné à être utilisé par des professionnels du Droit. Aujourd’hui, Légifrance est bien plus accessible et intéressant pour des gens comme moi qui n’ont pas fait d’études de Droit.
Mais il ne faut pas confondre amélioration technique et décision politique. La loi ne se résume pas à un problème d’optimisation. Elle repose sur des arbitrages, des valeurs, des rapports de force, des choix de société.
L’IA peut donc assister, clarifier, rationaliser la production normative. Elle peut en améliorer la qualité formelle et la rendre accessible à tous. En revanche, elle ne doit ni se substituer au législateur ni en définir le sens. La décision, elle, doit rester humaine.
Emmanuel Goffi : Il faut d’abord se méfier de la prétention implicite contenue dans ce type d’affirmation. Dire qu’un système d’IA serait en mesure de passer en revue l’ensemble d’un corpus juridique et d’en conclure qu’une partie substantielle serait inefficace ou obsolète suppose déjà qu’il soit capable de comprendre ce qu’est réellement le droit, dans toute sa profondeur. Or c’est loin d’être évident.
Oui, bien sûr, l’IA peut être utile pour traiter très rapidement une masse considérable de documents, repérer certaines incohérences formelles, identifier des redondances, signaler des contradictions apparentes ou pointer des dispositions devenues difficilement lisibles. Sur ce terrain, elle peut constituer un outil d’assistance intéressant.
Mais la loi ne se réduit jamais à un problème technique. Dans un régime démocratique, elle est le produit d’un processus politique, d’un contexte historique, de rapports de force, de compromis, d’intentions parfois contradictoires. Un texte de loi n’a de sens qu’inscrit dans une histoire, dans une culture juridique, dans des débats, dans une interprétation. Ce n’est pas simplement une suite de mots à optimiser.
Et c’est précisément là que l’IA rencontre ses limites. Comprendre une norme, ce n’est pas seulement l’analyser syntaxiquement ou statistiquement. C’est être capable de saisir ce qui se joue derrière les formulations, ce qui est implicite, ce qui relève du contexte, de la jurisprudence, de la philosophie politique, voire de la conflictualité sociale. Sur ce terrain, je reste très sceptique quant à la capacité réelle des systèmes actuels à produire une lecture suffisamment fine, nuancée et non arbitraire.
Le risque, dès lors, serait de confondre simplification et appauvrissement. Oui, l’IA peut aider à repérer certains points de blocage ou à fluidifier certains aspects techniques. Mais si l’on se met à considérer qu’elle pourrait non seulement identifier les problèmes, mais aussi proposer des solutions normatives à adopter quasi automatiquement, alors on bascule dans une logique où le débat démocratique se trouve marginalisé. Ce n’est pas tant la complexité du droit qui disparaîtrait que l’espace de discussion qui l’accompagne. Et ce serait là une rupture majeure.
Dans quelle mesure peut-on intégrer l’IA dans la décision publique sans affaiblir ce qui fait le cœur de la démocratie : le jugement humain, l’intuition et la responsabilité politique ?
Fabrice Epelboin : La clé est assez simple : l’IA doit assister, pas décider. Tout l’enjeu est de maintenir l’humain dans la boucle.
L’IA peut remplacer ou optimiser une grande partie des mécanismes administratifs, analyser des volumes considérables de données, simuler des scénarios, éclairer des choix avec une puissance et une rapidité inédites. Sur ce plan, elle constitue un levier d’efficacité extrêmement puissant.
Mais dès lors qu’on touche au politique, la décision doit rester humaine. C’est une question de responsabilité, au sens plein du terme. Décider, c’est trancher, assumer, arbitrer entre des intérêts parfois contradictoires. Cela ne peut pas être délégué à une machine.
On retrouve ici un débat très proche de celui qui existe dans le domaine militaire sur les systèmes autonomes : jusqu’où déléguer sans perdre le contrôle ? La réponse est la même. L’IA peut augmenter la capacité de réflexion, accélérer l’accès à l’information, enrichir l’analyse. Mais elle ne doit jamais décider à la place d’un humain, du moins pour les décisions critiques. Chez les militaires, la limite éthique convenue de nos jours, c’est l’armement autonome, chez les politiques, le débat reste ouvert, et il n’a pas réellement commencé.
Mais si l’IA se substitue à la décision humaine et à la responsabilité du politique, il y a un problème démocratique évident. Si elle l’augmente, alors elle devient un outil redoutablement efficace. Mais dans tous les cas, la décision finale doit rester entre les mains de l’humain, et être assumée comme telle.
Emmanuel Goffi : Avant même de répondre à cette question, il faut peut-être reconnaître une difficulté de départ : le mot “démocratie” est souvent utilisé comme une évidence, alors qu’il recouvre en réalité des formes historiques, culturelles et institutionnelles très différentes. La démocratie japonaise n’est pas la démocratie française, qui n’est pas la démocratie américaine, ni celle d’autres régions du monde. On parle souvent de démocratie comme d’un bloc homogène, alors qu’il s’agit d’un concept mouvant, disputé, imparfait.
Dès lors, définir ce qui en constituerait le “cœur” n’a rien d’évident. Et je ne suis pas certain que ce cœur puisse se résumer au jugement humain, à l’intuition ou à la responsabilité politique, d’autant que, dans beaucoup de démocraties contemporaines, cette responsabilité politique est déjà perçue comme affaiblie, brouillée ou défaillante.
C’est précisément cette crise de confiance qui ouvre un espace à l’IA. Parce qu’on la présente souvent comme l’inverse du politique tel qu’il est vécu aujourd’hui : là où l’élu serait faillible, intéressé, corruptible, approximatif, l’IA serait objective, impartiale, rationnelle, efficace. Elle fonctionne ainsi comme une projection idéale, presque fantasmatique, d’un pouvoir débarrassé des défauts humains.
Dans ces conditions, son intégration dans la décision publique peut séduire, non parce qu’elle serait réellement plus légitime, mais parce que le système existant paraît de plus en plus délégitimé. Et c’est là que se situe le danger. Non pas dans une supériorité intrinsèque de l’IA, mais dans le fait qu’elle bénéficie d’une image survalorisée, en miroir d’un politique profondément discrédité.
Or cette représentation est trompeuse. L’IA n’est pas neutre. Elle n’est pas objective par essence. Elle est construite par des humains, sur des données sélectionnées, selon des paramètres décidés, avec des biais et des angles morts. Le risque n’est donc pas seulement technique. Il est politique et symbolique : celui de voir une société transférer sa confiance vers des systèmes qu’elle imagine plus vertueux que ses représentants, alors même qu’ils restent eux aussi des produits sociaux, économiques et idéologiques.
Au fond, l’intelligence artificielle va-t-elle contribuer à renforcer nos démocraties en les rendant plus efficaces et plus lisibles, ou risque-t-elle au contraire d’en accélérer l’érosion, en substituant progressivement le politique par des logiques technocratiques ?
Fabrice Epelboin : L’IA va profondément transformer la lisibilité de l’action publique. Elle permet déjà de rendre compréhensibles des textes ou des mécanismes qui, jusqu’ici, échappaient largement au citoyen.
Cela change l’équilibre du rapport entre gouvernants et gouvernés. Une partie de l’autorité politique reposait sur une forme d’asymétrie du savoir. Cette asymétrie est en train de disparaître.
Concrètement, n’importe quel citoyen peut désormais interroger une IA pour comprendre un texte de loi complexe, en saisir les implications, en identifier les failles. Cette montée en puissance cognitive assistée par l’IA pourrait fragiliser les structures politiques traditionnelles, de la même façon qu’elles ont été fragilisées par les réseaux sociaux, qui ont radicalement transformé la réalité du Droit à la liberté d’expression, en le rendant autrement plus tangible qu’au siècle dernier.
Dans ce sens, l’IA n’est ni intrinsèquement un danger ni une solution. C’est un “pharmakon” : à la fois remède et poison. Tout dépend de l’usage qui en est fait.
Mais une chose est certaine : son adoption est déjà massive, y compris chez les décideurs politiques. L’enjeu n’est plus de savoir si elle va transformer la démocratie, mais comment. Et sur ce point, la réflexion politique et philosophique reste pour le moment cantonnée, pour l’essentiel, au néo luddisme.
Emmanuel Goffi : À mes yeux, l’IA agit d’abord comme un accélérateur d’érosion. Non pas parce qu’elle détruirait mécaniquement la démocratie, mais parce qu’elle intervient dans un moment où celle-ci est déjà fragilisée, contestée, affaiblie dans ses promesses comme dans sa crédibilité.
Lorsqu’on présente une IA comme une alternative plus efficace, plus intègre ou plus rationnelle que des responsables politiques jugés décevants, on ne fait pas que promouvoir un outil. On contribue aussi à délégitimer encore davantage la démocratie représentative telle qu’elle fonctionne aujourd’hui. On nourrit l’idée qu’une technique pourrait se substituer avantageusement à la délibération, au conflit, à l’incertitude, autrement dit à tout ce qui fait aussi la matière du politique.
Il y a, en outre, un autre risque majeur : celui d’une dépendance cognitive croissante. Plus les individus s’habituent à déléguer à l’IA la recherche d’informations, la formulation d’idées, la résolution de problèmes, plus ils peuvent perdre en autonomie intellectuelle, en effort critique, en capacité d’analyse personnelle. Et une démocratie ne peut pas fonctionner durablement si les citoyens renoncent progressivement à exercer eux-mêmes leur jugement.
À cela s’ajoute un glissement possible vers des logiques technocratiques, dans lesquelles la décision publique serait de plus en plus encadrée, orientée, voire justifiée par des systèmes techniques présentés comme supérieurs. Ce n’est pas nécessairement un basculement brutal. Cela peut se faire par petites touches, au nom de l’efficacité, de la rationalisation, de l’optimisation. Mais l’effet cumulatif peut être considérable.
En réalité, l’IA ne crée pas seule cette érosion. Elle la révèle, l’accompagne et l’accélère. Elle prospère sur une crise préexistante de la démocratie, sur une fatigue du politique, sur une perte de confiance dans la parole publique. C’est pour cela qu’elle peut apparaître, à tort, comme une solution.
1,729 total views, 1,729 views today


l’IA n’est pas une panacée universelle. Dans le domaine du doublage cinématographique, c’est une catastrophe. J’ai voulu visionner quelques films sur ma tablette numérique, doublés par IA. Eh bien c’était une catastrophe. J’ai renoncé.