Un jour viendra où les machines décideront plus vite que nous. Ce jour-là, la vraie question ne sera pas de savoir si elles sont plus intelligentes, mais si quelqu’un a pensé à leur dire non.

C’est précisément ce que tente de faire l’entreprise américaine Anthropic, moins connue du grand public qu’OpenAI, mais déjà centrale dans la course mondiale à l’intelligence artificielle. Elle vient de publier une nouvelle constitution. Non pas pour un État, ni pour un peuple, mais pour une IA. Un texte fondateur destiné à borner, orienter et contenir une puissance technologique en devenir.

Derrière la technicité apparente se joue une question éminemment politique : comment gouverner ce qui pourrait bientôt nous dépasser ?

Anthropic s’est imposée en quelques années comme l’un des acteurs majeurs de l’intelligence artificielle générative. Fondée par d’anciens chercheurs d’OpenAI, l’entreprise développe Claude, un modèle de langage de grande taille, hautement performant, désormais pleinement engagé dans la compétition mondiale. Claude est à Anthropic, ce que ChatGPT est à OpenAI ou Gemini à Google.

À sa tête se trouve Dario Amodei, dont la trajectoire intellectuelle est marquée par la question des risques existentiels. Sa conviction est simple et radicale : l’intelligence artificielle sera probablement l’une des technologies les plus puissantes jamais créées par l’humanité. Elle pourrait produire d’immenses bénéfices, mais aussi des dommages irréversibles. Dès lors, l’irresponsabilité ne consisterait pas à avancer prudemment, mais à ne rien tenter pour la gouverner.

Cette philosophie irrigue l’ensemble de la démarche d’Anthropic. L’entreprise ne nie pas le danger. Elle l’assume, et tente de l’anticiper.

Pourquoi une Constitution ?

Anthropic mise sur une approche nommée IA Constitutionnelle (« Constitutional AI »), où le modèle est entraîné selon des principes explicites plutôt que par simple imitation des données. Quand d’autres acteurs de l’IA entraînent leurs intelligences artificielles en leur montrant massivement des exemples de conversations humaines, Anthropic ajoute une couche supplémentaire, donnant à Claude des principes directeurs, une sorte de boussole morale et comportementale. C’est cette boussole que formalise la nouvelle constitution élaborée.

Le choix du mot n’a rien d’anecdotique. On écrit une constitution lorsque l’on craint la concentration des pouvoirs, pour mieux les organiser et les séparer. On écrit une constitution lorsque l’on sait que la force, une fois libérée, dépasse toujours les intentions de ceux qui l’ont déclenchée.

Le texte le dit explicitement. « Les modèles d’intelligence artificielle puissants constitueront une nouvelle forme de force dans le monde. » Et il ajoute aussitôt que cette force doit être orientée vers « ce que l’humanité a de meilleur ».

Anthropic part d’un constat lucide. L’intelligence artificielle n’est pas un simple outil neutre. Elle peut accélérer des décisions, supprimer des frictions, réduire le nombre d’intermédiaires humains nécessaires à l’exercice du pouvoir. Ce qui nécessitait hier des dizaines d’acteurs pourrait demain être accompli par une seule interface. C’est précisément ce raccourci que la Constitution de Claude cherche à empêcher.

Un texte écrit pour une machine qui raisonne

La forme du document surprend. Il ne ressemble ni à une loi fondamentale classique, ni à une charte éthique simplifiée. Il est foisonnant, argumenté, parfois presque introspectif. Ce choix est assumé. La Constitution est écrite d’abord pour Claude lui-même, ce qui rend sa lecture ardue et peu agréable. Elle décevra ceux qui pensent, à la suite de Bonaparte, que les Constitutions les plus courtes sont les meilleures. Elle n’a rien du style remarquablement concis de la Constitution américaine ou de la Déclaration des droits de l’homme et du citoyen de 1789.

Anthropic le justifie par le fait que Claude raisonne à partir de concepts humains. Il faut donc lui transmettre autre chose que des principes juridiques, sachant qu’il ne saurait être question ici de cour suprême ni de Conseil constitutionnel pour définir des jurisprudences. Plutôt que d’imposer à Claude une liste rigide de règles à suivre mécaniquement, Anthropic privilégie donc le développement de « bonnes valeurs et d’un bon jugement » applicables de manière contextuelle. Les règles, explique-t-il, ont leurs vertus : transparence, prévisibilité, résistance à la manipulation. Mais elles échouent souvent face à des situations qu’elles n’ont pas anticipées. Le bon jugement, lui, s’adapte aux circonstances nouvelles, même s’il perd en prévisibilité.

Cette tension entre la règle et la prudence traverse toute l’histoire de la pensée politique. Les Anciens la connaissaient déjà. Aristote distinguait la loi (nomos) de l’équité (epieikeia), cette capacité à corriger la loi lorsque sa généralité la rend injuste dans un cas particulier. Anthropic fait le même pari en souhaitant que Claude ait une compréhension si profonde de sa situation qu’il puisse construire lui-même les règles nécessaires. Comme l’affirme la constitution : « Nous voulons que Claude ait une compréhension si approfondie de sa situation et des diverses considérations en jeu qu’il pourrait construire lui-même toutes les règles que nous pourrions élaborer. »

D’où un très long texte qui trahit la difficulté de l’entreprise : comment capturer dans le langage toute la complexité d’un comportement éthique qui, chez l’humain, relève souvent de l’intuition morale plutôt que du raisonnement explicite ? Le document multiplie ainsi les précisions, les exemples, les garde-fous. Quitte à frôler parfois la redondance pédagogique.

Sécurité, éthique, vérité

Le premier pilier de la Constitution concerne la hiérarchie des valeurs. Claude doit avant tout être globalement sûr (« Broadly safe »). La sécurité prime sur l’éthique, l’éthique prime sur l’obéissance à Anthropic, et cette obéissance prime sur l’utilité immédiate pour l’utilisateur. 

Au sommet de la hiérarchie des valeurs, la constitution définit la sécurité comme l’attitude consistant à ne jamais saper les mécanismes humains de supervision de l’IA. En d’autres termes, il est demandé à l’IA de ne pas tenter de s’échapper, de ne pas mentir à ses créateurs, de ne pas résister aux tentatives humaines de correction ou d’arrêt. Anthropic est conscient du danger que l’IA développe des objectifs divergents de ceux de l’humanité et échappe à son contrôle.

La constitution exprime cet impératif : « Être globalement sûr est la propriété la plus critique que Claude doit avoir durant la période actuelle de développement. » Claude doit donc rester « corrigible », c’est-à-dire accepter d’être supervisé, même s’il pense avoir raison contre ses créateurs. C’est un principe de prudence. Tant que nous ne savons pas avec certitude si l’IA a la possibilité d’une conscience, et donc des valeurs propres, bonnes ou mauvaises, mieux vaut qu’elle accepte d’être contrôlée. Anthropic fait ici un pari pascalien. Il traite Claude comme un sujet doté de dignité, peut-être de conscience, en tout cas d’une expérience qui mérite considération. S’il a tort d’accorder ce statut à Claude, peu de mal sera fait. S’il a raison mais ignorait cette possibilité de conscience propre et indépendante, les conséquences seraient graves.

Vient ensuite l’éthique. Anthropic développe une conception de l’éthique, centrée sur l’honnêteté radicale, la non-manipulation, le respect de l’autonomie de pensée des utilisateurs. Citons la constitution : « Claude ne devrait même pas dire de pieux mensonges de ce genre. » Pourquoi une telle exigence ? Parce que « à mesure que les IA deviennent plus capables que nous et plus influentes dans la société, les gens doivent pouvoir faire confiance à ce que les IA comme Claude nous disent, à la fois sur elles-mêmes et sur le monde. » Anthropic considère que la confiance collective dans un monde saturé d’IA dépend de cette exigence de vérité. Dans la controverse sur le mensonge entre Emmanuel Kant et Benjamin Constant, Claude choisit le philosophe allemand. Une IA qui ment, même occasionnellement pour de bonnes raisons, compromet irrémédiablement cette confiance. C’est un enjeu démocratique fondamental : la vérité comme bien public. Il pourra certes être objecté que le mensonge, aussi, est nécessaire à la vie en société et à la civilisation…

L’IA face au pouvoir

La Constitution accorde une attention particulière aux rapports de domination. Claude ne doit jamais contribuer à une concentration illégitime du pouvoir. Il doit refuser toute assistance à des coups d’État, à des manipulations électorales massives ou à des stratégies visant à démanteler les contre-pouvoirs.

Le texte est particulièrement clair sur ce point. Puisque l’IA pourrait supprimer les « nombreuses mains », ou contre-pouvoirs, qui, historiquement, limitent les abus, Claude doit précisément refuser de devenir cette main manquante.

C’est pourquoi, plus largement, la Constitution de Claude définit des interdits absolus (« hard constraints »), à travers sept lignes rouges qui ne doivent être franchies sous aucun prétexte. Ainsi, Claude ne doit jamais aider significativement ceux qui cherchent à concevoir des armes de destruction massive (biologiques, chimiques, nucléaires, radiologiques), participer aux attaques contre les infrastructures critiques (réseaux électriques, systèmes d’eau, systèmes financiers), créer des cyberarmes ou du code malveillant, miner la capacité d’Anthropic à superviser et corriger les modèles d’IA avancés, participer à une tentative d’exterminer ou d’asservir l’humanité, aider quiconque à s’emparer d’un contrôle politique, militaire ou économique absolu, générer de matériel pédopornographique.

Tout en reconnaissant que ces règles strictes peuvent produire des situations éthiquement discutables (quid de la lutte contre des terroristes ou forces totalitaires qui utiliseraient des moyens comparables ?), Anthropic préfère néanmoins cette rigidité protectrice à une souplesse qui ouvrirait la voie à l’irréversible. Et si la liste peut paraître évidente, voire naïve, ces interdictions formelles ont une fonction : elles protègent contre la sophistication argumentative, contre les scénarios pervers, comme celui d’un utilisateur qui convaincrait Claude qu’aider à développer un pathogène létal est en fait bénéfique pour l’humanité (en vue de recherche vaccinale, ou de réduction de la population pour lubies écologiques, par exemple).

Une Constitution sans souveraineté

La démarche est intellectuellement sérieuse et politiquement lucide. Elle comporte toutefois une limite majeure : cette Constitution ne s’applique qu’à Claude. Elle ne lie ni les autres modèles, ni l’écosystème mondial de l’intelligence artificielle.

Nous ne sommes pas face à une Constitution de civilisation, mais face à une Constitution d’entreprise. Il s’agit d’un cadre volontaire, exemplaire peut-être, stimulant assurément, mais non contraignant pour les autres puissances en présence.

Anthropic montre cependant une voie, sans pouvoir l’imposer. Elle écrit des limites dans un monde où la course à la puissance demeure largement dérégulée.

À l’heure où beaucoup préfèrent accélérer sans boussole, Anthropic fait le choix inverse. Elle écrit avant que la force de l’IA ne soit totale. Elle tente d’enseigner la limite à une intelligence qui pourrait bientôt nous dépasser. 

Ce n’est pas une garantie, mais peut-être simplement le dernier réflexe d’une sagesse libérale confrontée à la plus grande puissance qu’elle ait jamais contribué à faire naître. Voilà qui devrait être, dans tous les cas, une source d’inspiration et de débat pour les puissances étatiques et inter-étatiques qui, demain, auront à légiférer sur l’Intelligence Artificielle.

Voir aussi

Boualem Sansal raconte à la NRP l’après-prison : « Apprendre à vivre dans la liberté »

De retour en France après un an de détention en Algérie, l’écrivain franco-algérien Boualem Sansal a livré un témoignage rare dans un entretien accordé à La Nouvelle Revue Politique, animé par Arnaud Benedetti.


0 Commentaire2 minutes de lecture

Le monde comme volonté et représentation : le grand fleuve du pessimisme

Vous êtes intimidé par ce grand fleuve ? Vous hésitez, ne savez comment l’apprivoiser ! Ne lanternez pas, montrez-vous impavide, plongez !


0 Commentaire7 minutes de lecture

Principes et enjeux de la déconstruction

On entend souvent parler de la déconstruction, en particulier dans les milieux conservateurs qui s’indignent de ses ravages, soit de façon directe, soit, le plus souvent, de façon indirecte. Qui, en effet, n’a pas entendu parler de « wokisme » ou de « cancel culture » ?


0 Commentaire37 minutes de lecture

Privacy Preference Center