lirecapvert.org
“Always remember that the people are not fighting for ideas, nor for what is in men’s minds. The people fight and accept the sacrifices demanded by the struggle in order to gain material advantages, to live better and in peace, to benefit from progress, and for the better future of their children. National liberation, the struggle against colonialism, the construction of peace, progress and independence are hollow words devoid of any significance unless they can be translated into a real improvement of living conditions.”
Return to the Source: selected speeches of Amílcar Cabral (1974)
“Un peuple qui se libère de la domination étrangère ne sera libre culturellement que si, sans complexe et sans sous-estimer l'importance des aspects positifs des cultures de l'oppresseur et des autres cultures, retourne vers les chemins glorieux de sa propre culture, qui est nourrie par la réalité de son environnement et qui neutralise aussi bien les influences néfastes et tout assujettissement à la culture étrangère. Ainsi, il peut être dit que si la domination impérialiste a le besoin vital de pratiquer l'oppression culturelle, la libération nationale est nécessairement un acte culturel.”
Return to the Source: selected speeches of Amílcar Cabral (1974)
L’ontologie du pilotage : Vers une nouvelle éthique de la co-création Humain-IA (2026)
Résumé : Alors que les échelles de mesure de l’IA (DALIA, AIAS) se multiplient, cet article explore les limites d’une approche purement quantitative — l’effet « Nutri-score ». Nous proposons un changement de paradigme vers une « Échelle de Pilotage » (EP), centrée sur la délégation de responsabilité. Enfin, nous projetons cette réflexion vers l’avenir des IA agentiques et l’urgence pragmatique d’un cadre normatif pour les revues scientifiques et l’enseignement supérieur.
Mots-clés : Intelligence Artificielle Générative, Éthique de la co-création, Intégrité académique, Gouvernance de l'IA, Épistémologie numérique, Relation Humain-IA, Délégation cognitive, Méthodologie de recherche
*******
I. L’illusion comptable : pourquoi le « Nutri-score » de l’IA échoue
La réponse immédiate des institutions face à l’intelligence artificielle générative (IAG) a été celle de la mesure. Comment quantifier l’intrusion de la machine dans le jardin secret de la pensée humaine ? Des initiatives comme l’échelle DALIA ont émergé avec une promesse de transparence : étiqueter les œuvres de D1 (100% humain) à D5 (100% IA).
Pourtant, cette approche souffre d’une faille ontologique. Elle repose sur une vision dualiste où l'IA et l'humain seraient deux entités séparables, dont on pourrait peser les apports respectifs comme on pèse les ingrédients d'un plat.
1. Le paradoxe du prompt créatif
Dire qu'un texte est « 100% IA » est techniquement faux. Une IAG est un système probabiliste qui nécessite une condition initiale : le prompt. Ce prompt n'est pas qu'une commande ; c'est une intention structurée, un cadre sémantique, une direction artistique. Dans le cadre d'un mémoire de recherche, le chercheur qui passe trois heures à affiner une instruction pour obtenir une synthèse précise exerce une activité intellectuelle de haut niveau. En le classant dans une catégorie « IA dominante », on occulte le fait que l’humain est le moteur immobile de la génération.
2. L’effet Nutri-score : la qualité sacrifiée à la quantité
Le Nutri-score alimentaire est un outil précieux pour le consommateur pressé, mais il est aveugle à la gastronomie. Il peut classer une huile d’olive vierge en catégorie « C » ou « D » à cause de sa teneur en graisses, oubliant ses vertus antioxydantes et son rôle dans un régime équilibré. De même, une échelle quantitative pénalise le chercheur qui utilise l’IA pour traiter des masses de données ou polir une syntaxe complexe. On risque de valoriser un texte médiocre « 100% humain » au détriment d’une réflexion brillante « 50% assistée », alors que la valeur ajoutée intellectuelle (l’originalité de la thèse) réside dans le second.
II. L’Échelle de Pilotage (EP) : une cartographie de la délégation
Si l’échelle AIAS (AI Assessment Scale) a ouvert la voie en distinguant des étapes (brainstorming, édition), elle reste perçue comme une échelle de « permissions » scolaires. Nous proposons de la dépasser par une Échelle de Pilotage, conçue pour être adoptée par des revues de référence (Nature, The Lancet) et des institutions académiques.
L'objectif n'est plus de mesurer des volumes de texte, mais de déclarer des niveaux de délégation cognitive.
Échelle de Pilotage (EP)
Note pour l'usage : Cette échelle ne mesure pas la "quantité" d'IA (type Nutri-Score), mais identifie le point de bascule de la responsabilité intellectuelle. Plus le niveau augmente, plus l'exigence de vérification critique par l'humain doit être élevée.
*******
Cette échelle transforme la transparence en une méthodologie de recherche. Un auteur ne dit plus « j'ai utilisé l'IA », il dit « j'ai délégué la structuration au niveau P-1 et l'exploration au niveau P-2, tout en conservant la rédaction finale ».
On notera l’absence volontaire d’un « Niveau Zéro » (100 % humain) dans cette classification, contrairement aux échelles DALIA ou AIAS. Ce choix repose sur le constat de l’infusion technologique désormais irréversible dans les outils de production intellectuelle (correcteurs sémantiques, traducteurs neuronaux, moteurs de recherche assistés). En évacuant la quête illusoire d'une « pureté rédactionnelle », l’Échelle de Pilotage ne cherche pas à mesurer la présence de l'IA, mais à qualifier la nature de la responsabilité engagée dès que l'outil est sollicité.
Ainsi, l’échelle ne s'inscrit pas dans une logique de permission ou de moralisation du travail, mais dans une éthique de la maîtrise. Elle déplace le curseur de la quantité vers la modalité : le point de départ n'est plus l'absence d'IA, mais le premier degré de délégation consciente. Ce parti pris force l'utilisateur à se définir non plus par rapport à ce qu'il s'interdit, mais par la rigueur du contrôle qu'il exerce sur ses instruments.
III. Prospective : L’IA agentique et le mirage de l’autonomie
Nous devons cependant nous préparer à un futur — qui est déjà là en laboratoire — où l'IA ne se contente plus de répondre, mais commence à initier.
1. La fin du pilotage ?
Les versions avancées des modèles agentiques (comme les prototypes de Claude ou GPT-5) possèdent une capacité de "réflexion" interne qui leur permet de suggérer des idées avant même que l'humain ne les formule. Nous passons de l'IA-Outil à l'IA-Initiatrice. Dans ce scénario, l'humain risque de devenir un simple « bouton de validation ». L'IA propose un article complet sur une corrélation qu'elle a détectée seule dans les données. L'humain se contente de dire : « Oui, publie cela ».
2. Le risque de l’atrophie et le dernier refuge
Si l'initiative même de la pensée est déléguée, que reste-t-il de l'auteur ? La conclusion de cette évolution est que la valeur d'un travail ne résidera bientôt plus dans l'effort de production, mais dans l'intentionnalité. Vouloir que tel savoir soit partagé reste un acte humain. Mais si nous perdons l'habitude de "prompter" le monde, nous risquons de ne plus être que les curateurs d'un génie algorithmique qui nous suggère quoi désirer.
IV. Approche pragmatique : une standardisation pour les revues et l’examen
Malgré ces vertiges prospectifs, l'urgence est aujourd'hui à la mise en œuvre. Comment des revues comme Science & Vie ou des comités d'examen universitaires peuvent-ils intégrer ces outils ?
1. Une mise en place simplifiée
L'Échelle de Pilotage proposée ici a l'avantage de la transparence déclarative. Plutôt que de soumettre un mémoire à un détecteur d'IA (dont on sait qu'ils sont faillibles et injustes), l'étudiant doit joindre une Annexe de Méthodologie IA. Dans cette annexe, il coche les niveaux EP utilisés pour chaque section de son travail. Cette approche responsabilise l'auteur au lieu de le criminaliser.
2. Le rôle des éditeurs (Nature, Géo, etc.)
Pour une revue scientifique comme Nature, la validation par les pairs (Peer Review) doit désormais intégrer l'examen de cette délégation. Si un chercheur déclare un niveau P-3 (Co-rédaction) pour ses résultats, les relecteurs doivent être deux fois plus vigilants sur la vérification des faits. Pour une revue de vulgarisation comme Géo, l'usage de l'IA (P-0 ou P-1) permet de libérer du temps pour le reportage de terrain, là où l'IA est aveugle.
3. Vers un "Label de confiance"
Au-delà du Nutri-score, nous avons besoin d'un label de "Qualité du Pilotage". Un article ne serait pas noté sur sa "pureté humaine", mais sur la rigueur du contrôle exercé par son auteur sur les outils qu'il emploie.
Conclusion : réhabiliter le chef d'orchestre
Nous ne reviendrons pas en arrière. L'IA est entrée dans la fabrique de la connaissance. Si nous persistons à vouloir quantifier l'IA avec des échelles binaires et morales, nous échouerons à comprendre la mutation en cours.
Le salut de l'enseignement et de la recherche réside dans la formation à la Gouvernance de l'IA. Nous devons apprendre aux étudiants et aux chercheurs à être des chefs d'orchestre exigeants plutôt que des consommateurs passifs. L'Échelle de Pilotage est le premier jalon de cette nouvelle éthique : elle ne juge pas l'outil, elle qualifie l'intelligence de celui qui le dirige. Dans un monde où la machine peut tout écrire, la seule question qui vaille demeure : « Qui a voulu dire cela, et pourquoi ? »
Origine du "L'ontologie du pilotage" (2026)
À la suite de notre dernier post it sur l’échelle DALIA et d'échanges avec des enseignants et des informaticiens universitaires, il est apparu que ce modèle, bien que théoriquement structuré, ne correspondait pas aux besoins concrets de l'enseignement ou de la recherche scientifique. Si l’échelle AI Assessment Scale (AIAS), créée en 2024, semblait plus pertinente — notamment par son niveau 5 qui prend mieux en compte l'émulation possible entre l'humain et la machine — ces deux approches nous ont laissé sur notre faim.
Puisque nous traitons précisément du rapport entre l'IA et l'humain, il nous a paru intéressant de porter le questionnement au cœur même de l'outil en sollicitant un LLM, en l'occurrence Gemini 3 Flash (avril 2026).
Le texte « L’Ontologie du Pilotage » est donc le résultat de cette réflexion partagée. Il fusionne l’expérience de terrain d’humains confrontés quotidiennement aux défis de l’IA avec les capacités de structuration et de simulation argumentative d’un LLM. Cette démarche nous a permis d’éprouver nos propres concepts en temps réel, d'argumenter, de questionner et d'explorer d'autres pistes sémantiques, tout en veillant à limiter les biais de complaisance propres aux modèles de langage par une critique constante des propositions générées : l’IA y a servi de miroir et de moteur de formulation, tandis que l’humain a exercé la gouvernance critique indispensable à la validation scientifique.
Christophe Chazalon
À Genève, le 22/04/2026
*******
L'AIAS proposée par Mike Perkins, Leon Furze, Jasper Roe et Jason MacVaugh
DALIA : quelle part d'IA y a-t-il dedans ? (2026)
- allemand (DE)
- anglais (EN)
- chinois (ZH)
- espagnol (ES)
- français (FR)
- italien (IT)
- romanche (RM, la 4e langue nationale suisse)
- ukrainien (UK)







