Qu’est-ce qu’une IA utile et comment la différencier d’une IA inutile ?
SOCIO-ÉCOLOGIE DE LA GOUVERNANCE DU NUMÉRIQUE
L’impact caché de l’IA, entre coût écologique et dépendance
L’intelligence artificielle s’impose aujourd’hui dans un monde traversé par des crises écologiques et sociales profondes. Or, on oublie souvent que le numérique n’a rien de virtuel. Nos vies connectées reposent sur des serveurs physiques énergivores, nourris par des matériaux rares extraits du sous-sol et par le travail invisible de milliers de personnes qui entraînent, modèrent et ajustent les algorithmes. En 2024, les centres de données consommaient déjà plus de 350 TWh d’électricité par an — autant qu’un grand pays industrialisé. Chaque requête adressée à une IA générative mobilise environ dix fois plus d’énergie qu’une recherche web classique, et l’entraînement des grands modèles requiert d’immenses quantités d’eau pour le refroidissement des machines. De l’extraction du cobalt à celle de notre attention, une même logique extractiviste se perpétue : pendant que nous profitons d’applications « magiques », les coûts énergétiques et humains sont dissimulés derrière les interfaces fluides.
Cette prise de conscience est récente. L’utopie initiale d’Internet présentait la technologie comme émancipatrice et dématérialisée ; mais à mesure que les plateformes et les Big Tech ont pris le pouvoir, une double dépendance s’est installée : énergétique, vis-à-vis d’une infrastructure mondiale encore largement fossile ; et cognitive, vis-à-vis d’outils qui filtrent et captent notre attention. Le progrès technique n’est donc libérateur que si son architecture et sa gouvernance sont démocratisées. Sans cela, l’innovation engendre de nouvelles formes de servitude — des esprits et des ressources. D’où l’appel grandissant à une gouvernance socio-écologique du numérique. Il s’agit d’intégrer les enjeux environnementaux, sociaux et politiques dès la conception des technologies. Sans justice énergétique — c’est-à-dire une répartition équitable et soutenable de l’accès à l’énergie et aux ressources — l’essor de l’IA pourrait amplifier les inégalités et les crises écologiques. La question centrale devient : à quoi et à qui sert réellement l’IA ? Il faut distinguer ce qui relève d’une IA utile, au service du bien commun, de ce qui n’est qu’une IA inutile, voire nuisible.
Nos représentations de l’IA oscillent entre fascination et inquiétude. D’un côté, un discours techno-solutionniste la présente comme la panacée capable de tout résoudre : soigner, prévoir, organiser, réparer. De l’autre, la science-fiction nourrit la peur du dérapage : machines incontrôlables, surveillance totale, perte de contrôle humain. Ces récits extrêmes ont un effet pervers : ils détournent l’attention de la question essentielle — quelles finalités poursuivons-nous ? Si l’on considère l’IA comme une fatalité neutre, on légitime son déploiement sans débat. Si, au contraire, on la diabolise, on se prive d’outils potentiellement émancipateurs. Un autre imaginaire, plus insidieux, s’est imposé : celui du confort algorithmique. Les plateformes prospèrent en flattant notre désir de facilité : contenu personnalisé, divertissement continu, services instantanés. Cette promesse de confort installe une forme d’apathie politique : pourquoi interroger un système qui simplifie notre vie ? Pourtant, derrière ce confort se cachent la captation de notre attention, l’exploitation de nos données et le travail précaire d’une multitude de micro-travailleurs invisibles. Résister à cette capture ne signifie pas rejeter la technologie, mais réinvestir l’imaginaire collectif. Comme le rappelait Bernard Stiegler, toute technique façonne nos manières de penser et de désirer ; elle exige donc une pharmacologie du numérique, capable d’en cultiver les usages bénéfiques tout en limitant les effets toxiques. Il faut ainsi imaginer des technologies ouvertes au doute et à la complexité, capables d’intégrer l’erreur, la lenteur, la pluralité. Une IA utile ne doit pas maximiser le contrôle, mais favoriser la créativité humaine et l’autonomie des communautés. L’imagination devient ici un outil politique : elle détermine la trajectoire que prendra notre rapport à la machine.
Définir une IA utile : les critères de différenciation essentiels
Pour différencier une IA utile d’une IA inutile, on peut s’appuyer sur l’éthique des communs, telle que formulée par Elinor Ostrom, et sur la démarche low-tech, qui valorise sobriété, participation et résilience. Une IA véritablement utile répond à un besoin réel et mesurable — éducation, santé, adaptation climatique, solidarité — tout en limitant son empreinte écologique. Elle doit être évaluée non par son profit mais par sa valeur d’usage collective. À l’inverse, une IA énergivore destinée à optimiser la publicité ou stimuler la surconsommation relève du gaspillage social et environnemental. Elle s’inscrit dans une logique de sobriété numérique et cherche l’efficience plutôt que la démesure. Des modèles plus légers, hébergés localement, suffisent souvent à remplir une fonction sans déployer de colossales infrastructures. La frugalité algorithmique est l’équivalent numérique de la réparation et du réemploi : elle permet de penser la performance à partir des ressources disponibles, non de la puissance brute. Mais l’utilité se joue aussi dans la gouvernance. Une IA n’est utile que si elle est transparente, contrôlable et gouvernée collectivement. Cela suppose d’impliquer les usagers, les travailleurs et les collectivités dans la définition de ses objectifs et dans l’évaluation de ses effets. L’enjeu rejoint la notion de communs numériques : un système géré non par un acteur unique, mais par une communauté selon des règles explicites et révisables. Enfin, une IA utile s’inscrit dans une relation symbiotique : elle renforce les capacités humaines et aide à préserver les écosystèmes. Elle n’automatise pas pour éliminer l’humain, mais pour lui permettre de mieux comprendre et agir. Dans l’agriculture, par exemple, une IA locale qui aide à planifier les cultures selon le climat peut être précieuse ; une IA opaque qui pousse à la dépendance technologique serait, au contraire, inutile ou nocive.
Ces critères redéfinissent l’efficacité : non plus produire plus vite ou plus fort, mais produire du sens et du soin dans les limites planétaires. Or, de nombreuses initiatives esquissent déjà ce numérique soutenable. Le projet BLOOM, rassemblant plus d’un millier de chercheurs bénévoles, a prouvé qu’il est possible de créer des modèles linguistiques ouverts, multilingues et transparents. De même, des collectifs comme Open Assistant développent des IA dont le code, les données et les biais sont accessibles et discutables publiquement. L’open source offre ainsi transparence, mutualisation et appropriation locale. Il rend l’innovation cumulative, non concurrentielle, et constitue un antidote à la concentration des savoirs par les grandes plateformes.
Les recherches sur l’IA embarquée, ou TinyML, démontrent qu’il est possible de concevoir des outils à très faible consommation d’énergie. Ces solutions permettent par exemple de surveiller l’humidité des sols, la qualité de l’air ou l’éclairage public sans infrastructure lourde. Des modèles comme DeepSeek, conçus pour tourner sur du matériel modeste, ouvrent la voie à une innovation qui ne dépend pas d’un accès privilégié à la puissance de calcul. Cette approche low-tech augmentée incarne la convergence entre ingénierie sobre et éthique environnementale. Parallèlement, la gouvernance coopérative s’impose comme une condition essentielle. Le réseau social Mastodon ou les plateformes coopératives comme Mobicoop illustrent la possibilité d’un numérique décentralisé et démocratique. Transposée à l’IA, cette logique donnerait des plateformes où les citoyens décident collectivement de l’usage de leurs données. Des initiatives comme La Coop des Communs ou le collectif Frugal Digital en Europe explorent ces modèles : gouvernance polycentrique, implication citoyenne, documentation ouverte, éducation populaire à la culture numérique. Ce sont autant de laboratoires de ce qu’on pourrait appeler une intelligence civique.
Bifurquer vers une IA utile, un choix politique et culturel
Construire une IA utile n’est pas une utopie, mais un choix politique. Il s’agit de bifurquer d’un modèle de croissance algorithmique vers une culture du soin et de la mesure. Cette bifurcation repose sur trois principes : sobriété énergétique radicale pour réduire la charge matérielle du numérique ; gouvernance polycentrique pour distribuer le pouvoir de décision ; et co-conception ouverte pour rendre les algorithmes auditables et modifiables. Comme le souligne Hélène Tordjman, la technologie n’est pas un destin : elle est un projet social. De la même manière qu’Ostrom montrait qu’un commun se maintient par la délibération et la responsabilité partagée, l’IA ne pourra devenir soutenable qu’en s’adossant à des institutions démocratiques vivantes.
Les cadres politiques commencent à émerger : le Règlement européen sur l’IA (AI Act) impose des critères de transparence, de sécurité et de proportionnalité. Mais sa mise en œuvre doit s’accompagner d’un véritable débat citoyen : qui définit les usages à haut risque ? Quels garde-fous pour la surveillance automatisée ? Enfin, la justice algorithmique doit compléter la justice écologique : auditer les biais, garantir la redevabilité, protéger les travailleurs du clic et les communautés affectées par l’extraction de ressources.
L’IA utile n’est pas la plus performante ni la plus spectaculaire : c’est celle qui renforce la dignité humaine et la soutenabilité du vivant. Elle ne cherche pas à remplacer, mais à relier. Elle ne promet pas la toute-puissance, mais la capacité collective d’habiter le monde avec mesure. Entre l’illusion d’un progrès infini et la tentation du rejet total, il existe une voie exigeante mais féconde : celle d’un numérique gouverné comme un bien commun, sobre dans ses moyens et ambitieux dans ses finalités. Réécrire le code d’un monde habitable commence ici : dans la manière dont nous choisissons de concevoir, de partager et de limiter nos technologies. C’est en cela que la socio-écologie de la gouvernance du numérique ne relève pas d’un supplément d’éthique, mais d’une refondation culturelle. À l’heure où l’IA s’invite partout, il ne s’agit pas seulement d’innover, mais d’apprendre à penser ensemble la technique, la justice et le vivant. C’est peut-être là, enfin, l’intelligence la plus utile.