J’ai tout récemment commis dans ces colonnes un article (l’IA ne ferait-elle pas de nous de parfaits crétins). Un de mes fidèles lecteurs m’a signalé que le sujet avait notamment été abordé par Didier Van Cauvelaert dans son dernier livre, « l’intelligence naturelle ». Étant modérément porté sur les romans, qui représentent une large partie de sa production littéraire, j’avais néanmoins apprécié sa connaissance du sujet de l’IA. Ou presque, puisque je l’ai entendu dans une interview prendre pour acquis une belle ânerie sur la question de l’eau consommée par l’usage de l’IA.
Sans rentrer dans les détails de mes valeurs écologiques, je veille notamment à réduire autant que possible pollution, gâchis et gaspillages que je pourrais causer. Mais pour en revenir à la fameuse sottise lâchée par Van Cauvelart, il s’agissait de la légende urbaine selon laquelle chaque requête d’IA induirait une consommation d’eau non négligeable. Or, il se trouve que la majeure partie des datacenters fonctionnent aujourd’hui en circuit fermé.
En revanche, la question peut se poser sur le refroidissement des équipements concernés, selon le pays. À plus forte raison dans les régions où la consommation en eau dépasse les quantités objectivement disponibles.
En Europe, l’UE s’est penchée sur la question du refroidissement des datacenters. Depuis octobre 2025, ceux d’une puissance supérieure à 1 MW ont l’obligation de valoriser la chaleur traitée. Cela relève d’un bon sens évident.
Quant à la question de la production d’énergie nécessaire à ces voraces installations, leurs opérateurs se focalisent autant que possible sur les énergies renouvelables, et plus réalistement, selon moi sur le gaz naturel et le nucléaire. Mais Google, qui avait annoncé il y a peu, déclaré envisager des mini réacteurs nucléaires, ou Microsoft qui envisage de relancer la centrale de Three Mile Island, ont déclenché de vives réactions.
Reste la question de l’empreinte carbone que je n’aborderai pas, vu l’impossibilité de traiter sereinement le sujet. Enfin, le problème pourrait bien se résoudre de lui-même pour d’autres raisons. Les éditeurs chinois, comme avec DeepSeek 3.1, durement touchés par les restrictions d’exportation des processeurs américains, n’ont pas eu d’autre de choix que de rendre leurs IA plus efficaces. Et ça marche. À tel point que certains, comme le célèbre Yann LeCun, pensent que les LLM classiques ont atteint leurs limites, et qu’une autre approche est nécessaire.
Articles sur des sujet similaires:
Quel futur proche pour l'intelligence artificielle ?
Une alternative motivante aux abonnements de services d'IA
l'IA ne ferait-elle pas de nous de parfaits crétins ?
La création graphique chamboulée pour tous
Pourquoi l’IA fait peur : la résistance au changement expliquée
Agents : le côté sombre de l'IA
ChatGPT5 : révolution ou pétard mouillé ?
Et si l'intelligence artificielle
devenait votre assistant personnel ?
Qu'elle vous débarassait des tâches ingrates et pénibles ?
- Marketing, communication
- Courriers, contrats, SAV
- Développement, prospection
- Réseaux sociaux, blogs, newsletter

