On n’apprend jamais à partir d’un modèle. On apprend uniquement à partir de l’écart entre le modèle et le réel.
Je vous ai parlé, dans le 2ème article de cette série, de la publication par le CSTB de l’indice de surchauffe des bâtiments
Quand nos modèles numériques deviennent les premiers obstacles de l’adaptation au changement climatique
.
Cet indice partage, avec le modèle retenu pour la RE2020, un même péché originel (une forme d’avarice) : l’absence de mesure in situ.
Concrètement, voici ce que font aujourd’hui nos modèles nationaux de confort d’été.
- Nous injectons, dans nos modèles thermiques, des climats mesurés sur des aéroports (stations synoptiques de référence) : des milieux ouverts, plats, sans ombre.
- Nous projetons ces données à l’horizon 2050 à partir de modèles climatiques globaux, à une maille d’environ 100 km.
- Nous ajoutons des correctifs théoriques d’îlot de chaleur urbain, systématiquement défavorables à la ville dense.
Mais ce que nous ne mesurons pas (jamais, ou presque) ce sont précisément les phénomènes qui font la performance climatique des tissus compacts
Densité et compacité urbaines : le grand malentendu climatique
:
- la température réelle de l’air dans les rues étroites,
- les microclimats des cours profondes,
- l’effet de l’ombre portée sur l’air lui-même.
Résultat : la ville dense est pénalisée pour ce qu’elle stocke, mais jamais créditée pour ce qu’elle protège.
Celle-là même que les climats méditerranéens nous ont pourtant conduits à bâtir, siècle après siècle, par apprentissage.
Nous savons pourtant une chose élémentaire :
- Sans mesure, pas d’écart.
- Sans écart, rien à corriger.
Sans correction, aucun apprentissage possible.
Et pourtant, une part croissante de nos politiques urbaines repose aujourd’hui sur des modèles numériques qui ne sont jamais confrontés ni au terrain, ni aux performances réelles de l’urbanisme vernaculaire.
Nous simulons,
nous classons,
nous colorions…
nous effrayons.
Mais nous ne revenons pas mesurer si la réalité confirme ou invalide le modèle.
Or un modèle qui n’est pas testé contre le réel n’est pas un outil scientifique : ce n’est qu’un outil de simulation capable de toutes les hallucinations.
La simulation ne devient un outil d’apprentissage qu’à une seule condition : être corrigée en continu par la mesure réelle.
C’est ainsi que fonctionnent l’apprentissage par renforcement en IA, et tous les projets sérieux de recherche et développement.
Pendant des siècles, les villes ont appris de cette façon : chaque forme était testée par l’usage et le climat.
Nous avons remplacé ce processus par une chaîne cognitive où la simulation précède tout, la norme verrouille, et la mesure devient rare.
Le cœur du problème n’est pas l’imperfection de nos modèles, c’est qu’ils sont construits pour produire une décision, pas pour pouvoir être réfutés.
Sans mesure in situ, impossible :
- d’identifier les bons patterns, de corriger les mauvais…
- de produire des retours d’expérience.
Et la ville cesse d’apprendre.











