L’artificialisation des sols est-elle sans commune mesure ?

SPALLIAN
7 min readMar 23, 2023

Avec un rythme actuel de 20 000 ha par an en France, l’artificialisation des sols contribue directement au dérèglement climatique et à la dégradation de la résilience de nos écosystèmes. Afin de ralentir ce processus — consistant en la transformation des sols naturels, agricoles et forestiers (NAF) en sols artificiels — un bouleversement de paradigme est nécessaire au sein des collectivités territoriales.

Avec la loi dite Climat et résilience le catalyseur requis est en place : elle fixe entre autres les objectifs de réduire de moitié le rythme de consommation d’espaces NAF entre 2021 et 2031, et d’arriver d’ici 2050 à une absence d’artificialisation nette, d’où le surnom “loi Zéro Artificialisation Nette” (ZAN).

Mesurer et suivre l’artificialisation des sols est toutefois une opération délicate. Cet article comparera deux jeux de données disponibles en Open Data permettant de mesurer son évolution, à savoir le jeu de données d’artificialisation du Cerema, désigné comme ressource de référence pour les politiques publiques des collectivités locales, et la base Corine Land Cover (CLC) de l’European Environmental Agency (EEA) (diffusée en version statistique par le Ministère de la Transition Écologique).

Quelles sont les différences entre ces bases de données et dans quelle mesure peut-on s’y fier ?

Les disparités en vue d’ensemble

Avant de regarder sous le capot des méthodes de construction des deux jeux de données, nous vérifierons si leurs résultats sont similaires. Pour ce faire, prenons arbitrairement un territoire communal, en l’occurrence Puget-Théniers, et son département d’appartenance, les Alpes-Maritimes.

Il est à noter que Corine Land Cover représente un projet de grande envergure impliquant beaucoup d’effort humain. En découle une fréquence de mise à jour relativement faible d’une fois tous les 6 ans. Les données du Cerema, en revanche, sont mises à jour annuellement et de fraîcheur N-1 (les données diffusées en 2022 portent sur 2021). C’est le premier avantage des données du Cerema par rapport à celles de CLC qui nous obligent de sélectionner l’intervalle 2012–2018 pour notre comparaison des évolutions de l’artificialisation.

Paradoxalement, dans les Alpes-Maritimes la surface totale artificialisée entre 2012 et 2018 s’élève à 750 ha selon le Cerema, alors que Corine Land Cover comptabilise seulement 82.1 ha.

Ce grand écart entre les données Cerema et CLC ne provient pas d’un simple biais à la hausse pour le premier. Les pics de valeurs communales chez CLC sont assez hauts, mais la part de communes ayant un taux d’artificialisation de 0 y est également plus important que du côté du Cerema, à savoir même plus de 90% des communes.

Écart de la consommation d’espaces NAF entre 2012 et 2018 pour toutes les communes des Alpes-Maritimes selon les deux sources. Valeurs positives pour les communes où le Cerema comptabilise plus d’hectares consommés que CLC (version statistique).

Corine Land Cover

Comment expliquer ces disparités considérables ? Un coup d’œil sur la méthodologie de Corine Land Cover (version EEA) nous apprend que le produit, une couche géographique statique de l’occupation des sols d’un moment donné, est construit via l’interprétation humaine des images satellites. Les chiffres statistiques en sont extraits.

Il s’avère que Corine Land Cover ne fournit que des aires homogènes d’au moins 25 ha (et des changements d’au moins 5 ha entre deux millésimes). Si cela est précis au niveau européen, cette granularité est très importante à l’échelle communale de France. Le grand nombre de communes sans aucune évolution mesurée s’explique par ce manque de finesse : les modifications inférieures à 5 ha ne sont pas comptabilisées. Le guide d’utilisation de CLC même le reconnaît : « l’analyse de l’occupation du sol avec CORINE Land Cover à l’échelle communale est à éviter : à cette échelle les informations produites seront à la fois pauvres d’enseignement et peu précises. »[i]

Pour illustration, selon CLC il n’y a eu aucune artificialisation à Puget-Théniers entre 2012 et 2018 (+2.4 ha selon le Cerema). Même si la couche géographique, l’un des atouts de CLC, ne dit pas grand-chose sur les flux d’artificialisation, le problème de granularité en ressort clairement :

Puget-Théniers, CLC superposé sur OpenStreetMap (Géoportail) avec carré bleu de 5 ha. Sols artificialisés en rouge.

À l’aide des couches de plan actuelles d’Open Street Map, on remarque que certains sols de Puget-Théniers, notamment la partie bâtie à la rive sud du Var autour de l’EHPAD, paraissent bien occupés de bâtiments, alors que Corine Land Cover les couvre par un label ‘forêt et semi-naturel’.

Notons aussi que l’interprétation humaine des images satellites, sur le fondement desquelles est construit le CLC, est sujette à erreurs. Pendant la construction d’un nouveau millésime, les producteurs de CLC font en effet une révision exhaustive du précédent millésime. Ainsi, grâce à de nouvelles images auxiliaires ou à des corrections d’erreurs humaines, le taux de l’artificialisation dans les Alpes-Maritimes entre 2012 et 2018 a été évalué 35 fois (!) moins important en moyenne qu’il ne l’aurait été à partir des données non-révisées de 2012, tombant de 2 900 ha à 82.1 ha.

En somme, les données de Corine Land Cover ne sont pas bien adaptées pour mesurer le flux d’artificialisation sur une période donnée. Tout d’abord, pour les communes et les EPCI la granularité de l’outil ne suffit pas. Ensuite, la faible fréquence de mise à jour et la nécessité de réviser les données plus tard, ne permet pas aux collectivités territoriales de suivre les évolutions récentes sur leur territoire de manière fiable.

Cerema

Les chiffres du Cerema, cependant, sont extraits des renseignements fiscaux des propriétaires des sols cadastrés. Une approche radicalement distincte, et porteuse de ses propres biais.

Pour les données du Cerema la granularité ne pose pas de problèmes : le produit présente des chiffres statistiques de consommation d’espaces par bi-millésime, agrégés à partir de données parcellaires — une maille géographique très fine. Néanmoins, le jeu de données a aussi ses défauts. Par exemple, en raison de la provenance fiscale des données, les parcelles non-cadastrées ne sont pas incluses.

De plus, les données ayant un rapport avec la taxe foncière et le renseignement des propriétaires, le producteur, le Cerema, a jugé qu’une partie des données sources n’est pas fiable. Notamment les flux des sols artificialisés vers les sols naturels, agricoles et forestiers (la désartificialisation), ne correspondraient pas toujours à de véritables changements. Si parmi ces flux on peut reconnaître de la réelle renaturation, il s’agit aussi de reconfigurations fiscales. Le flux d’ « artificialisé » vers « NAF » comporte beaucoup trop de changements fiscaux sans changement réel de l’usage du sol, la fiscalité des espaces NAF étant moins forte que celle des espaces artificialisés. Dans le cadre de notre étude, il n’est pas possible d’assimiler ces flux à la désartificialisation.

C’est pourquoi le Cerema a exclu ces flux et parle de « consommation des espaces NAF » au lieu d’artificialisation nette. De la même façon les flux entre sols naturels, agricoles et forestiers ne sont pas renseignés suffisamment pour permettre une distinction au sein de la catégorie NAF.

En fin de compte, les données du Cerema sont pertinentes pour suivre l’objectif intermédiaire de réduire de moitié la consommation d’espaces NAF. En revanche, le manque des données sur la désartificialisation fait obstacle à l’usage de ces données pour mesurer la finalité ultime de stopper l’artificialisation nette.

Caractéristiques clés des jeux de données

Le futur : des satellites et de l’IA

Le jeu de données parfait n’existe donc pas encore et les plaintes des collectivités à cet égard semblent justifiées. Les deux producteurs de données sont également bien au courant des exigences de plus en plus élevées et sont en train de créer des versions mieux adaptées de leurs produits. Les deux visent à contourner les limites du travail humain par la voie de l’automatisation à l’aide de l’Intelligence Artificielle.

Corine Land Cover a annoncé CLC+, un outil qui adressera notamment la granularité jusqu’ici trop peu fine. CLC+ fournira un inventaire construit à l’aide de segmentation d’image et de deep learning, ayant pour résultat un produit à unité minimale d’intérêt (minimum mapping unit) de 0.5 ha.

Du côté français, le portail de l’artificialisation géré par le Cerema cherche à s’affranchir de ses données existantes, pour privilégier une nouvelle source : l’Occupation du Sol à Grande Échelle (OCS GE). Produit par l’Institut Géographique National (IGN), l’OSC GE ne couvre que certains départements, mais un élargissement est prévu à tout le territoire national, à l’aide de nouvelles méthodes d’analyse d’images satellites par le biais de l’Intelligence Artificielle. Les zones homogènes prises en compte seront d’au moins 500 m² pour les zones construites et de 2500 m² pour les zones non-construites. Ainsi, sa granularité serait toujours plus fine que celle de CLC+.

Étant donné que la loi prescrit déjà le portail d’artificialisation du Cerema comme référence à la loi Climat et résilience, et étant donné que la fiabilité et la granularité des données restent haut de gamme en comparaison avec les autres sources, il est conseillé de suivre les évolutions de cet outil de près.

[i] CORINE Land Cover France — Guide d’utilisation, 2009, European Environment Agency / Ministère de l’Écologie, de l’Énergie, du Développement durable et de l’Aménagement du territoire.

Rédaction
Jeroen Schouten, Data Analyst, SPALLIAN

--

--

SPALLIAN

Editeur de logiciels, data analyste et conseil stratégique, engagé dans l’innovation au service des territoires