Quand on parle de transition énergétique dans le domaine de l’Industrie en France, en prenant quelques raccourcis que vous voudrez bien me pardonner, on peut je pense distinguer deux périodes clés.
La première débute dans les années 1980, après les premiers chocs pétroliers des années 1970. À ce stade, nous avons une conjoncture favorable entre les impératifs des industriels d’optimiser les coûts de production et de l’énergie. Mais aussi une volonté (faisant écho à une demande des populations et une mobilisation des gouvernements) de limiter l’impact de leur activité sur le climat.
D’ailleurs le premier rapport du GIEC date de 1990.
Les principales réponses apportées sont pragmatiques. Elles se traduisent par un déport des sites industriels particulièrement en Europe de l’Est et en Asie. Au travers des seuls prismes macroéconomiques et écologiques à l’échelle de l’Europe de l’Ouest, les bénéfices sont incontestables :
- un accès massif à des produits industriels fabriqués à bas coût,
- la diffusion large de solutions technologiques avancées,
- avec qui plus est une baisse affichée de la pollution environnementale.
On pouvait même regarder avec de gros yeux ces pays lointains coupables d’être inactifs sur le sujet de la transition énergétique/écologique.
Le phénomène est allé en s’accélérant, jusqu’à ces dernières années. Les enjeux autour de la data et de l’IA sont alors marginaux. Personne n’a raisonnablement envisagé de les utiliser à grande échelle même si des sujets d’optimisation (mathématiques), de la Data Science (réseaux de neurones simples) et du reporting (Business Intelligence) permettent d’améliorer l’efficacité des lignes de production et la logistique des usines. Les capacités de calcul et de stockage des données ne sont tout simplement pas suffisantes.
Le phénomène s’amplifie jusqu’à un point critique où les inconvénients deviennent plus importants que les bénéfices. C’est-à-dire de nos jours, le début de la seconde période clé. Les objectifs de sauvegarde du climat et de prospérité des populations et des industries s’alignent à nouveau clairement :
- les états ont pris conscience du risque de perte de souveraineté sur des secteurs stratégiques
- l’industrie européenne est affaiblie dans son activité par une compétition féroce tant sur ses approvisionnements que sur les débouchés de ses produits manufacturés
- Le 6ème rapport du GIEC est plus que jamais alarmiste
- Et les populations de l’Europe de l’Ouest sont désormais aussi concernées que les autres par le réchauffement climatique.
Ces risques sont personnifiés de manière frappante par :
- la pandémie de Covid-19,
- la guerre en Ukraine et les tensions géopolitiques,
- les inquiétudes sur les approvisionnements en énergie et en matières premières,
- les épisodes climatiques exceptionnels d’une violence sans cesse augmentée.
Côté data et IA, les choses ont bien changé et il existe désormais un socle technique et informatique qui a poussé à un niveau incroyable les capacités à capter, consolider, analyser et valoriser la donnée. L’industrie l’a bien compris et s’intéresse désormais à la data et à l’IA dans sa démarche de transition énergétique.
Des incertitudes à lever et des précautions à prendre
Il y a bien sûr des nuances dans la sémantique quand on parle de transition énergétique. J’ai pu assister à certains échanges crispés notamment au Sido à Lyon, entre :
- des acteurs engagés dans une transition énergétique qui peut être perçue sous certains aspects comme un simple effet de « green washing » tant il leur est difficile d’expliquer précisément l’impact de leurs actions,
- et Nadia Maïzi, coautrice du 6ème rapport du GIEC, qui défend avant toute chose une décarbonation de l’industrie, mesurée de manière concrète par des méthodes scientifiques.
Sans compter bien entendu qu’il est opportun pour l’industrie de se montrer volontaire alors que le coût de l’énergie s’envole, et qu’un simple changement de source d’approvisionnement pourrait lui suffire.
Malgré tout, je crois que le moment est opportun, et c’était l’objet de mon précédent chapitre, pour que les intérêts particuliers fassent avancer l’intérêt général pour une transition énergétique réellement en marche.
La norme ISO 14064 sur les émissions de gaz à effet de serre (GES), même si elle a le mérite d’exister, est encore imparfaite dans ses directives d’application.
Il est bien difficile pour un industriel de mesurer à ce jour (pourra-t-on jamais y arriver ?) ses sources d’émission liées aux activités de catégorie 3 (fret amont et aval, matériaux entrants, l’utilisation quotidienne et la fin de vie des produits vendus, etc.). Cela nécessite entre autres, avec les technologies actuelles, que tous les produits fabriqués remontent des informations et donc soient connectés. Possible avec des ordinateurs, des téléphones, partiellement avec des voitures, mais surement pas avec tous les produits de l’industrie.
Par ailleurs, cette démarche va nécessairement entrer en conflit avec le RGPD (Règlement Général sur la Protection des Données).
On va aussi produire des gaz à effet de serre pour collecter ces datas.
Faut-il attendre, alors que le sujet est des plus urgents, pour avancer ? Je crois que non. On peut à mon sens laisser un certain degré de liberté à l’industrie, et aux spécialistes de la data et de l’IA pour expérimenter des solutions. Nous apprendrons nécessairement et comme toujours de nos erreurs et de nos échecs.
Il est cependant impératif d’avoir une vision générale et la plus globale possible, pour que les initiatives entreprises ne se contentent pas de déplacer le problème (comme déplacer les sources d’émission de GES dans d’autres pays ou sur des fournisseurs), ou d’en créer de nouveaux.
Par exemple, et si on reste sur le domaine de la data et de l’IA, la régulation prédictive peut être une bonne approche pour optimiser la consommation de matières premières et d’énergie dans un procédé de fabrication. Pour ce faire, on anticipe les interventions pour compenser les effets d’inertie. Mécaniquement, cela fait baisser les coûts de production et contribue favorablement à la transition énergétique. On peut ici mettre en œuvre des solutions de Machine Learning et d’IA efficaces pour aider ce process. Attention malgré tout à ce que les avantages retirés ne soient pas contrebalancés par un stockage démesuré de données et une surconsommation énergétique due à la puissance de calcul engagée.
Dans un autre domaine, je suis personnellement très sceptique sur le ratio bénéfice/inconvénient pour la transition énergétique, en ce qui concerne les cryptomonnaies, au regard des immenses fermes de minage qu’il faut mettre en œuvre. Oui elles sont loin de nos yeux, elles ont probablement un intérêt économique, mais que d’énergie gaspillée.
Vous avez compris mon propos, la data et l’IA peuvent être de formidables outils pour un impact favorable sur la transition énergétique, mais il faut bien envisager toutes les facettes, les externalités négatives, et les contreparties à payer. C’est un point sur lequel je ne reviendrai pas dans la suite de l’article, mais qu’il faut malgré tout garder en tête.
Quels apports de la data et de l’IA pour la transition énergétique dans l’industrie ?
Avant tout, pour aller dans le sens du GIEC et de l’ADEME, et selon la formule consacrée de William E. Deming, « Ce qui ne se mesure pas ne s’améliore pas ».
Depuis les années 80, une méthode d’évaluation, recommandée par l’Union européenne, permet de quantifier les impacts environnementaux d’un produit ou d’un service. Il s’agit de l’Analyse de cycle de vie (ACV). Elle est documentée principalement dans les normes ISO 14040 et ISO 14044. Elle est découpée en 5 phases distinctes :
- mieux choisir ses matières premières,
- réduire les flux d’énergie et de matières inutiles,
- optimiser la distribution et la vente des produits,
- réduire au maximum les externalités négatives lors de l’utilisation des produits,
- et favoriser l’économie circulaire.
Comme souvent lorsqu’il s’agit de normes à vocation transverses, elles spécifient les principes et le cadre applicables à la réalisation d’analyses du cycle de vie, mais ne décrivent pas en détail les techniques ni les méthodologies spécifiques de chacune des phases.
Côté méthodologie, rares sont les sociétés capables de se prévaloir d’une expertise sur les trois volets industrie, transition énergétique et Data. Mais la situation progresse.
Par ailleurs, les écoles d’ingénieurs lancent désormais des cursus spécialisés. En fer de lance la Doerr School of Sustainability de l’Université Stanford aux Etats Unis. Mais également en France avec le Transition Institute (TTI.5), un master dirigé par Nadia Maïzi et dédié à la transition vers un monde décarboné au sein de l’École des Mines.
Sur la partie Data et IA, nous avons désormais, comme je le disais dans mon chapitre liminaire, un outillage efficace pour capter via de l’IoT, stocker au besoin sur du Cloud, consolider, analyser les données, et réaliser des simulations précises et concrètes. De quoi fournir de manière simple et régulière de la valeur aux audits, inventaires et mesures des flux d’énergies et de matières entrantes et sortantes. Mais aussi de permettre aux industriels de mieux répondre aux exigences de l’Analyse de cycle de vie et de la norme sur les émissions de gaz à effet de serre. Pour finalement être mieux armés dans la gestion de leur transition énergétique.
Si on veut approfondir la partie IA, on peut revenir sur les sujets d’optimisation que j’ai déjà rapidement mentionnés. Ces enjeux sont dans les préoccupations majeures de l’industrie et essentiels pour une transition énergétique positive. Le Machine Learning (ML) est une des voies explorées dans ce cadre-là. Concrètement, sur une ligne de production, on récupère les données des capteurs (IoT) sur une période suffisamment longue : cela constitue une base d’entrainement. Le ML apprend alors des patterns issus de la combinaison de ces données et peut prédire des situations futures. On peut donc faire par exemple de la maintenance prédictive : prédire des pannes machines en fonction de faiblesse détectées potentiellement plusieurs mois à l’avance.
Plus intéressant, je pense, on peut faire de la régulation prédictive optimisée, car le ML est capable de faire la synthèse implicite des informations remontées simultanément pas toutes les machines d’une ligne de production. Ce qui peut s’avérer difficile même pour un opérateur aguerri.
Mais le ML a ses limites dont il faut avoir conscience :
- pour être efficace, il lui faut des données d’entrainement (souvent nombreuses nécessitant parfois une architecture Big Data),
- pertinentes (lui a-t-on fourni des données de capteurs utiles ?),
- de qualité (garbage in, garbage out. Les prédictions seront médiocres/fausses si l’entrainement est mauvais),
- et consomme de la puissance de calcul (d’autant plus élevée que les données sont nombreuses et qu’on souhaite s’approcher du temps réel).
L’investissement peut donc être (très) lourd et il faut surveiller le ROI.
Dans le prolongement de cette idée, on peut aller jusqu’au jumeau numérique. On dématérialise entièrement une usine réelle, les flux entrants, les processus de fabrication, les chaines de production, les flux sortants, etc. Le tout est mis en action en jouant sur les données issues des capteurs et données réelles récoltées dans l’usine. D’un point de vue économique cela n’a de sens que sur les systèmes critiques et complexes, pour simuler des situations à des fins d’optimisation, ou pour former des équipes de maintenance de manière efficace et en toute sécurité.
La SNCF présente ainsi sa cible de jumeau numérique du système ferroviaire pour 2024 : « il rend disponible toutes les informations relatives à la description, l’état, l’usage, les travaux, les opérations, ainsi que les ressources et le financement. Il couvre la totalité du cycle de vie du système, dans le passé, le présent et le futur. Il offre notamment un ensemble de services associés, de fonctions d’analyse, de simulation, de supports de décision ». Un outillage formidable pour accompagner la transition énergétique de la SNCF si le projet aboutit. Mais je dois avouer que la balance coût / bénéfice me semble impossible à équilibrer.
Difficile de parler d’industrie, sans évoquer le Deep Learning qui peut faire sens pour traiter certaines données machines et de capteurs particulièrement complexes, comprenant notamment de l’analyse d’images. Les cas d’usage sont souvent en lien avec le contrôle qualité automatisé sur les chaines de production. Mais on s’éloigne quelque peu de la transition énergétique, objet de l’article. Sur le principe, cette technologie des plus avancées (et donc des plus chères) peut cependant être envisagés pour l’interprétation de données entrantes pour les sujets d’optimisation.
Conclusion
La data et l’IA sont sans nul doute pertinents pour outiller la transition énergétique dans l’industrie. Elles peuvent permettre d’optimiser les procédés de fabrication et la logistique. Et par la même de mieux ou moins consommer les matières premières et l’énergie. Attention cependant à ce que les externalités négatives ne contrebalancent pas les bénéfices engrangés.
Le vérifier peut parfois être complexe. D’autant plus qu’il est encore rare de pouvoir s’appuyer sur un expert ayant une vision complète à la fois sur les problématiques de l’industrie, de la transition énergétique et de la data.
Mais les choses évoluent rapidement et la mobilisation est forte, à la mesure des enjeux. De cursus de formation spécifique sont mis en œuvre. Les premiers experts formés spécifiquement sur le sujet seront prêts dans cinq ans.
Enfin, les méthodes d’évaluation et de mesures des émissions de gaz à effet de serre (GES) et d’analyse de cycle de vie (ACV) peuvent d’ores et déjà bénéficier des formidables avancées de la Data et de l’IA pour capter, consolider et valoriser les données dont elles ont besoin pour être efficaces et légitimes.