Materiali

Nucleare e sistemi elettrici nella transizione energetica

Cambiare il modo di produrre l’energia, o cambiare i “connotati” più marcati di questa società?
Pubblicato il 21 Ottobre 2021
Materiali, Politica, Scienze, Scritti, Temi, Materiali

Il dibattito, ampio e a tutto campo, che riguarda il tema della transizione ecologica è spesso attraversato da una sorta di schizofrenia concettuale che riguarda l’inquadramento stesso del problema: si tratta di cambiare il modo di produrre l’energia, o si tratta di cambiare i “connotati” più marcati di questa società?

Nel primo caso il compito sarebbe ridotto (si fa per dire) a individuare le fonti di energia meno impattanti dal punto di vista delle emissioni totali, fermo restando l’impianto generale delle attività industriali e terziarie che sono alla base di questo sistema-mondo. Nel secondo, sarebbe necessario un intervento di chirurgia plastica per cambiare almeno la “faccia” di questo sistema; vale a dire abbattere, insieme alle emissioni, il volume complessivo delle merci prodotte e consumate, riqualificandole in termini di utilità sociale, durata e “compatibilità socio-ambientale” (cioè sia per la natura che per le persone).

La “transizione ecologica”, stricto sensu, dovrebbe corrispondere al secondo caso, ma nella trattazione corrente si è finiti a parlare esclusivamente del primo che a questo punto, nonostante gli imbellimenti delle dichiarazioni ufficiali e la propaganda che le accompagna, altro non è che una surrogazione di fonti di energia che per eleganza viene chiamata “transizione energetica”.

Per fare che cosa? Esplicitamente per abbattere le emissioni, implicitamente per dare corso alla industria 4.0, cioè maggiore informatizzazione dei processi produttivi e del terziario, oltre a un deciso impulso alla robotizzazione. Ciò comporta la trasformazione dell’attuale mix energetico in una “monocultura” basata esclusivamente (o quasi) sull’utilizzo di energia elettrica.

Nei confronti di questo “modello tutto elettrico”, mentre si registra una sostanziale convergenza tra ambientalisti e una cospicua parte del mondo imprenditoriale (vedi discorso di Emma Marcegaglia al summit del B20 svoltosi lo scorso 7 ottobre, con la presenza di Mario Draghi), persistono forti divergenze sul come arrivarci, cioè se con le sole energie rinnovabili (come sostengono gli ambientalisti) o se, come caldeggiato dalle imprese, anche con un utilizzo rimodulato delle fonti tradizionali, quali il gas naturale e l’energia nucleare. Su questa ultima impostazione convergono tutte le nazioni del mondo che conta: Stati Uniti, Canada, Cina, Russia, Giappone, India, Corea del Sud, Unione Europea (dove pende addirittura la richiesta francese di equiparare il nucleare alle fonti rinnovabili) a cui vanno aggiunti Qatar, Arabia Saudita, Turchia, Iran ed Egitto, oltre alle agenzie internazionali come l’IEA che nelle proiezioni al 2050 (anno fatidico per il raggiungimento delle emissioni zero) arriva a contemplare un apporto doppio di fonte nucleare rispetto al 2020 e una riduzione del gas naturale dall’80% del 2020 al 20% del 2050, sia pure condizionato dall’uso del CCS (Cattura e sequestro della CO2).

Prima di entrare nel merito delle due opzioni, è necessario fare una premessa: l’enunciato delle emissioni zero al 2050, anche se raggiunto, presuppone (senza dichiararlo) che il divario tra paesi ricchi e poveri aumenti, dato che questi ultimi, non possedendo le risorse economiche per mettere in atto la trasformazione dei loro sistemi energetici (sia che si tratti della versione ambientalista che di quella imprenditoriale), dovranno indebitarsi ancor più di quanto lo sono ora. In caso contrario i paesi ricchi potranno anche vantarsi – per esempio – del fatto che nelle loro metropoli si respirerà meglio, grazie a un sistema di mobilità elettrica che nei paesi poveri, invece, sarà ancora alimentato dai carburanti di origine fossile, ma questo non risolverà i problemi legati al riscaldamento globale dato che l’atmosfera non ha confini. Tertium non datur, a meno che i ricchi non paghino la transizione dei poveri.

Ciò premesso, l’opzione imprenditoriale, per quanto appaia più percorribile, non risolve i problemi del riscaldamento globale essendo, più che altro, una grande opera di mitigazione dei cambiamenti climatici, peraltro basata su artifici concettual-tecnologici come il CCS, l’idrogeno “blu” o l’assimilazione dell’energia nucleare a una fonte pressoché rinnovabile.

L’opzione con le sole rinnovabili è senza dubbio la più corretta dal punto di vista dell’impatto sull’ambiente ed è in grado, teoricamente, di conseguire gli obiettivi previsti nel 2050. Tuttavia, per come è formulata, non è esente da controindicazioni realizzative e contraddizioni concettuali che se non affrontate, rischiano di compromettere seriamente la sua validità. Fra queste ci sono: un bilanciamento non propriamente favorevole tra riduzione della CO2, conseguente all’abolizione dei motori a combustione interna, e produzione della CO2 dovuta alla fabbricazione e smaltimento di batterie per autotrazione elettrica che comporta un consistente aumento delle attività estrattive di minerali come il litio, ma anche di altri minerali pregiati (come le terre rare) che sono indispensabili nel settore automobilistico e in quello della generazione elettrica (eolico e fotovoltaico); una sottovalutazione del ruolo e del peso della energia nucleare nella realizzazione della transizione energetica; un approccio superficiale alle problematiche relative ai sistemi elettrici integrati.

Il rilancio del nucleare

Non sono pochi coloro che, specie nel nostro paese, danno per scontata la non credibilità di una rinnovata opzione nucleare, anche se a riproporre il tema è il ministro della Transizione ecologica. In realtà queste esternazioni, accolte da numerose critiche (comprese le mie), sono poco più di un vagito se rapportate all’incessante lavorio che la lobby nucleare sta svolgendo nel mondo e che non può essere rimosso solo perché, in quanto vincitori di due referendum, non ci riguarda da vicino: l’obiettivo delle emissioni zero, con tutti gli annessi e connessi, o è per tutti o non è, non solo per “riguardo” all’etica ma, più semplicemente, perché l’atmosfera è la stessa per tutti.

Negli ultimi anni si è assistito a una sorta di effetto rimbalzo per quanto riguarda l’atteggiamento dell’opinione pubblica nei confronti del nucleare e dei combustibili fossili: più cresceva (a ragione) la preoccupazione per gli effetti dei cambiamenti climatici più si è fatta evidente l’insofferenza verso tutto ciò che brucia e fa fumo, provocando – di rimbalzo – una maggiore attenzione alla proposta nucleare, cosa prontamente sfruttata dalla WNA (World Nuclear Association) che propone di costruire 1000 reattori nucleari nei prossimi 30 anni facendo leva su questi aspetti:

– l’energia nucleare si assume tutti i costi del ciclo produttivo (decommissioning e trattamento rifiuti) mentre ciò non è richiesto ad altre fonti che usano l’atmosfera come discarica, ma nemmeno alle rinnovabili cui non è imposto di smaltire gli impianti a fine vita;

– l’energia nucleare previene molte migliaia di morti causate ogni anno dall’inquinamento dell’aria da fonti fossili che per di più godono di sovvenzioni che l’energia nucleare non ha;

– l’energia nucleare è svantaggiata rispetto ad altre fonti a causa delle diverse normative nazionali che la regolano. Ci vuole quindi una licenza standard valida internazionalmente.

Tanto è forte la tensione ingenerata dall’obiettivo delle emissioni zero, che pochi giorni prima della conferenza sul clima svoltasi a Madrid nel dicembre 2019, il Parlamento europeo ha approvato due risoluzioni: una contenete la dichiarazione di stato di emergenza climatica e ambientale (come richiesto dai movimenti ambientalisti) e l’altra in cui si ritiene che l’energia nucleare possa contribuire al conseguimento degli obiettivi in materia di clima in quanto non produce gas a effetto serra e che possa altresì assicurare una quota consistente della produzione di energia elettrica in Europa”.

Questo tentativo di accrescere il gradimento dell’energia nucleare presso l’opinione pubblica è accompagnato da ingenti programmi di investimento nei paesi a più consolidata vocazione nucleare, con l’esclusione della Francia che, al momento, sconta una crisi (anche economica) del settore.

In Russia, dopo l’incidente di Chernobyl, l’intero settore delle tecnologie nucleari è stato ristrutturato ed adeguato agli standard occidentali, attraverso la valorizzazione del vecchio complesso militare-industriale che oggi, nella sigla Rosatom, racchiude una summa di conoscenze scientifiche e tecnologiche che in occidente risultano disperse e confliggenti: oltre 350 società con più di 255.000 addetti fanno del settore nucleare russo la punta avanzata di questa tecnologia, specie per ciò che attiene la nocciolistica (sviluppo di codici di calcolo nucleari e termoidraulici), la ricerca sui materiali (leghe speciali e combustibili nucleare).

I cinesi, che come in altri campi, imparano in fretta, dopo aver “sperimentato” la tecnologia occidentale, hanno sviluppato una loro filiera nucleare (anche nei reattori avanzati) che per ora non punta alle esportazioni avendo da soddisfare una domanda interna gigantesca per raggiungere l’obiettivo delle emissioni zero: oltre 500 nuovi reattori di modo che, nel 2050, il nucleare rappresenti il 28% della produzione elettrica e le rinnovabili circa il 60%.

Negli Stati Uniti, dopo aver scontato gli effetti conseguenti all’incidente di Fukushima (un disastro per la tecnologia statunitense, essendo tutti reattori della General Electric), si sta cercando di riconquistare le posizioni perse tanto che, nel 2020, il congresso ha approvato un piano di rilancio del settore, centrato su tre aspetti:

1. Ripristinare la sovranità degli USA nell’uso dell’elemento naturale più potente del pianeta – l’uranio – per usi pacifici e scopi di difesa;

2. Riconquistare il primato USA nella progettazione dei reattori ad acqua leggera;

3. Garantire il primato degli USA nella diffusione internazionale dei reattori di prossima generazione.

A questi bisogna aggiungere Giappone, Corea del Sud, India e ovviamente la Francia che non può assolutamente permettersi di essere tagliata fuori dalla partita, pena un crollo sostanziale della sua economia. Il nucleare infatti è un settore dove la catena del valore assume caratteristiche di assoluto rilievo per l’economia di una nazione, sia per la numerosità dei comparti tecnologici interessati sia per il valore dei singoli componenti prodotti, oltre allo sviluppo di settori di punta come l’intelligenza artificiale; e questo è un grande appeal che non va sottovalutato.

Questa esposizione delle maggiori economie del mondo verso un rilancio del nucleare costituisce una ipoteca sul futuro della transizione energetica che sposta decisamente l’ago della bilancia in favore della opzione impresariale.

Ma il nucleare è un’anatra zoppa

Tralasciando le concezioni demonizzanti dell’energia nucleare, i punti deboli (e irrisolti) che la contraddistinguono sono: la sicurezza; la gestione dei rifiuti; l’efficienza termodinamica; l’esauribilità del ciclo e l’inquinamento da CO2.

La sicurezza dei reattori nucleari si valuta con metodi probabilistici (PRA, Probabilistic Risk Assessment) e prima dell’incidente di Fukushima era stimata in 10-5 eventi/anno per quanto riguarda gli incidenti gravi (fusione del nocciolo) e 10-6 eventi-anno per consistenti rilasci radioattivi nell’atmosfera, ovvero che incidenti di questo tipo potevano accadere ogni 100.000 o 1.000.000 di anni, dove gli «anni» vanno intesi come anni/reattore cioè ore di funzionamento cumulate. Ora considerato che gli anni/reattore fino ad allora cumulati da tutti i reattori che avevano funzionato e da quelli in funzione nel mondo ammontavano a 14.000 anni/reattore, si comprende che la probabilità dichiarata di 10-5 o 10-6 eventi-anno era frutto di calcoli basati in parte sulla casistica incidentale accumulata fino ad allora, ma soprattutto sull’uso di modelli di calcolo probabilistici di cui è assai difficile valutare l’attendibilità, anche se posti in relazione con i migliori criteri di progetto. Dopo Fukushima però, dato che gli incidenti di fusione nocciolo furono almeno 3 (perché ogni reattore fa storia a sé), l’indice di probabilità di incidente grave deve essere aumentato di ben tre ordini di grandezza. La sicurezza dunque si conferma essere un’alea, tant’è che nessuna impresa, agenzia o ente nucleare si permette più di fornire dati numerici sulla probabilità di incidenti.

La gestione dei rifiuti, dal punto di vista delle normative IAEA (International Atomic Energy Agency) sui depositi geologici, 3 è ferma al capitolo di Yucca Mountain, quando, nel 2004, la corte federale del distretto di Columbia bocciò il deposito sotterraneo di scorie ivi destinato, perché il progetto, peraltro approvato dal DOE (Department of Energy) e dall’EPA (Environmental Protection Agency), garantiva la sicurezza del deposito per 10.000 anni, mentre l’arco di tempo da prendere a riferimento doveva essere di 300.000 anni che corrisponde al tempo di dimezzamento radioattivo dei rifiuti nucleari più pericolosi, come aveva sostenuto nel dibattimento la National Academy of Science. Tutti i progetti di depositi geologici che oggi sono in fase di studio o realizzazione, tendono ad aggirare questo scoglio insormontabile tacendolo all’opinione pubblica. In sostanza la gestione dei rifiuti si conferma essere una pesante eredità per le future generazioni.

L’efficienza termodinamica, in un contesto tecnologico decisamente orientato al risparmio energetico, dovrebbe essere un criterio sufficiente, già di per sé, a bocciare l’energia nucleare. Fra tutte le tecnologie affermatesi nel secolo scorso infatti, quella nucleare mostra di non aver progredito affatto in termini di rendimento: dopo 70 anni dall’avvio dell’atomo di pace i rendimenti di una centrale elettro-nucleare sono passati dal 31% al 33%, mentre la generazione elettrica da fonti convenzionali è passata dal 33% a oltre il 55% e perfino l’odiato motore a combustione interna ha fatto passi da gigante, se appena si confrontano i consumi specifici di un’automobile odierna con quelle di 50-60 anni fa. Da questo punto di vista i nuovi reattori (cosiddetta IV generazione oppure gli SMR – Small Modular Reactors) non presentano miglioramenti significativi, fermo restando che dei 72 progetti di SMR censiti dall’IAEA nello yearbook del 2020, molti sono in fase di progettazione concettuale, mentre gli altri non hanno superato la fase del prototipo e solo uno (il reattore galleggiante russo) è divenuto operativo.

L’esauribilità del ciclo nucleare è strettamente legata alla disponibilità di uranio, senza il quale non è possibile far funzionare gli attuali impianti nucleari. Ciò è tanto più importante perché in condizioni di scarsità delle risorse energetiche e di crescente instabilità delle relazioni mondiali come quelle attuali, il problema della sicurezza degli approvvigionamenti energetici riveste grande importanza politica. Capita, purtroppo non di rado, di imbattersi in affermazioni del tipo “il nucleare è una fonte inesauribile”, dato che è largamente diffuso nella crosta terrestre o addirittura nell’acqua di mare e comunque, sostengono molti opinion maker, quello che è già disponibile si trova in aree geopolitiche stabili e affini al punto di vista europeo-occidentale, come il Canada e l’Australia. Ai ritmi attuali di consumo però, e immaginando che le riserve di questi due paesi (42% del totale mondiale) siano destinate a rifornire esclusivamente l’Occidente, l’uranio canadese e australiano basterebbe a far funzionare le centrali nucleari europee e del nord America per appena trenta anni. Giocoforza quindi approvvigionarsi anche da altri paesi fornitori come la Nigeria e il Kazakhstan che, secondo i canoni occidentali, non possono certo definirsi paesi stabili, oppure rivolgersi alla Russia con la quale l’Europa e gli USA intrattengono dei rapporti piuttosto problematici.

A conti fatti dunque la tesi per cui il nucleare svincolerebbe le economie occidentali da certi fattori di rischio geopolitici non è così convincente, anche perché c’è un altro aspetto sottaciuto dell’attuale mercato dell’uranio che dovrebbe indurre a più ponderate riflessioni: quello per cui l’approvvigionamento di questa materia prima risiede nelle mani di un cartello internazionale. La produzione mondiale di uranio infatti è controllata da quelle che potremmo chiamare «le sette cugine dell’uranio»: sette compagnie che controllano l’85% della produzione mondiale di uranio e che operano indistintamente su tutti i mercati con l’unico interesse di valorizzare i propri investimenti, per di più in regime di sostanziale monopolio e dunque in grado di condizionare pesantemente i futuri scenari energetici come, del resto, avvenne tanti anni fa per opera delle sette sorelle del petrolio.

Quanto all’inesauribilità dell’uranio non bisogna confondere tra disponibilità teorica ed effettiva sfruttabilità. Da un lato bisogna considerare che i nuovi impianti sono progettati per una vita di esercizio di 60 anni e che per molti di quelli in funzione ne è stata prolungata la vita operativa; dall’altro gli scenari delineati per il rilancio nucleare prevedono che il grosso dei nuovi reattori dovrebbe entrare in funzione tra il 2030 e il 2040 (il condizionale è d’obbligo). Ciò implica che la disponibilità di uranio necessaria al loro funzionamento dovrebbe essere assicurata almeno fino all’anno 2100. Ai ritmi attuali di consumo di uranio nel mondo e considerando il naturale turn over tra vecchi e nuovi impianti, le riserve accertate bastano ad alimentare le centrali nucleari oggi in funzione per un periodo di tempo non superiore ai 60 anni a far data da oggi. Un rapporto della WNA (World Nuclear Association) del 2008 stima un fabbisogno annuo di uranio al 2030 pari a 110.000 t (scenario di riferimento) e di 150.000 t nel caso di maggiore crescita della potenza nucleare installata, cioè almeno il 50% e il 100% in più degli attuali consumi. Tralasciando le ipotesi più temerarie, c’è da chiedersi dove verrà reperito l’uranio necessario al loro funzionamento, tenuto conto che la sola Cina, ove realizzasse i programmi sopra descritti, ne consumerebbe da sola 90.000 t?

Secondo i propugnatori più accesi del nucleare, in futuro si potrà estrarre uranio dalle formazioni granitiche o dal mare dove il suo contenuto è, rispettivamente, di 4 ppm e 0,003 ppm. Ora 4 ppm corrispondono a 4 parti di uranio su un milione di parti di granito, cioè 4 grammi su un milione di grammi che equivalgono a una tonnellata. Per il funzionamento di un reattore da 1000 mwe occorrono ogni anno circa 160 t di uranio naturale (escluso il primo nocciolo). Per ottenere un simile quantitativo di uranio dal granito occorre estrarre 40 milioni di tonnellate di roccia che deve poi essere frantumata, trasportata, macinata e trattata chimicamente per ottenere. Ma c’è un limite alla possibilità di estrarre tutto il contenuto di uranio dalla sua matrice che, a questi livelli di diluizione, corrisponde a un grado di estraibilità del 50%, il che raddoppia il quantitativo di roccia da estrarre per ottenere l’uranio necessario al funzionamento del reattore, cioè 80 milioni di tonnellate all’anno.

Per l’acqua di mare i conti sono ancor più alti: per ottenere 3 grammi di uranio occorre distillare 1000 t di acqua di mare (concentrazione 0,003 ppm) che moltiplicate per 160 t fanno 53 miliardi di tonnellate di acqua (un volume pari al lago di Garda) da trattare ogni anno per la cui distillazione occorre spendere almeno 1 kwh/t di acqua, cioè 53 miliardi di kwh/anno mentre un reattore da 1.000 mwe non produce più di 8,7 miliardi di kwh/anno.

L’aspetto della concentrazione dell’uranio in natura diviene esiziale anche per un altro motivo. A essa infatti si lega indissolubilmente la presunta bassa emissione delle centrali nucleari in quanto i processi di lavorazione (estrazione da miniere e trattamenti successivi) avvengono con impiego di apparecchiature alimentate con combustibili fossili. Già con un grado di concentrazione dell’uranio pari al 0,10% (attualmente la concentrazione media dell’uranio estratto è del 0,15%) e tenuto conto dei quantitativi di materiale di scavo da trattare, le emissioni associate a questi processi divengono significative fino a raggiungere e superare, nel caso di concentrazioni via via inferiori, quelle di un impianto a gas a ciclo combinato di pari potenza di una centrale nucleare.

Il nodo dei sistemi elettrici

Uno slogan diffuso tra gli ambientalisti di tutto il mondo rivendica l’uscita immediata dai combustibili fossili e, giustamente, critica gli atteggiamenti dilatori e/o ambigui dei vari governi che, nel mentre si dichiarano convinti di questa richiesta (chi non è d’accordo con Greta Thunberg!), operano in senso diverso se non addirittura opposto.

Un caso esemplare è rappresentato dalla dismissione delle centrali a carbone italiane, prevista nel 2025, in sostituzione delle quali si prevede, non parchi tecnologici basati su energie rinnovabili come richiesto dai movimenti ambientalisti, ma un certo numero di centrali a gas in ciclo aperto e combinato.

Non c’è dubbio che ciò rappresenti un vulnus all’idea stessa di transizione energetica e induca a sospettare fortemente delle reali intenzioni del Governo; ma se, come detto in apertura, per transizione si intende qualcosa che cambi solo il modo di produrre lenergia, senza nulla incidere sul modo di produzione capitalista, allora bisogna mettere in conto che il funzionamento del “sistema” nel suo complesso non deve subire cambiamenti eccessivi. Nel caso specifico il sistema è quello elettrico che nessuna delle opzioni avanzate intende modificare, ovvero un sistema integrato dove una estesa rete di cavi trasporta e distribuisce l’energia prodotta dalle centrali elettriche e da singoli produttori, fino all’ultimo consumatore. Può sembrare una cosa scontata, ma non è così, perché il Giappone, ad esempio, è elettricamente diviso in due: una parte opera con una frequenza di rete di 60 Hertz, mentre l’altra opera a 50 Hertz per cui il sistema è interconnesso solo in due punti dove operano grandi convertitori di frequenza che costituiscono un vero e proprio collo di bottiglia. Altro esempio è l’Arabia Saudita che ha un sistema elettrico a 60 Hertz ed è circondata da paesi che operano tutti a 50 Hertz, cosa che complica enormemente gli scambi di energia e, tanto per restare in Italia, è bene ricordare che l’interconnessione Nord-Sud della rete elettrica a 380 Kv fu iniziata solo nel 1968 e terminata nel 1970, grazie alla quale diminuirono, specialmente al Sud, i ripetuti disservizi di rete.

Sono lontani, ormai, i tempi in cui si verificavano sbalzi di tensione e frequenza con le lampadine che si affievolivano o che disturbavano radio e Tv, per non parlare dei lunghi black-out in cui si ricorreva alle candele o al lume a petrolio. I moderni sistemi elettrici ci hanno abituato a uno standard di funzionalità tale che se appena la frequenza “balla”, una parte non secondaria del nostro modo di vivere, legata all’elettricità, ne risente con evidente fastidio. Sulla rete europea, che è totalmente interconnessa, la variazione massima consentita della frequenza è del 1% ( 50 Hertz± 0,5) e del 10% per la tensione (220 V± 22) per tempi comunque delimitati. Per giungere all’armonizzazione delle regole che governano i sistemi elettrici (in Italia sono le norme CEI) ci sono voluti molti anni e molti aggiustamenti procedurali, ma soprattutto si è reso necessario sviluppare una serie di servizi di rete (cosiddetti ausiliari), che svolgono una funzione importantissima ai fini della continuità e qualità dell’erogazione di energia: Programmazione; Controllo e dispacciamento; Controllo della tensione e della frequenza; Squilibri di rete; Potenza di riserva calda e potenza di riserva fredda.

Tutto ciò deve essere realizzato in tempi strettissimi, a volte istantanei, perché l’energia elettrica è un prodotto particolare che non può essere immagazzinato (a meno di casi particolari e limitati) per cui deve essere prodotta e immessa in rete solo al momento della richiesta. L’accensione di una semplice apparecchiatura che avviene contemporaneamente in milioni di abitazioni, di uffici o di fabbriche, costituisce una richiesta di carico consistente che per essere esaudita deve avere un corrispettivo di potenza disponibile istantaneamente da immettere in rete e questa funzione possono assolverla determinati impianti di generazione tra cui non ci sono quelli fotovoltaici e quelli eolici. Questi ultimi, al contrario, costituiscono un notevole fattore di disturbo che deve essere compensato da altri impianti di generazione che, grazie alla loro massa rotante costituita dai turbogeneratori, consentono di tenere sotto controllo la rete. Tipicamente gli impianti più adatti a queste funzioni sono quelli termoelettrici tradizionali funzionanti a combustibili fossili; quelli idroelettrici con bacino e quelli turbogas in ciclo aperto per quanto riguarda i picchi di potenza improvvisi.

La questione delle centrali a carbone italiane rientra in questa casistica: la loro messa fuori servizio priva la rete del bilanciamento necessario a compensare i disturbi indotti dalle rinnovabili che, oltre ad avere un peso rilevante (più di un terzo della generazione) hanno priorità nel dispacciamento (cioè nella loro immissione in rete); questo bilanciamento quindi va ricercato in altri impianti che teoricamente esistono, ma praticamente non possono assolvere alla bisogna. Per comprenderlo occorre valutare l’insieme della rete elettrica e del parco di generazione italiano.

Rinnovabili vs rete elettrica

La rete elettrica è ”costituzionalmente” sbilanciata dato il profilo dell’Italia (stretto e lungo) per cui una buona distribuzione delle sue “maglie” è assolutamente indispensabile. Ciò significa, in primo luogo, distribuire, al meglio delle caratteristiche del territorio, gli impianti di generazione perché quanto più breve è il percorso che si fa fare all’energia in rete prima di essere consumata, tanto più si risparmia (perdite di carico) e tanto meglio funziona la rete: in genere non più di 150-200 Km.

Il parco generazione è altrettanto sbilanciato, con una preponderanza di allocazione di impianti al Nord rispetto al Centro-Sud, specie quelli idroelettrici che per il 73% della potenza si trovano tra l’arco alpino e l’Appennino emiliano. Ciononostante la rete elettrica italiana, sotto la gestione pubblica, aveva raggiunto caratteristiche di assoluto rilievo internazionale, ma con l’avvento del libero mercato la situazione si è deteriorata raggiungendo il culmine nel 2003, quando un blackout totale di 48 ore mise al buio l’intera penisola. Quell’episodio, invece di far riflettere su alcune evidenti carenze di sistema, fu l’occasione per attuare ulteriori provvedimenti di liberalizzazione per la costruzione di nuove centrali elettriche (quasi tutti cicli combinati) al punto da sovradimensionare il parco di generazione con margini di sovrapotenza ben oltre la soglia del 30% (presa in genere a riferimento) e che non ha eguali nello scenario europeo.

Lo sviluppo successivo delle energie rinnovabili, per la stragrande maggioranza concentrato nel Sud, ha creato un ulteriore scompenso tecnico che è anche un paradosso economico: regioni come la Puglia e la Calabria (fra le meno ricche del paese) esportano dal 60% all’80% dell’energia che producono scontando delle servitù (occupazione di terre) che giovano al paese, ma non producono benefici di ritorno per il territorio e in più complicano la gestione della rete (i cosiddetti “ingorghi” sulla trasmissione).

In questo contesto viene spontaneo dire, per quanto riguarda le centrali a carbone da dismettere, che la potenza che si perde può essere sostituita facilmente, data la abbondanza di centrali esistente, senza ricorrere a nuovi cicli combinati, ma per le cose dette non è così scontato perché le centrali idriche del Nord sono troppo distanti dai punti critici della rete che si trovano al Centro-Sud, ma anche perché l’acqua accumulata negli invasi si fa sempre più “preziosa” data la diminuzione delle piogge e soprattutto dell’innevamento, per cui, dal punto di vista economico, le società elettriche non hanno interesse a utilizzare i pompaggi. Tra le centrali a carbone da dismettere, forse solo quelle ubicate al Nord non hanno bisogno di essere sostituite con impianti a ciclo combinato, ma non Civitavecchia e Brindisi che sono fra i pochi grandi impianti in grado di stabilizzare la rete del Centro-Sud. Tra l’altro questa è una soluzione di ripiego in quanto i cicli combinati funzionano al meglio come erogazione di base (con modeste variazioni della potenza) e quindi per impiegarli come centrali da regolazione bisogna apportare delle modifiche agli impianti.

Nel caso dell’opzione con sole centrali a energie rinnovabili, nonostante la presenza delle idriche, la rete elettrica diverrebbe ingestibile.

Mercato vs sostenibilità

Si può obiettare che esistono soluzioni tecniche alternative (stazioni di rifasamento con motori e condensatori adeguati) ed è vero: ma a prescindere dal costo (che non è irrilevante) chi le dovrebbe realizzare? Le società elettriche? Il gestore della rete, o quello del mercato elettrico?

Qui si entra nel nocciolo della questione che rimanda a scelte politiche fatte in passato da tutte le forze politiche e da tutti i movimenti ambientalisti: la privatizzazione del settore elettrico.

Il sistema elettrico attuale non ha che pochissime regole vincolanti e tutte le funzioni in esso svolte devono essere remunerate secondo criteri di mercato altrimenti non possono essere imposte. Terna, GME (Gestore del mercato elettrico) ne assolvono alcune (dietro compenso ovviamente) mentre altre sono svolte da alcuni (pochi) produttori di energia previa remunerazione. Il capacity market che, giustamente, fa tanto discutere è figlio indiretto del blackout del 2003, quando si scoprì che mancava sia la riserva fredda che la calda (una cosa vergognosa anche perché l’istruttoria che ne seguì assolse tutti) dato non che c’era nessun obbligo per i produttori e il rimedio fu, inizialmente, di riconoscere un compenso tariffario a chi tra loro si dichiarava disposto a fare da riserva, per poi arrivare all’oggi dove questa funzione essenziale viene messa all’asta col capacity market. Se un impianto fa regolazione di rete, questa è remunerata a parte così come sono remunerate differentemente le riserve calde (come i turbogas in ciclo aperto) e quelle fredde. Che cosa rappresenta il mercato del giorno prima (operato dal GME) se non una buona parte della funzione di programmazione del carico? Con quali criteri i singoli operatori mettono in manutenzione i loro impianti? Come si stabilisce l’“ordine di merito” per cui una centrale viene dispacciata (messa in rete) prima delle altre?

Tutte queste funzioni, sotto la gestione pubblica, erano assolte dall’Enel e i loro costi facevano parte della tariffa finale che era fissata dal CIP, ora invece sono sparse in diverse società e con un groviglio di voci e criteri di calcolo piuttosto complicati. Certo, le tariffe regolate dal CIP e dall’Enel non erano il massimo della trasparenza, ma non si dica che quelle in vigore oggi lo siano e, soprattutto, che ne sia giustificato il costo, così come ci vorrebbe maggior prudenza (e conoscenza) nell’affermare che le tariffe attuali remunerano solo i grandi monopolisti, perché fin dalla costituzione del mercato elettrico il famigerato price cap è stato fissato sul costo marginale delle centrali a carbone (tutte dell’Enel), costo che però era comunque alto rispetto a quello degli altri impianti a vapore che, una volta dismessi dall’Enel e comprati dai nuovi padroni del settore, promettevano lauti guadagni.

Negli anni successivi e fino a oggi, nessun Governo ha messo mano a una riforma radicale del sistema tariffario, lasciando che “la mano invisibile del mercato” fungesse da regolatore. Ma così non è e lo testimonia l’aumento delle tariffe elettriche di questo autunno 2021 che è stato presentato all’opinione pubblica come conseguenza dell’aumento delle materie prime, prima fra tutte il gas, ma non è del tutto vero. Innanzitutto gli aumenti di questo combustibile non sono così elevati come è stato detto e non c’è una riduzione significativa delle forniture anzi, le esportazioni dal nord Africa sono aumentate così come quelle dal mare del Nord. Ciò che si è ridotto sensibilmente, per speculazioni di mercato, sono le scorte di gas che risultano ai minimi storici dal 2013, per cui è bastato alludere all’eventualità di un prossimo inverno “rigido” per coprire tutta l’operazione. Parallelamente, nel mercato europeo, sono aumentati i prezzi della CO2 cioè degli ETS (Emission Trading Scheme, altra “invenzione” truffaldina del libero mercato) che rappresenta circa il 75% del fatturato globale del mercato delle emissioni di carbonio europeo, e oltre l’85% del suo valore di mercato e ciò, unitamente al calo della generazione da fonti rinnovabili, ha spinto in su le tariffe elettriche seconda la consunta, ma pur sempre attuale, legge della domanda e dell’offerta, con buona pace dei buoni propositi ambientali dato che, con l’aumento delle tariffe, conviene mettere in funzione anche i più scassati impianti di generazione a combustibili fossili.

Questi e altri sono i frutti avvelenati del neoliberismo applicato ai sistemi a rete per cui, a mio parere, vale ancora la domanda: ma questi sistemi costituiscono un monopolio naturale? Forse che al monopolista Enel non si è sostituito un trust di imprese (come quello precedente al 1963) che dettano legge sul mercato? Con la differenza, non da poco, che sono aumentati i costi generali dei servizi ausiliari di sistema ed è diminuita l’affidabilità delle reti e la qualità del servizio, oltre al fatto che, non esistendo più quegli strumenti di amministrazione e programmazione della produzione che consentivano di ottimizzare i sistemi elettrici, tutto è affidato al mercato: la costruzione di un impianto di generazione, una volta ottenute le licenze di costruzione e ottemperato alle procedure di VIA, non deve rispondere a nessun altro criterio (efficienza, utilità, programmabilità, etc) perché sarà il mercato a decidere della sua esistenza, ma siccome il mercato è “taroccato” ci ritroviamo con un surplus di potenza elettrica che, nonostante i bassi fattori di utilizzazione, risulta lo stesso remunerativa, mentre i Piani energetici nazionali, quando dicono qualcosa di sensato, risultano dei whisfull thinking non avendo carattere vincolante.

Questo ganglio peserà negativamente sulla transizione energetica (e non solo in Italia), qualunque sia l’opzione che si consideri perché non c’è modo di conciliare le ragioni del profitto con quelle dell’ambiente a meno di sovvenzionare con denaro pubblico le riconversioni necessarie, o di inserirle come costi aggiuntivi in tariffa: del resto non paghiamo già lo smantellamento degli impianti nucleari e lo sviluppo delle rinnovabili?

(Poche) considerazioni finali

L’obiettivo delle emissioni zero si dovrà raggiungere fra trenta anni, ma per conseguirlo bisogna agire da adesso, in questo decennio o non ci sarà più tempo sufficiente.

Sul cammino da percorrere per arrivarci ci sono due punti di vista contrastanti in cui il nucleare rappresenta il convitato di pietra: nessuno lo ha invitato espressamente, ma tutti sanno che è fra noi.

Questo gioco di schermaglie non può durare a lungo perché, come detto, in questo decennio si decide tutto: se l’opzione ambientalista non estende le sue rivendicazioni anche alla sfera della produzione e del consumo di merci in senso anticapitalista, il modello “tutto elettrico” risultante dalla transizione energetica non potrà realizzarsi senza il nucleare, o, in subordine, con un compromesso sul gas.

Anche nell’ipotesi di compromesso sulla transizione energetica, c’è bisogno di una forte impronta pubblica in sede eurounitaria e dei singoli Stati, affinché la pianificazione e la gestione della transizione non sia condizionata dagli interessi del mercato dell’energia.

Qui il PDF

Un commento a “Nucleare e sistemi elettrici nella transizione energetica”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *