Jeff Barr (AWS): Inquinare meno grazie al cloud

Dopo aver letto il blog di Greenpeace, Renewable Energy e Data Center dal mio collega James Hamilton (qui la fonte del pezzo) un paio di settimane fa, ho dato un’occhiata al rapporto di Greenpeace sul consumo di energia dei data center e ho notato che è piuttosto insolito che in un rapporto ambientale non sia presente il risparmio energetico come criterio di valutazione primario“, racconta Jeff Barr, Technical Evangelist di AWS sul suo blog.

Sembra infatti che qualsiasi analisi dell’impatto sul clima di un data center dovrebbe prendere in considerazione l’utilizzo delle risorse e l’efficienza energetica, oltre al mix di potenza.

Le emissioni di carbonio sono determinate da tre elementi: il numero di server in esecuzione, l’energia totale richiesta per alimentare ciascun server e l’intensità di carbonio delle fonti energetiche utilizzate per alimentare questi server.

Utilizzare meno server e alimentarli in modo più efficiente è almeno importante per ridurre l’impatto delle emissioni di carbonio del data center di un’azienda quanto il suo mix di potenza. Ho pensato che sarebbe stato interessante riportare alcuni numeri su questo e dare un’occhiata a come questi tre fattori interagiscono quando si tratta delle emissioni complessive di carbonio derivanti dall’attività di calcolo.

Quello che Barr ho trovato è questo: in media, i clienti AWS utilizzano il 77% di server in meno, l’84% di energia in meno e un mix di energia più pulito del 28%, per una riduzione totale delle emissioni di carbonio dell’88% dall’uso di AWS Cloud invece di utilizzare i propri data center.

L’evangelist di AWS dà poi un’occhiata più da vicino a questi numeri per capire meglio l’efficienza e i guadagni di risparmio energetico possibili attraverso il cloud computing.

I clienti cloud consumano il 77% di server in meno

Si parte dall’utilizzo del server e dal numero di server richiesti per supportare un determinato gruppo di carichi di lavoro. I data center locali in genere hanno tassi di utilizzo del server abbastanza bassi. Questo perché le aziende non possono permettersi di esaurire la capacità del server. Senza una capacità sufficiente, le applicazioni falliscono, le vendite non vengono completate, i clienti non vengono serviti e i dati aziendali critici non vengono monitorati. I server e le relative risorse IT sono necessarie affinché l’azienda mantenga un’elevata qualità del servizio durante i periodi di picco del carico.

Questa capacità di picco viene utilizzata solo raramente e, di conseguenza, i livelli medi di utilizzo del server sono spesso inferiori al 20%. Al contrario, gli operatori di infrastrutture cloud su larga scala hanno un pool molto più ampio di clienti e applicazioni che consente loro di appianare i picchi e correre a livelli di utilizzo complessivi molto più elevati. Inoltre, le innovazioni rese possibili dalla scala e dalla natura dinamica del cloud, come EC2 Spot Market , contribuiscono a incrementare ulteriormente l’utilizzo e portano a ulteriori miglioramenti dell’efficienza.

La valutazione dell’efficienza del data center 2014 del NRDC ha un utilizzo del cloud server del 65% e un utilizzo locale compreso tra il 12 e il 18%, il che è coerente con altre stime che ho riscontrato nel corso degli anni. Pertanto, con circa il 65% delle percentuali di utilizzo del server per il tipico provider cloud su larga scala rispetto al 15% locale, significa che quando le aziende passano al cloud, le loro applicazioni possono essere supportate utilizzando solo il 23% delle risorse del server, quindi questo significa che in genere forniscono meno di 1/4 dei server che sarebbero locali. Questo da solo è un guadagno materiale – ma ci sono anche differenze significative di efficienza energetica!

I clienti cloud consumano l’84% di energia in meno

Una misura comune dell’efficienza dell’infrastruttura è l’ efficacia dell’utilizzo dell’energia (PUE). Questa è la potenza totale fornita al server, all’archiviazione e alla rete in un data center (questo è chiamato potenza critica), divisa per la potenza totale che viene portata a un data center (questa è chiamata potenza totale). La differenza tra potenza totale e potenza critica è la potenza persa nella distribuzione di energia del centro dati, nel raffreddamento e, in misura minore, nell’illuminazione e in altri elementi generali che consumano energia. Abbassare è meglio se si guarda al PUE.

Il sondaggio annuale dell’Uptime Institute ha rilevato che il PUE medio del data center è di 1,7 (il PUE medio del data center del settore rimane quasi piatto per quattro anni ). I fornitori di cloud su larga scala funzionano su larga scala e investono profondamente in efficienza poiché, su larga scala, questi investimenti possono avere rimborsi reali e rapidi. Alcuni operatori megascale riportano numeri PUE a partire da 1,07. Google riporta un PUE impressionante di 1,12. Alcuni dei fornitori di cloud più piccoli potrebbero investire meno in miglioramenti dell’efficienza, quindi userò un 1.2 più conservativo come PUE medio del settore cloud, con la consapevolezza che alcuni operatori, tra cui AWS, funzionano in modo più efficiente.

Utilizzando questi dati, un potenziale operatore che passa da una distribuzione locale a una distribuzione cloud passando da un PUE medio di 1,7 a 1,2, il che significa che, per server con alimentazione simile, il consumo di energia nel cloud sarebbe inferiore del 29% rispetto a data center locali.

Pertanto, se si moltiplica l’impatto – 77% in meno di server richiesti (ovvero il cloud richiede solo il 23% del numero di server richiesti per gli stessi carichi di lavoro) per il 71% di server più efficienti, i clienti necessitano solo del 16% (23% x 71%) della potenza rispetto all’infrastruttura locale. Ciò rappresenta una riduzione dell’84% della quantità di energia richiesta.

Per metterlo in prospettiva, il National Resources Defense Council (NRDC) stima che il consumo totale di energia nei data center statunitensi sia stato di 91 miliardi di chilowattora (kWh) nel 2013. Se tutti i carichi di lavoro in questi data center fossero migrati nel cloud, vedremmo una riduzione del consumo annuo di energia di oltre 76 miliardi di kWh. Ciò equivarrebbe al consumo di energia residenziale annuale combinato degli stati di New York e Kentucky.

I clienti cloud riducono le loro emissioni di carbonio dell’88%
Il massiccio miglioramento dell’efficienza energetica determina un’enorme riduzione dell’impatto climatico perché una minore quantità di energia consumata comporta minori emissioni di carbonio. I miglioramenti dell’impatto climatico migliorano ulteriormente se si considera che il data center aziendale medio ha un mix di potenza più sporco rispetto al tipico provider cloud su larga scala.

Un modo popolare per esaminare l’impatto climatico del power mix è l’intensità del carbonio (grammi di emissioni di carbonio per kWh di energia utilizzata). Utilizzando i dati del rapporto dell’Agenzia internazionale dell’energia , Key World Energy Statistics 2014 , la media globale della fonte di energia è di 545 grammi kWh.

Ad esempio, l’intensità di carbonio media del mix di potenza AWS di giugno 2015 è di 393 grammi / kWh. Misurati in questo modo, i fornitori di cloud su larga scala utilizzano un mix di energia con un carbonio inferiore del 28% rispetto alla media globale.

Combinando la frazione di energia richiesta (16%) con la frazione di intensità di carbonio del power mix (72%), si ottiene solo il 12% delle emissioni di carbonio. Ciò rappresenta una riduzione dell’88% delle emissioni di carbonio per i clienti che utilizzano AWS rispetto al tipico data center locale .

Per mostrare quanto sia grande l’impatto dell’efficienza energetica rispetto al mix di potenza, diamo un’occhiata a come cambiano le emissioni di carbonio se regoliamo il mix di potenza. Ciò non accadrà mai, ma i fornitori di cloud potrebbero avere un mix energetico che includa 6 volte il carbonio dei data center locali e ottenere comunque lo stesso impatto netto di carbonio dei data center locali. Ecco quanto è più efficiente il cloud computing ad alta efficienza energetica rispetto ai datacenter locali, visti i fattori sopra menzionati!

Lavorare verso il 100% di riduzione delle emissioni
AWS ha da tempo reso pubblico il suo impegno a lungo termine di arrivare al 100% di utilizzo di energia rinnovabile. Negli ultimi anni ha compiuto diversi passi significativi per raggiungere questo obiettivo, tra cui la collaborazione con Pattern Development per costruire e gestire la Amazon Wind Farm (Fowler Ridge) da 150 megawatt in Indiana.

Nel maggio 2015, ha aggiornato la sua pagina web sull’energia sostenibile per annunciare che l’infrastruttura globale AWS è alimentata da circa il 25% di energia rinnovabile oggi e che prevedono di raggiungere il 40% entro la fine del 2016.

L’argomento ambientale per il cloud computing è già sorprendentemente forte e ci si aspetta che l’equazione complessiva continuerà a migliorare in futuro.