Più veloce, più sottile, più economico: la legge di Koomey è la nuova legge di Moore?
Laptop, cellulari e tablet diventano ogni anno più economici, eleganti e potenti, mentre la durata della batteria continua ad allungarsi. Ti sei mai chiesto perché è così e se i dispositivi possono continuare a migliorare per sempre?
La risposta alla prima domanda è spiegata da tre leggi scoperte dai ricercatori, note come legge di Moore, ridimensionamento di Dennard e legge di Koomey. Continua a leggere per comprendere l'impatto di queste leggi sull'informatica e dove potrebbero condurci in futuro.
Qual è la legge di Moore?
Se sei un lettore regolare di MakeUseOf, probabilmente sei a conoscenza della mitica Legge di Moore.
Il CEO e co-fondatore di Intel Gordon Moore lo ha introdotto per la prima volta nel 1965.
Ha previsto che il numero di transistor su un chip raddoppierà circa ogni due anni e diventerà tra il 20 e il 30% più economico da produrre ogni anno. Il primo processore Intel è stato rilasciato nel 1971 con 2.250 transistor e un'area di 12 mm 2 . Le CPU odierne contengono centinaia di milioni di transistor per millimetro quadrato.
Sebbene sia iniziato come una previsione, l'industria ha anche adottato la legge di Moore come tabella di marcia. Per cinque decenni, la prevedibilità della legge ha permesso alle aziende di formulare strategie a lungo termine, sapendo che, anche se i loro progetti erano impossibili in fase di pianificazione, la legge di Moore avrebbe consegnato la merce al momento opportuno.
Ciò ha avuto un effetto a catena in molte aree, dalla grafica in continuo miglioramento dei giochi all'aumento del numero di megapixel delle fotocamere digitali.
Tuttavia, la legge ha una durata di conservazione e il tasso di progresso sta rallentando. Sebbene i produttori di chip continuino a trovare nuovi modi per aggirare i limiti dei chip di silicio , Moore stesso ritiene che non funzionerà più entro la fine di questo decennio. Ma non sarà la prima legge della tecnologia a scomparire.
Che fine ha fatto Dennard Scaling?
Nel 1974, il ricercatore IBM Robert Dennard osservò che, man mano che i transistor si restringono, il loro consumo di energia rimane proporzionale alla loro area.
Il ridimensionamento di Dennard, come divenne noto, significava che l'area del transistor si riduceva del 50% ogni 18 mesi, portando a un aumento della velocità di clock del 40%, ma con lo stesso livello di consumo energetico.
In altre parole, il numero di calcoli per watt crescerebbe a una velocità esponenziale ma affidabile, ei transistor diventerebbero più veloci, più economici e consumerebbero meno energia.
Nell'era del ridimensionamento di Dennard, il miglioramento delle prestazioni era un processo prevedibile per i produttori di chip. Hanno appena aggiunto più transistor alle CPU e aumentato le frequenze di clock.
Questo era anche facile da capire per il consumatore: un processore che funzionava a 3,0 GHz era più veloce di uno a 2,0 GHz e i processori continuavano a diventare più veloci. In effetti, la Roadmap tecnologica internazionale per i semiconduttori (ITRS), una volta prevista, le frequenze di clock avrebbero raggiunto i 12 GHz entro il 2013 !
Eppure oggi i migliori processori sul mercato hanno una frequenza di base di appena 4,1 GHz. Quello che è successo?
La fine del ridimensionamento di Dennard
Le velocità di clock sono rimaste bloccate nel fango intorno al 2004, quando le riduzioni del consumo energetico hanno smesso di tenere il passo con il tasso di riduzione dei transistor.
I transistor sono diventati troppo piccoli e la corrente elettrica ha iniziato a fuoriuscire, causando surriscaldamento e alte temperature, con conseguenti errori e danni alle apparecchiature. Questo è uno dei motivi per cui il chip del tuo computer ha un dissipatore di calore . Dennard Scaling aveva raggiunto i limiti dettati dalle leggi della fisica.
Più core, più problemi
Con i clienti e interi settori abituati a continui miglioramenti della velocità, i produttori di chip avevano bisogno di una soluzione. Quindi, hanno iniziato ad aggiungere core ai processori come un modo per continuare ad aumentare le prestazioni.
Tuttavia, più core non sono efficaci quanto aumentare semplicemente le velocità di clock su unità single-core. La maggior parte del software non può trarre vantaggio dal multiprocessing. La memorizzazione nella cache e il consumo energetico sono ulteriori colli di bottiglia.
Il passaggio ai chip multicore ha anche annunciato l'arrivo del silicio scuro.
L'età oscura del silicio
È diventato presto evidente che se vengono utilizzati troppi core contemporaneamente, la corrente elettrica può fuoriuscire, ripristinando il problema del surriscaldamento che ha ucciso il ridimensionamento di Dennard sui chip single-core.
Il risultato sono processori multicore che non possono utilizzare tutti i loro core contemporaneamente. Più core aggiungi, più transistor di un chip devono essere spenti o rallentati, in un processo noto come "silicio scuro".
Quindi, sebbene la legge di Moore continui a consentire a più transistor di adattarsi a un chip, il silicio scuro sta distruggendo le proprietà della CPU. Pertanto, l'aggiunta di più core diventa inutile, poiché non è possibile utilizzarli tutti contemporaneamente.
Sostenere la legge di Moore usando più core sembra essere un vicolo cieco.
Come potrebbe continuare la legge di Moore
Un rimedio è migliorare il multiprocessing del software. Java, C ++ e altri linguaggi progettati per core singoli lasceranno il posto a quelli come Go, che sono più bravi a funzionare contemporaneamente.
Un'altra opzione consiste nell'aumentare l'uso di FPGA (field-programmable gate array), un tipo di processore personalizzabile che può essere riconfigurato per attività specifiche dopo l'acquisto. Ad esempio, un FPGA potrebbe essere ottimizzato da un cliente per gestire il video durante o potrebbe essere adattato in modo specifico per eseguire applicazioni di intelligenza artificiale.
La costruzione di transistor con materiali diversi, come il grafene, è un'altra area studiata per spremere più vita dalla previsione di Moore. E, in fondo, il calcolo quantistico potrebbe cambiare completamente il gioco.
Il futuro appartiene alla legge di Koomey
Nel 2011, il professor Jonathan Koomey ha dimostrato che l'efficienza energetica di picco (l'efficienza di un processore che funziona alla massima velocità) riecheggia la traiettoria della potenza di elaborazione descritta dalla legge di Moore.
La legge di Koomey ha osservato che, dalle bestie del tubo a vuoto degli anni '40 ai laptop degli anni '90, i calcoli per joule di energia erano raddoppiati in modo affidabile ogni 1,57 anni. In altre parole, la batteria utilizzata da una determinata attività si dimezzava ogni 19 mesi, con il risultato che l'energia necessaria per un calcolo specifico diminuiva di un fattore 100 ogni decennio.
Sebbene la legge di Moore e il ridimensionamento di Dennard fossero estremamente importanti in un mondo di desktop e laptop, il modo in cui utilizziamo i processori è cambiato così tanto che l'efficienza energetica promessa dalla legge di Koomey è probabilmente più rilevante per te.
La tua vita di computer è probabilmente divisa tra molti dispositivi: laptop, cellulari, tablet e gadget vari. In quest'era di proliferazione dei computer , la durata della batteria e le prestazioni per watt stanno diventando più importanti che spremere più GHz dai nostri processori a più core.
Allo stesso modo, con la maggior parte delle nostre elaborazioni esternalizzate a enormi data center di cloud computing, le implicazioni in termini di costi energetici della legge di Koomey sono di grande interesse per i giganti della tecnologia.
Tuttavia, dal 2000, il raddoppio dell'efficienza energetica a livello di settore descritto dalla legge di Koomey's è rallentato a causa della fine del ridimensionamento di Dennard e della decelerazione della legge di Moore. La legge di Koomey ora offre consegne ogni 2,6 anni e nel corso di un decennio l'efficienza energetica aumenta di appena 16 volte, anziché 100.
Potrebbe essere prematuro dire che la legge di Koomey sta già seguendo Dennard e Moore nel tramonto. Nel 2020, AMD ha riferito che l'efficienza energetica del suo processore AMD Ryzen 7 4800H è aumentata di un fattore 31,7 rispetto alle sue CPU del 2014, dando a Koomey's Law una spinta tempestiva e sostanziale.
Ridefinire l'efficienza per estendere la legge di Koomey
L'efficienza del picco di potenza in uscita è solo un modo per valutare l'efficienza del calcolo e potrebbe essere obsoleto.
Questa metrica aveva più senso negli ultimi decenni, quando i computer erano risorse scarse e costose che tendevano ad essere spinte al limite dagli utenti e dalle applicazioni.
Ora, la maggior parte dei processori funziona al massimo delle prestazioni solo per una piccola parte della loro vita, ad esempio quando si esegue un videogioco. Altre attività, come il controllo dei messaggi o la navigazione sul Web, richiedono molta meno energia. In quanto tale, l'efficienza energetica media sta diventando il fulcro.
Koomey ha calcolato questa "efficienza di utilizzo tipico" dividendo il numero di operazioni eseguite all'anno per l'energia totale utilizzata e sostiene che dovrebbe sostituire lo standard di "efficienza di utilizzo massimo" utilizzato nella sua formulazione originale.
Sebbene l'analisi debba ancora essere pubblicata, tra il 2008 e il 2020 si prevede che l'efficienza d'uso tipico raddoppi ogni 1,5 anni circa, riportando la legge di Koomey al tasso ottimale visto quando la legge di Moore era al suo apice.
Un'implicazione della legge di Koomey è che i dispositivi continueranno a ridursi di dimensioni e diventeranno meno dispendiosi in termini di energia. I processori in contrazione, ma comunque ad alta velocità, potrebbero presto essere così a bassa potenza da essere in grado di trarre la loro energia direttamente dall'ambiente, come il calore di fondo, la luce, il movimento e altre fonti.
Tali dispositivi di elaborazione onnipresenti hanno il potenziale per inaugurare la vera era dell'Internet of Things (IoT) e far sembrare il tuo smartphone antiquato come i colossi con tubi a vuoto degli anni '40.
Tuttavia, man mano che scienziati e ingegneri scoprono e implementano sempre più nuove tecniche per ottimizzare l '"efficienza d'uso tipica", è probabile che quella parte del consumo totale di energia di un computer diminuisca così tanto che ai livelli di utilizzo tipico sarà solo il picco di abbastanza significativo da misurare.
L'utilizzo del picco di produzione diventerà ancora una volta il parametro per l'analisi dell'efficienza energetica. In questo scenario, la legge di Koomey finirà per incontrare le stesse leggi della fisica che stanno rallentando la legge di Moore.
Quelle leggi della fisica, che includono la seconda legge della termodinamica, significano che la legge di Koomey terminerà intorno al 2048.
L'informatica quantistica cambierà tutto
La buona notizia è che a quel punto il calcolo quantistico dovrebbe essere ben sviluppato, con i transistor basati su singoli atomi comuni, e una nuova generazione di ricercatori dovrà scoprire un intero altro insieme di leggi per prevedere il futuro dell'informatica.