Un computer "perfettamente efficiente" può significare molte cose, ma, per gli scopi di questa risposta, consideriamo un computer reversibile (spiegato più avanti man mano che procediamo).
Il limite inferiore teorico al fabbisogno energetico nell'informatica è il Limite di Landauer, che afferma che dimenticare un bit di informazione richiede l'input di un lavoro pari a $ k \ , T \, \ log 2 $ in modo da rispettare la seconda legge della termodinamica. Se il computer è reversibile, cioè il suo stato in ogni momento può essere dedotto il suo stato in qualsiasi altro momento, allora non c'è nessun limite inferiore teorico al suo fabbisogno energetico. Per stato qui si intende lo stato teorico del computer della CPU, non lo stato quantistico fisico (il primo è una parte molto piccola del secondo; le leggi microscopiche sono reversibili in modo che lo stato quantistico completo in qualsiasi momento può sempre in teoria essere dedotto dallo stato quantistico completo in qualsiasi momento). Un esempio di calcolo non reversibile è quello in cui si aggiungono due numeri e si scrive il risultato sulla memoria precedentemente occupata dagli addendi. I due addendi non possono essere dedotti dallo stato del computer ( cioè la somma) dopo che l'aggiunta è avvenuta. In breve, la ragione di questa situazione è che se il tuo calcolo dimentica, la Natura no, quindi se cancelli la memoria, allora quell'informazione "cancellata" deve in qualche modo finire codificata nello stato quantistico completo del computer poiché le leggi microscopiche sono davvero reversibili. L'unico modo in cui un sistema può "assorbire più informazioni", cioè codificare completamente il suo passato nel suo stato quantistico, è accedere a un numero sempre maggiore di stati quantistici, e questo significa quasi sempre diventare più caldo [vedere 1]. Quindi, da qualche parte lungo la linea devi aggiungere energia per far sì che ciò accada, e alla fine dovrai raffreddare il computer per mantenerlo funzionante. La seconda legge della termodinamica mostra quindi che se vogliamo mantenere il computer a un macrostato costante, dobbiamo inserire la quantità di lavoro prescritta dal principio di Landauer per farlo [vedi rif. 2].
Ora esaminiamo il tuo problema. Il conteggio può chiaramente essere trasformato in un calcolo reversibile: ogni passaggio è invertibile e puoi immaginare semplicemente di sincronizzare un semplice contatore digitale all'indietro per ottenere ciò. Quindi in teoria potremmo costruire un computer quantistico (o un altro reversibile) per contare senza input di energia mentre conta . Tuttavia, quando si calcola la dimenticanza delle informazioni, è necessario tenere conto dell'inizializzazione. Cioè, devi iniziare con i registri inizializzati con cui contare. Si avvia la macchina inizializzandoli tutti su zero ..... ma questo significa che esiste uno stato quantistico di ogni registro che viene "dimenticato" quando la macchina viene inizializzata. Quindi, se hai bisogno di una memoria di $ N $ bit per il tuo conteggio, devi trovare $ N \, k \, T \, \ log 2 $ joule per inizializzare il tuo computer reversibile. Wikipedia mi dice che la massa della Via Lattea è stimata in $ 10 ^ {12} $ masse solari, o circa $ 2 \ volte 10 ^ {30} \ volte 10 ^ {12} \ volte 10 ^ {17} = 2 \ volte 10 ^ {59} $ joule. Se riesci a raffreddare il tuo computer alla temperatura della radiazione cosmica di fondo a microonde, o $ 2,7 {\ rm K} $, il limite di Landauer implica che puoi acquistare l'inizializzazione di $ 2 \ volte 10 ^ {59} / (2,7 \ volte 1,38 \ times 10 ^ {- 23} \ times \ log 2) \ circa 8 \ volte 10 ^ {81} $ bit. Non puoi far funzionare il tuo computer al di sotto di $ 2,7 {\ rm K} $ poiché avrebbe bisogno di energia per il raffreddamento artificiale sotto il suo ambiente.
Quindi questa è la tua risposta approssimativa: in teoria potresti contare fino al numero:
$$ 2 ^ {8 \ times 10 ^ {81}} $$
con un'implementazione reversibile di un contatore dato il budget energetico dichiarato.
Un altro limite che potrebbe interessare dal punto di vista crittografico è il Limite di Bremmermann, che limita la velocità con cui i calcoli possono evolversi nelle fasi successive.
Va notato quanto sia difficile raggiungere il limite di Landauer. Se il nostro contatore dimentica anche un bit per ciclo di conteggio, il limite si riduce all'ancora colossale $ 2 \ times 10ˆ {81} $. Yockey [vedi riferimento 3] afferma nei primi capitoli del suo libro che il fenomeno della replicazione del DNA durante la divisione cellulare, pensato come un algoritmo computerizzato, è il calcolo più efficiente conosciuto e consuma circa un ordine di grandezza in più di energia rispetto al limite di Landauer, cioè circa $ 10.000 \, T $ per bit dimenticato. Alla luce del limite di Landauer, i computer moderni sono incredibilmente inefficienti. 32 GB di RAM vengono sovrascritti a 1 GByte al secondo e consumano 5 watt a 300 K in tal modo (queste sono le cifre per il computer su cui vengono scritte queste parole) rappresenta un dimenticare che è undici ordini di grandezza più dispendioso ($ 5 / (8 \ volte 10 ^ 9 \ volte k \ volte 300 \, \ log 2) \ circa 2 \ volte 10 ^ {11} $) rispetto al limite di Landauer.
Referenze e note a piè di pagina:
[1]: Per approfondire la tua comprensione di questa affermazione, prova a elaborare e tracciare l'entropia di Shannon della specifica dello stato di un insieme di oscillatori armonici quantistici $ N $ all'equilibrio termodinamico in funzione della temperatura (risposta: $ \ left (\ frac {e ^ {\ beta_ \ omega} \ beta_ \ omega} {1-e ^ {\ beta_ \ omega}} + \ log \ left (e ^ {\ beta_ \ omega} -1 \ right) \ right) / \ log (2) $ bit per oscillatore, dove $ \ beta_ \ omega = \ hbar \ omega / (k \, T) $). Puoi immediatamente vedere cosa sta succedendo: la distribuzione di probabilità di Boltzmann è qui proporzionale a $ p (n) \ propto \ exp \ left (- (n + \ frac {1} {2}) \ frac {\ hbar \, \ omega} {k \, T} \ right) $ e la coda si allunga, "accedendo a più stati" man mano che $ T $ aumenta).
[2] Un eccellente documento di revisione per questi concetti è
Charles Bennett, "The Thermodynamics of Computation: A Review", Int. J. Theo. Phys., 21, n. 12, 1982)
[3] "Teoria dell'informazione, evoluzione e origine della vita", Hubert P. Yockey In quanto non biologo, non mi sento qualificato per giudicare questo testo.Sentivo, tuttavia, di aver capito i primi capitoli da cui ho raccolto l'affermazione sull'efficienza della replicazione del DNA abbastanza bene da essere ragionevolmente fiducioso nella fondatezza dell'asserzione, ma ho trovato la maggior parte del testo oltre il Capitolo 2 assolutamente incomprensibile.