Poiché esistono già risposte tecniche eccezionali a questa domanda, penso che dovremmo aggiungere alcune basi filosofiche migliori da esplorare che potrebbero aiutare ad acquisire una migliore percezione intuitiva di ciò che sono le informazioni.
Warren Weaver fornì un'eccellente discussione sulla teoria dell'informazione nel 1949 nel suo articolo intitolato " Contributi recenti alla teoria matematica della comunicazione".
Nel documento suddivide i problemi di comunicazione in tre categorie principali : tecnica, semantica ed efficacia. Spiega inoltre che il concetto di informazione è puramente derivato per affrontare il problema tecnico nella teoria delle comunicazioni.
Una semplice definizione di informazione, fornita da Weaver, è che "l'informazione è una misura della propria libertà di scelta quando si seleziona un messaggio"; o più correttamente, il logaritmo di quella libertà di scelta. L'informazione è quindi più chiaramente intesa come il numero di combinazioni di parti componenti disponibili per essere scelte arbitrariamente.
In questo senso, on può vederlo come una misura della casualità associata a una stringa di lettere. Un ottimo esempio è la ruota della fortuna. Quando Pat Sajak ti mostra un tabellone con i blocchi bianchi e verdi, ti ha già fornito molte informazioni inserendo spazi tra i blocchi bianchi, perché ha ridotto drasticamente il numero di possibili combinazioni che potrebbero essere possibili da riempire nel blocchi bianchi.
La massima informazione (o entropia) del tabellone con 52 caselle o "triloni" e usando 26 lettere è $ 26 ^ {52} = 3,8 \ volte 10 ^ {73} $ combinazioni o tra $ 244 $ e $ 245 $ bit di informazioni in binario. Tuttavia, se ci fossero solo 11 caselle illuminate di bianco, le informazioni effettive della lavagna sono improvvisamente scese a $ 26 ^ {11} = 3,6 \ volte 10 ^ {15} $ combinazioni che danno un contenuto informativo effettivo (o entropia) o $ 51 $ a $ 52 $ bit. Le informazioni relative sono $ \ dfrac {51} {244} = 0,21 $ o 21%. La ridondanza è quindi data da $ 1 - 0,21 = 0,79 $ o 79%.
Mentre Vanna gira le scatole, diminuisce l'entropia relativa e aumenta la ridondanza fino al punto in cui la probabilità di risolvere il puzzle diventa molto alta. Quindi, in questo senso, l'informazione, come l'entropia, è una misura dell'incertezza sul sistema.
Ora ci sono diversi tipi di incertezza, uno è l'incertezza associata alla libertà di scelta del messaggio e l'altro è il rumore. L'incertezza discussa nell'esempio della ruota della fortuna è dovuta alla libertà di scelta. In una situazione silenziosa, ci aspetteremmo che la parola o la frase che Vanna svela fosse esattamente quella scelta prima dello spettacolo. In un ambiente rumoroso, ad esempio, in cui vi è una certa probabilità che un membro della troupe sbagli la parola durante l'impostazione dei blocchi, è possibile che l'ultima parola mostrata non sia quella scelta prima dello spettacolo. Quell'incertezza, o rumore, è chiamata equivoco ed è provocata dall'ambiente stesso.
La distinzione tra un ambiente rumoroso e silenzioso è molto importante. William Tuller nel 1949 pubblicò un documento " LIMITAZIONI TEORICHE SUL TASSO
OF TRANSMISSION OF INFORMATION "che ha dimostrato che non c'era limite alla quantità di informazioni che potevano essere trasmesse in un canale silenzioso. Questo è il motivo per cui l'articolo di Shannon" Communication in the Presence of Noise " era fondamentale per la teoria della comunicazione in quanto quantificava correttamente cosa fosse effettivamente il rumore e come influisse sulla comunicazione e sul trasferimento di informazioni.
Ora, prima di finire, va notato che Hartley nel suo articolo del 1928 " Transmission of Information "è stato il primo a dare veramente una definizione moderna di informazione ea darle una misura quantitativa. Consiglierei di rivedere quel documento come punto di partenza. Altri contributi significativi sono forniti da altri scienziati, come Wiener che è meglio catturato in Cybernetics.
In una nota di chiusura, è rinfrescante che il significato del rumore quantistico stia iniziando a essere discusso, e spero che continui in futuro.