Un caffè col fisico

Coffee Break @CERN: teoria dell’informazione, parte prima!

0
Like

Ci ritroviamo al CERN per il solito caffé delle 5 in quest’umidissima giornata di piena estate (ma dove?) ginevrina.

La caffetteria e tutti i corridoi del CERN sono molto meno affollati del solito. No, non perché gli scienziati sono in ferie, questo mai, ma solo perché sono impegnati in giro per il mondo a partecipare a conferenze e workshop di tutti i generi, con un minimo comun denominatore: la scelta di località a dir poco desiderabili.

Anche l’Italia ospita diversi centri conferenze in luoghi niente male, lago di Como, Miramare (Trieste), Sesto e via dicendo.

Comunque, torniamo a noi e introduciamo l’argomento di oggi: la teoria dell’informazione.

Ognuno di noi si è sempre posto interrogativi sul grande mistero di come comunicare le informazioni in modo efficiente, fin dalla prima volta in cui mamma urlò ripetutamente dal piano terra per dirci che la cena era pronta, mentre noi, al primo piano nella nostra camera sigillata, giocavamo con i lego totalmente ignari dell’onda d’urto sonora che sarebbe arrivata di lì a poco.

Sicuramente il signor Claude Shannon fu particolarmente colpito dalla violenza dell’urto, perché nel 1948 si decise a pubblicare un articolo scientifico che sanciva la nascita della teoria dell’informazione, intitolato “A mathematical theory of communication” (Una teoria matematica della comunicazione).

Il punto di partenza di Shannon è il seguente: comunicare un informazione significa riprodurre, in maniera esatta o approssimativa, in un punto un messaggio selezionato a un altro punto.

L’innovazione di Shannon, e degli altri pionieri della teoria dell’informazione, è stata quella di individuare i due principali problemi riguardanti lo scambio di un’informazione tra due punti

1) Come ridurre il messaggio nel modo più efficiente possibile, per renderlo facilmente trasportabile

Questo problema viene quantificato da Shannon chiamando in causa la grandezza fisica dell’entropia. In fisica, e più specificatamente nella termodinamica, che è lo studio dello scambio di energia e calore in un sistema, l’entropia è la quantità che rappresenta il numero di modi con cui un sistema termodinamico può essere ordinato, praticamente una misura di quanto sia disordinato il sistema.

Si capisce meglio con una similitudine: avete presente quando vi si ingarbugliano gli auricolari in tasca? Ecco, l’entropia di questo sistema potrebbe essere rappresentata dal numero di volte che dovete far uscire un capo del cavo per srotolare l’ingarbugliamento. Maggiore l’entropia, maggiore l’ingarbugliamento (e il giramento di palle, che di conseguenza è direttamente proporzionale all’entropia).

Bene, il nostro amico Claude si pensò di dire: il numero di pacchetti necessario per trasportare un messaggio è l’entropia del messaggio.

Diventa dunque fondamentale capire come ridurre al minimo l’entropia del messaggio, quindi comprimendo e semplificando i pacchetti, senza modificarne il contenuto.

Queste tecniche sono in uso tutt’oggi, l’esempio più lampante sono i file ZIP con cui cerchiamo di far stare un film di 5 ore e mezza in una chiavetta da 1 Giga e ovviamente anche Matrix è un chiaro esempio di come l’informazione “mondo intero” sia racchiusa in una serie di caratteri verdi illeggibili.

large-matrix-blu-ray7

2) Come riuscire a recuperare un messaggio che si sia danneggiato durante il trasporto.

Recuperando idee già esistenti di Harry Nyquist and Ralph Hartley, Shannon formulò il noisy-channel coding theorem, che in italiano si traduce con qualcosa come “teorema della codificazione dei canali rumorosi”.

Ve lo spiego in due parole: immaginiamo di dover mandare un messaggio da una città attraverso un’autostrada fino a un’altra città. In autostrada c’è traffico, quindi la velocità è ridotta rispetto al normale.

Ora, il teorema dice: se la velocità massima con cui il veicolo che usate per trasportare il messaggio attraverso l’autostrada è minore della velocità a cui il traffico vi impone di andare, allora il messaggio arriverà sano e salvo.

Una specie di “chi va piano va sano e va lontano”, se infatti provate ad andare più veloce di quello che vi impone il traffico, sicuramente farete un incidente e il messaggio si fermerà a metà via.

Per calarla un po’ sul nostro problema, è sempre possibile recuperare un messaggio “danneggiato” da altre fonti esterne, dette di rumore, se i metodi di recupero delle parti del messaggio funzionano a sufficienza, e questo avviene solo quando la velocità con cui il messaggio viene trasmesso non supera la velocità con cui “cambia” il rumore che lo influenza.

63176-004-3952EFD3Ecco, queste sono le basi su cui si fonda tutta la teoria dell’informazione, su cui non ha senso dilungarmi molto perché non ne so moltissimo, però queste idee di base mi serviranno per introdurre l’argomento di cui vi parlo nella “parte seconda”: l’ultimissima frontiera dell’informazione, l’informazione quantistica, di cui, appunto, parleremo al prossimo caffè qui al CERN, così vi lascio la suspense.

Bagnati saluti dal CERN e… alla prossima!

 

Vuoi scrivere un commento?
Effettua la registrazione da questo link:

Registrati

MORE FROM MATTEO BIAGETTI

ENTRA NELLA COMMUNITY