mercoledì 11 maggio 2011

Lezione 54

Efficienza del codice di Shannon-Elias-Fano in termini di generazione del codice per stringhe di cifre. Cenni sul compressore universale LZ78.

martedì 10 maggio 2011

Lezione 53

Dimostrazione dell'ottimalità del codice di Huffman. Codice di Shannon-Elias-Fano.

giovedì 5 maggio 2011

Lezione 52

Lemma per l'ottimalità del codice di Huffman.

mercoledì 4 maggio 2011

Lezione 51

Codice di Shannon. Raggruppamento in stringhe di cifre per migliorare la compressione. Codici errati. Disuguaglianza di Kraft per condici univocamente decifrabili. Codice di Huffman. Definizione formale ed esempi. Riduzione a cardinalità dell'insieme delle cifre alla forma 1+k(D-1). Ottimalità del codice di Huffman.

martedì 3 maggio 2011

Lezione 50

Disuguaglianza di Kraft. Codici ottimali. Stima dell'efficienza di un codice.

giovedì 21 aprile 2011

Lezione 49

Esercizi di ripasso. Compressione dati. Classificazione dei codici.

mercoledì 20 aprile 2011

Lezione 48

Tasso di entropia di un processo stocastico. Suo significato in termini di compressione dei dati. Esercizio notevole sulla crescita dell'entropia per modelli banali di un sistema fisico.

martedì 19 aprile 2011

Verifica scritta

Materiale verificato: tutto il programma di teoria dell'informazione, escluse le catene di Markov.

martedì 12 aprile 2011

Lezione 47

Teorema ergodico per catene di Markov.

martedì 5 aprile 2011

Lezione 46

Definizioni e proprietà elementari per le catene di Markov. Rappresentazione grafica. Esempi.
Letture extra interessanti: PageRank da Wikipedia.

giovedì 31 marzo 2011

Lezione 45

Catene di Markov.

mercoledì 30 marzo 2011

Lezione 44

Lemma dell'equipartizione asintiotica. Teorema di Shannon-McMillan-Breiman (versione di Shannon per variabili i.i.d.). Compressione dati tramite il Teorema di SMB.

martedì 29 marzo 2011

Lezione 43

Disuguaglianza di Fano, corollari ed applicazioni. Stime dall'alto della probabilità di errore.

giovedì 24 marzo 2011

Lezione 42

Conseguenze ed esempi della Data Processing Inequality.

mercoledì 23 marzo 2011

Lezione 41

Spiegazione euristica dell'entropia relativa come spreco medio di bit per cifra usando un codice sbagliato. Conseguenze delle proprietà della I. Mutua informazione condizionata. Regola di composizione dell'entropia (condizionale). Regola di composizione dell'informazione reciproca (condizionale). Data Processing Inequality e suoi corollari.

martedì 22 marzo 2011

Lezione 40

Mutua informazione (o informazione reciproca) e sue proprietà.

mercoledì 16 marzo 2011

Lezione 39

Dimostrazione del teoremone. Entropia di una viariabile aleatoria. Entropia condizionale ed entropia congiunta. Regola di composizione dell'entropia. Entropia della Y funzione della X. Versione forte della disuguaglianza di Jensen. Entropia relativa o divergenza di Kullback-Leibler.

martedì 15 marzo 2011

Lezione 38

Entropia condizionale. Disuguaglianza di Jensen. "Teoremone" sull'entropia condizionale e suo corollario.
Letture extra interessanti: Funzione d'utilità e sua convessità.

giovedì 10 marzo 2011

Lezione 37

Interpretazione dell'entropia in termini di informazione. Richiamo alla "Lezione Zero" del corso. Operazioni sulle partizioni.

mercoledì 9 marzo 2011

Lezione 36

Reversibilità microscopica ed irreversibilità macroscopica: spiegazione in termini delle assunzioni di mescolamento del sistema hamiltoniano e di regolarità delle distribuzioni iniziali.

Entropia di Shannon.

giovedì 3 marzo 2011

Lezione 35

Spiegazione dell'equazione di Boltzmann per il caso del gas perfetto nell'ensemble canonico.

mercoledì 2 marzo 2011

Lezione 34

Equivalenza degli ensembles microcanonico e canonico. Caso del gas perfetto.

martedì 1 marzo 2011

Lezione 33

Convergenza in probabilità. Legge debole dei grandi numeri. Cenni di meccanica statistica. Postulato dell'eguale probabilità a priori. Ensembles microcanonico e canonico.

mercoledì 23 febbraio 2011

Lezione 32

Spazi di ripetuti eventi indipendenti identicamente distribuiti.

martedì 22 febbraio 2011

Lezione 31

Cenni di teoria della probabilità: nozioni elementari, disuguaglianza di Chebychev.