Università degli Studi di Napoli "Parthenope"

Scheda dell'insegnamento

Anno accademico: 
2018/2019
Tipologia di insegnamento: 
Caratterizzante
Tipo di attività: 
Obbligatorio
Corso di afferenza: 
Corso di Corso di Laurea Magistrale in INGEGNERIA DELLA SICUREZZA DEI DATI E DELLE COMUNICAZIONI
Settore disciplinare: 
TELECOMUNICAZIONI (ING-INF/03)
Lingua: 
Italiano
Crediti: 
9
Anno di corso: 
1
Docenti: 
Ciclo: 
Secondo Semestre
Ore di attivita' frontale: 
72

Obiettivi

Conoscenza e capacita' di comprensione (knowledge and understanding):
Conoscenza delle funzioni di entropia e mutua informazione e loro proprieta'. Conoscenza di risultati
e tecniche per la codifica di sorgente e di canale.

Conoscenza e capacita' di comprensione applicate (applying knowledge and understanding):
Capacita' di applicare i principali risultati relativi ad entropia e funzione di mutua informazione.
Capacita' di applicare i principali risultati di codifica di sorgente e di canale a problemi tipici delle comunicazioni. Capacita' di implementare in Matlab/Octave le conoscenze acquisite. Capacita’ diapplicare la metodologia di crittografia con chiave pubblica e privata.

Autonomia di giudizio (making judgements):
Saper individuare il metodo piu' appropriato per analizzare un problema di codifica di sorgente o canale. Saper individuare punti di forza e punti deboli di un sistema di crittografia con chiave pubblica e privata.

Abilita' comunicative (communication skills):
Capacita' di esporre oralmente o per iscritto un argomento del corso.

Capacita' di apprendere (learning skills):
Capacita' di elaborare, schematizzare, riassumere ed implementare in Matlab/Octave i contenuti acquisiti.

Prerequisiti

Contenuti dei corsi di Teoria dei Fenomeni Aleatori, Comunicazioni elettriche.

Contenuti

Teoria 50%, Esercizi numerici 17%, Esercitazioni Matlab/Octave 33%

Entropia, Entropia Relativa e Mutua Informazione
Entropia. Proprieta' dell'entropia di variabili aleatorie discrete. Entropia di variabile aleatoria binaria.
Entropia congiunta e condizionata. Regola della catena per entropia di coppia di variabili
aleatorie. Disuguaglianza di Jensen. Disuguaglianza dell'informazione. Mutua informazione.
Teorema del trattamento dati. Corollario per funzioni di variabili aletaorie.
Disuguaglianza di Fano. [1] (Cap. 2: Par. 2.1{2.6, 2.8, 2.9, 2.11).

Proprieta' di Equiripartizione Asintotica (AEP)
Definizione di AEP. Convergenza in probabilita' all'entropia. Sequenze tipiche. Insiemi tipici. Teo-
rema sulla AEP. [1] (Cap. 3: Par. 3.1{3.3).

Tasso di Entropia di un Processo Stocastico
Catene di Markov. Tasso di entropia. Teorema sul
tasso di entropia per processi stazionari. Tasso di entropia per catene di Markov. [1] (Cap. 4: Par. 4.1, 4.2).

Compressione Dati
Esempi di codici di sorgente. Disuguaglianza di Kraft. Codici ottimi. Codici di Huffman. [1] (Cap. 5: Par. 5.1{5.6, 5.8).

Capacita' di Canale
Capacita' operazionale di canale. Sequenze congiuntamente tipiche. Insiemi di sequenze
congiuntamente tipiche. Equiripartizione congiunta. Teorema sulla AEP congiunta. Teo-
rema sulla codifica di canale (Shannon). Disuguaglianza di Fano e teorema inverso della codifica.
[1] (Cap. 8: Par. 8.1{8.11).

Codici di Canale
Generalita'. Codici a blocco. Codici a ripetizione. Codici a controllo di parita'. Codici di Hamming.
Codici a rivelazione di errore e codici a correzione di errore. Codici convoluzionali (cenni). Diagramma
a traliccio. [3] (Chap. 10: Par. 10.1{10.2; Chap. 11: Par. 11.1).

Entropia Differenziale [1] (Cap. 9: Par. 9.1{9.6).

Canale Gaussiano
Teorema della codifica per canale gaussiano con vincolo sulla potenza d'ingresso. Canali
a banda limitata. [1] (Cap. 10: Par. 10.1{10.3).
Crittografia con chiave pubblica e privata. Cifratura di un messaggio e firma digitale. Principali proprieta’ delle operazioni con aritmetica finita (o modulare). Criteri per stabilire se un numero intero e’ primo. Funzione totient di Eulero. Teorema di Fermat Eulero. Algoritmo RSA. Implementazione dell'algoritmo RSA per la codifica di testi ASCII.
Esercitazioni Matlab
1) Diagramma dell'entropia di una variabile aleatoria binaria e di una variabile aleatoria ternaria al
variare della distribuzione di probabilita'.
2) Verifica del teorema di equiripartizione asintotica col metodo Monte Carlo: confronto tra risultato
delle simulazioni e valore analitico dell'entropia per diverse distribuzioni di probabilita' al variare della
lunghezza della sequenza osservata. Va considerato sia il caso di probabilita' dei simboli note che il caso
di probabilita' stimate a partire dai dati.
3) Codifica di sorgente: Determinazione del codice di Shannon e del codice di Huffman per una sorgente
M-aria con assegnata distribuzione di probabilita'. Calcolo delle lunghezze medie dei codici e confronto
con l'entropia di sorgente per diversi tipi di distribuzione di probabilita'. Confronto con il risultato che si
ottiene nel caso di codifica di blocchi di simboli di lunghezza n = 2.
4) Codifica di sorgente: Determinazione delle lunghezze delle parole
codice di un codice di Shannon per un testo in italiano (alfabeto di 26 lettere) con probabilita' dei
simboli stimate a partire dal testo. Determinazione della lunghezza media del codice sia nel caso di testo
italiano che nel caso di testo inglese. Verifica della disuguaglianza che coinvolge l'entropia relativa tra la
distribuzione di probabilita' delle lettere del testo italiano e quella delle lettere del testo inglese.
5) Simulazione Monte Carlo di ricevitore ottimo per segnalazione BPSK in AWGN. Confronto della
probabilita' di errore ottenuta mediante simulazione e la sua espressione analitica per diversi valori del
rapporto segnale rumore e del numero di simulazioni Mont

Metodi didattici

Lezioni frontali; esercitazioni in aula; esercitazioni Matlab/Octave in laboratorio.

Verifica dell'apprendimento

L'esame consiste nella discussione degli elaborati Matlab/Octave delle esercitazioni e nella prova orale.

Durante la prova orale e' previsto lo svolgimento di esercizi numerici. Nella valutazione finale, espressa in trentesimi, la discussione dell'elaborato Matlab pesa per il 33%, gli esercizi numerici per il 17% e le domande sugli aspetti teorici per il 50%.

Testi

[1] T. M. Cover and J. A. Thomas, Elements of Information Theory. Wiley, New York, 1991.
[2] R. B. Ash, Information Theory. Dover, New York, 1990.
[3] S. Benedetto, E. Biglieri, Principles of Digital Transmission With Wireless Applications, Kluwer, 1999.[4] R. L. Rivest, A. Shamir, and L. Adleman, On digital signatures and public-key cryptosystems, MIT Technical Report MIT/LCS/TM-82, April 1977.

Altre informazioni