Aller au contenu Aller au menu Aller à la recherche

accès rapides, services personnalisés
Master Sciences, Technologies, Santé
MENTION SCIENCES POUR L'INGÉNIEUR (SPI)

Traitement des signaux aléatoires et théorie de l'information

 

Volume horaire : 26h CM, 26h TD et 16h TP

Nombre de crédits : 6 ECTS

OBJECTIFS DE L'UNITÉ D'ENSEIGNEMENT

 

Cette UE a pour objectif de compléter les connaissances acquises préalablement par les étudiants en signaux et systèmes selon 2 axes complémentaires. Dans un premier temps, dans la mesure où la plupart des signaux d’intérêt en Sciences de l’Ingénieur possèdent une composante aléatoire (notion de bruit), il est nécessaire d’introduire des bases solides sur les concepts et les outils fondamentaux du traitement du signal aléatoire. Puis cette UE propose ensuite de donner aux étudiants les éléments fondamentaux pour caractériser former les étudiants à la caractérisation des informations contenues dans un message. Ce second axe s’appuie en partie sur une modélisation probabiliste de l’apparition de l’information (information selon Shannon), et propose des applications liées à la transmission optimisée en rapidité, avec gestion des erreurs liées au bruit. Cette partie se termine par une introduction à la cryptographie illustrant d’autres concepts de la théorie de l’information.

L’ensemble des outils et concepts présentés dans cette UE est indispensable pour appréhender correctement les roblématiques modernes en science de l’ingénieur. Par conséquent, ces notions serviront de socle commun à l’ensemble des spécialités de la mention.

CONTENU DE L’UNITÉ D’ENSEIGNEMENT

Traitement des signaux aléatoires :

  • Notion de probabilité, fonction de répartition, densité de probabilité, espérance mathématique
  • Notion de processus aléatoires (PA)
  • Bruit et source de bruit
  • Moments d’ordre 1 et 2 (moyenne, écart-type, corrélation). Stationnarité et ergodicité d’un PA
  • Filtrage des PA et analyse spectrale des PA
  • Applications : filtrage adapté, estimateurs de la DSP, estimateurs de la moyenne statistique, prédiction linéaire
  • Processus gaussiens : introduction à la détection

 

Théorie de l’information :

  • Mesure quantitative de l’information :
    • Entropie
    • Information mutuelle moyenne
  • Compression des données :
    • Codage de source
    • Efficacité, taux de compression
    • Codage de Huffman
  • Les théorèmes de Shannon :Capacité de canal
  • Codes détecteurs et correcteurs d’erreur :
    • Codage de canal
    • Codes en bloc linéaires
    • Code de Hamming
  • Codes convolutionnels :
    • Algorithme de Viterbi
    • Application aux turbo-codes
  • Notions de cryptographie :
    • Algorithmes symétriques, algorithmes asymétriques
    • Signature numérique, certificat numérique

PRÉ-REQUIS

Notion de base en signaux et systèmes, corrélation. Notion de probabilité, algèbre de Boole et électronique numérique.

MODALITÉS DE CONTRÔLE DES CONNAISSANCES

Signaux aléatoires : 3 examens répartis + notes de TP

Théorie de l'information : 2 examens répartis + notes de TP.

RÉFÉRENCES BIBLIOGRAPHIQUES

  • Frédéric de Coulon, Théorie et Traitement des signaux, Edition Dunod, 1984

  • Hwei Piao Hsu, Signaux et communications, Série Schaum, Édiscience , Dunod, 2004

  • John G. Proakis, Masoud Salehi, Digital Communications, McGraw-Hill Science/Engineering/Maths

  • Gérard Battail, Théorie de l’information : application aux techniques de communication, Masson

  • Alain Glavieux, Codage de canal : des bases théoriques aux turbo-codes, Hermes Science Publications

 

23/09/16

Traductions :

    Contact

    Directeurs 

    Bruno GAS

    bruno.gas(at)upmc.fr

    François OLLIVIER

    francois.ollivier(at)upmc.fr

     

    Resp. administrative

    Pascale ANTOINE

    pascale.antoine(at)upmc.fr