Deuxième théorème de Shannon

En théorie de l'information, le deuxième théorème de Shannon dit de codage de canal montre qu'il est possible de transmettre des données numériques sur un canal même bruité presque sans erreur à un débit maximum calculable. Ce résultat publié par Claude Shannon en 1948 est fondé sur des travaux antérieurs de Harry Nyquist et Ralph Hartley. La première preuve rigoureuse fut établie par Amiel Feinstein en 1954. D'une importance fondamentale en théorie de l'information, il possède de larges applications dans les domaines des télécommunications et du stockage d'information.

La limite ou capacité de Shannon d'un canal est le débit théorique maximal de transfert d'information sur ce canal pour un certain niveau de bruit.

Introduction

L'un des principaux avantages de la technologie dite numérique est de permettre l'échange de données sans perte d'information. Néanmoins, ces données transitent la plupart du temps sur des canaux non fiables, car subissant diverses interférences et donc bruités. Comment, peut-on alors éliminer les erreurs de transmission ? La solution consiste à introduire une redondance dans le message émis par la source afin de corriger les erreurs. On parle d'encodage de voie par un code correcteur.

Le théorème montre que pour des sources dont le débit est plus faible qu'une certaine capacité liée au canal de transmission, il existe des codes tels que, au décodage, le taux d'erreur soit aussi faible que voulu.

Souvent, les symboles étant émis sur une durée fixe, on substitue l'entropie d'une source à son débit en bit/s. Il en est de même pour la capacité d'un canal qui peut-être un débit ou une information mutuelle (d'où une certaine confusion). Cette dernière est déterminée par les caractéristiques physiques du canal. Le théorème de Shannon–Hartley donne par exemple la capacité d'un canal à bande passante limitée subissant un bruit Gaussien (voir signal sur bruit).

Il est à noter que pour annuler le taux d'erreur, les diverses preuves font tendre la longueur des mots de code vers l'infini. Ainsi si le théorème permet de trouver de tels codes, il ne fournit pas d'algorithmes de décodage de complexité algorithmique satisfaisante. Aujourd'hui, les turbo codes convolutifs ou les codes LDPC (Low-density parity-check) permettent de transmettre des signaux dont l'entropie approche la capacité du canal tout en restant décodables en temps réel[1].

Précisions

Une source discrète émet chaque symbole d'un alphabet prédéfini avec une certaine fréquence. Formellement, on la modélise par une variable aléatoire catégorielle . On appelle encodage de la source toute variable aléatoire telle que l'entropie conditionnelle soit nulle (pas de pertes ni de gain d'information).

Étant donné une source et un alphabet , on appelle canal de transmission toute fonction sur l'ensemble des encodages et à valeurs dans l'ensemble des variables aléatoires catégorielle sur .

La capacité d'un canal est donnée par :

désigne l'information mutuelle.

Théorème

Notations préliminaires

On note :

  • entropie de l'encodage de la source.
  • l'ensemble des entrées admissibles du canal.
  • l'ensemble des sorties admissibles du canal.
  • la capacité du canal sans mémoire.
  • les probabilités de transition du canal discret sans mémoire (probabilité d'observer après avoir entré ).

Le décodage s'effectue au sens du maximum de vraisemblance c'est-à-dire qu'on décide le mot si :

Énoncé

Pour un taux constant , il existe une suite de codes qui annule la probabilité d'erreur.

Majoration de la probabilité d’erreur pour un mot

Notons, .

La probabilité d'erreur lorsque le mot est entré vaut :

Or pour , on a la majoration :

D'où :

Ensemble probabilisé de codes

Supposons que les mots de codes soient issus de tirages indépendants suivant une loi , alors :

Par linéarité de  :

Or, les mots de codes sont tirés indépendamment, d'où :

De plus, si , est concave et l'inégalité de Jensen donne :

Et par linéarité :

Or :

Donc :

Cette majoration ne dépendant pas de , il existe un code dont la probabilité d'erreur est majorée par cette même quantité.

Articles connexes

Notes et références

  1. (en) Sae-Young Chung, G. David Forney, Jr. (en), Thomas J. Richardson et Rüdiger Urbanke, « On the Design of Low-Density Parity-Check Codes within 0.0045 dB of the Shannon Limit », IEEE Communication Letters, vol. 5, , p. 58-60 (ISSN 1089-7798, lire en ligne)
  • Portail des télécommunications
  • Portail de l’informatique
  • Portail des mathématiques
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.