0% ont trouvé ce document utile (0 vote)
46 vues52 pages

Transmission de Données - Cours ASSRI L2

Transféré par

israelprince38
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
46 vues52 pages

Transmission de Données - Cours ASSRI L2

Transféré par

israelprince38
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Transmission de données

Chapitre 1 : Représentation de L’information

1) Les différents types d’information


Les informations transmises peuvent être réparties en deux grandes catégories
selon ce qu’elles représentent et les transformations qu’elles subissent pour
être traitées dans les systèmes informatiques. On distingue :
- Les données discrètes, l’information correspond à l’assemblage d’une
suite d’éléments indépendants les uns des autres (suite discontinue de
valeurs) et dénombrables (ensemble fini).
Par exemple, un texte est une association de mots eux-mêmes composés de
lettres (symboles élémentaires).
- Les données continues ou analogiques résultent de la variation continue
d’un phénomène physique : température, voix, image... Un capteur
fournit une tension électrique proportionnelle à l’amplitude du
phénomène physique analysé : signal analogique (signal qui varie de
manière analogue au phénomène physique). Un signal analogique peut
prendre une infinité de valeurs dans un intervalle déterminé (bornes).
Pour traiter ces informations par des équipements informatiques il est
nécessaire de substituer à chaque élément d’information une valeur binaire
représentative de l’amplitude de celui-ci. Cette opération porte le nom de
codage de l’information (codage à la source) pour les informations discrètes et
numérisation de l’information pour les informations analogiques.

2) Codage des informations


a) Définition
Coder l’information consiste à faire correspondre (bijection) à chaque symbole
d’un alphabet (élément à coder) une représentation binaire (mot code).
L’ensemble des mots codes constitue le code. Ces informations peuvent aussi
bien être un ensemble de commandes d’une machine-outil que des caractères
alphanumériques... C’est à ces derniers codes que nous allons nous intéresser.

b) Les différents types de code


Le codage des différents états d’un système peut s’envisager selon deux
approches. La première, la plus simple, considère que chacun des états du
système est équiprobable. La seconde prend en compte la fréquence
d’apparition d’un état. Cette approche conduit à définir deux types de code : les
codes de longueur fixe et les codes de longueur variable.

 Les codes de longueur fixe


Chaque état du système est codé par un certain nombre de bits, appelé
longueur du code, longueur du mot code ou encore code à n moments.
Avec 1 bit on peut coder 2 états (0,1)
- Avec 2 bits on peut coder 4 états (00, 01, 10, 11)
- Avec 3 bits on peut coder 8 états (000, 001, 010, 011, 100, 101, 110, 111)
D’une manière générale :

- Avec n bits on code 2𝑛 états

Le nombre d’états pouvant être codés par un code de n bits s’appelle puissance
lexicographique du code que l’on note :
𝑃 = 2𝑛

Le nombre de bits pour coder P symboles est donc

𝑛 = 𝑙𝑜𝑔2 (𝑃)

Ce nombre de bits (n) représente la quantité d’information (Q) apportée par la


connaissance d’un état du système. Lorsque dans un système, tous les états
sont équiprobables, la quantité d’information apportée par la connaissance
d’un état est la même quel que soit l’état connu.
Si l’information est représentée par deux valeurs équiprobables (0 ou 1, pile ou
face...), la quantité d’information, exprimée en shannon ou plus simplement en
bit, est :

𝑄 = 𝑙𝑜𝑔2 (2)=1 Shannon ou 1 bit.

Lorsque tous les états ne sont pas équiprobables, la quantité d’information est
d’autant plus grande que la probabilité de réalisation de l’état est faible. Si p
est la probabilité de réalisation de l’état P, la quantité d’information apportée
par la connaissance de P est :

1
𝑄 = 𝑙𝑜𝑔2 ( )
𝑃
Application : combien de bits sont nécessaires pour coder toutes les lettres de
l’alphabet et quelle est la quantité d’information transmise par une lettre (en
supposant équiprobable l’apparition de chaque lettre) ?

 Les codes de longueur variable


Lorsque les états du système ne sont pas équiprobables, la quantité
d’information apportée par la connaissance d’un état est d’autant plus grande
que cet état a une faible probabilité de se réaliser. La quantité moyenne
d’information apportée par la connaissance d’un état, appelée entropie, est
donnée par la relation :

où pi représente la probabilité d’apparition du symbole de rang i.


L’entropie représente la longueur optimale du codage des symboles du
système. Déterminons la longueur optimale du code (entropie) pour le système
décrit par le tableau ci-dessous.
À des fins de simplicité, chaque état est identifié par une lettre.

La longueur optimale du mot code H=1,92:

Le code optimal utile est de 1,92 bit, alors que l’utilisation d’un code à longueur
fixe nécessite 3 bits pour coder les 6 états de ce système (22 < 6 <23).
Il n’existe pas de code qui permette d’atteindre cette limite théorique.
Cependant, Huffman introduit en 1952 une méthode de codage qui prend en
compte la fréquence d’occurrence des états et qui se rapproche de cette limite
théorique.
Construction du code de Huffman du tableau 1:
1. lecture complète du fichier et création de la table des symboles ;
2. classement des symboles par ordre des fréquences décroissantes
(occurrence);
3. réductions successives en rassemblant en une nouvelle occurrence les deux
occurrences de plus petite fréquence ;
4. l’occurrence obtenue est insérée dans la table et celle-ci est à nouveau triée
par ordre décroissant;
5. les réductions se poursuivent jusqu’à ce qu’il n’y ait plus d’élément ;
6. construire l’arbre binaire en reliant chaque occurrence à la racine ;
7. le codage consiste à lire l’arbre du sommet aux feuilles en attribuant par
exemple la valeur 0 aux branches basses et 1 aux branches hautes.

Codage de Huffman du tableau 1 :

La longueur moyenne du codage ci-dessus est :


0,48 × 1 + 0,21 × 2 + 0,12 × 3 + 0,08 × 4 + 0,06 × 5 + 0,05 × 5 = 2,13
Le codage de Huffman permet de réduire le nombre de bits utilisés pour coder
l’information. Dépendant du contexte, il impose, avant la transmission,
d’établir une convention ou de transmettre, avant les données, le contenu de la
table construite par l’émetteur.

3) Numérisation des informations


Principe
Numériser une grandeur analogique consiste à transformer la suite continue
de valeurs en une suite discrète et finie. À cet effet, on prélève, à des instants
significatifs, un échantillon du signal et on exprime son amplitude par rapport
à une échelle finie (quantification).
Le récepteur, à partir des valeurs transmises, reconstitue le signal d’origine.
Une restitution fidèle du signal nécessite que soient définis :
- l’intervalle d’échantillonnage qui doit être une constante du système
(fréquence d’échantillonnage);
- l’amplitude de l’échelle de quantification, celle-ci doit être suffisante pour
reproduire la dynamique du signal (différence d’amplitude entre la
valeur la plus faible et la valeur la plus forte);
- que chaque valeur obtenue soit codée.

La figure ci-dessous représente les différentes étapes de la numérisation du


signal. À intervalle régulier (période d’échantillonnage), on prélève une
fraction du signal (échantillon). Puis, on fait correspondre à l’amplitude de
chaque échantillon une valeur (quantification), cette valeur est ensuite
transformée en valeur binaire (codification).
Numérisation d’un signal analogique.

La quantification définit des valeurs en escalier (par bond) alors que le


phénomène à quantifier varie de façon continue. Aussi, quel que soit le nombre
de niveaux utilisés, une approximation est nécessaire, celle-ci introduit une
erreur dite de quantification ou bruit de quantification qui est la différence
entre la valeur réelle de l’échantillon et la valeur quantifiée.
Pour reproduire correctement le signal à l’arrivée, le récepteur doit disposer
d’un minimum d’échantillons. Il existe donc une relation étroite entre la
fréquence maximale des variations du signal à discrétiser et le nombre
d’échantillons à prélever.
Soit un signal dont le spectre est limité et dont la borne supérieure vaut Fmax,
Shannon a montré que si Fe est la fréquence d’échantillonnage, le spectre du
signal échantillonné est le double de Fmax et est centré autour de Fe, 2Fe... nFe.
Par conséquent, pour éviter tout recouvrement de spectre, le signal à
échantillonner doit être borné (filtre) à une fréquence supérieure telle que Fmax
soit inférieure à la moitié de l’intervalle d’écartement des spectres (Fe). La
figure ci-dessous illustre cette relation appelée relation de Shannon.

Spectre d’échantillonnage.

On en déduit que la fréquence minimale d’échantillonnage (fréquence de


Nyquist) d’un signal doit être le double de la fréquence maximale du signal à
échantillonner :

Structure élémentaire d’un convertisseur analogique/numérique.


Chapitre 2 : Supports de transmission

Les données numérisées sont une succession de 1 et de 0. L’acheminement de


ces données binaires se fait à l’aide d’un support physique de transmission. Ces
supports sont :

- Des fils métalliques (paires torsadées) ;


- Des fils de cuivre pour le téléphone ;
- Des câbles coaxiaux (câbles TV) ;
- Des fibres optiques ;
- Des faisceaux hertziens : la transmission se fait de proche en proche et
deux émetteurs-récepteurs qui se suivent doivent se voir.
- Des satellites ;
- Des supports sans fils…
1) Transmission sur supports filaires en cuivre
Les supports en cuivre employés sont la paire torsadée et le câble coaxial.
a) Supports bifilaires (symétriques)
La paire torsadée est le support de transmission le plus ancien et encore le plus
largement utilisé, principalement pour les services téléphoniques. La paire
torsadée est composée de deux conducteurs en cuivre, isolés l'un de l'autre, et
enroulés de façon hélicoïdale autour de l'axe longitudinale. L'affaiblissement
croit rapidement avec la longueur du support.
Le débit binaire accessible dépend de la qualité du câble et de sa longueur ; il
peut varier entre quelques dizaines de Kbit/s sur quelques dizaine²s de km,
quelques Mbit/s sur quelques km et plusieurs centaines de Mbit/s pour
quelques centaines de mètres. La sensibilité aux parasites d'origine
électromagnétique est relativement importante mais peut être réduite si le
câble est blindé. Enfin, le taux d'erreur est de l'ordre de 10-5. Le rayonnement
électromagnétique d'un câble non blindé permet l'écoute de la communication.
L'importance de l'infrastructure en paire torsadée au niveau de la boucle locale
des réseaux de télécommunication et du câblage des immeubles, ainsi que
l'évolution des techniques de transmission sur des paires torsadées (ADSL,
Gigabit Ethernet), font que son remplacement généralisé, par d'autres
supports, ne soit pas envisagé à court terme.
b) Support coaxial
Plus cher que la paire torsadée, le câble coaxial est encore largement utilisé
pour des artères à moyen débit des réseaux de transport, ainsi que pour les
réseaux de télédiffusion. Deux types de câbles sont les plus utilisés, le câble à
impédance caractéristique de 50 ohms (notamment pour les réseaux locaux) et
le câble à impédance de 75 ohms (télédiffusion, artères internes aux réseaux
téléphoniques interurbains et internationaux).
La bande passante peut atteindre 400 MHz sur plusieurs dizaines de km. Le
débit binaire typiquement employé est de 10 Mbit/s (réseaux Ethernet) sur des
distances inférieures à 1km et peut monter jusqu'à plusieurs centaines de
Mbit/s sur des distances très courtes.
La sensibilité aux parasites ainsi que l'affaiblissement sont réduits par rapport
à la paire torsadée (mais le prix est significativement plus élevé). Le taux
d'erreur est de l'ordre de 10-7 . Le câble coaxial est progressivement remplacé
par la fibre optique.
2) Transmission par fibre optique
Les signaux binaires sont transmis sous la forme d'impulsions lumineuses, à
travers un guide d'onde en fibre de verre. Afin de maintenir les rayons
lumineux à l'intérieur du fibre optique, le phénomène de réflexion totale est
Employé.

L'indice de réfraction de la gaine (n1) doit être inférieur à celui du cœur (n2 ). L'angle
critique est donné par la formule:

(dans l'équation de la réfraction 𝑛1 𝑠𝑖𝑛𝜃1 = 𝑛2 𝑠𝑖𝑛𝜃2 , 𝜃2 = 𝜃𝑐 quand 𝜃1 = 90° ).


Afin de subir uniquement des réflexions totales dans la fibre, un rayon
lumineux en provenance d'une source (diode électroluminescente pour des
longueurs d'onde 800¸900 nm, diode laser pour 800¸1300 nm) doit atteindre le
bout de la fibre sous un angle d'incidence inférieur à :

n0 étant l'indice de réfraction de l'air.


Tous les rayons qui dépassent l'angle critique subissent une réflexion totale ;
ce sont donc en général plusieurs rayons, correspondant au même signal, qui
se propagent à l'intérieur de la fibre optique ¾ fibre multimode à saut d'indice
(dessins précédents) ou à gradient d'indice. Quand le diamètre du coeur de la
fibre est tellement réduit (comparable à la longueur d'onde de la lumière
utilisée) qu'un seul rayon peut se propager, la fibre est appelée monomode.

Les débits binaires varient entre plusieurs centaines de Mbit/s (fibre


multimode, plusieurs km) et environ 10 Gbit/s (fibre monomode, jusqu’à 100
km). L'affaiblissement est très réduit, 0,2-0,8 dB/km, donc les transmissions
sans répéteurs sur des distances de 100 à 200 km sont courantes. L'étude de
l'affaiblissement dans une fibre de silice fait apparaître 3 minima : 1dB/km
pour une longueur d'onde de 850 nm, 0,35 dB/km pour 1300 nm et 0,2 dB/km
pour 1550 nm.
La fibre optique est insensible aux parasites d'origine électromagnétique et
assure un taux d’erreur très bas, de l’ordre de1 0-12. Aussi, la fibre optique ne
produit pas de rayonnement électromagnétique, ce qui contribue à la
confidentialité des transmissions.
Grâce à ses avantages, la fibre optique non seulement remplace le câble coaxial
sur les artères (backbones) des réseaux de télécommunication, mais s'impose
aussi pour l’infrastructure des réseaux locaux à haut débit (Gigabit Ethernet)
et est parfois employée pour la boucle locale (FTTO, Fiber To The Office). Le
câble en fibre optique reste en revanche plus cher que le câble coaxial et son
installation pose des difficultés supplémentaires. Après avoir été largement
employées il y a quelques années, les fibres multimode sont en cours de
remplacement aujourd'hui par des fibres monomode.

a) Wavelength Division Multiplexing


La capacité de transmission des fibres optiques peut être sensiblement
augmentée en utilisant le multiplexage de longueurs d'onde, ou Wavelength
Division Multiplexing, WDM. A l'émission on fait correspondre à chaque flot
d'informations une longueur d'onde différente. Les rayons lumineux
n'interagissent pas dans la fibre, et la longueur d'onde d'un des rayons n'évolue
pas. En conséquence, à la réception on peut extraire chaque flot d'informations
par un simple démultiplexage optique. Un multiplexage de 8 longueurs d'onde
(8 lambdas) est couramment employé, et des expérimentations sont en cours
avec 160 longueurs d'onde différentes (DWDM, Dense WDM, ou HDWDM,
High Density WDM). Cela permet donc d'atteindre des débits binaires allant
de 20 Gbit/s à 400 Gbit/s par fibre. Voir aussi
http://www.techguide.com/comm/dwave.shtml.

3) Les ondes en transmission à vue directe

a) Transmissions par rayons laser


Des faisceaux laser très directifs peuvent être employés comme support pour
des transmissions de données entre immeubles proches. Les débits peuvent
être très importants (comme pour la fibre optique) et l’absence de support à
installer présente l’avantage d’un coût nettement moins élevé. En revanche,
les conditions météorologiques peuvent affecter dans des cas extrêmes la
qualité des communications.
b) Transmissions par faisceaux hertziens
Pour des distances plus importantes, mais toujours à vue directe (dizaines de
km, en fonction de la hauteur des antennes), des faisceaux dirigés d'ondes radio
peuvent être employés et présentent le même avantage de coût d'installation
réduit. Les transmissions sont à transposition de fréquence, la plage de
fréquences employée pour la porteuse étant de 2 à 40 GHz. Il faut noter que
l'atténuation du signal émis augmente fortement avec la fréquence de la
porteuse. Les émetteurs utilisés pour les télécommunications sont de faible
puissance (1 W).
La dispersion des faisceaux étant relativement importante, des techniques de
cryptage doivent être employées afin de maintenir la confidentialité des
communications.
4) Transmissions par satellite
Les transmissions par satellite emploient les satellites géostationnaires, qui se
trouvent sur une orbite à 36000 km d’altitude au-dessus de l'équateur. Les
bandes de fréquences attribuées aux réseaux de communications par satellite
sont 3,7-4,2 GHz, 5,925-6,425 GHz, 12-14 GHz et 20-30GHz. Dans les deux
premières bandes, l'écart de position entre deux satellites doit être supérieur
à 4° (ou 8° pour les satellites de télédiffusion, de puissance plus élevée) afin
d'assurer une bonne sélectivité (éviter les interférences). Les satellites de
télécommunication possèdent des émetteurs de faible puissance (< 10 W) par
rapport aux satellites de télédiffusion (> 500 W). Dans la troisième bande, les
écarts angulaires peuvent être de seulement 1° mais l'atténuation dans
l'atmosphère des signaux est beaucoup plus forte (surtout dans les particules
d'eau). De façon générale, les conditions atmosphériques au sol ou en altitude
peuvent affecter temporairement la qualité des communications. La quatrième
bande commence seulement à être utilisée.
Les débits accessibles aux utilisateurs peuvent aller jusqu' à plusieurs Mbit/s.
Les délais de transmission sont relativement importants (250-300
millisecondes) et doivent être pris en compte dans la conception des protocoles
de communication (notamment pour la correction des erreurs par
retransmission).
La dispersion des faisceaux au sol étant importante, des techniques de
cryptage sont indispensables pour maintenir la confidentialité des
communications.

Chapitre 3 : Généralités sur la transmission de données

Les supports physiques ne peuvent pas acheminer directement, sans


transformation, des 0 et des 1. On doit effectuer une adaptation au support
utilisé. On doit les coder à nouveau.

1) Schéma d’une liaison entre Emetteur et Récepteur

Une donnée est soit discrète soit analogique. Dans le cas de donnée discrète, la
numérisation est juste un codage des données. Dans le cas des données
analogiques, la numérisation est l’échantillonnage, la quantification et le
codage. Une transmission de données met en œuvre des calculateurs
d'extrémité et des éléments d'adaptation du signal.
Le schéma générique d’une transmission est donné à la figure ci-dessous.
ETTD : Equipement Terminal de Traitement de Données ou DTE

ETCD : Equipement Terminal du Circuit de Données ou DCE.

Les données émises par un ETTD sont des suites de 0 et 1.

2) Transmission en bande de base et large bande

Selon la distance qui sépare les ETTD Emetteurs et les ETTD Récepteurs, on
parlera de transmission en bande de base ou en large bande. La transmission
en bande de base a une distance limitée tandis que la transmission en large
bande peut se faire sur de longue distance.
Chapitre 4 : Transmission en bande de base

1) Principe : On représente 0 et 1 par des valeurs de tension.


2) Utilisation : La distance entre Emetteur et Récepteur est limitée. Sinon
on utilise un répéteur de signal.
3) Caractéristique :
- Simplicité,
- occupation de toute la bande passante.
4) schéma générique

5) valence d’un codage (N)

un codage dépend du nombre de niveaux utilisés pour coder le signal. C’est le


nombre d’états significatifs. Ce nombre est appelé valence.

Exemple : Si on affecte +1 V à 1 et 0 V à 0, le codage est de valence N=2.

Si n est le nombre de bits transmis par un état significatif, 𝑁 = 2𝑛 .

Dans l’exemple ci-dessus, 1 bit est transmis par état significatif. La valence est
N= 21=2.

6) Transition

Passage d’un état significatif à un autre état significatif.

7) Période significative

Le temps le plus petit entre deux transitions significatives.


8) Horloge

Les émissions et les réceptions sont rythmées par la même horloge notée H.

9) Exemples de codage

La transmission est rythmée par la même horloge côté émetteur et côté


récepteur.

a) Codage binaire

On affecte +V à un bit 1 et 0V à un bit à 0. C’est la transcription directe du


signal.

C’est le codage le plus simple, non utilisé car il est difficile d’avoir la tension
nulle.

b) Codage NRZ (No Return to Zero, non-retour à zero dans une même
période de bit)
Ce codage élémentaire est à la base de tous les codes. Il s’agit du même code
que le codage binaire mais on affecte –V au bit 0 pour plus d’efficacité.
Cependant, le spectre de ce signal est relativement large. Il présente un
maximum de puissance à la fréquence zéro, ce qui correspond à une
composante continue importante.
c) Codage RZ (Return to Zero)

Pour un codage RZ, on retourne en 0 dans une même période de bit.

d) Codage NRZI (No return to Zero Inverted)

Choisissons de s’intéresser aux séries de 0.

Principe : le signal reste dans le même état pour un bit à 1 et change d’état
pour un bit à 0.

e) Codage Manchester (codage biphase)

Le codage NRZ symétrise la valeur 1 et la valeur 0 par rapport à un niveau


potentiel nul. Cependant ce codage a une composante continue non nulle et ne
présente aucune transition lors de longues séquences de 0 ou de 1.
Le codage Manchester remédie à l’absence d’information de synchronisation
avec une transition au milieu de chaque temps bit. La transition est croissante
pour les 0 (High to Low), décroissante pour les 1 (Low to High). Le sens des
transitions est significatif, ce qui pose des problèmes en cas d’inversion des fils
de liaison. Multipliant les transitions, le codage Manchester a un spectre très
large, il est utilisé dans les réseaux locaux de type Ethernet sur câble coaxial.
La bande passante du support y est importante et gratuite et l’inversion de fils
impossible.
f) Codage Manchester Différentiel
Le codage Manchester différentiel résout le problème d’inversion des
conducteurs. Chaque transition, au milieu du temps bit, est codée par rapport
à la précédente. Si le bit à coder est 0 la transition est de même sens que la
précédente, si le bit est à 1 on inverse le sens de la transition par rapport à
celui de la précédente. Ce codage résout la plupart des problèmes posés, mais
son spectre est relativement large. Il est utilisé dans les réseaux locaux de type
Token Ring.
g) Codage Miller
Pour réduire le spectre on peut, à partir du Manchester simple, supprimer une
transition sur deux, que celle-ci soit ou non significative, on obtient alors le
code dit Delay Mode ou Miller. En appliquant cette règle, on constate que les 1
ont une transition au milieu du temps bit et les 0 pas de transition. Mais un 0
suivi d’un 0 a une transition en fin du temps bit.
h) Codage AMI (Alternate Mark Inversion)
C’est un codage à 3 niveaux de tension : +V, 0 et –V.
0 est codé par 0V ; 1 est codé par +V ou –V.
Ce codage est inefficace lorsqu’il y a les longues séries de 0.

i) Codage HDB3 (Hute Densité Bipolaire d’ordre 3)

Ce codage appartient à la famille de codage HDBn, pour régler le problème des


successions de n zéros (la succession de 1 est réglée avec l’alternance).
Principe :
On utilise des bits de bourrage et des bits de viol (B : bourrage et V : viol).
Une suite de (n+1) zéros est codée par :
(a) Une suite de n zéros suivi d’un bit de viol V
(b) Une suite formée d’un bit de bourrage B, de (n-1) zéros, suivi d’un bit de
viol V. B et V ayant même polarité.

Règle :
- on choisit (a) si le nombre de bits 1 suivant le dernier bit de viol est
impair. Sinon on choisit (b).
- le premier bit à 1 suivant un V est codé avec la valeur inverse du V
précédent.
- Par convention, la suite est précédée d’un V.
Exemple HDB3
On utilisera les symboles +, - pour les bits à 1 ;
0, 𝐵+ , 𝐵− , 𝑉 + , 𝑉 − pour les bits à 0.

Signal : 1 1 0 1 0 0 0 0 1 0 1 0 0 0 0
 La suite est précédée d’un V.
Codage :
1 1 0 1 0 0 0 0 1 010 000
+ − 0 + 0 0 0 𝑽+ − 0 + 𝑩− 0 0 𝑽−

0 0 0 𝑽+ : car c’est la première série de 4 zéros. Par convention, la série est


précédée d’un V.
Le nombre de 1 est 3 (impair) donc c’est le type (a). Pour que cela soit un viol,
il faut que cela soit 𝑉 + car si on aurait mis 𝑉 − , on l’aurait pris pour un 1 normal
car aurait altéré avec le dernier 1.
Ainsi avec le choix du + pour le premier 1 de la série, le viol précédent est un
𝑉 −.
𝑩− 0 0 𝑽− : Après le dernier viol, il y a 2 bits à 1 (pair), donc on choisit le type
(b).
La forme est donc B 0 0 V. Ici c’est un 𝑩− 0 0 𝑽− pour respecter l’alternance.

Autre exemple :
10000011100
+ 0 0 0𝑉 + 0 − + − 0 0
Chapitre 5 : Transmission en large bande

En transmission large bande, le spectre du signal numérique est translaté


autour d’une fréquence centrale appelée porteuse. La translation de spectre
résout les deux problèmes posés par la transmission en bande de base :
dispersion du spectre (étalement du signal) et la monopolisation du support
qui interdit le multiplexage. Elle est réalisée par un organe appelé modulateur.
En réception le signal doit subir une transformation inverse, il est démodulé.
Le modem, contraction de modulation/démodulation, est un équipement qui
réalise la modulation des signaux en émission et leur démodulation en
réception.

1) Principe :
La dégradation du signal avec la transmission en bande de base est rapide, la
distance franchissable est limitée à quelques km. Le signal sinusoïdal est plus
résistant. D’où l’idée de substituer au signal impulsionnel, un signal sinusoïdal
et de modifier l’un de ses paramètres en fonction du signal numérique d’origine:
c’est la modulation. La modulation permet de différencier un 0 d’un 1 pendant
la transmission, car il s’agit de transporter des 1 et des 0 et pourvoir les
récupérer après.

On couple deux signaux :


- Un signal qui se propage bien sur de longues distances, en haute
fréquence appelé porteuse ;
- Le signal à transmettre appelé le modulant (basse fréquence).

La porteuse est une onde sinusoïdale 𝑢(𝑡 ) = 𝐴0 𝑠𝑖𝑛(𝑤0 𝑡 + 𝜑0 ).


𝑤0 = 2𝜋𝑓0 avec 𝑓0 la fréquence de la porteuse.
Un signal sinusoïdal est caractérisé par :
- Son amplitude 𝐴0
- Sa fréquence 𝑓0
- Sa phase 𝜑0

2) Types de modulation
Sur un signal sinusoïdal, on peut faire varier :
- l’amplitude 𝐴0 , c’est la modulation d’amplitude (ASK, Amplitude
Shift Keying) ;
- la fréquence 𝑓0 , c’est la modulation de fréquence (FSK, Frequency
Shift Keying) ;
- la phase 𝜑0 , c’est la modulation de phase (PSK, Phase Shift Keying).
3) Modulation d’amplitude
On effectue un produit de l’amplitude de la porteuse par un réel k
traduisant 1 ou 0. La fréquence et la phase restent inchangées.

Exemple :
Pour une porteuse 𝑠(𝑡 ) = 𝐴𝑠𝑖𝑛(2𝜋𝑓) et
Supposons que k=1 pour désigner 1 (𝑠(𝑡 ) = 𝐴𝑠𝑖𝑛(2𝜋𝑓) et que k=1/2 pour
𝐴
désigner 0 (𝑠(𝑡 ) = 𝑠𝑖𝑛(2𝜋𝑓), on a le signal modulé suivant :
2
Porteuse

Signal modulé

Ce type de modulation est utilisé pour les ondes radios (AM).


L’amplitude étant représentative de l’information, la modulation d’amplitude
est très sensible aux bruits parasites, elle n’est pratiquement utilisée qu’en
combinaison avec la modulation de phase.

4) Modulation de fréquence
C’est la fréquence qui est modifiée pour signifier un 1 ou un 0. La phase et
l’amplitude restent inchangées.

Exemple :
Pour une porteuse 𝑠(𝑡 ) = 𝐴𝑠𝑖𝑛(2𝜋𝑓) et
Supposons que la fréquence est multipliée par 2 pour désigner 1 (𝑠(𝑡 ) =
𝐴𝑠𝑖𝑛(2𝜋2𝑓) et qu’elle reste inchangée pour désigner 0 (𝑠(𝑡 ) = 𝐴𝑠𝑖𝑛(2𝜋𝑓), on
a le signal modulé suivant :

Porteuse
Signal modulé

Ce type de modulation est utilisé pour les ondes radios (AM).


La technique de la modulation de fréquence est particulièrement simple à
mettre en œuvre. Elle est très résistante aux bruits, mais la grande largeur du
spectre du signal résultant la limite au faible débit.

5) Modulation de phase

C’est la phase qui est modifiée pour signifier un 1 ou un 0. La fréquence et


l’amplitude restent inchangées. On précise par rapport à la phase de la
porteuse, celle qui correspondra au bit 1 et celle qui correspondra au bit 0.

Exemple :
Pour une porteuse 𝑠(𝑡 ) = 𝐴𝑠𝑖𝑛(2𝜋𝑓) et
Supposons que la phase est la même que celle de la porteuse (𝜑0 ) pour
désigner 0 (𝑠(𝑡 ) = 𝐴𝑠𝑖𝑛(2𝜋2𝑓 + 𝜑0 ) et qu’elle est égale à 𝜑0 + 𝜋 pour
désigner 1 (𝑠(𝑡 ) = 𝐴𝑠𝑖𝑛(2𝜋𝑓 + 𝜑0 + 𝜋 ), on a le signal modulé suivant :
Porteuse

Signal modulé

6) Combinaison de modulation
Dans les trois types de modulation vus, une période transporte un seul bit. On
peut transporter deux bits en seule période en combinant les modulations. Cela
a pour avantage d’augmenter le débit.
Chapitre 5 : Caractéristiques d’une
transmission

1) Définitions et théorèmes
 Transition : passage d’un état significatif à un autre état significatif.
 Valence : 𝑁 = 2𝑛 où n est le nombre de bits transmis par état significatif.
Exemple : n=1, N=2 Valence=2. Un état transporte 1 bit.
n=2, N=4, Valence = 4. Un état transporte 2 bits. (Cela est possible
en combinant la modulation de fréquence et modulation d’amplitude).

 Temps élémentaire Te : plus petite durée entre 2 transitions.

Remarque : plus n est grand, plus rapide est la modulation.

 Rapidité de modulation R : nombre maximum de transitions en 1


seconde. R s’exprime en baud.
1
𝑅=
𝑇𝑒

R est donc une quantité d’informations transmises.

 Débit binaire D:nombre maximum de bits transmis par seconde. Si N est


la valence,
𝑁 = 2𝑛
1
𝐷 = 𝑛𝑅 = 𝑛 ×
𝑇𝑒
D est en bit/s.

Exemple :
N=4=22 (2 bits par transition)

Si le nombre de transitions par seconde est 1, on a :

R=1 baud

D=2 bits/s.

 Bande passante

Tout signal transporté subit des affaiblissements dus:

- Aux interférences sur le canal


- Aux intempéries.

On appelle bande passante l’espace de fréquences tel que tout signal


appartenant à cet intervalle, ne subisse, au plus, qu’un affaiblissement
déterminé par rapport à un niveau de référence.

L’affaiblissement, exprimé en décibel (dB), est donné par la relation :

P1 : puissance du signal en sortie


P0 : puissance du signal de référence

La bande passante est généralement définie pour une atténuation en puissance


de moitié, ce qui correspond à –3 dB.

La largeur de bande d’un signal correspond à la bande passante minimale que


le système doit posséder pour restituer correctement l’information. Ainsi, la
bande passante qualifie le système, et la largeur de bande qualifie le signal.
Notons que le terme de bande passante est utilisé non seulement pour désigner
un espace fréquentiel (Bande Passante ou BP en Hz), mais aussi pour qualifier
le débit binaire d’un système (Bande Passante exprimée en bit/s).

W=f2-f1, où [f1 ;f2] est l’intervalle où la puissance du signal est supérieure à P0/2.
Remarque : la bande passante de la voix humaine est w=3100 Hz ; f1=300 Hz
et f2=3400 Hz.

Théorème de Nyquist :
La rapidité de modulation R ne peut pas dépasser une valeur maximale Rmax :
𝑅 ≤ 𝑅𝑚𝑎𝑥 et Rmax=2W, W est la bande passante du signal.

En pratique, Rmax est environ égal à 1,25W.

Exemple : pour la voie humaine, 𝑅 ≤ 2 × 3100 (=6200 bauds).

2) Bruit et qualité d’un signal.


On distingue 3 types de bruits :
- Bruits déterministes (dépendant des caractéristiques physiques du
support)
- Bruits aléatoires (perturbations accidentelles)
- Bruits blancs (agitations thermiques).

On mesure la qualité d’un signal par le rapport signal/bruit (S/B) dont l’unité
est le décibel (dB).
(𝑆⁄𝐵) = 10𝑙𝑜𝑔10 (𝑆⁄𝐵)
 Décibel : le décibel (dB) est l’unité du rapport signal/bruit ramené à
l’échelle logarithmique parlant du rapport réel de puissance S/B.

 Théorème de Shannon : le nombre maximal de bits à transporter par


transition est lié (et limité) par le rapport signal/bruit.

𝑛𝑚𝑎𝑥 = 𝑙𝑜𝑔2 √1 + (𝑆⁄𝐵)

Or D=nR.
Cette relation limite le débit binaire D.
 Le débit binaire maximal est appelé Capacité du support (C).

𝐶 = 𝑛𝑚𝑎𝑥 × 𝑅𝑚𝑎𝑥 = 2𝑤𝑙𝑜𝑔2 √1 + (𝑆⁄𝐵)

𝐶 = 𝑤 × 𝑙𝑜𝑔2 (1 + (𝑆⁄𝐵))

Exemple : le support est une ligne téléphonique avec w=3100 Hz.


Quelle est la capacité d’un tel support pour un rapport Signal/Bruit égal à 20
dB ?

3) Types et sens d’une transmission


 Types de transmission
Il existe deux types de transmission :
- La transmission en série : on envoie les impulsions des signaux les
uns à la suite des autres. On a besoin que d’un seul fil de
transmission.
- La transmission en parallèle : on utilise plusieurs fils sur lesquels les
impulsions sont transmises simultanément. Les bits sont alors
regroupés selon le nombre de fils.

Transmission parallèle

Transmission série

La transmission en parallèle est plus rapide mais peu commode pour une
longue distance. En plus, il faut synchroniser les fils. Elle est surtout utilisée
sur la carte mère de l’ordinateur, pour les liaisons entre les éléments reliés à
la carte mère.

 Ses de transmission
Il existe 3 sens de transmission :
- Simplex : dans un seul sens (radio, TV…)
- Half duplex : dans les deux sens mais alternés (talkie-walkie)
- Full duplex : dans les deux sens de façon intégrale (réseau)

Sens de transmission

4) Synchronisation d’une transmission en série


Toute émission de donnée par un Emetteur (HE) ou toute réception par un
Récepteur (HR) est rythmée par une horloge interne (HE pour l’émetteur et HR
pour le récepteur).
L’émetteur émet au rythme de son horloge HE qu’il transmet avec le signal à
transmettre.
Le récepteur peut cadencer son horloge HR à HE ou ne pas le faire.
Dans le premier cas, HR = HE : la transmission est synchrone.
Dans le deuxième cas, elle est asynchrone. Le récepteur travaille avec sa
propre horloge (HR ≠ HE). D’où le mode de transmission asynchrone est utilisé
pour les transmissions de caractères.

5) Transmission asynchrone
Une trame est un groupe de bits contenant les bits de l’information (le
caractère) à émettre et des bits de contrôle (nécessaire dans toute transmission
asynchrone).
L’émission et la réception n’est pas continue dans le temps. La ligne de
transmission est au répos pour une durée non maitrisée entre l’envoi de 2
trames.
Principe
- Un caractère émis est précédé d’un bit spécial indiquant le début de
l’envoi (Bit Start :BD) ou Bit de Début.
- Puis vient la séquence des bits du caractère émis
- La fin d’émission du caractère est marquée par un ou plusieurs bits
d’arrêt (Bit Stop :BA) ou Bit d’Arrêt.
- Entre la fin du caractère et le premier bit BA s’intercale un bit de
contrôle (Bit de parité par exemple) : BC.
Les Bits Stops sont de même niveau logique que l’état Repos de la
ligne, Niveau Haut ; ainsi le BD est un niveau Bas.

Un bit de parité est un bit de contrôle (des erreurs qui peuvent survenir durant
la transmission). La présence d’un bit BC est facultative.
Si le codage d’un caractère se fait avec 7 ou 8 bits, une trame contient :
Avec 7 bits, 1 (BD)+7 (caractère)+1 (BC, facultatif)+1 (BA), soit au moins 9 bits.
Avec 8 bits, la trame contient au moins 10 bits.

6) Transmission synchrone
Dans ce cas, HE = HR.
En pratique, cette synchronisation des horloges peut être élaborée :
- Directement à partir de HE alors transmise en même temps que les
données sur une ligne séparée
- Par reconstitution à partir des instants de transition du signal
suivant le type de modulation.

a) Trame synchrone
La longueur d’une trame n’est plus limitée à un caractère comme dans le cas
asynchrone. Elle est quelconque.
La structure d’une trame synchrone est la suivante : LA TRAME ETHERNET EST
DE 1500 OCTETS

b) Protocoles et procédures synchrones


Une transmission synchrone est souvent associée à un partage de support
physique par différents systèmes émetteurs. Il est alors nécessaire d’utiliser
des trames spécifiques pour contrôler et superviser la transmission. :
- Etablissement d’une liaison
- Procédure d’acquittement ou rejet de trame
- Procédure de contrôle de flux etc.
Il y a donc trois phases :
- Etablissement de la liaison
- Transfert des données
- Libération de la liaison au profit d’un autre.

7) Multiplexage
Prenons le cas du réseau téléphonique.
Le principe du réseau téléphonique est que quand un abonné est en
communication avec un autre abonné, à ce moment les deux combinés sont
reliés physiquement par un fil.
Il est impossible de relier chaque abonné à la centrale téléphonique, d’où la
solution suivante adoptée.
Chaque lot d’abonnés dispose d’une borne relai et chaque abonné est relié
physiquement à cette borne.
Cette borne est reliée physiquement à la centrale en passant éventuellement
par une borne de plus grande importance, utilisant un unique fil.
Une ligne reliant deux bornes intermédiaires ou une borne d’ilots à la centrale
va devoir être utilisées par plusieurs abonnés. La ligne est partagée par
plusieurs utilisateurs.

a) Définition
Lorsque plusieurs voies de transmissions utilisent pour la suite de la
transmission, une unique voie, on dit qu’on fait un multiplexage de voies.
A l’arrivée, le procédé inverse est appelé démultiplexage pour retrouver les
informations transmises par les différentes voies incidentes.
Le problème posé est comment partager cette unique voie ?

b) Types de multiplexage
 Multiplexage temporel (TDM)
On utilise la voie à tour de rôle.
Remarque : Pour qu’un multiplexage soit réalisable, il faut que le débit
autorisé de la voie unique soit plus important que celui des voies incidentes.
Deux cas :
- Toutes les voies incidentes ont accès au support pour une même durée
dt (STDM, S pour synchrone). Dans ce cas, la voie est occupée même
si une voie incidente n’émet pas. Les autres doivent attendre leur
tour.
- Multiplexage statique : si une source (voie incidente) ne veut pas
émettre, on saute son tour et on passe directement à la voie suivante.
Remarque : les données à transmettre sont divisées en paquets (unité à
transmettre en une seule fois).

 Multiplexage fréquentiel (FDM)


Toutes les voies incidentes émettent en même temps mais à des fréquences
différentes.
Remarque : il faudrait gérer le problème de gestion des fréquences trop proches
l’une de l’autre.

 Multiplexage en longueur d’onde (WDM)


Ce sont les longueurs d’onde qui sont partagés par les voies incidentes.
Chapitre 6 : Contrôle des erreurs de transmission

D’une manière générale on doit, lors d’une transmission de données, s’assurer


que les données reçues n’ont pas été altérées durant la transmission. Plusieurs
facteurs peuvent modifier le contenu des données. Les uns sont d’origine
humaine, le contrôle d’intégrité concerne alors la sécurité des données. Les
autres sont d’origine physique, le contrôle d’intégrité porte alors le nom de
contrôle d’erreur.

Taux d’erreur binaire


Les rayonnements électromagnétiques, les perturbations propres au système
(distorsions, bruit... ), des intempéries, des tensions instables peuvent modifier
les informations transmises (bits erronés). Compte tenu de l’extension des
réseaux et de l’utilisation massive de la fibre optique, la perte de la
synchronisation des horloges est, aujourd’hui, la principale source d’erreurs.

On appelle taux d’erreur binaire ou BER (Bit Error Rate) le rapport entre le
nombre d’informations (bits) erronées reçues et le nombre d’informations (bits)
transmises.

𝑛𝑏𝑟𝑒 𝑏𝑖𝑡𝑠 𝑒𝑟𝑟𝑜𝑛é𝑠


𝑡𝑒𝑏 =
𝑛𝑏𝑟𝑒 𝑑𝑒 𝑏𝑖𝑡𝑠 𝑡𝑟𝑎𝑛𝑠𝑚𝑖𝑠

Soit par exemple la suite de bits « 1001101 » qui est reçu « 1001001 ».

Le message reçu diffère d’un bit du message émis. Le nombre de bits émis
étant 8 bits, le taux d’erreur binaire est teb=1/8=0,125.
Il faut être capable de détecter ces erreurs de transmission et si possible les
corriger ou demander une réémission des même données.

On appelle détection d’erreur les mécanismes mis en œuvre pour que le


système destinataire puisse vérifier la validité des données reçues. La
détection d’erreur repose sur l’introduction d’une certaine redondance dans
l’information transmise. Quatre techniques peuvent être mises en œuvre pour
détecter et éventuellement corriger les erreurs. Parmi ces techniques, on a :
- La détection d’erreur par clé calculée : une information
supplémentaire (clé) déduite des informations transmises est ajoutée
à celles-ci. En réception, le récepteur recalcule la clé, si le résultat
obtenu correspond à la clé reçue les données sont réputées exactes,
sinon le récepteur ignore les données reçues et éventuellement en
demande la retransmission (reprise sur erreur).

- La détection et correction d’erreur par code : cette technique


consiste à substituer aux caractères à transmettre, une combinaison
binaire différente du codage de base (code autocorrecteur).

1) Détection d’erreur par clé calculée

Principe
Dans les systèmes à clé calculée, une séquence de contrôle (CTL1) déduite
d’une opération mathématique appliquée au message à émettre est envoyée
avec le message. Le récepteur effectue la même opération. Si le résultat trouvé
(CTL2) est identique à la clé calculée par la source (CTL1) le bloc est réputé
exact, dans le cas contraire le bloc est rejeté.

a) Technique du bit de parité


La technique du bit de parité consiste à ajouter, à la séquence binaire à
protéger, un bit, telle que la somme des bits à 1 transmis soit paire (bit de
parité) ou impaire (bit d’imparité). L’émetteur et le récepteur s’entendent sur
la parité utilisée pour les transmissions les concernant.
Parité paire : si le nombre de 1 est impair, le bit de parité prend la valeur 1 ;
sinon il prend la valeur 0.
Exemple : (le bit de contrôle est en gras dans chaque cas)
01001011
01000010
Parité impaire : si le nombre 1 est impair, le bit de contrôle est 0 sinon le bit
de contrôle est 1.
Exemple : (le bit de contrôle est en gras dans chaque cas)
01001010
01000011

S’il existe des erreurs lors de la transmission, la valeur du bit de parité peut
aussi changer.
Si la valeur de la parité a changé, il y a eu surement erreur de transmission,
sinon il se peut qu’il y ait erreurs mais difficile à détecter par ce moyen.

Exemple :
Transmis (01001011) ; reçu (01001001) : en parité paire, il y a erreur sûre.
Transmis (01001011) ; reçu (10001011) : en parité paire, la parité est correcte
pourtant il y a eu deux erreurs.

On transmet le caractère complété par le bit de parité. La détection d’erreur


est donc sûre lorsque l’altération ne concerne qu’un seul bit et que le bit de
parité n’est pas lui-même altéré. Le contrôle est donc peu fiable.

b) Contrôle de parité par bloc


Pour améliorer le contrôle des erreurs utilisant la parité, on utilisa les
contrôles par VRC et LRC.
VRC : Vertical Redundancy Check), vérification par redondance vertical
LRC: Longitudinal Redundancy Check, vérification par redondance
longitudinal

Principe du contrôle par bloc


Le contrôle de l’intégrité du bloc se fait de manière verticale (VRC) où on
contrôle l’intégrité caractère par caractère et de manière longitudinale (LRC)
par bit de même rang dans les caractères.
Exemple : le mot « OSI », avec un caractère codé sur 7 bits.
Parité paire
O 1 0 0 1 1 1 1 1
S 1 0 1 0 0 1 1 0
I 1 0 0 0 0 1 1 1
1 0 1 1 1 1 1 0 LRC
VRC
On transmet
chaque caractère complété par le code de parité du caractère. Puis à la fin, on
transmet le caractère LRC du bloc.

Contrôle des erreurs à la réception


Une erreur : Les bits reçus sont ci-dessous, avec une erreur de transmission.

O 1 0 0 1 0 1 1 1
S 1 0 1 0 0 1 1 0
I 1 0 0 0 0 1 1 1
1 0 1 1 1 1 1 LRC
VRC
La parité de la première ligne et celle de la cinquième colonne ne correspondent
pas aux éléments correspondants des VRC et LRC. Il y a eu erreur de
transmission et on sait qu’elle est située à la position (1 ;5) dans le tableau de
données.
Une erreur par caractère est aussi détectable et on peut les corriger. On
suppose que les bits de contrôle ne sont pas altérés.

Deux erreurs de transmission


Dans ce cas, le bit de parité est correct, donc VRC est correct. C’est les bits LRC
qui ne correspondent pas. Mais on ne pourra pas localiser les erreurs. On
pourra juste trouver les deux colonnes comportant des erreurs.

O 1 0 1 1 0 1 1 1
S 1 0 1 0 0 1 1 0
I 1 0 0 0 0 1 1 1
1 0 1 1 1 1 1 LRC
VRC
Autre
situation identique à la précédente

O 1 0 0 1 1 1 1 1
S 1 0 0 0 1 1 1 0
I 1 0 0 0 0 1 1 1
1 0 1 1 1 1 1 LRC
VRC

c) Contrôle par code cyclique (CRC)


Principe :
Une trame ou ensemble de trames de bis est considéré comme un polynôme
dont les coefficients des termes sont des valeurs de bits.
Par exemple :
Trame : 1101011 sera représentée par X6 + X5 + X3 + X + 1.
P(X)= X6 + X5 + X3 + X + 1 est un polynôme représentant la trame.
- On utilise un polynôme générateur G(X) avec lequel Emetteur et
Récepteur se sont entendus pour tout envoi et réception. On note k le
degré de G.
- Pour permettre une division, on décale P(X) vers la gauche de dºP+k.
- On divise (en arithmétique booléenne) T(X) par G(X) et on retient le
reste R(X) de cette division
- On remplace les k bits à 0 de T(X) par les coefficients de R(X). cela
donne la trame T’(X) à émettre.

Remarque : en arithmétique, l’addition et la soustraction sont la même


opération.

Exemple : soit à transmettre la trame 1101011011.


P(X)= X9 + X8 + X6 + X4 + X3 + X 1.

Le polynôme générateur choisi est G(X)=X4 + X + 1 et dºG=k=4.


Le nouveau message est 11010110110000. Ce nouveau message est représenté
par T(X)=X13 + X12 + X10 + X8 + X7 + X5 + X4 = P(X)*X4
On effectue ensuite la division par G.
Le reste obtenu est R(X)= X3 + X2 + X qui correspond à 1110.
Le message final à transmettre est 11010110111110
Correspondant à T’(X)= X13 + X12 + X10 + X8 + X7 + X5 + X4 + X3 + X2 + X
A la réception, le récepteur divise T’(X) par G(X) et s’attend à trouver un
polynôme divisible par G(X) (reste 0). Si le reste est 0, on estime qu’il n’y a pas
eu erreur de transmission ; sinon il y a eu erreur.
Ce qui est envoyé est donc T’(X). G(X) est déjà connu.

Remarque :
T’ : 11010110111110 G=10011
Après la division de T’ et G, on trouve que le reste est nul.

Quelques polynômes générateurs


CRC-12 : X12 + X11 + X3 + X2 + X +1
CRC-16 : X16 + X15 + X2 + 1 ou X16 + X12 + X5 + 1
CRC-32 : X32 + X26 + X23 + X22 + X16 + X12 + X11 + X10 + X8 + X7 + X5 + X4 + X2 +
X + 1 (utilisé dans les réseaux Ethernet).
2) Détection et correction d’erreur par code
Dans les systèmes autocorrecteurs, on substitue au mot à transmettre (mot
naturel) un nouveau mot (mot code), tel que 2 mots codes successifs diffèrent
de α bits, où α est appelé distance de Hamming.
On montre que si la distance de Hamming est de α on peut :
- détecter toute erreur portant sur (α − 1) bits ;
- corriger toute erreur portant sur (α − 1)/2 bits.
Exemple d’utilisation du code de hamming.
On veut transmettre 1001101.
- On insère des bits de contrôle aux puissances de 2 ;
100()110()1()()
- On considère les bits à 1 de la donnée avec leur emplacement que l’on
code en binaire.
11 : 1011
7 : 0111
6 : 0110
3 : 0011
- On forme un caractère de 4 bits en faisant la somme sans retenue
colonne par colonne. Le code de Hamming à ajouter au message est
1001.
Le message transmis est 100(1)110(0)1(0)(1).

A la réception, on considère le message on code les indices des bits 1. Puis on


contrôle la parité colonne par colonne. On doit avoir 0 partout.
Si par eexemple le message reçu est 10011100101 :
11 : 1011
8 :1000
7 :0111
6 :0110
3 :0011
1 :0001
Après le contrôle de parité colonne par colonne, on trouve 0000 : aucune erreur
de transmission.

Considérons un message altéré à la réception avec une erreur : 00011100101


8 : 1000
7 : 0111
6 : 0110
3 : 0011
1 : 0001
On trouve (après la somme colonne par colonne sans retenue) 1011 qui est
différent de 0000.
1011 est l’emplacement en binaire de l’erreur que l’on peut donc corriger.

Considérons un message altéré à la réception avec deux erreurs : 00011000101.


8 : 1000
7 : 0111
3 : 0011
1 : 0001

On trouve (après la somme colonne par colonne sans retenue) 1101 qui est
différent de 0000.

Vous aimerez peut-être aussi