Né le 30 avril 1916, il obtient deux
diplômes Mathématiques et Génie Electrique à l'Université du Michigan en
1936. Il entre ensuite au MIT où il obtient une maîtrise de Génie Electrique et
un doctorat de Mathématique en 1940.
Il écrit une thèse de maîtrise "Une analyse symbolique des relais et des
circuits de commutation " il y utilise l'Algèbre de Boole
En 1941 il rejoint AT&T de Bell dans le New Jersey comme mathématicien de
recherche.
En 1949 il publie "Théorie de la
communication des systèmes secrets" et également aidé du
mathématicien Waren Weaver le texte fondateur de la théorie de
l'information "Théorie mathématique de la communication" texte
dans lequel on va trouver le fameux Théorème de Shannon
Un peu de cours:
Le théorème de Shannon est fondamental pour le passage
de l'analogique au numérique et vice-versa.
Dans le domaine des communications notamment vocales comme téléphone, radio,
compacts disques, télévision, les signaux au départ sont souvent analogiques
mais le traitement, le transport, sont maintenant numériques.
Pour passer d'un
système à un autre il faut d'abord échantillonner le signal. L'échantillonnage
consiste à prélever périodiquement à l'aide d'un échantillonneur bloqueur (SH - sample and hold) une petite portion du signal puis à l'aide d'un convertisseur
analogique numérique ( CAD) transformer cette grandeur analogique en un grandeur
numérique et répéter cette opération à une cadence suffisante. Tous les nombres binaires obtenus ainsi pourront être stockés sur un
CD par exemple ou transportés sur une ligne électrique, une fibre optique ou par
l'intermédiaire d'une antenne radio. Au niveau de la réception, un circuit va
convertir chaque nombre binaire en une grandeur analogique ( CNA) qui juxtaposée aux
autres grandeurs reconstituées va permettre le restituer le signal original.
Le théorème de Shannon
dit que l'échantillonnage d'un signal doit être au minimum à une fréquence
double de la plus haute fréquence à reconstituer.
Supposons que nous voulions reconstituer une fréquence de 10 000 hertz,
nous allons devoir échantillonner à 20 000Hz soit avec une périodicité de
1/20000s soit toutes les 50μs. Supposons maintenant que la ligne de transmission
puisse transmettre 10 mégabits par seconde soit , 107 bits par
seconde c'est à dire un bit toutes les 0,1μs
si les nombres binaires
à émettre comportent 8 bits, la ligne de transfère va être occupée 8x0,1μs
= 0,8μs toutes les 50μs. La ligne numérique va donc pouvoir transporter
plusieurs signaux analogiques numérisés en imbriquant les échantillons sur une
même ligne. Dans le cas du téléphone, c'est ce qu'on appelle la commutation
temporelle. Une autre technique est de stocker tous les échantillons numérisés
dans une mémoire puis les transférer successivement sur la ligne, le temps
d'occupation de la ligne beaucoup
plus court que lors d'un transfert analogique.
La périodicité de l'échantillonnage est donné ici au minimum théorique,
dans la pratique on prendra un peu plus d'échantillons, cependant il faudra
compter aussi avec la durée de prise de l'échantillon, ouverture du commutateur,
temps de remplissage du condensateur qui va emmagasiner le signal analogique
auquel il faut ajouter le temps nécessaire au CAD pour convertir la valeur
analogique en grandeur binaire.
Si le nombre binaire comporte 8bits, pour que ces 8 bits soient
significatifs, la précision doit être de ±1/2 LSB (bit de poids le plus faible ) c'est
à dire ±0,5/255 grosso modo , 2 ‰ Dans le cas d'un système 12 bits, le
même raisonnement conduit à un précision de ±0,5/4095
soit environ 0,12
‰, précision cumulée de la chaîne
Echantillonneur, et Convertisseur.
Le temps de remplissage du condensateur sera plus long pour obtenir cette
précision, de même le convertisseur demandera plus de temps pour générer 12 bits
avec cette précision. Il est nécessaire que ces temps cumulés soient inférieurs
à l'intervalle d'échantillonnage.
Heureusement, la précision dans les systèmes de transmission des sons n'est
nécessaire que d'un échantillon par rapport à un autre, la valeur absolue
n'importe peu, il n'en est pas de même pour les systèmes de mesure où il s'agit
alors d'une précision absolue.
Shannon devient professeur au MIT en
1959.
Sur le site
http://mapage.noos.fr/fholvoet/shannon.htm
on peut lire :
Claude Shannon est par ailleurs un esprit curieux de tout. Il fabrique une
machines à jongler, une souris qui traverse les labyrinthes, une machine qui
résout le cube de Rubik, une autre qui joue aux échecs, qui
ne sera battue qu’en 42 coups par le champion du monde Mikhail Botvinnik en 1965
à Moscou.
Il est également passablement fantaisiste et les ingénieurs de la Bell se le
rappellent chevauchant un
monocycle en jonglant avec 3 balles dans les couloirs du labo
Je n'ai pas pu résister à prélever ce
texte issu du site de Mr Holvoet , que je n'ai pas le
plaisir de connaître, il voudra bien me pardonner j'espère.
Autre article intéressant de Mr Holvoet sur
l'histoire de l'informatique dans le site suivant:
www.feb-patrimoine.com/nsrev/feb_actu/39/febact39.html
Autre site intéressant:
http://www-history.mcs.st-and.ac.uk/Biographies/Shannon.html |
|