la "souris électrique" avec une "super mémoire", invention de Claude Shannon ©Maxppp - ZUMAPRESS
la "souris électrique" avec une "super mémoire", invention de Claude Shannon ©Maxppp - ZUMAPRESS
la "souris électrique" avec une "super mémoire", invention de Claude Shannon ©Maxppp - ZUMAPRESS
Publicité
Résumé

2016 est le centenaire de la naissance de Claude Shannon, qui fut l’un des responsables de la révolution numérique que nous vivons actuellement.

avec :

Josselin Garnier (mathématicien), Martin Andler (Professeur à l'Université de Versailles St Quentin, co-responsable du pôle enseignement supérieur et recherche de Terra Nova.).

En savoir plus

Nous fêtons, cette année, le centenaire de la naissance d’un extraordinaire excentrique. Celle du mathématicien et ingénieur Claude Shannon. Né dans le Michigan en 1916, Shannon est l’un des fondateurs essentiels de la révolution numérique, et de la naissance de l’informatique, avec ses alter ego ; Alan Turing et John von Neumann. Shannon est le premier qui emploie l’expression « théorie de l’information ». Cela en 1948, dans un article intitulé : « A Mathematical Theory of Communication ». La curiosité du mathématicien américain la porte vers des domaines, ou des objets, aussi divers que la science du codage des messages, la cryptographie. La construction de machines intelligentes. Comme cette souris mécanique, capable de retrouver son chemin dans un labyrinthe. Mais aussi le jonglage, voire la maîtrise de la moto. Monocycle qu’il utilise quand il se promène dans les couloirs du Massachusetts Institute of Technology.

Avec une définition de l’information réduite au choix entre deux options (oui/non, ouvert/fermé, pile/face, 0/1), Shannon invente son unité de mesure, le « bit », chiffre binaire aujourd’hui universellement utilisé. Mais aussi la formule destinée à calculer la quantité d’information. Elle repose sur la notion de probabilité (réduite à une sur deux), donc d’incertitude, de surprise, d’aléatoire. Le contenu ou le sens n’a pas grande place dans l’affaire : « ce qui est significatif, c’est la difficulté à transmettre le message d’un point à un autre », écrit Shannon. Bref, il a montré les limites ultimes de capacité de communication. Ces limites étant liées au « bruit », présent dans les canaux de transmission, en rapport avec les imperfections inéluctables de ces derniers.

Publicité

En préambule à sa conférence intitulée Claude Shannon et l’avènement de l’ère numérique  (mercredi 13 avril à 18 h 30, Grand auditorium de la Bibliothèque François Mitterrand, Paris 13ème), Josselin Garnier, professeur attaché au Laboratoire de Probabilités et Modèles Aléatoires et au Laboratoire Jacques-Louis Lions de l'Université Paris-Diderot, nous explique en quoi Claude Shannon  a introduit le concept moderne de l’information.

Martin Andler, professeur au laboratoire de mathématique de Versailles,  nous présente l'ensemble des conférences organisées par la Bibliothèque nationale de France et la Société Mathématique de France sous le titre : Leçons de science : un texte, un mathématicien.

Références

L'équipe

Dany Journo
Réalisation
Thierry Beauchamp
Collaboration