

Comment "la pensée algorithmique est-elle l’apanage de nos cerveaux lents mais pleins d’intuition et comment l’exécution est-elle le fait de notre électronique hyper-rapide mais totalement dénuée de jugeote" ? s’interroge l’informaticien Gérard Berry.
Pourquoi parler de plusieurs principes et modèles de calcul, alors que tous les ordinateurs actuels fonctionnent de la même façon et ne semblent différer que par leur marque, leur vitesse et leur prix ? demande encore Gérard Berry, dans sa leçon inaugurale intitulée « Penser, modéliser et maîtriser le calcul informatique », en 2009.
Cette semaine et la suivante, je vous propose de plonger dans le monde passionnant de l’informatique en compagnie de Gérard Berry, un monde riche de stimulantes questions sur tous les changements qui nous touchent. Le numérique comme on dit aujourd’hui, selon un glissement de vocabulaire qu'aime souligner Gérard Berry, est partout, de notre frigo connecté, à notre téléphone devenu intelligent ou à notre voiture munie de son GPS et d’une foule de gadgets électroniques…
La science informatique qui change très vite et révolutionne le monde, a aussi révolutionné le Collège de France. Gérard Berry est le seul professeur à avoir été titulaire de 3 chaires au Collège de France. Il a donc prononcé 3 leçons inaugurales :
- "Pourquoi et comment le monde devient numérique" dans le cadre de la Chaire annuelle d'Innovation technologique Liliane Bettencourt, le 17 janvier 2008 (leçon inaugurale rediffusée sur France Culture l'été 2016).
- "Penser, modéliser et maîtriser le calcul informatique" dans le cadre de la création de la Chaire annuelle "Informatique et sciences numériques", en partenariat avec l' INRIA, le 19 novembre 2009. C'est cette seconde leçon inaugurale qui ouvre notre grande série consacrée aux sciences de l'informatique. Cette leçon, dont la vidéo est disponible sur le site du Collège de France, est diffusée pour la première fois sur notre antenne.
- "L'informatique du temps et des événements" dans le cadre de la Chaire permanente "Algorithmes, machines et langages", le 28 mars 2013 (chaire pour laquelle Gérard Berry a prononcé sa 3e leçon inaugurale que nous vous proposerons demain).
Polytechnicien, Gérard Berry a été chercheur-enseignant à l'Ecole des Mines, puis à l 'INRIA (l'institut national de recherche dédié aux sciences du numérique,) et Directeur technologique de la société Esterel Technologie. Médaillé d’or du CNRS en 2014, il est un pionnier dans un nombre considérable de domaines informatiques : le lambda-calcul, la programmation temps réel, la conception de circuits intégrés synchrones, la vérification de programmes et circuits, l’orchestration de services Web.
Dans les résumés de ses cours au Collège de France, l'informaticien rappelle :
"Mon premier cours proposait une présentation générale de la discipline qu’est l’informatique et de ses façons de penser. Il était en forme de leçons de choses sur différents sujets centraux dans le domaine : algorithmique, circuits, programmation, réseaux, traitement d’images, etc. Mon deuxième cours, plus technique, étudiait les fondements mathématiques et algorithmiques de la notion de calcul, en insistant sur ses formalisations et sur l’importance de programmer juste et le démontrer" (résumé "L'informatique du temps et des événements", 2012-2013)
A propos de ce 2e cours plus "technique", Gérard Berry précise :
"Comme je l’avais expliqué en 2007-2008, l’informatique est un art difficile si l’on veut faire la différence entre les applications qui marchent vraiment et celles qui marchent à peu près. Ces dernières se caractérisent par la présence de bugs résiduels induisant des comportements aberrants, avec des conséquences plus ou moins graves selon le type de système. Faire des applications qui marchent vraiment demande de raisonner sur les calculs qu’elles effectuent, à l’aide de modèles mathématiques, comme on raisonne sur des objets physiques. Cependant, à cause de la taille et de la complexité des circuits et programmes, on s’aperçoit rapidement que le raisonnement sur papier ne suffit pas. Il faut introduire la notion clef de calcul sur le calcul, pour faire effectuer ou au moins vérifier les raisonnements par les machines elles-mêmes, en visant la vérification formelle automatique ou assistée de programmes et de circuits. Mais, pour pouvoir travailler ainsi, il faut d’abord formaliser la notion de calcul elle-même, ou plutôt les notions de calcul tant la discipline a progressé récemment." (résumé du cours 2009-2010)
Quelle est la variété des modèles de calcul ? s’interroge aujourd’hui Gérard Berry Pourquoi raisonner et calculer sur les programmes ? Quels sont les modèles sequentiels ? Que devons nous au génie d’Alan Turing ? Quelles sont les différentes sortes de parallélismes ? Avec l’extension d’Internet et des réseaux d’objet aujourd’hui, quelles sont les nouvelles frontières du calcul et la coopération de modèles ?
Nous gagnons l’amphithéâtre du Collège de France le 19 novembre 2009 pour la leçon inaugurale de Gérard Berry intitulée « Penser, modéliser et maîtriser le calcul informatique ».

Pour prolonger :
Les cours de Gérard Berry sont accompagnés de supports visuels dont vous trouverez des extraits sur nos pages et surtout les liens sur l’ensemble de cette précieuse documentation.
Au cours de sa leçon inaugurale Gérard Berry revient sur les travaux brillants d'Alan Turing et lui rend hommage.
L'image de Une est composée de 3 images d'archives :
- L'ingénieur en électronique Edward Newman inspecte les lignes à retard au mercure, qui constituent la mémoire de Pilot Model ACE, le prototype du moteur de calcul automatique (ACE), lors d'une journée de presse au National Physical Laboratory de Bushy Park à Teddington, Londres, le 29 novembre 1950. ACE est l’un des premiers ordinateurs construits en Grande-Bretagne et est une machine à programme enregistré qui utilise 800 tubes à vide. La machine a été conçue par Alan Turing avant son départ du Laboratoire national de physique en 1947. (Photo de Jimmy Sime / Presse Central / Hulton Archive / Getty Images)
- Harvard, Feb. 11, 2013 - NREL scientists Michael Crowley and Antti-Pekka Hynninen have developed algorithms that speed calculations done by the software tool CHARMM by several orders of magnitude (CHARMM, Chemistry at Harvard Molecular Mechanics/ Energy Gov. / wikicommons)
- Professor Alonzo Church en 1955. Gérard Berry revient sur le calcul lambda de Church.
L'équipe
- Production
- Coordination
- Réalisation