La science infuse

Aller au contenu | Aller au menu | Aller à la recherche

11 octobre 2013

Le monde s'est "rétréci" depuis le Moyen Âge

Le Globe de Coronelli date de la fin du XVIIe siècle, une époque où les relations sociales étaient moins densément connectées qu'aujourd'hui.

Connaissez-vous le psycho-sociologue américain Stanley Milgram ? S'il est en particulier connu pour son expérience mesurant le degré de soumission à l'autorité des individus (mis en avant dans le film I... comme Icare avec Yves Montand, dont vous pouvez visionner un long extrait ici), il a également laissé son nom à un paradoxe, mis en évidence en 1967. Plus connue sous le nom des "six degrés de séparation", cette théorie, contraire à l'intuition générale, indique que chaque personne est reliée à n'importe quel autre habitant du globe par un nombre restreint (environ 6) de relations sociales. En d'autres termes, vous connaissez quelqu'un, qui connaît quelqu'un... qui connaît (plus ou moins bien) Barack Obama, ou un paysan des plateaux andins. Si cette théorie semble s'appliquer à de nombreux réseaux contemporains (le Web, Facebook ou encore la communauté scientifique internationale), des chercheurs de l'université du Michigan emmenés par Mark Newman se sont posé une question : le monde est petit, d'accord, mais cela a-t-il été toujours le cas ?

Pour le savoir, ils se sont penchés sur l'un des événements majeurs du Moyen Âge, l'épidémie de Peste Noire qui a ravagé l'Europe au milieu du XIVe siècle et continue d'intéresser les chercheurs (nous avions évoqué une précédente étude, conduite par des biologistes, qui avait remonté l'arbre généalogie du bacille de la peste bubonique à partir de son ADN). La particularité de cette épidémie médiévale est sa dynamique de propagation : "débarquant" depuis les îles méditerranéennes à Marseille, elle a ensuite balayé l'Europe en une vague continue, du sud au nord, à une vitesse moyenne de 800 km par an, soit environ 2 km par jour. La diffusion de l'agent infectieux - par la piqûre d'une puce transposée par les rats ou les hommes - repose sur les contacts humains et dépend donc de la nature du réseau social qui les lie les uns aux autres, ce qui en fait un bon thermomètre de la "petitesse" du monde médiéval.

Lire la suite...

5 mars 2013

Les statistiques à l'assaut du manuscrit Voynich

Le manuscrit Voynich (ici, le soixante-dix-huitième feuillet) résiste encore aux linguistes, dont certains doutent qu'il s'agisse d'un texte authentique.

Il est passé entre les mains de Rodolphe II, empereur du Saint-Empire romain germanique, de Georg Baresch, alchimiste pragois, et des Jésuites italiens de la Villa Mondragone de Frascati avant d'atterrir en 1912 chez le collectionneur polonais Wilfrid Michael Voynich – qui lui a laissé son nom – et de finir sa course à la Bibliothèque Beinecke de l’université Yale, aux États-Unis. Outre un parcours tortueux, pourquoi le manuscrit Voynich et ses 234 pages de vélin finement illustrées à la plume d'oie (vous pouvez le feuilleter sur le site de la bibliothèque américaine), datant selon de récentes analyses au carbone 14 du début du XVe siècle, intrigue autant ? Car plus de cent ans après sa redécouverte, les linguistes restent incapables de dire en quelle langue a été rédigé ce bréviaire semblant évoquer la botanique, l'astronomie ou encore des recettes de cuisine. Trois hypothèses se font face : le manuscrit est un faux, sans aucune signification ; le texte, écrit dans une langue connue, est crypté ; le manuscrit est rédigé dans une langue inconnue à ce jour. Pour trancher ce débat, des chercheurs de l'Institut de physique de São Carlos (Brésil), épaulés par des compatriotes travaillant en Allemagne, ont passé le manuscrit Voynich à la moulinette statistique afin de connaître la vraie nature de ce mystère linguistique.

Depuis de nombreuses années, la littérature constitue l'un des terrains de jeu favoris des physiciens statisticiens (n'hésitez pas à lire à ce sujet le passionnant article de David Louapre sur les propriétés statistiques exceptionnelles de Moby Dick). Outre la fameuse loi de Zipf selon laquelle le vocabulaire employé dans tous les livres suit une même règle générale, relative à la fréquence des mots utilisés (et qui se vérifie pour le manuscrit Voynich), de nombreuses autres mesures permettent de distinguer un texte signifiant d'une suite stochastique de lettres. Luciano Costa et ses collègues ont ainsi défini une série de 29 grandeurs statistiques calculables pour un texte, comme la taille du lexique utilisé, l'intermittence des mots (les articles définis "le" ou "la" reviennent régulièrement, alors qu'un mot-clé, normalement rare, va se faire plus fréquent dans la portion du texte consacré à ce thème) ou encore la répétition d'un couple de mots dans le même ordre (certains couples vont réapparaître plus souvent que si les mots étaient répartis aléatoirement, car leur sens est associé).

Lire la suite...

25 septembre 2012

L'empreinte statistique de la fraude électorale

"Nous sommes une distribution normale", clame la pancarte de ce manifestant russe en décembre 2011, protestant contre les fraudes électorales.

À chaque scrutin dans un pays, disons "en voie de démocratisation", des myriades d'observateurs occidentaux se déplacent pour veiller à la sincérité du vote et tenter d’empêcher les fraudes électorales perpétrées par les pouvoirs autocratiques en place. Cela a été le cas notamment lors des élections législatives russes de décembre 2011, où les observateurs de l'Organisation pour la sécurité et la coopération en Europe (OSCE) avaient dénoncé des fraudes "fréquentes", contrairement à la Commission électorale russe. Pour trancher ce débat, des chercheurs de l'université de Vienne (Autriche) ont analysé les résultats d'une douzaine d'élections à travers le monde, à la recherche de critères statistiques fiables sur la régularité du vote.

L'équipe de Stefan Thurner s'est penchée sur les résultats de la présidentielle française de mai 2007, des élections générales espagnoles de mars 2008, ou encore des élections européennes de juin 2009 en Pologne, de la présidentielle en Ouganda de février 2011 ou des deux derniers scrutins organisés en Russie, les élections législatives de décembre 2011 et la présidentielle de mars 2012, qui a vu le retour de Vladimir Poutine au Kremlin. À cette occasion, les manifestants avaient brandi la loi de distribution normale dite de Gauss comme étendard d'une élection régulière. La fameuse "courbe en cloche" est sensée représenter la répartition des scores obtenus par chaque candidat dans l'ensemble des bureaux de vote : alors que l'essentiel des bureaux obtient un résultat voisin du score national final, certains bureaux s'écartent de cette moyenne (à la faveur ou défaveur du candidat), ceux-ci étant d'autant peu nombreux que l'écart enregistré est important. En cas de fraude, la courbe s'éloigne de cette distribution normale "habituelle", ce qui indiquerait l'insincérité du scrutin. Mais les statisticiens autrichiens pointent un défaut à cette technique : elle est dépendante de la taille des unités de vote prises en compte, que ce soient les bureaux de vote, les districts électoraux ou les régions plus importantes.

Lire la suite...

15 juillet 2012

En avant-première : les résultats des JO de Londres !

Alors que les jeux Olympiques vont s'ouvrir à Londres, un physicien prédit les prochains records du monde de natation et d'athlétisme.

Vous voulez connaître les chronos des prochains jeux Olympiques, qui débuteront le 27 juillet prochain à Londres ? Lâchez L'Équipe, et précipitez-vous sur la revue PLoS ONE. Filippo Radicchi, de l'université Rovira i Virgil de Tarragone (Espagne), y prédit les performances que réaliseront les médaillés d'or dans plus de cinquante disciplines, du 100 mètres au lancer de poids en passant par le relais 4 nages et le marathon. Le physicien fonde ses calculs sur les résultats des vingt-six premières Olympiades d'été : les progrès des performances auréolées d'or suivent une loi normale pour tendre vers une valeur indépassable. Ou quand la devise olympique Citius, Altius, Fortius percute le mur de la réalité statistique...

Une abondante littérature scientifique a décortiqué les statistiques sportives (voir par exemple Les physiciens de la NBA), et a à son tour alimenté d'autres études relatives à la physiologie des athlètes. À partir des temps obtenus en athlétisme au cours de l'année 1987, François Péronnet et Guy Thibault, deux chercheurs québécois, ont ainsi développé un modèle qui, à partir d'un nombre restreint de paramètres physiques (comme la puissance aérobie maximale ou l'endurance), permet d'estimer les performances limites des sprinteurs et autres coureurs de fond. D'après eux, le chrono d'un marathonien ne descendra jamais en dessous de 1 h 48 min 25, bien loin du record du monde aujourd'hui établi à 2 h 03 min 38.

Filippo Radicchi s'est concentré sur les performances obtenues aux jeux Olympiques dans 55 disciplines, en course à pied, natation, saut (à la perche ou en longueur) ou lancer ; il a étudié non pas l'évolution des résultats absolus mais les progrès relatifs enregistrés entre deux Olympiades pour décrocher la médaille d'or. Rapporté à une valeur asymptotique supposée, notée p, vers laquelle tendraient les performances dans une épreuve, ce progrès relatif aboutit à une valeur ξ2012 = (p2008 - p2012)/(p2008 - p), calculé ici entre les JO de 2008 et de 2012. Le physicien italien a montré que ces valeurs ξi sont distribuées selon une loi normale, bien connue en physique statistique.

Lire la suite...

- page 1 de 2