En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.
La Joie est le Chemin. Depuis février 2025, ce blog explore le Flux Intégral et Kernésis. Il est personnel et est constitué exclusivement de mes notes.
La voie la plus simple pour répondre à la question est de dire que par définition 0 est ou n'est pas un entier naturel. En mathématiques, il est possible de poser la définition que l'on souhaite. Celle-ci se trouve marquée dans le marbre et interdit toute négociation possible. Considérons par exemple la construction de l'ensemble des entiers naturels de façon axiomatique. Le premier axiome dit que 0 appartient à cet ensemble. 0 sera ensuite défini comme le plus petit élément de cet ensemble par un axiome suivant.
L'ambiguité sur la présence du zéro dans l'ensemble des entiers naturels est abordée très clairement dans l'article de Wikipédia sur le sujet:
Au début :
En mathématiques, un entier naturel est un nombre positif (ou nul) permettant fondamentalement de dénombrer des objets comptant chacun pour un. Un tel nombre entier peut s'écrire avec une suite finie de chiffres en notation décimale positionnelle, sans signe et sans partie fractionnaire, c'est-à-dire sans chiffre « après la virgule ».
Les entiers naturels sont donc, outre zéro, ceux que l'on commence à énumérer avec la comptine numérique : un, deux, trois, quatre…
Au milieu :
Pour lever l'ambiguïté au sujet de la prise en compte de zéro comme entier naturel, l'ensemble est parfois noté « N0 ». L'indice 1 dénote alors au contraire l'exclusion de zéro. Mais l'usage consacre plus souvent pour cette restriction l'ajout d'un astérisque en exposant.
N
Différentes notations pour l'ensemble des entiers, comprenant ou non zéro.
............
...........
C'est encore plus flagrant dans l'article anglophone, qui juste après la présentation, aborde la question de l'histoire des nombres naturels et le statut du zéro.
Afin de mieux cerner où se situe l'ambiguité, il est nécesssaire de revisiter les notions de nombres cardinaux et de nombres ordinaux.
Voilà une bonne question et si on la pose à M. Google voilà ce qu'il nous répond ou plutôt ce que les principaux utilisateurs de forums nous répondent.
Bon allez, en fonction de la tête du joueur, de l'âge de celui qui répond et ses connaissances tennistiques on voit apparaître les noms de Nadal, de Federer, de Börg, de Mac Enroe, Wilander, Edberg et cela seulement en consultant le premier lien précédent.
J'ai toujours révé de me faire interroger sur la question par un vrai journaliste sportif. Ah, tiens je le vois arriver.
Le journaliste sportif - Bonjour, vous êtes Webmaster des Inclassables Mathématiques et passionné de tennis.
Moi - C'est ça oui.
Moi (dans ma tête) - J'adore qu'on m'appelle Webmaster avec un W majuscule.
Le journaliste sportif - Alors pour vous quel est le meilleur joueur de tennis de tous les temps?
Moi - Personnellement, je dirai Jimmy Connors à cause de ça:
Le journaliste sportif - Je vois qu'en fait vous êtes très attaché à Connors car c'est un excellent showman mais objectivement, rationnellement, rien ne vous permet de dire que Jimmy Connors est le meilleur joueur de tous les temps.
Moi (dans ma tête) - Le journaliste ne doit sans doute pas savoir que je suis prof de maths et que je peux apporter des arguments mathématiques et rationnels.
Moi - Il faudrait en fait que je vous explique comment faire une analyse du réseau complexe de l'histoire du tennis professionnel depuis 1968 mais je ne sais pas si vous vous sentez d'attaque (de coup droit bien sûr).
Rires (en plus je fais rire le journaliste sportif, je suis aux anges...)
Moi -Alors allons-y.
Nous allons tout d'abord définir les conditions de l'analyse. Nous prendrons en compte les résultats de tous les matchs joués par les joueurs de tennis professionnels entre 1968 et 2010. Tous les matchs du Grand Chelem et ceux intervenant dans le classement ATP seront pris en compte, soit au total 3700 joueurs, 3640 tournois et 133 261 matches.
Si le nombre de tournois est assez régulier avec cependant des pics en 1980 et 1992 avec plus de 90 tournois par an, le nombre de joueurs ne cesse de décroître linéairement depuis 1996 et est passé de 400 environ à 300, comme l'indique le graphique suivant:
Le graphique suivant indique la proportion de de joueurs ayant remporté ou perdu un nombre donné de matches. On voit que beaucoup de joueurs gagnent ou perdent peu de matches (en fait ils quittent les tournois rapidement. A l'autre bout, un petit groupe de joueurs (les meilleurs) jouent beaucoup de matches qu'ils gagnent généralement contre les plus faibles et aussi entre eux qu'ils gagnent ou qu'ils perdent, connu sous le nom d'effet Matthew (les pauvres deviennent plus pauvres et les riches plus riches).
Nous allons ensuite construire le graphe des rencontres. Il sera orienté (une flèche sera "tracée" à chaque victoire du joueur j vers le joueur i) et pondérée par le nombre de défaites du joueur j contre le joueur i.
Le graphique suivant est un sous-graphe extrait de celui de tous les joueurs concernant ceux qui ont été premier au classement ATP. L'intensité et la largeur d'une flêche sont proportionnelles au logarithme de son importance (poids).
La représentation de ce résau peut être utilisée pour classer les joueurs en calculant pour chacun leur taux de "Prestige" dont la somme serait égale à 1. Celà n'est pas sans rappeler la méthode de calcul du PageRank pour classer les pages Web.
Le prestige d'un joueur i représente la fraction de prestige totale de l'état d'équilibre du graphe dans un processus de diffusion. Pour expliquer en termes un peu plus simples, chaque nouveau résultat d'un matche modifie le "prestige" des deux compétiteurs puis par diffusion celui de tous les joueurs. Les mathématiques nous indiques que ce calcul converge vers un équilibre permettant de calculer le nouveau "Prestige" de tous les joueurs du graphes. Par exemple un joueur k qui a gagné contre le joueur i qui vient lui même de remporter un matche contre un adversaire fort voit son prestige augmenter.
Comme dans le cas du PageRank, il est nécessaire de fixer la valeur d'un paramètre (c pour le PageRank, q ici). La valeur a été choisie dans les deux cas.
Le graphique suivant indique le prestige en fonction du nombre de victoires (jusqu'à 7) pour différentes valeurs du paramètre q. Le choix de 0.15 est "traditionnel" et équilibré.
Plus le nombre de matchs gagné est grand plus le prestige est grand. Cependant, le nombre de match gagnés augmentant, le niveau de prestige doit être recalculé en implémentant une condition dite de normalisation, imposant qu'une quantité donnée soit constante. Elle permettra ainsi de définir un Prestige de référence a partir duquel tous les autres pourront être caculés. Cette condition impose que la somme des produits du nombre de victoires par le prestige pour chaque joueur soit égal à 1.
Et le résultat est bien celui que je vous avais donné. Jimmy Connors est bien le meilleur joueur de tous les temps:
Le journaliste sportif - C'est certainement aussi celui qui a gagné le plus grand nombre de matches, c'est à dire dont la carrière a été la plus longue. Et les joueurs dont la carrière est terminée sont favorisés par rapport aux autres qui sont en cours de carrière. Alors pour ce qui est de la rationnalité de votre méthode de calcul permettez moi d'en douter.
Moi (un peu embarassé par les arguments du journaliste) - Burp, c'est à dire que en fait... Vous voyez, il ne faut pas confondre le nombre de victoires et le prestige. Rafael Nadal par exemple serait classé 40 ème au nombre de victoires alors qu'il est à la 24 ème position dans notre classement. C'est aussi visible pour Björn Borg qui a eu une carrière plus courte que la moyenne et est cependant classé dans le top 10 de notre classement. Pour ce qui est de la carrière en cours d'un certain nombre de joueurs, vous avez remarqué qu'il y a un biais. On peut penser à un classement annuel qui diffère parfois du classement ATP et IDF.
Il est possible aussi de penser à un classement par type de surface qui donnerait Jimmy Connors gagnant pour l'herbe et Andre Agassi pour les surfaces dures. Si l'on considère le meilleur joueur des tournois en terre battue c'est Guillermo Villas.
En faisant le calcul par décennie, Jimmy Connors est le meilleur pour les années 70, Ivan Lendl pour les années 80, Pete Sampras pour les années 90 et Roger Federer pour les anées 2000.
Le classement par "Prestige" est donc une nouvelle forme de classement qui ne coïncide d'ailleurs pas toujours avec les classements techniques et qui permet en outre de faire des comparaisons sur des temps longs.
Le journaliste sportif - Merci, je crois que j'ai tout compris, enfin la partie non technique. Vos inclassables mathématiques ont prouvé leur incroyable efficacité et ont eu raison de mes inclassables joueurs de tennis.
A 131 ans, après avoir survécu à deux guerres mondiales, l'étalon du kilogramme est plus que jamais menacé. Les chercheurs, qui veulent sa peau depuis plusieurs décennies déjà, ont peut être enfin trouvé le moyen de s'en débarrasser. Le National Institute of Standarts and Technology (NIST) semble avoir démontré que ses travaux permettront de redéfinir le kilogramme lors de la réunion du Comité International des Poids et Mesures (CIPM) à Paris en octobre. Une proposition en ce sens a reçu un avis favorable et elle devrait être sérieusement étudiée lors de la Conférence Générale des Poids et Mesures (CGPM) qui se tiendra en octobre 2011.
Pourquoi vouloir remplacer ce cylindre de platine et d'iridium qui semble imperméable aux effets du temps ? Justement, tout est dans le "semble". En réalité, chaque année, l'étalon du kilogramme prend du poids ! Un microgramme environ. Il existe un protocole de nettoyage mais rien n'assure que la séance d'amaigrissement fonctionne parfaitement. Etant l'étalon, sa masse officielle est toujours théoriquement d'un kilogramme. Conclusion, quand il grossit, ce sont en fait toutes les balances du monde qui se trouvent déréglées.
Un microgramme, cela ne parait pas beaucoup. Mais pour assurer la précision et la reproductibilité des mesures scientifiques, cette variation est beaucoup trop importante. De plus, l'étalon matériel international, conservé à Paris, peut être détruit et il n'est pas facilement reproductible. Chaque pays possède une copie, un étalon national, qui sert à faire de nouvelles copies qui peuvent ensuite être utilisées pour calibrer balances et autres instruments de mesure. A chaque reproduction, la précision de l'étalon obtenu baisse. Il faut donc trouver une manière de dématérialiser cet étalon, c'est-à-dire d'en donner une définition qui permette de produire un kilogramme facilement et avec une excellente précision.
Les chercheurs n'en sont pas à leur première victime. Il y a tout juste 50 ans, lors de la 11ème CGPM [1] le Système International d'Unité (SI) était établit. Au passage, la définition du mètre était modifiée permettant de se débarrasser de l'étalon matérialisé en 1889 sous forme d'un barreau de platine et d'iridium d'un mètre de long.
Les constantes fondamentales : la voie de la dématérialisation
Sept unités de base forment le système international : le mètre (longueur), la seconde (durée), le kilogramme (masse), l'ampère (courant électrique), le kelvin (température), la mole (quantité de matière) et la candela (intensité lumineuse) [2]. Elles sont indépendantes et permettent d'exprimer toutes les autres grandeurs mesurées. La vitesse par exemple s'exprime en mètres par seconde. Le SI a été adopté par tous les pays du monde à l'exception du Liberia, du Myanmar et... des Etats-Unis ! Intéressant de voir donc que malgré cela, le NIST concentre une partie de ses activités sur le SI.
Pour atteindre une précision maximale dans la définition des étalons pour chaque unité du système international, il faut utiliser des repères les plus stables possibles. Les progrès de la physique ont permis de découvrir ces repères stables dans la nature : les constantes fondamentales. Ces grandeurs sont considérées, dans les théories actuelles, comme invariables dans le temps et dans l'espace. La vitesse de la lumière en est un exemple. En 1960, la seconde étant définie de manière relativement précise, il a suffit de fixer la vitesse de la lumière pour définir le mètre. Et ainsi se débarrasser du barreau de platine iridié. Le mètre est maintenant défini comme la distance parcourue par la lumière pendant une durée de 1/299 792 458 seconde.
Cet exemple montre que, bien que les unités soient indépendantes, la définition d'un étalon peut faire appel aux autres unités. A l'heure actuelle par exemple, les définitions de la mole, de l'ampère et de la candela font appel au kilogramme (figure 2). L'imprécision sur l'étalon du kilogramme implique donc aussi une imprécision sur les autres unités.
Le kilogramme, dernière unité à dématérialiser
Pour pouvoir définir les sept unités de base, il faut fixer la valeur de sept constantes fondamentales. Leur choix dépend des protocoles expérimentaux qui permettent de produire les étalons. Connaissant la relation mathématique entre fréquence et longueur d'onde d'une onde monochromatique - impliquant la vitesse de la lumière - il est possible de produire un étalon du mètre avec un laser, si la seconde est bien définie et si la vitesse de la lumière est fixée. Dans ce cas, il y a une dépendance unique entre mètre et seconde et donc besoin d'une seule constante. Etant donné les relations de dépendance entre étalons, la dématérialisation du kilogramme implique de fixer la valeur de plusieurs constantes fondamentales en même temps.
Avant de fixer des constantes simultanément, il faut s'assurer que les différents protocoles expérimentaux mis en place pour définir les étalons assurent une définition assez précise de la valeur de chaque constante. Cela est important aussi pour éviter une variation trop forte entre l'étalon actuel et l'étalon futur. Et c'est justement là que le bât blesse. Les protocoles expérimentaux en place ne permettaient pas jusqu'à présent d'atteindre un assez bon niveau de précision. Mais les efforts de ces dernières années semblent enfin être payants.
Au NIST, les chercheurs travaillent sur une expérience qui pourrait permettre de dématérialiser le kilogramme : la balance de Watt (figure 3). Il s'agit d'un instrument qui utilise différentes lois physiques pour convertir l'effet d'une masse en un effet électromagnétique mesurable [3]. Les calculs décrivant cette conversion permettent de définir le kilogramme en fonction de la constante de Planck. Une autre méthode concurrente, notamment soutenue par les australiens [4], consiste à fabriquer une sphère contenant précisément une mole de silicium nécessitant alors de fixer la constante d'Avogadro. Il existe donc des enjeux diplomatiques importants dans les négociations qui vont conduire à l'adoption d'une nouvelle définition.
Il semble au final que les limitations sur la précision de la balance de Watt soient aujourd'hui levées ouvrant la voie à une nouvelle définition du kilogramme et la naissance d'un étalon dématérialisé. Pour assurer la réalisation de cette définition, une dernière difficulté demeure. Il reste à assurer le développement des balances de Watt afin de permettre à chaque pays de bénéficier d'une manière de produire un étalon fiable. Cependant, cela n'empêchera sans doute pas le kilogramme de disparaître très prochainement.
La formation cardiaque se fait grâce à un réseau de gènes communicant entre eux. Ce réseau moléculaire a été cartographié pour la première fois, et leur ressemblance avec les réseaux sociaux type Facebook est frappante. Cette découverte surprenante a été faite par un groupe de chercheurs mené par des scientifiques danois, et influera certainement sur notre compréhension des maladies cardiaques, mais aussi sur celle de maladies telles que la schizophrénie, l'autisme ou encore la démence. De plus, les résultats pourraient montrer la voie pour de nouveaux traitements tels que les thérapies cellulaires.
Des chercheurs de l'Université de Copenhague, en collaboration avec l'Université Technique du Danemark, la Harvard Medical School et le Massachusetts Institute Of Technology ont analysé le développement cardiaque foetal, en utilisant des supers ordinateurs. Ils ont ainsi pu observer comment des centaines de gènes différents se coordonnent pour donner des réseaux de communication moléculaires au cours du développement cardiaque.
"A notre grande surprise, il semblerait que ces réseaux suivent les mêmes lois mathématiques qu'Internet et que les réseaux sociaux tels facebook," expliquent les directeurs de projet à l'origine de ce travail, Kasper Lage de la Harvard Medical School et du Massachussetts Institute of Technology, et Lars Allan Larsen, du Centre Wilhelm Johannsen pour la Recherche sur le Génome Fonctionnel, de l'Université de Copenhague. "Nous avons utilisé le développement cardiaque comme modèle, car le coeur est bien décrit et que beaucoup de données sont disponibles. D'ailleurs, ce processus est généralisable à tous les organes vitaux, tels que le cerveau, le foie ou les reins. Ce sont des processus qui sont loins d'être compris, car ils sont basés sur des interactions compliquées entre des centaines de gènes qui communiquent dans le temps et dans l'espace. L'élucidation de ces principes biologiques de base permettra d'augmenter nos connaissances sur le développement des organes, et facilitera ainsi le développement de nouveaux traitements tels que les traitements par les cellules souches ou d'autres types de médecine régénérative."
Søren Brunak, du Centre d'Analyse biologique séquentielle de l'Université technique du Danrmark, explique la méthode utilisée pour cette découverte : " l'utilisation de supers ordinateurs nous a permis d'intégrer de grandes quantités de données de milliers d'expériences précédentes. Ainsi, nous avons cartographié les réseaux moléculaires dirigeant le développement cardiaque, qui sont défectueux dans les maladies cardiaques. Nous avons effectué des expériences à la suite de ces analyses, qui ont confirmé la structure des réseaux calculée par l'ordinateur.
Cette découverte donne aussi un aperçu des mécanismes coordonnant le développement et l'entretien du cerveau, même si celui-ci est bien plus compliqué que le coeur. Niels Tommerup, du Centre Wilhelm Johannsen pour la Recherche sur le Génome Fonctionnel, explique : "Nous pouvons maintenant utiliser la même stratégie pour caractériser les réseaux moléculaires complexes qui sont interrompus chez les patients souffrant de dépression, démence, schizophrénie, autisme, épilepsie ou hyperactivité."
Les résultats de ces travaux ont été publiés dans la revue scientifique Molecular Systems Biology.