Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

La Recherche - Page 14

  • Mesurer la diversité: oui mais comment ?

     

     

    Depuis une vingtaine d'années, un important problème rencontré dans la conservation des espèces est la mesure de la diversité. Cette notion intervient pour savoir quelles espèces en priorité doivent être protégées. La possibilité d'une mesure de la diversité peut d'ailleurs s'étendre à de nombreux autres domaines.

    Le sujet contient en fait deux difficultés, la première est d'évaluer la diversité de deux éléments et de la convertir en une quantité que l'on pourrait assimiler à une distance, la seconde est d'évaluer la diversité d'un groupe en utilisant les "distances" deux à deux précédentes et de pouvoir la comparer à celle d'un autre groupe. C'est ce deuxième point que nous allons aborder ici et tenter d'établir s'il peut exister une définition axiomatique de la diversité, au sens de la comparaison de deux ensembles comportant le même nombre d'individus.

    Lire la suite

  • LES MATHÉMATIQUES EN FRANCE ET DANS LES SCIENCES

    RAPPORT sur LES MATHÉMATIQUES EN FRANCE ET DANS LES SCIENCES
    en présence des lauréats de la médaille Fields,
    MM. Ngô Bảo Châu et Cédric Villani,
    ainsi que du lauréat du prix Gauss, M. Yves Meyer
    Compte rendu de la réunion du 17 novembre 2010

    Par M. Claude Birraux, Député

    EXTRAIT

     

    M. Sylvestre Huet, journaliste à Libération.

    Nous restons un peu sur notre faim. Vous avez d’emblée évoqué les points forts sur lesquels s’est fondée la fameuse excellence de l’école française. Or l’organisation du système de recherche français a subi de grands bouleversements. Selon vous, cela aura-t-il des conséquences positives ou négatives, ou bien une combinaison des deux selon les différents aspects ? Peut-être faudrait-il parler d’autre chose que des médaillés Fields et des quelques autres récompensés, dont les cas sont certes singuliers mais qui sont limités sur le plan des effectifs. En d’autres termes, le nouveau système entraînera-t-il un maintien, un accroissement ou une diminution de la force de frappe des sciences utilisant des mathématiques ? Prenons un peu de recul historique : la France produit ni plus ni moins de docteurs ès sciences qu’en 1993, c’est-à-dire depuis longtemps, dans un contexte où certains pays moyens ou émergents sont dans une dynamique. Cette stagnation, qui frappe les mathématiciens mais aussi les physiciens, les chimistes, les biologistes et les spécialistes des sciences de la terre utilisant les mathématiques, peut-elle continuer ? Pouvons-nous rester dans cette ère, alors que tout le monde nous dit que le futur sera piloté par les sciences et techniques ? Cela me semble la question la plus cruciale ; je ne suis pas convaincu que l’enjeu, aujourd’hui, pour le système de recherche français, réside aux extrémités, école primaire d’un côté, Normale Sup’ de l’autre.


    M. Cédric Villani.

    Votre question est très difficile car elle fait appel à de la prédiction, exercice toujours délicat. Si j’ai bien compris, vous vous interrogez sur l’impact possible des réformes actuelles sur l’enseignement supérieur. Les bouleversements étant en cours, nous ne disposons pas du recul nécessaire pour savoir comme la situation évoluera. La loi instaurant l’autonomie des universités, notamment, a fait couler beaucoup d’encre. Je suis très favorable à l’autonomie mais beaucoup de gens ne pensent pas comme moi. En tout cas, tout le monde se reconnaît, je crois, dans le mouvement actuel de revalorisation de l’université en tant que lieu de travail et de production de science. Cela plaît particulièrement aux mathématiciens, pour lesquels une carrière normale, passionnante, consiste à travailler au contact des étudiants, à l’université ; celle-ci, pour nous, joue un rôle central.
    Ensuite, une divergence est sensible entre partisans de la centralisation et de l’autonomie. Personnellement, je pense que la gestion matérielle des universités ne peut se faire à distance, de manière abstraite, qu’elles ont absolument besoin d’un pilotage de terrain. La dimension politique locale est également primordiale. Quant aux effets à long terme, il est difficile de les prévoir.
    S’agissant des pays émergents, l’université chinoise de Fudan, que j’ai visitée il y a peu, possède un campus effrayant : les standards de qualité de vie sont équivalents à ceux de Stanford. Des sommes considérables sont manifestement investies année après année. Le niveau des élèves n’est évidemment pas le même qu’à Stanford mais l’attractivité est réelle. Peut-être la question des moyens est-elle vitale, les solutions sont souvent simples.

    M. Claude Birraux.

    La perception de la science et des scientifiques, en Chine, n’est sans doute pas tout à fait la même qu’en France. Certains, chez nous, considèrent que la science est malpropre et que, par conséquent, il ne vaut mieux pas en faire.


    M. Cédric Villani.

    Les sciences ne bénéficient en effet pas du même respect en Europe et en Asie. Et cela se répercute sur les dirigeants politiques : il est très fréquent, en Chine, que des anciens scientifiques occupent des postes très élevés ; c’est incontestablement beaucoup plus rare dans notre système.


    M. Yves Meyer.

    Pour répondre très clairement, j’ai toujours été animé par la passion de transmettre et j’ai commencé à enseigner dans le secondaire, avant de poursuivre, pendant quinze ans, en première année de premier cycle universitaire. Mes élèves n’étaient donc ni des médaillés Fields ni des écoliers. La tradition mathématique française, Cédric l’a dit, a consisté à transmettre le feu sacré. Mais cela suppose une réponse. Si aucun public ne vient assister à un concert, à qui en incombe la faute ? Même si le programme est merveilleux, il faut que la société soit au rendez-vous.

    La désaffection relative vis-à-vis des sciences traduit aussi la désaffection vis-à-vis de l’effort, mot pratiquement banni de l’enseignement secondaire actuel. Quand j’enseignais en lycée, de 1960 à 1963, je donnais un problème par semaine ; avec cent élèves et dix pages par copie, cela faisait mille pages à corriger et annoter chaque semaine, j’y consacrais mon samedi et mon dimanche. Aujourd’hui, quiconque ferait de même serait traité de bourreau. Les enseignants ne donnent qu’un problème par trimestre, parce que la notion d’effort a disparu.

  • Les maths vont devenir le nouveau microscope du XXIème siècle

    La difficulté de trier et de compter les précieuses cellules souches ainsi que leurs cousines cancéreuses a longtemps limité les scientifiques dans la recherche de nouveaux traitements et dans leur compréhension de certaines maldies.

    Une méthode de comptage efficace permet de mieux  saisir le comportement de maladies évolutives telles que Parkinson, Alzheimer et le cancer. Le principal problème est  en fait que ces deux types de cellules sont en proportions très faibles: 1/10000 voir 1/100000. L'idée est donc de développer un algorithme permettant de prévoir efficacement cette proportion.

    L'intégralité de l'article en anglais.

    Microscope

    BWJones

    En 2009, j'avais écrit un billet sur la création d'un cancer virtuel.

    On peut aussi regarder du coté des traitements  de chimiothérapie par exemple, qui peuvent être optimisés par la modélisation mathématique, sans "essais-ajustements" sur les malades. Il s'agit de déterminer les fréquences optimales d'administration d'un traitement permettant d'éviter deux seuils critiques, celui de la toxicité et celui de l'inefficacité. Voir par exemple ce travail.

    Les chercheurs se sont aussi posés la question de l'horaire d'administration des traitements dans la journée pour les adapter à l'horloge biologique de chacun. Voir ICI.

    Du micro au macro, il semble évident que la modélisation mathématique permet d'ajuster plus précisément le grossissement et la géométrie des lunettes du chercheur en biologie.

  • Billet destiné à tous ceux qui pensent que les blogueurs sont de gentils amateurs

    Algebraic Geometry (math.AG)

    • Secret Blogging Seminar (subsection) - Scott Carnahan (MIT, Cambridge-USA), Joel Kamnitzer (U. Toronto), Scott Morrison (UC Berkeley), Chris Schommer-Pries (UC Berkeley), Noah Snyder (UC Berkeley), David E. Speyer (MIT, Cambridge-USA), A.J. Tolland (UC Berkeley), Ben Webster (U. Oregon)

    Algebraic Topology (math.AT)

    • Secret Blogging Seminar (subsection) - Scott Carnahan (MIT, Cambridge-USA), Joel Kamnitzer (U. Toronto), Scott Morrison (UC Berkeley), Chris Schommer-Pries (UC Berkeley), Noah Snyder (UC Berkeley), David E. Speyer (MIT, Cambridge-USA), A.J. Tolland (UC Berkeley), Ben Webster (U. Oregon)

     

    Analysis of PDEs (math.AP)

     

    Classical Analysis and ODEs (math.CA)

    Category Theory (math.CT)

    • Secret Blogging Seminar (subsection) - Scott Carnahan (MIT, Cambridge-USA), Joel Kamnitzer (U. Toronto), Scott Morrison (UC Berkeley), Chris Schommer-Pries (UC Berkeley), Noah Snyder (UC Berkeley), David E. Speyer (MIT, Cambridge-USA), A.J. Tolland (UC Berkeley), Ben Webster (U. Oregon)
    • The n-Category Café - John Baez (UC Riverside), David Corfield (U. Kent, Canterbury), Urs Schreiber (U. Hambourg)

     

    Combinatorics (math.CO)

    • SymOmega - John Bamberg, Michael Giudici and Gordon Royle (University of Western Australia)

     

    Commutative Algebra (math.AC)

     

    Complex Variables (math.CV)

     

    Differential Geometry (math.DG)

    Dynamical Systems (math.DS)

     

    Functional Analysis (math.FA)

    • Epsilonica - Matthew Heath (IST, Lisbon, Portugal)

    General Mathematics (math.GM)

     

    General Topology (math.GN)

     

    Geometric Topology (math.GT)

    • Secret Blogging Seminar (subsection) - Scott Carnahan (MIT, Cambridge-USA), Joel Kamnitzer (U. Toronto), Scott Morrison (UC Berkeley), Chris Schommer-Pries (UC Berkeley), Noah Snyder (UC Berkeley), David E. Speyer (MIT, Cambridge-USA), A.J. Tolland (UC Berkeley), Ben Webster (U. Oregon)

     

    Group Theory (math.GR)

    • SymOmega - John Bamberg, Michael Giudici and Gordon Royle (University of Western Australia)

     

    History and Overview (math.HO)

     

    Information Theory (math.IT)

     

    K-Theory and Homology (math.KT)

     

    Logic (math.LO)

     

    Mathematical Physics (math.MP)

    • EMPG Blog - current members and alumni of the Edinburgh Mathematical Physics Group (Edinburgh, Heriot-Watt)
    • Secret Blogging Seminar (subsection) - Scott Carnahan (MIT, Cambridge-USA), Joel Kamnitzer (U. Toronto), Scott Morrison (UC Berkeley), Chris Schommer-Pries (UC Berkeley), Noah Snyder (UC Berkeley), David E. Speyer (MIT, Cambridge-USA), A.J. Tolland (UC Berkeley), Ben Webster (U. Oregon)

     

    Metric Geometry (math.MG)

     

    Numerical Analysis (math.NA)

     

    Number Theory (math.NT)

    • Noncommutative Geometry - Alain Connes (IHES, France), Masoud Khalkhali (U. Western Ontario), David Goss (Ohio State U.)
    • Secret Blogging Seminar (subsection) - Scott Carnahan (MIT, Cambridge-USA), Joel Kamnitzer (U. Toronto), Scott Morrison (UC Berkeley), Chris Schommer-Pries (UC Berkeley), Noah Snyder (UC Berkeley), David E. Speyer (MIT, Cambridge-USA), A.J. Tolland (UC Berkeley), Ben Webster (U. Oregon)

     

    Operator Algebras (math.OA)

    • Noncommutative Geometry - Alain Connes (IHES, France), Masoud Khalkhali (U. Western Ontario), David Goss (Ohio State U.)

     

    Optimization and Control (math.OC)

     

    Probability (math.PR)

    Quantum Algebra (math.QA)

     

    Representation Theory (math.RT)

    • Secret Blogging Seminar (subsection) - Scott Carnahan (MIT, Cambridge-USA), Joel Kamnitzer (U. Toronto), Scott Morrison (UC Berkeley), Chris Schommer-Pries (UC Berkeley), Noah Snyder (UC Berkeley), David E. Speyer (MIT, Cambridge-USA), A.J. Tolland (UC Berkeley), Ben Webster (U. Oregon)

     

    Rings and Algebras (math.RA)

     

    Spectral Theory (math.SP)

     

    Statistics (math.ST)

     

    Symplectic Geometry (math.SG)

     

    Problem-solving

    link title

     

    Software and publishing

     

    Popularization of mathematics

    • Numb3rs - Mark Bridger (Northwestern)

    Other applications of mathematics

     

    Miscellaneous / Uncategorized

     

    Theoretical Computer Science blogs

    Please see this page.

     

    Page source: ICI

  • La fin du kilo

    A 131 ans, après avoir survécu à deux guerres mondiales, l'étalon du kilogramme est plus que jamais menacé. Les chercheurs, qui veulent sa peau depuis plusieurs décennies déjà, ont peut être enfin trouvé le moyen de s'en débarrasser. Le National Institute of Standarts and Technology (NIST) semble avoir démontré que ses travaux permettront de redéfinir le kilogramme lors de la réunion du Comité International des Poids et Mesures (CIPM) à Paris en octobre. Une proposition en ce sens a reçu un avis favorable et elle devrait être sérieusement étudiée lors de la Conférence Générale des Poids et Mesures (CGPM) qui se tiendra en octobre 2011.


    Pourquoi vouloir remplacer ce cylindre de platine et d'iridium qui semble imperméable aux effets du temps ? Justement, tout est dans le "semble". En réalité, chaque année, l'étalon du kilogramme prend du poids ! Un microgramme environ. Il existe un protocole de nettoyage mais rien n'assure que la séance d'amaigrissement fonctionne parfaitement. Etant l'étalon, sa masse officielle est toujours théoriquement d'un kilogramme. Conclusion, quand il grossit, ce sont en fait toutes les balances du monde qui se trouvent déréglées.

    Un microgramme, cela ne parait pas beaucoup. Mais pour assurer la précision et la reproductibilité des mesures scientifiques, cette variation est beaucoup trop importante. De plus, l'étalon matériel international, conservé à Paris, peut être détruit et il n'est pas facilement reproductible. Chaque pays possède une copie, un étalon national, qui sert à faire de nouvelles copies qui peuvent ensuite être utilisées pour calibrer balances et autres instruments de mesure. A chaque reproduction, la précision de l'étalon obtenu baisse. Il faut donc trouver une manière de dématérialiser cet étalon, c'est-à-dire d'en donner une définition qui permette de produire un kilogramme facilement et avec une excellente précision.

    Les chercheurs n'en sont pas à leur première victime. Il y a tout juste 50 ans, lors de la 11ème CGPM [1] le Système International d'Unité (SI) était établit. Au passage, la définition du mètre était modifiée permettant de se débarrasser de l'étalon matérialisé en 1889 sous forme d'un barreau de platine et d'iridium d'un mètre de long.

    Les constantes fondamentales : la voie de la dématérialisation

    Sept unités de base forment le système international : le mètre (longueur), la seconde (durée), le kilogramme (masse), l'ampère (courant électrique), le kelvin (température), la mole (quantité de matière) et la candela (intensité lumineuse) [2]. Elles sont indépendantes et permettent d'exprimer toutes les autres grandeurs mesurées. La vitesse par exemple s'exprime en mètres par seconde. Le SI a été adopté par tous les pays du monde à l'exception du Liberia, du Myanmar et... des Etats-Unis ! Intéressant de voir donc que malgré cela, le NIST concentre une partie de ses activités sur le SI.

    Pour atteindre une précision maximale dans la définition des étalons pour chaque unité du système international, il faut utiliser des repères les plus stables possibles. Les progrès de la physique ont permis de découvrir ces repères stables dans la nature : les constantes fondamentales. Ces grandeurs sont considérées, dans les théories actuelles, comme invariables dans le temps et dans l'espace. La vitesse de la lumière en est un exemple. En 1960, la seconde étant définie de manière relativement précise, il a suffit de fixer la vitesse de la lumière pour définir le mètre. Et ainsi se débarrasser du barreau de platine iridié. Le mètre est maintenant défini comme la distance parcourue par la lumière pendant une durée de 1/299 792 458 seconde.


    Cet exemple montre que, bien que les unités soient indépendantes, la définition d'un étalon peut faire appel aux autres unités. A l'heure actuelle par exemple, les définitions de la mole, de l'ampère et de la candela font appel au kilogramme (figure 2). L'imprécision sur l'étalon du kilogramme implique donc aussi une imprécision sur les autres unités.

    Le kilogramme, dernière unité à dématérialiser

    Pour pouvoir définir les sept unités de base, il faut fixer la valeur de sept constantes fondamentales. Leur choix dépend des protocoles expérimentaux qui permettent de produire les étalons. Connaissant la relation mathématique entre fréquence et longueur d'onde d'une onde monochromatique - impliquant la vitesse de la lumière - il est possible de produire un étalon du mètre avec un laser, si la seconde est bien définie et si la vitesse de la lumière est fixée. Dans ce cas, il y a une dépendance unique entre mètre et seconde et donc besoin d'une seule constante. Etant donné les relations de dépendance entre étalons, la dématérialisation du kilogramme implique de fixer la valeur de plusieurs constantes fondamentales en même temps.

    Avant de fixer des constantes simultanément, il faut s'assurer que les différents protocoles expérimentaux mis en place pour définir les étalons assurent une définition assez précise de la valeur de chaque constante. Cela est important aussi pour éviter une variation trop forte entre l'étalon actuel et l'étalon futur. Et c'est justement là que le bât blesse. Les protocoles expérimentaux en place ne permettaient pas jusqu'à présent d'atteindre un assez bon niveau de précision. Mais les efforts de ces dernières années semblent enfin être payants.


    Au NIST, les chercheurs travaillent sur une expérience qui pourrait permettre de dématérialiser le kilogramme : la balance de Watt (figure 3). Il s'agit d'un instrument qui utilise différentes lois physiques pour convertir l'effet d'une masse en un effet électromagnétique mesurable [3]. Les calculs décrivant cette conversion permettent de définir le kilogramme en fonction de la constante de Planck. Une autre méthode concurrente, notamment soutenue par les australiens [4], consiste à fabriquer une sphère contenant précisément une mole de silicium nécessitant alors de fixer la constante d'Avogadro. Il existe donc des enjeux diplomatiques importants dans les négociations qui vont conduire à l'adoption d'une nouvelle définition.

    Il semble au final que les limitations sur la précision de la balance de Watt soient aujourd'hui levées ouvrant la voie à une nouvelle définition du kilogramme et la naissance d'un étalon dématérialisé. Pour assurer la réalisation de cette définition, une dernière difficulté demeure. Il reste à assurer le développement des balances de Watt afin de permettre à chaque pays de bénéficier d'une manière de produire un étalon fiable. Cependant, cela n'empêchera sans doute pas le kilogramme de disparaître très prochainement.


    http://www.bulletins-electroniques.com/actualites/65008.htm