Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

La Recherche - Page 31

  • Des mathématiciens tentent de sauver Venise de la montée des eaux

    Soulever le sol de Venise de plusieurs centimètres en injectant d'énormes quantités d'eau de mer dans son sous-sol. C'est le projet sur lequel travaille depuis plusieurs années une équipe de ma­thématiciens et modélisateurs de l'université de Padoue (Italie). En 2004, ils en ont déjà présenté les grandes lignes dans une première étude, n'hésitant pas à affirmer que l'injection de fluide en sous-sol pourrait permettre d'empêcher les inondations qui envahissent régulièrement la cité des Doges durant l'automne et le printemps la trop fameuse acqua alta. Plusieurs experts s'étaient montrés sceptiques. En effet, l'assiette sur laquelle Venise est construite, est très fragile. Or, si le soulèvement est inégal, il pourrait causer de graves dégâts, voire des fissures irréparables à certains bâtiments.

    Les mathématiciens de l'université de Padoue ont donc revu leur copie. Ils projettent de tester leurs hypothèses dans une zone de la lagune proche de Venise (Water Resources Research, vol 44, 5 janvier 2008). Plus modestes et réalistes, ils soulignent que l'injection d'eau à grande profondeur pourrait contribuer à améliorer l'efficacité du projet Moïse (Mose en italien, acro­nyme de MOdulo Sperimentale Elettromeccanico). C'est habile car ce système d'écluses pivotantes est très décrié en raison de son prix exorbitant (plus de 4 milliards d'eu­ros). Sa construction devrait être terminée en 2011, mais plusieurs spécialistes affirment déjà qu'il ne permettra pas d'endiguer la montée du niveau de la mer qui devrait s'accentuer au cours du prochain siècle.

    Un Article du Figaro.fr : ICI

  • Des matheux pour compter les morts dans les conflits

    01eb5a7647640f075a3948f69f53d2f1.jpgC'est le titre d'un article de l'hebdomadaire " Courrier International " n° 896 du 2 janvier 2008. Cet article s'appuie lui-même sur un sujet traité par "New Scientist". Le texte n'est malheureusement pas disponible en ligne. Je consacre donc cette note à sa synthèse.


    Évaluer le nombre de morts de la Seconde Guerre Mondiale : les historiens avancent le chiffre de 50 millions d'individus, mais les estimations varient suivant les méthodes utilisées et les sources entre 41 et 70 millions.

    Consulter le registre des armées n'est pas suffisant pour comptabiliser ces pertes, il faut aussi inclure dans les conséquences des conflits, les décès causés par la malnutrition et les épidémies. Comment interpréter un logement vacant? Est-ce la mort des résidents ou leur exode qui en est la cause?

    L'évaluation de l'impact d'un conflit ou la décision d'une aide humanitaire d'urgence se trouvent confrontées à ces obstacles. Une simple erreur d'estimation peut laisser des civils sans nourriture ou des crimes de guerre peuvent passer inaperçus.

    En temps de paix, les informations sont collectées par le recensement. On peut même utiliser le confort du téléphone pour y accéder. Mais en temps de guerre, ce travail est beaucoup plus difficile et dangereux. Dans la pratique, la technique dite d'"échantillonnage par grappe" est utilisée. Celle-ci a été développée à l'origine pour évaluer l'impact des campagnes de vaccination. Les grappes sont des échantillons géographiquement déterminés représentatifs de la population et de sa densité. Des relevés au hasard sont effectués. Pour se faire, des équipes scientifiques doivent se déplacer sur les lieux, en étant la plupart du temps accompagnées par des gardes armés afin d'interroger les individus ou constater leur absence. Sans de sérieuses précautions ou lorsque la vigilance des enquêteurs s'affaiblit, ces chercheurs peuvent être confondus avec des agents du camp adverse et violentés. C'est d'ailleurs ce qui est arrivé, à deux membres d'une équipe norvégienne, en 1992 au Mali.

    Chaque jour des scientifiques risquent leur vie dans les régions les plus violentes du monde pour exercer leur métier mal connu du grand public: déterminer le nombre de victimes d'un conflit de la façon la plus rigoureuse possible.

    De la qualité de ces études dépend l'utilisation que l'on peut en faire. C'est par exemple l'une d'entre elles qui a servi à juger Slobodan Milosevic.

    La difficulté de prélèvement des informations sur le terrain n'est pas la seule. Les autorités des pays concernés par les enquêtes peuvent voir d'un très mauvais oeil des statistiques qui ne leur conviennent pas, pouvant nuire à leur image ou à celle de leur pays. La publication des résultats se voit freinée ou même interdite, d'autant plus que ces états sont souvent partenaires et détiennent les cordons de la bourse.

    Les ONG sont souvent les plus proches du terrain pour réaliser ces enquêtes, mais elles manquent de temps et de moyens pour les effectuer dans de bonnes conditions. En 2002, une analyse d'enquêtes a permis de suivre celles qui ont été réalisées par 9 ONG différentes sur 67 grappes d'individus. Il s'est avéré que seulement 6 d'entres elles étaient suffisamment rigoureuses. Ce manque de rigueur est d'ailleurs souvent  avancé pour discréditer les enquêtes et leurs résultats lorsqu'ils ne sont pas conformes aux attentes.

    Une étude sur la mortalité en Irak après l'invasion américaine de 2003 par des chercheurs du Maryland et des irakiens a été publiée dans The Lancet. Dans 47 grappes d'individus, on a sélectionné au sein de chacune, 40 familles qui ont été interrogées. Le résultat de l'enquête est effrayant, puisqu'avec cette méthode, le nombre de morts estimé serait de 655 000 au lieux des quelques dizaines de milliers couramment évoqués.  G W Bush et Tony Blair ont écarté les résultats de cette enquête embarrassante. Certains opposants se sont même attaqués à la méthode elle-même. Parmi toutes les critiques évoquées, les spécialistes de la question ont émis les critiques les plus justifiées par rapport aux autres. Ils ont soulevé le problème du "biais de l'artère principale" qui pourrait être une source potentielle d'erreurs.  Il se résume ainsi : dans chaque grappe urbaine, les ménages sont sélectionnés à partir d'une rue commerçante, puis dans une rue perpendiculaire résidentielle une maison est choisie au hasard afin de débuter l'enquête de terrain. Il pourrait y avoir ici, selon certains chercheurs, un impact sur les résultats de l'enquête en avançant comme argument que les rues coupant les artères principales sont privilégiées au dépend de rues plus éloignés faisant moins l'objet de combats. Cet argument est réfuté par les initiateurs de l'enquête qui affirment la pertinence de leur processus de sélection.

    ce08fced16bb07bb12641231ff20508d.gifLe débat reste ouvert en attendant de futures publications sur le sujet. Malgré cela les scientifiques continuent à exercer leur dangereux métier, dont la principale motivation est "de permettre à ceux qui se trouvent dans ces situations de se faire entendre".

  • Le CNRS s'équipe du 3ème plus grand supercalculateur au monde

    En juin 2007, je faisais une note sur Ter@tec, le pôle européen du calcul haute performance qui pouvait réunir une puissance inférieure à 100 TéraFlops : ICI , ceci étant à mettre en rapport avec les capacités des supercalculateurs étrangers : ICI qui comptent déjà en PétaFlops

    La situation française et donc européenne évolue :

    Le CNRS et IBM vont mettre à la disposition des chercheurs un très puissant supercalculateur pour mener à bien des simulations numériques et des calculs de haute performance, approche essentielle pour la recherche scientifique du 21ème siècle. Le CNRS propulse la France au premier plan européen et dans le peloton de tête des pays pour la puissance de calcul scientifique : un atout décisif pour notre recherche dans un contexte compétitif en termes d'enjeux économiques et sociétaux.

    Le CNRS fait sa révolution et passe d’une puissance de 6,7 Teraflops à un total de 207 Teraflops.

    L'article complet :ICI

    Même si nous ne sommes pas encore arrivés aux performances des meilleurs calculateurs mondiaux, la situation s'améliore très nettement en vue du passage aux PétaFlops.

    Plus d'infos sur les Supercalculateurs : ICI

  • SAGE : un logiciel libre de mathématiques

    Jusqu'à maintenant, un étudiant devant  résoudre un problème de calcul, un physicien modélisant une galaxie ou un mathématicien qui étudie une équation complexe devaient utiliser de puissants programmes informatiques qui coûtent des centaines ou des milliers de dollars. Mais un outil open-source basé à l'Université de Washington a remporté récemment le premier prix dans la catégorie des logiciels scientifiques des Trophées du Libre, un concours international de logiciel libre.

    Ce logiciel appelé SAGE dévoile son code source et est disponible à tous, comme Firefox, Linux ou Open-Office.

    Au cours de ces  trois dernières années, plus d'une centaine de mathématiciens du monde entier ont travaillé ensemble avec Stein pour construire cet outil convivial qui allie  puissance et nouvelles fonctionnalités, telles que des feuilles de travail collaboratives en ligne.

    Sage peut prendre la place des logiciels commerciaux couramment utilisés dans l'enseignement des mathématiques, dans les grands laboratoires publics et en mathématiques de pointe. Ce programme peut tout faire et même calculer la répartition des pluies lors du réchauffement de la planète.

    L'article en Anglais : ICI

    Le site du logiciel SAGE ( environ 720 Mégas Zippés ! ) : ICI

  • Un ordinateur a réalisé la factorisation de 15 = 3x5

    Ce n'est pas une très grande prouesse  de réaliser la factorisation de 15 en un produit de facteurs premiers, c'est à dire d'écrire 15 = 3x5. D'autant plus lorsque l'on sait qu'il aura fallu non pas une mais deux équipes de chercheurs pour arriver à ce résultat....
    Ce calcul ne serait pas une très grande victoire pour un ordinateur classique ni pour un enfant, c'est cependant la première fois qu'un tel calcul a été réalisé avec des photons et un ordinateur quantique.

    En 1994, Peter Shor a trouvé un algorithme mathématique exploitant les propriétés du calcul quantique qui permet de trouver la factorisation en nombres premiers d’un entier donné. En cryptologie, c’est extrêmement important. Il se trouve qu’un ordinateur quantique employant cet algorithme ferait mieux et plus vite qu’un ordinateur classique. De manière générale, ces ordinateurs seraient capables de prouesses à faire pâlir (s’ils le pouvaient...) les ordinateurs classiques. C’est un enjeu de la recherche actuelle que de créer un ordinateur quantique vraiment performant mais on n’y est pas encore.

    L'article de Futura-Sciences : ICI