Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

  • Le rêve d'Euclide: Promenades en géométrie hyperbolique de Maurice Margenstern

     

    Le rêve d'Euclide, c'est une promenade spacio-temporelle dans l'univers de la géométrie hyperbolique, ce monde fascinant et difficilement accessible.

    Maurice Margenstern tente de nous en rapprocher, avec des graphiques, en nous contant la longue histoire de cette drôle d'idée que des parallèles pourraient se couper en plusieurs points et que cela accoucherait d'une nouvelle géométrie cohérente. Cet ouvrage c'est aussi un peu de maths mais pas trop.

    Ce livre n'est donc pas réservé au spécialiste mathématicien mais à l'amateur ou au curieux de mathématiques. C'est un ouvrage de vulgarisation de qualité qui permet d'ouvrir les portes de ce monde très particulier et peu intuitif  qu'est l'espace hyperbolique, dans lequel les droites ne sont vraiment pas toutes "droites"!

    L'excellente analyse du livre par Arnaud Durand.

    Mais alors ça ressemble à quoi exactement un mode hyperbolique?

    Voici la vue de la chambreun univers anneau.

    Mais le mieux c'est d'explorer ce monde en s'y déplaçant et en jouant. Alors tentez de trouver le point vert... Si si on y arrive.

     

    Lire la suite

  • Un modèle mathématique pour aider la pêche en Europe

    L'ISTI-CNR, en particulier le groupe InfraScience du laboratoire NeMIS, travaille depuis des années dans le domaine des infrastructures informatiques pour la recherche. Depuis environ 10 ans, ces installations sont utilisées comme support aux scientifiques dans le domaine de la biologie informatique et la pêche durable. Une collaboration entre Gianpaolo Coro de l'InfraScience Lab et Rainer Froese, éminent chercheur de l'institut allemand GEOMAR à Kiel, dans le cadre du projet européen i-Marine, a produit un modèle statistique qui permet d'estimer la quantité maximale de pêche durable pour une espèce marine dans une certaine zone. Le modèle est applicable à des scenarii où les données sur les espèces sont limitées, car il a seulement besoin de connaître un historique de la pêche de l'espèce et une évaluation "qualitative" (faible, moyenne ou élevée) de sa capacité de reproduction naturelle et de récupération (résilience et productivité selon les termes biologiques).

    Le modèle, appelé CMSY et développé en langage R, combine une méthode de Monte Carlo avec un modèle bayésien complexe. Coro a pris en charge la création et le développement du modèle, tandis que Froese traitait surtout des aspects biologiques. Trois autres scientifiques (N. Demirel, K. Kleisner et H. Winker) ont été impliqués avec des données à couverture mondiale pour la vérification expérimentale. En octobre 2014, Froese et Coro ont été invités à participer au workshop WKLife4, organisé par l'ICES, l'organisation non-gouvernementale qui indique chaque année à la Commission européenne quelles sont les limites de pêche pour chaque espèce d'intérêt commercial, en particulier pour celles de l'Europe du Nord. Au cours de ce workshop, le modèle a été comparé avec d'autres dans le monde sur les données de l'ICES ; les participants étaient des modélisateurs et des biologistes européens, américains et sud-africains. Dans cette "compétition" CMSY était le meilleur et les résultats ont été publiés dans un rapport officiel qui sera utilisé par la Commission européenne. A la même période, la FAO a effectué une évaluation parallèle à celle de l'ICES, avec des résultats similaires. Coro a été invité en décembre dernier à la FAO, pour expliquer les détails du modèle.

    CMSY sera donc très probablement utilisé par l'Union européenne dans les prochaines années pour établir les limites de la pêche sur les espèces d'intérêt commercial des mers du nord de l'Europe, et aura donc des impacts économiques importants.

    Source: http://www.bulletins-electroniques.com/actualites/77874.htm

     

  • Les fractales au service de la mammographie

    Le cancer du sein est la tumeur la plus répandue et la deuxième plus mortelle chez les femmes. La mammographie permet de détecter les premiers signes de la tumeur. Depuis plusieurs années, de nombreuses recherches visent à améliorer cet outil. Deux chercheurs du Technion - Israel Institute of Technology se sont ainsi penchés sur une manière de différencier informatiquement les tumeurs bénignes et les tumeurs malignes.

     

    La nécessité d'un dépistage fiable

    L'importance du cancer du sein révèle la nécessité d'un dépistage précoce et fiable des tumeurs. Une grande littérature existe maintenant sur le sujet de la détection automatique de tumeurs à l'aide de la mammographie. Bien que ne remplaçant en aucun cas le rôle du médecin, cet outil permette une meilleure fiabilité du diagnostic.

    Reste un problème majeur : les mammographies actuelles sont incapables de faire la distinction entre les tumeurs bénignes, la plupart du temps non dangereuses, et les tumeurs malignes pouvant déboucher sur un cancer. Biologiquement, ces deux types de tumeurs ont une morphologie et un développement très différents. Les tumeurs malignes se caractérisent généralement par une croissance rapide et un caractère invasif se traduisant par une forme irrégulière et une vascularisation importante. Les tumeurs bénignes croissent quant à elles plus lentement et dans un volume contenu, ce qui leur donne généralement une forme ovale, telle une capsule isolée.

    Cette distinction est d'autant plus importante qu'elle permettrait d'éviter des examens coûteux et invasifs aux patientes ne présentant pas de risques.

    Mieux détecter les tumeurs bénignes

    Deux chercheurs du Technion, le professeur Yehoshua Zeevi et son étudiant en thèse Ido Zachevsky, se sont intéressés à ce problème et ont cherché un algorithme permettant de distinguer automatiquement à partir d'une mammographie tumeurs bénignes et malignes. Ils se sont appuyés pour cela sur une base de données de mammographies annotées par des professionnels et contenant les deux types de tumeurs.

    Dans leur modélisation mathématique de ce problème, ils proposent d'utiliser des éléments descriptifs à la fois locaux et globaux afin de pouvoir distinguer la géométrie des deux catégories. Une fois cette étape cruciale réalisée, ils s'appuient sur des algorithmes standards de partitionnement de données (analyse en composantes principales avec noyau gaussien) pour obtenir deux classes bien distinctes.

    Une description fractale des tumeurs

    Pour caractériser la géométrie de ces tumeurs, les deux chercheurs se sont appuyés sur des modèles probabilistes, appelés mouvements browniens fractionnaire et multifractionnaire. Le premier a été popularisé dans les années 70 par les travaux de Benoît Mandelbrot, mathématicien français connu pour avoir introduit l'idée de fractale au cours du siècle dernier. Sa généralisation, le mouvement multifractionnaire, est elle plus récente, remontant aux années 1990.

    L'idée principale derrière l'introduction de ces outils théoriques et abstraits est de permettre de modéliser des phénomènes aléatoires ayant n'importe quelle géométrie fractale. Ainsi, dans le cas de la mammographie, il s'avère que la forme des tumeurs dépend de leur caractère malin ou non, ce qui ouvre donc la porte à la modélisation de leur géométrie par un mouvement brownien multifractionnaire. Synthétiquement, en utilisant des techniques d'analyse en ondelettes, il est alors possible de terminer les paramètres du modèle et ainsi de différencier à partir de ces derniers les deux types de tumeurs.

    Bien sûr, il faudra un certain temps avant que des outils aussi pointus soient accessibles à tous les médecins, mais on peut néanmoins se réjouir des progrès faits en traitement d'images médicales tout au long de la dernière décennie, notamment dans les universités israéliennes.

     

    Source: http://www.bulletins-electroniques.com/actualites/77843.htm

  • Il existerait au moins deux planètes supplémentaires dans notre système solaire

    En 1846, Urbain le Verrier découvrait pour la première fois par la seule modélisation mathématique l'existence d'un objet céleste n'ayant fait l'objet d'aucune observation. A partir de l'analyse des anomalies de l'orbite d'Uranus et par application de la théorie de la gravitation newtonienne, il fut ainsi le premier à annoncer la position d'une nouvelle planète, Neptune, qui sera confirmée par l'observation quelques années plus tard.

    Depuis lors, les astrophysiciens ont largement utilisé et sophistiqué ces méthodes permettant de déduire la présence de certains corps célestes invisibles à partir de l'observation de leurs congénères. Ce sont aujourd'hui des chercheurs de l'Université Complutense de Madrid et de l'Université de Cambridge qui affirment la présence d'au moins deux planètes supplémentaires situées au confins de notre système solaire, au-delà de Neptune.

    Une telle hypothèse permettrait en effet d'expliquer le comportement des ETNOs ou Extrême Trans Neptunian Objects, des corps en orbite autour du soleil au-delà de Neptune. L'observation des caractéristiques des orbites de ces objets n'est semble-t-il pas conforme à la théorie, selon laquelle leur distribution devrait être aléatoire, présenter un demi axe de l'orbite elliptique d'environ 150 unités astronomiques (c'est-à-dire la distance de la Terre au Soleil) et angle de périhélie de 0 ou 180°. Or les observations de plusieurs de ces objets donnent des caractéristiques assez différentes, qui pourraient s'expliquer par la présence de plusieurs, au moins deux, planètes situées au-delà de Neptune.

    Les chercheurs sont cependant conscients que cette prédiction heurte les modèles admis de formation du système solaire selon lesquels il ne peut exister de planète en orbite circulaire au-delà de Neptune. Ils reconnaissent également que leur conclusion est basée sur l'observation d'un nombre assez limité d'ETNOs, seulement 13, mais ils sont d'ores et déjà en train d'étudier un échantillon plus important, qui pourrait venir confirmer un résultat révolutionnaire.

    Source: http://www.bulletins-electroniques.com/actualites/77702.htm

  • Les éruptions volcaniques influencent durablement le climat dans l'Atlantique nord

    Les particules émises lors d'éruptions volcaniques majeures refroidissent l'atmosphère par un effet "parasol", réfléchissant les rayons du soleil. Ces particules volcaniques ont un effet direct assez bref, deux à trois ans, dans l'atmosphère. Pourtant, elles modifient pendant plus de 20 ans la circulation océanique de l'Atlantique nord, qui relie courants de surface et courants profonds, et module le climat européen. C'est ce que viennent de découvrir des chercheurs du CNRS, de l'IRD, du CEA et de Météo‐France1 en combinant, pour la première fois, des simulations climatiques, des mesures océanographiques récentes et des informations issues d'archives naturelles du climat. Ces résultats2 sont publiés le 30 mars 2015 dans Nature Communications.

     

    L'océan Atlantique est le siège de variations de la température de surface qui s'étendent sur plusieurs décennies et qui influencent le climat de l'Europe. Cette variabilité lente est due à des modifications de la circulation océanique, qui relie les courants de surface aux courants profonds, et qui transporte la chaleur depuis les tropiques jusqu'aux mers de Norvège et du Groenland. Cependant, sa cause reste mal connue.

     

    Afin d'en décrypter les mécanismes, les chercheurs ont tout d'abord utilisé des informations couvrant le dernier millénaire et issues d'archives naturelles du climat. Ainsi, l'étude de la composition chimique de l'eau des carottes de glace du Groenland permet d'y estimer les changements passés de température. Ces données montrent le lien étroit entre la température de surface de l'océan Atlantique et la température de l'air au-dessus du Groenland, et révèlent que la variabilité du climat dans cette région est un phénomène périodique dont certains cycles, ou oscillations, durent environ vingt ans.

     

    En utilisant des simulations numériques de plus de vingt modèles de climat différents, les chercheurs ont également mis en évidence que des éruptions volcaniques majeures, comme celle de l'Agung, en Indonésie en 1963, ou du Pinatubo, aux Philippines, en 1991, pouvaient modifier en profondeur la circulation océanique de l'Atlantique nord. En effet, les grandes quantités de particules émises par ces éruptions vers la haute atmosphère réfléchissent une partie du rayonnement solaire par un effet similaire à celui d'un parasol, ce qui entraîne un refroidissement du climat à la surface de la Terre. Ce refroidissement, qui ne dure que deux à trois ans, provoque alors une réorganisation de la circulation océanique dans l'océan Atlantique nord. Quinze ans environ après le début de l'éruption, cette circulation s'accélère, puis ralentit au bout de vingt-cinq ans, et accélère à nouveau trente-cinq ans après le début de l'éruption volcanique. Les éruptions volcaniques semblent ainsi fonctionner, sur la circulation océanique de l'Atlantique nord, à la manière d'un "pace-maker" qui met en route une variabilité sur 20 ans.

     

    Les scientifiques ont confirmé ces résultats en les comparant avec des observations de la salinité océanique, facteur déterminant pour la plongée des eaux et donc de la circulation océanique. Ils ont décelé, dans les simulations numériques et dans ces observations océanographiques modernes, des variations similaires au début des années 1970 et 1990 liées à l'éruption du volcan Agung. Grâce à des observations issues de carotte de glace groenlandaise, à des observations effectuées sur des coquillages bivalves, âgés de plus de cinq cent ans et vivant au nord de l'Islande, et à une simulation du climat du dernier millénaire, les chercheurs ont systématiquement identifié une accélération de la circulation océanique quinze ans après cinq éruptions volcaniques ayant eu lieu il y a plusieurs centaines d'années.

     

    Enfin, les chercheurs ont mis en évidence les interférences produites par les trois dernières éruptions volcaniques majeures, Agung en 1963, El Chichon, au Mexique en 1982 et Pinatubo en 1991, expliquant pour la première fois la variabilité récente des courants de l'océan Atlantique nord. Ils concluent qu'une éruption majeure dans un futur proche pourrait avoir une incidence pendant plusieurs décennies sur les courants de l'océan Atlantique nord et donc sur la capacité de prévoir la variabilité du climat européen. Ils souhaitent désormais consolider ces résultats en multipliant les sources de données, notamment en paléoclimatologie.

    Source:

    Bidecadal North Atlantic ocean circulation variability controlled by timing of volcanic eruptions. Didier Swingedouw,Pablo Ortega,Juliette Mignot,Eric Guilyardi,Valérie Masson‐Delmotte,Paul G.Butler, Myriam Khodri and Roland Séférian.Nature Communications, le 30 mars 2015. DOI: 10.1038/ncomms7545.

     

     

    1Du laboratoire Environnements et paléo environnements océaniques et continentaux (CNRS/Université de Bordeaux), du Centre national de recherches météorologiques - groupe d'étude de l'atmosphère météorologique (CNRS/Météo France), du Laboratoire d'océanographie et du climat : expérimentations et approches numériques (CNRS/UPMC/MNHN/IRD) et du Laboratoire des sciences du climat et de l'environnement (CNRS/CEA/UVSQ) appartenant tous deux à l'Institut Pierre Simon Laplace.
    2Ce projet a été financé par l'Agence Nationale de la Recherche via le projet « Groenland vert » du programme Changements Environnementaux Planétaires et Société (2011-2015).