Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Nature - Page 8

  • Stanford automatise la création d'un arboretum numérique pour les mondes virtuels

    baf0172c30daddb220ef2b78473323e2.pngLa création de mondes virtuels visuellement acceptables est encore aujourd'hui réservée à des graphistes ayant des compétences en modélisation et dotés d'un certain sens artistique. Dans le cas particulier des univers ou jeux en ligne en 3D tels Second Life, un problème récurrent se pose : comment peupler ces espaces avec des objets dont le design est réaliste tout en étant simples à créer pour des non-spécialistes ?

    Une équipe du laboratoire Virtual Worlds de l'université de Stanford a développé un logiciel qui répond en partie à cette question. Dryad est un outil en libre téléchargement qui permet à travers une interface graphique de créer très simplement des arbres réalistes en 3D, sans aucune connaissance en programmation. L'utilisateur peut interagir sur une série de paramètres qui caractérisent l'arbre : structure et inclinaison des branches, densité du feuillage, épaisseur et couleur du tronc, etc. Il a aussi la possibilité de naviguer parmi une forêt numérique générée dynamiquement, où les arbres proches présentent des similarités qui varient selon la direction empruntée. Une fois qu'un modèle satisfaisant est obtenu, celui-ci peut être exporté au format OBJ pour être ensuite modifié dans des logiciels de 3D plus classiques. Une copie est aussi envoyée à Stanford pour enrichir une base de données qui constitue un arboretum numérique.

    Derrière ce processus de création simplissime se cache une série de propriétés mathématiques. Chaque arbre est représenté comme un point dans un espace vectoriel aux nombreuses dimensions. La méthode d'analyse en composantes principales permet à l'utilisateur d'interagir facilement avec ces paramètres. Le modèle des mélanges gaussiens est ensuite appliqué pour assurer que les arbres générés soient proches d'arbres au préalable "validés", et ainsi éviter d'obtenir des configurations impossibles dans la nature.

    L'équipe de Stanford a commencé à se focaliser sur la génération d'arbres car leur classification et leurs caractéristiques sont connues et clairement identifiées. Mais Dryad doit avant tout être considéré comme une preuve de faisabilité, et compte bien appliquer le concept à la création de modèles représentant d'autres plantes, animaux, humains ou bâtiments. La génération assistée ou automatisée de mondes virtuels réalistes peut trouver une application directe dans les jeux vidéo, mais on peut également imaginer retrouver ces technologies dans les outils de navigation par satellite ou les logiciels de modélisation 3D.

    Source Bulletins-électroniques : ICI

  • L'état du monde en l'an 3000

    Pour suivre ma très sérieuse note "Prix Nobel de la Paix 2007 : "Le GIEC - mieux comprendre l'apport de la France" ICI, voilà une projection de l'état du monde en l'an 3000 par la presque toujours sérieuse émission de Arte " Le dessous des cartes ".


    envoyé par lemac92
  • Prix Nobel de la Paix 2007 : Le GIEC - mieux comprendre l'apport de la France

    Une chronologie des évènements:

    Juin 2005 : La terre se réchauffe plus que jamais.

    Absents lors du dernier rapport du GIEC, les chercheurs français de l’IPSL et de Météo-France viennent de présenter les premiers résultats obtenus à partir de leurs deux nouveaux modèles climatiques. Conclusion : la Terre va se réchauffer, y compris lorsque les émissions de CO2 seront stabilisées.

    Pour tenir compte de ces facteurs, ce ne sont pas moins de onze scénarios que les deux modèles français ont testés.

    Le premier, dit de référence, simule un climat « non perturbé », celui du début du XIXe siècle, avant la révolution industrielle. Le second correspond à l’évolution du climat au cours du XXe siècle (de 1860 à 2000) : il doit permettre de mieux comprendre comment les différents facteurs (gaz à effet de serre, aérosols sulfatés, modification de la constante solaire et volcanisme) ont contribué à l'évolution du climat sur cette période.

    Tous les autres scénarios correspondent à des projections pour le XXIe siècle ou au-delà. Certains privilégient une croissance démographique et économique rapide (scénarios de type A), d’autres considèrent que des mesures environnementales vont être prises (scénarios de type B), avec transferts de technologie* (type 1) ou sans (type 2). On comparera ainsi le scénario le plus pessimiste, A2 (« on ne fait rien »), au plus optimiste, B1 (« on met en œuvre des mesures draconiennes contre les émissions de gaz à effet de serre »). Plus original, les chercheurs ont également cherché à savoir comment évoluerait le climat si les émissions de CO2 pouvaient être stabilisées.

    22 600 heures ( 2 ans et demi ! ) de calculs pour Météo-France, 20 000 heures pour l’IPSL… comme pour toutes les modélisations climatiques, les résultats français ont nécessité des temps de calculs considérables.

    Dans tous les scénarios : la Terre se réchauffe

    L'intégralité de l'article : ICI

    Les résultats de l'Institut Pierre Simon de Laplace : ICI

     

    Comparaison de 2 modèles Météo-France et IPSL pour le scénario A2 : ICI

     

    Janvier 2007 : Le livre blanc des nouvelles simulations climatiques françaises.

    La communauté climatique française publie le 31 janvier 2007 un Livre blanc sur de nouvelles analyses des simulations climatiques françaises dont une partie a contribué à la préparation du prochain rapport du Groupe d’experts Intergouvernemental sur l’Evolution du Climat (GIEC).

    L'intégralité de l'article : ICI

    Octobre 2007 : Le Prix Nobel de la Paix est conjointement décerné au GIEC, le Groupe intergouvernemental sur l'Evolution du Climat et à Al Gore

    L'américain Al Gore et le GIEC, le panel d'experts sur l'évolution du climat se partagent le Prix Nobel de la Paix. Ancien vice-président de Bill Clinton et candidat démocrate malheureux à la Maison Blanche en 2000, Al Gore, est revenu sur le devant de la scène l'an dernier avec son livre et documentaire "Une vérité qui dérange". Primé deux fois aux Oscars, le film contribue à vulgariser un sujet complexe et à sensibiliser l'opinion publique à la menace climatique.

    Le prix Nobel de la Paix leur est décerné conjointement "pour leurs efforts de collecte et de diffusion des connaissances sur les changements climatiques provoqués par l'homme et pour avoir posé les fondements pour les mesures nécessaires à la lutte contre ces changements", a expliqué à Oslo le président du comité Nobel norvégien, Ole Danbolt Mjoes. Le GIEC est le groupe d'experts intergouvernemental sur l'évolution du climat, un organisme chapeauté par l'ONU et présidé par l'indien Rajendra Pachauri.

    Ses rapports fournissent un solide socle de connaissances aux décideurs politiques. L'attribution du Prix Nobel de la Paix à Al Gore et au GIEC lance un signal fort à la communauté internationale à quelques semaines de la conférence de Bali.
    Cette conférence qui se tiendra début décembre doit tracer la feuille de route pour de nouveaux engagements de réduction des émissions de gaz à effet de serre au-delà de 2012, après l'expiration de la première phase du protocole de Kyoto.

    Le prix Nobel de la Paix sera remis le 10 décembre, à la date anniversaire de la mort d'Alfred Nobel. Les lauréats recevront une médaille d'or, un diplôme et un prix d'une valeur de 10 millions de couronnes suédoises, soit environ 1,08 millions d'euros.

    Source Euronews : ICI

    Les lanceurs d'alerte du GIEC, 11 questions à la climatologue Valérie Masson-Delmotte, co-auteur du 4ème rapport du GIEC : ICI

    Le portail français du GIEC : ICI

    L'homme responsable du réchauffement ? et Comment va la banquise aujourd'hui. Deux vidéos du CNRS : ICI et ICI et plus généralement le PODCAST du CNRS : Alerte aux pôles : ICI


    Giec : le rapport est prêt et le réchauffement… officiellement irréversible, l'article de FuturaSciences : ICI

    Tous les articles du blog sur le sujet ( dont celui-ci) : ICI

  • L'usage des modèles climatiques : de l'alerte à la prise de décision

    5bead250331c0d6ea05428d013690eb9.jpgC'est une conférence donnée à l'IAP le 4 septembre 2007 par par Hervé Le Treut, directeur du laboratoire de météorologie dynamique du CNRS qui effectue une mise en relief des variations climatiques suivant les différentes échelles de temps et d'espace et explique ce phénomène complexe de  façon extrêmement claire.

    La conférence est téléchargeable et diffusée sur le site du CERIMES :
    ICI

    Une synthèse de la première heure

    L'augmentation de carbone et des gaz à effet de serre est un phénomène récent et d'une grande ampleur dont les effets sur le climat sont différés. C'est vers les années 1970 que le taux de carbone dans l'atmosphère à passé le seuil critique de "non traitement" par la planète. Il correspond en fait au taux actuel produit par un chinois de 0.5 tonne par an et par habitant, un européen en produit 3 et un américain 6. Cette augmentation brutale du niveau de carbone est un phénomène inédit de l'histoire climatique sur le dernier million d'années. Le système est en fait très équilibré dans la régulation du cycle du carbone et brasse environ 150 milliards de tonnes. La production actuelle humaine, qui est de l'ordre de 7 milliards de tonnes, peut sembler faible mais "permet" à ce système équilibré de se déséquilibrer. L'effet de serre est dû à moins de 1% de la masse totale de l'athmosphère et pour se donner une image, il est impossible de faire avancer un camion avec le pied sauf si le pied est placé au bon endroit, c'est à dire sur l'accélérateur.

    Historiquement les modèles ne s'ont pas été conçus pour étudier le réchauffement climatique mais pour modéliser le climat avec les équations de mécanique des fluides et permettre de "construire" un objet informatique qui soit le plus près possible de la planète réelle. Le temps de calcul pendant ces mêmes années a fortement diminué, lorsqu'un calcul nécessitait un week-end aux début de l'ère informatique, il ne nécessite plus aujourd'hui que quelques dizaines de secondes.

    Ce que nous donne un modèle c'est l'état de l'atmosphère environ toutes les 10 minutes, en faisant la "moyenne" de ces modèles on regarde si le résultat obtenu sur la planète " modèle" et le même que sur la planète réelle. On a construit ue planète qui est de plus en plus ressemblante à la planète réelle dans les dernières décennies. 80% du travail fait autour des modèles climatiques est occupé pour leur validation avec les observations effectuées. Un modèle est le fruit du travail d'une équipe de 50 à 100 personnes depuis plus d'une dizaine d'années. Il existe sur la planète une quinzaine de modèles différents correspondant au "tour de main de l'artisan" qui en est à l'origine. Pour faire des prévisions, ces modèles doivent prendre en compte l'activité humaine. Différents scénarios de référence ont été établis par le GIEC pour effectuer ces prévisions.

    Les ordres de grandeur sont très importants, même s'il s'agit de 2 degrés. Ce que l'on voit là n'est que le début d'une série de phénomènes beaucoup plus violents.

    Les prévisions faites dans les années 90 avec des modèles plus simples donnent des résultats de même nature qu'avec les modèles actuels plus précis.



    Je vous laisse découvrir les 40 dernières minutes de la conférence par vous-même.


    La sensibilité des modèles, un article du Monde: ICI

    Quel sera le climat de la Terre lorsque la concentration atmosphérique en CO2 aura été multipliée par deux par rapport à l’époque préindustrielle? Cette question est un Graal pour les climatologues et leur réponse est très attendue par les décideurs politiques. Pourtant, si l’on en croit deux chercheurs qui publient une analyse aujourd’hui dans la revue Science, il vaudrait mieux laisser tomber cette quête et s’habituer à vivre dans l’incertitude. Gerard Roe et Marcia Baker, de l’université de Washington (Seattle, USA), estiment en effet que les incertitudes sur la réponse du climat aux changements atmosphériques sont trop grandes pour que les scientifiques puissent fournir des prédictions plus précises que les fourchettes actuelles.

    Selon les données retenues par le Groupement intergouvernemental d’étude sur le climat (Giec/Ipcc), les températures augmenteront de 2°C à 4,5°C en cas de doublement de la concentration atmosphérique de dioxyde de carbone. Si la fourchette basse encadrant cette sensibilité du climat a été affinée en 30 ans, la précision de la fourchette haute n’a pas beaucoup bougé, malgré des années de recherches et de modélisations sophistiquées, relèvent Roe et Baker. Se livrant à un complexe exercice mathématique, ces deux chercheurs tentent de modéliser l’incertitude inhérente à la sensibilité climatique afin de faciliter la tâche de leurs collègues climatologues.

    Le problème vient des réactions climatiques liées au changement –ce qu’ils appellent le feedback. Que se passera-t-il lorsque la température aura augmenté de 4°C? De nombreux mécanismes seront modifiés : certains accélèreront le réchauffement, d’autres le freineront. Dans ce domaine, les petites incertitudes des processus physiques sont très largement amplifiées par les mécanismes climatiques, expliquent Roe et Baker.

    Tout en espérant que leur équation facilite la recherche, les deux auteurs concluent que plus le réchauffement sera important, plus le feedback sera amplifié et plus le degré d’incertitude sera grand.

    Pour compléter le tag " modélisation des évènements terrestres" de ce blog ( contient cette note ! ) ICI

  • Simulation de la marée dans l'océan Indien austral

    Un nouveau modèle de marée, régional et haute résolution, a été développé pour la région australe de l'océan Indien. Il a permis d'améliorer nettement la simulation des marées dans les zones côtières, ainsi que sous la plate-forme de glace d'Amery en Antarctique. Ce modèle permettra à l'avenir de mieux corriger les données satellitaires des effets de la marée dans cette région. 

    La comparaison des composantes de marée (amplitudes et phases) observées, issues de données GPS et de marégraphes, et modélisées met en évidence que ce nouveau modèle donne des résultats plus proches de la réalité que les modèles précédents et permet donc d'améliorer la connaissance de la marée dans cette région et de ses effets sur les plates-formes de glace.

    e0b237bc8c0a8372a18edf332fd76343.jpg

     Maillage utilisé pour la simulation de la marée.

    L'article de Techno-sciences : ICI