Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

La Recherche - Page 9

  • Mathématiques et énergies renouvelables

    Les mathématiques pour optimiser le marché des énergies renouvelables

    Les gestionnaires des réseaux de distribution sont par définition responsables de la fourniture d'électricité. A ce titre, ils doivent à tout instant estimer les différentes quantités de production d'électricité afin de répondre à l'ensemble des besoins de consommation. Cela leur permet également d'optimiser la vente d'électricité sur le marché. La fluctuation des productions issues du vent et du soleil rend ces estimations difficiles : d'un jour sur l'autre, l'électricité d'origine renouvelable disponible sur une même ligne peut fluctuer entre 100 et 900MW.

    Des chercheurs du centre d'application Fraunhofer d'Illmenau (Thuringe), en collaboration avec l'entreprise gestionnaire de réseaux Tennet Teso GmbH, ont développé un programme de calcul performant pour préciser et simplifier la prédiction de production d'électricité d'origine renouvelable. Il permet en effet de combiner différents pronostics (notamment météorologiques) afin d'obtenir une seule prévision pour le jour suivant (day-ahead prediction) dénommée "méta-pronostic". Le programme peut pour cela effectuer jusqu'à 15.000 étapes de calcul. Il est de plus possible d'ajouter des pronostics à très court terme, afin de moduler les estimations, et donc les coûts du marché, au quart d'heure près.

    Ce programme, qui rend possible l'affinage des mécanismes de marché, devrait également permettre de diminuer le recourt aux "énergies d'équilibrage", généralement issues de centrales thermiques en Allemagne.

    Source: http://www.bulletins-electroniques.com/actualites/69648.htm

    Le programme de solution de gestion de l'énergie - EMS-EDM PROPHET - est actuellement prévu pour estimer les productions issues du solaire, de l'éolien, de la géothermie et de l'hydraulique. La biomasse devrait prochainement venir compléter cette base de données.

  • Vulnérabilité des écosystèmes riches aux variations climatiques extrêmes

    Les écosystèmes sont de plus en plus soumis à des perturbations d'origine anthropique, le changement climatique étant l'une d'entre elles. Les travaux sur le sujet indiquent que la fréquence et l'intensité des évènements climatiques extrêmes tels que les ouragans, les inondations ou les sécheresses ont augmenté et risquent encore de se renforcer. Face à cette variabilité accrue, comment les écosystèmes vont-ils réagir ?

    C'est à cette question que s'est intéressé une équipe de recherche en biologie théorique de l'université de Linköping. Les études précédentes sur les réseaux trophiques suggéraient que les écosystèmes riches en espèces sont plus robustes que ceux à faible diversité. Les résultats publiés par l'équipe suédoise dans la revue " Ecology and Evolution" sont assez différents. En simulant, grâce à un modèle mathématique, la dynamique de différents écosystèmes en cas de perturbations environnementales majeures, les auteurs ont observé que les systèmes méga-divers étaient les plus vulnérables.

    Les résultats montrent que, lorsqu'un écosystème contient une grande variété d'espèces, la densité des populations de producteurs primaires y est moins élevée. Face à une perturbation, cela augmente le risque d'extinction de ces espèces. Si les producteurs primaires sont affectés, les herbivores présents dans le milieu vont manquer de ressources, ce qui se répercutera par la suite sur les prédateurs situés au sommet de la chaîne alimentaire : il se produit - ce que les biologistes appellent - des extinctions en cascade. Les écosystèmes riches en biodiversité, comme les récifs coralliens ou la forêt tropicale humide, pourraient donc se révéler particulièrement sensibles aux perturbations provoquées par le changement climatique.


    Source:
    http://www.bulletins-electroniques.com/actualites/69769.htm

  • Invisibilité au champ magnétique

    Une fructueuse collaboration entre l'Institut d'ingénierie électrique [1] de l'Académie slovaque des sciences (SAV) à Bratislava et l'Université autonome de Barcelone (UAB [2]) a permis la fabrication d'un objet de forme cylindrique dont l'enveloppe comme le contenu sont totalement indétectables aux champs magnétiques extérieurs. L'équipe de chercheurs de l'UAB a élaboré le modèle mathématique permettant de concevoir le dispositif puis a fait appel, pour la partie expérimentale du projet, au laboratoire de mesure électromagnétique de l'Institut d'ingénierie électrique de la SAV.

    Ce cylindre est construit en utilisant un matériau supraconducteur à haute température [4], sous forme de ruban enroulé à l'intérieur, réfrigéré avec de l'azote liquide et recouvert d'une couche de fer, de nickel et de chrome. Cette couche de supraconducteur empêche le champ magnétique extérieur d'atteindre l'intérieur du cylindre mais déforme ses lignes et rend ainsi le cylindre détectable. Pour éviter cette détection, la couche extérieure de ferromagnétique [5], faite de fer, de nickel et de chrome, provoque l'effet opposé. Elle attire les lignes de champ magnétique et compense la distorsion crée par le supraconducteur, sans pour autant permettre aux lignes de champ d'atteindre l'intérieur. L'effet global est un champ magnétique complètement inexistant à l'intérieur du cylindre et absolument aucune distorsion dans le champ magnétique extérieur.


    Fig 1. Le ferromagnétique attire les lignes de champ magnétique (à gauche), le supraconducteur repousse les lignes de champ magnétique (au centre) et l'association des deux rend tout objet à l'intérieur du cylindre magnétiquement indétectable
    Crédits : Institut d'ingénierie électrique de l'Académie slovaque des sciences


    Les dernières recherches sur l'invisibilité avaient été menées en 2006 par des physiciens de l'Imperial College à Londres, sous la direction de M. Pendry, et de l'université britannique Saint Andrews. Ils avaient établi que des matériaux avec des propriétés électromagnétiques configurées de manière adéquate pouvaient guider la lumière autour d'un objet de telle sorte que sa trajectoire d'ensemble ne soit pas perturbée. A une certaine distance, à la fois l'objet et la " cape " seraient invisibles. Cependant, pour que cela fonctionne avec la lumière visible, la permittivité électrique et la perméabilité magnétique du matériau, qui décrivent sa réponse aux champs électriques et magnétiques, auraient besoin de varier significativement tout au long de la " cape ". C'est en 2008 que la " cape " d'invisibilité aux champs magnétiques statiques a vu le jour, toujours à l'Imperial College. Il suffisait alors de faire varier la perméabilité magnétique sans avoir à modifier la permittivité électrique mais cette perméabilité devait être anisotrope, c'est-à-dire prendre des valeurs différentes suivant les directions. Le dispositif mis en place par les équipes espagnoles et slovaques est plus simple, la perméabilité est ici isotrope.

    Les résultats de ce projet de recherche ouvrent la voie à de possibles applications médicales. En effet, le dispositif est simple à mettre en oeuvre, ne nécessite que des matériaux prêts à l'usage et coûterait aux environs de mille euros. Dans le futur, il pourrait servir par exemple à la protection des stimulateurs cardiaques contre les champs magnétiques puissants pour les patients ayant à subir une IRM (Imagerie par résonance magnétique). D'après M. Gömöry, directeur de l'équipe slovaque, ces résultats amélioreront également la compréhension de l'influence des champs électromagnétiques sur notre vie. Ainsi, si l'on décide un jour de se débarrasser du nuage électromagnétique qui nous entoure, cette " cape " pourrait agir comme un bouclier.


    Source: http://www.bulletins-electroniques.com/actualites/69822.htm

  • On avance dans le jeu de Go

    Des ordinateurs capables de battre les meilleurs joueurs de go(1) ? C'est encore impossible mais la donne pourrait bientôt changer grâce aux travaux de deux théoriciens du CNRS des laboratoires de physique théorique (Université Toulouse III-Paul Sabatier/CNRS) et de physique théorique et modèles statistiques (Université Paris-Sud/CNRS). Pour la première fois, ils ont appliqué la théorie des réseaux à un jeu de stratégie. Leurs résultats, publiés dans la revue Europhysics Letters, devraient améliorer les futurs programmes de simulation.

    L'étude des réseaux complexes a connu un intérêt grandissant au cours des dernières années, notamment en raison du développement des réseaux de communication et d'information. Ce nouveau champ de recherche se révèle très utile pour la description des systèmes complexes tels que les réseaux sociaux ou Internet. Par exemple, si on applique la théorie des réseaux à Internet, chaque page est un nœud et les liens hypertextes sont les liens entre les nœuds. Cependant, une telle approche n'avait jamais été envisagée pour l'étude des jeux de stratégie comme le go1 ou les échecs. Ces jeux, riches d'une très longue histoire et forts de millions de joueurs dans le monde, sont très difficiles à modéliser. En effet, les ordinateurs ne sont capables de battre des champions d'échecs que depuis une quinzaine d'années seulement, tandis que le niveau des professionnels reste encore inaccessible aux meilleurs programmes de go actuels. 

    A partir d'une base de données comportant près de 5 000 parties jouées par des professionnels et amateurs du jeu de go dans des tournois internationaux, Bertrand Georgeot du laboratoire de physique théorique (Université Toulouse III-Paul Sabatier/CNRS) et Olivier Giraud du laboratoire de physique théorique et modèles statistiques (Université Paris-Sud/CNRS) ont appliqué la théorie des réseaux à ce jeu de stratégie. Ils ont construit un graphe dont les nœuds sont les motifs locaux du plateau de jeu et les arêtes (qui représentent les liens) reflètent la succession des coups. Ainsi, ils ont capturé une partie de la stratégie locale du jeu. Dans ce jeu où les joueurs placent leurs pierres aux intersections d'un quadrillage de 19 lignes par 19 (soit 361 intersections), les chercheurs ont étudié des motifs locaux de 9 intersections. Ils ont montré que la distribution statistique de la fréquence de ces motifs est une loi de Zipf, semblable à la distribution de fréquence des mots dans une langue. 

    Le réseau du jeu de go présente des caractéristiques proches de celles d'autres réseaux réels (réseaux sociaux ou Internet) mais il montre également diverses propriétés spécifiques. Si les programmes de simulation les plus récents intègrent déjà des données statistiques issues de parties réelles mais à un niveau encore rudimentaire, ces nouveaux résultats devraient permettre une meilleure modélisation de ce type de jeux de plateau.


    Jeu de go

    © O. Giraud et B. Georgeot

    A partir de leur graphe, les chercheurs ont obtenu ces motifs (de 9 intersections chacun) qui montrent les coups les plus fréquents ou regroupent des coups stratégiques (il s'agit de motifs sur lesquels se localisent les vecteurs propres associés à trois grandes valeurs propres de la matrice d'adjacence pondérée du graphe). La 1ère ligne correspond aux dix motifs les plus fréquents dans le jeu de go. La 2ème ligne isole des motifs dont la plupart correspondent à une situation bien connue dans le jeu de go : le Ko (éternité). Quant à la 3ème ligne, la majorité de ses motifs correspond à des situations où des chaînes de pierres se connectent. Noir joue à l'emplacement de la croix.




    Notes :

    (1) Originaire de Chine, le jeu de go est un jeu de stratégie, opposant deux adversaires qui placent à tour de rôle des pierres noires et blanches sur un plateau appelé goban. Les joueurs tentent ainsi de contrôler le plan de jeu en y construisant des « territoires » qui se comptent en points. Chaque « pierre » représente un soldat ; les soldats encerclés deviennent des prisonniers (source : wikipedia).

     

    La source : Communiqué de Presse du CNRS

  • La logique des cycles de la mode

    Qu'il s'agisse de la longueur des jupes, des rythmes de chansons, du choix des prénoms ou de la race de chien préférée, certaines manies collectives sont souvent des choix volatiles et peu d'entre eux persistent à l'épreuve du temps. Il s'agit de phénomènes de mode.

    Au moins depuis le XVIIème siècle, les modes sont consédérées comme un produit de la stratification sociale, où les couches sociales les moins favorisées copieraient celles qui seraient le plus.

    Le modèle proposé remplace et améliore deux modèles existant qui ne modélisent pas de façon correcte les phénomènes de mode.
    Le modèle neutre est simple et modélise une recopie aléatoire des traits culturels. Il ne répond pas correctement au problème, car il semblerait que les personnes effectuent des choix positifs et d'autres négatifs.
    Le modèle d'état prend en compte ce constant en considérant que les individus de statut élévé sont anti-conformistes alors que ceux de statut moindre sont conformistes.

    Le modèle proposé par Acerbi et d'autres chercheurs, nommé modèle de préférence, introduit le fait que les personnes peuvent copier des traits culturels mais aussi les préférences associées, les règles de transmission pouvant ainsi évoluer dans le processus de recopie contrairement à un modèle génétique par exemple. La co-évolution de la recopie d'un trait et de sa préférence sont suffisantes pour générer un phénomène de mode. L'augmentation rapide de la popularité est corrélée avec sa diminution rapide ainsi l'augmentation lente avec la lente disparition. Ce phénomène a été démontré pour le choix des prénoms en France et aux Etats-Unis.
    L'idée principale du modèle est que la préférence pour un trait culturel est définie elle-même comme un trait culturel, le trait initial et la préférence pouvant être copiés de façon indépendante dans un système dynamique de modèles et d'observateurs.

    Voilà le système différentiel:

    mode

     

    Pour le reste de l'article c'est sur Plos ONE en anglais.