Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Simulations, modélisations - Page 2

  • Complexité des systèmes urbains : quelles perspectives ?

    Face à la complexification de nos sociétés modernes (mondialisation accélérée, croissance continue d'une population dont les besoins augmentent, amélioration globale des niveaux de vie et d'éducation), les chercheurs et les ingénieurs sont contraints de mettre au point des méthodes innovantes d'analyse de données pour permettre aux organisations humaines de rester réactives, rigoureuses et précises dans l'accomplissement des tâches qui leur sont affectées.

    Il n'aura ainsi fallu que quelques décennies pour que l'étude des systèmes complexes, interdisciplinaires par nature, soit considérée comme une thématique clé de la recherche contemporaine, notamment celle appliquée aux territoires des villes, mégalopoles en tête.


    La complexité des systèmes urbains au coeur de la recherche contemporaine
    Crédits : MST, Source : Fotolia


    Définition et évolution

    On qualifie un système de "complexe" lorsque l'interaction du grand nombre d'entités qui le constituent favorise l'émergence de traits et de phénomènes globaux qui ne peuvent être ramenés à la compréhension des interactions locales. En clair, le tout est plus que la somme de ses parties.

    La recherche sur la complexité vise à comprendre des phénomènes dont l'intrication est telle qu'ils sont difficilement abordables en utilisant les méthodes connues. L'étude et la modélisation des systèmes complexes se sont développées il y a plus de quarante ans et ont d'abord trouvé une assise institutionnelle en 1984, aux Etats-Unis, avec la création du Santa Fe Institute. Ses membres fondateurs eurent à coeur de promouvoir l'interdisciplinarité [1]. La biologie (et plus précisément la génomique) fut l'un des premiers secteurs à bénéficier du déluge de données lié à la puissance accrue de calcul des ordinateurs. Au fil des ans, de nombreux autres secteurs ont eux-aussi été transformés par l'accès à des volumes gigantesques de données. Depuis l'explosion des télécommunications à la fin des années 1990, la quantité d'information échangée en continu n'a jamais cessé de croître : le développement massif du web (plus de deux milliards d'internautes dans le monde en 2012 [2]) y a largement contribué. L'avènement plus récent de l'Internet des Objets (appareils connectés aux réseaux de télécommunication tels que les smartphones, ordinateurs, tablettes, capteurs en tout genre) accentue encore plus cette tendance [3]. En parallèle, les données publiques s'ouvrent à la faveur du mouvement Open Data [4, 5], notamment dans le domaine du transport et de l'optimisation du fonctionnement des services publics. Dans ce paradigme en constante évolution, il sera de plus en plus nécessaire de mettre en place des outils formels permettant de naviguer dans ces larges quantités de données disponibles à faible coût [6].

    Il est impératif de préciser que la complexité touche l'ensemble des champs de la connaissance. La compréhension des mouvements économiques et financiers ne se cantonne pas à celle de la spéculation d'une poignée de traders, tout comme les embouteillages ne s'expliquent pas par la somme des comportements individuels des automobilistes impliqués [7]. La propagation d'une rumeur ou d'une épidémie relève également d'un important niveau de complexité. Son étude doit donc reposer sur la mise en commun de compétences issues de domaines de recherche différents ainsi que de puissants outils de calculs. La clé serait donc l'interaction de disciplines souvent considérées comme reines - à l'instar des mathématiques ou de l'informatique - avec les autres disciplines comme la biologie et la sociologie. Les données étudiées n'étant plus uniquement physiques, leur analyse nécessite bien le double regard des sciences dures et des sciences dites "molles" : le risque serait trop grand que les physiciens fassent de l'économétrie physique sans se préoccuper des assises économiques et sociales des réalités sur lesquelles ils travaillent [1].

    Et la ville dans tout ca ?

    Associée aux besoins analytiques de compréhension des systèmes urbains dont est supposée émerger la ville du futur (une ville hyper-connectée et "durable", d'après le triptyque économie-environnement-équité sociale), la recherche sur la complexité vise à mieux comprendre l'imbrication et l'interaction de la foule de paramètres - qu'ils soient relatifs à l'énergie, au transport, à la santé, à l'éducation, etc. - définissant l'espace urbain et le volume relatif de données à traiter (en augmentation exponentielle, comme nous l'avons vu). Ainsi, en connaissant mieux les influences sociologiques ou écologiques d'une ville, sans se cantonner à l'analyse des seuls flux physiques, de grands espoirs sont placés dans l'étude des systèmes complexes comme outil permettant de mieux guider les politiques publiques. En d'autres termes, comment retirer de l'analyse des systèmes urbains des éléments de compréhension et de réflexion pour les décideurs... sans oublier de leur préciser de s'en servir avec précaution, et discernement.

    La pression règlementaire sur la thématique de la ville durable, la disponibilité accrue des données sur le territoire urbain et les travaux engagés de manière continue sur le traitement de cette information font que le chantier de la ville du futur est un marché aujourd'hui en pleine maturation où l'innovation joue un rôle majeur. La Silicon Valley n'échappe pas à la règle avec l'émergence d'un grand nombre de startups dans le domaine de l'analyse de données ou ducleanweb, tandis que les universités de premier rang comme Berkeley et Stanford multiplient les programmes ayant trait - de manière logique - à cette "complexité" urbaine [8-10]. La logique Smart Grid [11] d'optimisation énergétique mais aussi celle, plus large, de la ville intelligente [12], sont ainsi typiquement traitées. Parce que les métiers urbains sont tous couplés et s'influencent mutuellement, il faut être capable de modéliser cette interaction systémique pour identifier les bons leviers d'action : un chantier de taille !

    Il est d'ailleurs intéressant de souligner que désormais, rendre la ville durable passe par une modalité de recherche non plus seulement centrée sur l'excellence de coeurs disciplinaires, mais sur la qualité de l'interdisciplinarité. Le tout est plus que la somme de ses parties, n'est-ce pas ?

    http://www.bulletins-electroniques.com/actualites/74059.htm

  • Les erreurs subliminales laissent-elles des traces électrophysiologiques ?

    Détecter les erreurs


    Le cerveau humain fascine. Il intrigue par son extrême complexité et son efficacité mais ce "formidable" organe n'en demeure pas moins faillible, sujet aux erreurs. Parfois, on réalise les erreurs que l'on vient de commettre (qui n'a jamais prononcer le fameux "Oups" ?). Certaines erreurs peuvent, au contraire, passer totalement inaperçues. Détecter une erreur est crucial dans la vie de tous les jours, cela nous permet d'apprendre et de réajuster nos actions à temps... Utile lorsqu'on conduit, par exemple. Hélas, les chercheurs en sciences cognitives n'expliquent toujours pas pourquoi et comment le fait d'être alerté, de manière consciente, par nos erreurs peut contribuer au contrôle de fonctions exécutives et donc au réajustement de nos comportements. De surcroît, des études récentes sont venues renforcer l'idée que cette "vigilance" consciente n'était pas requise pour de nombreuses fonctions dites de haut niveau telles que la prise de décision. Au contraire, ces travaux suggèrent que la détection d'erreurs pourrait intervenir à un niveau subliminal, c'est-à-dire inconscient.

    Quels types d'erreur et comment les enregistrer ?

    Toutes les erreurs ne sont pas à mettre dans le même panier. Comme l'expliquent les docteurs Shani Shalgi et Leon Deouell de l'Université hébraïque de Jérusalem dans un article de la revue Frontiers in Neuroscience [1], il est important de distinguer les "oublis" des erreurs. L'oubli a lieu lorsque l'information requise pour donner une réponse est disponible, pour une période suffisante au processus de prise de décision. En revanche les erreurs surviennent lorsque le substrat informationnel ou l'algorithme de traitement de l'information est manquant. L'oubli est souvent dû à une précipitation du sujet à répondre, à une faible attention alors que la vraie erreur peut avoir lieu lors de la résolution d'un problème mathématique dont on ne connaît pas la règle...

    L'enregistrement de l'activité cérébrale par électroencéphalographie (EEG) a permis de déterminer des index dits électrophysiologiques des réponses chez l'Homme. Parmi les plus robustes, nous trouvons deux types d'ERP (pour Event Related Potentials) modulés soit après une erreur, soit après une réponse correcte. L'erreur consiste ainsi en une déflection négative du potentiel qui débute lorsqu'il y a erreur et atteint son maximum après 50-100 ms. Les réponses correctes induisent, elles, une modulation positive du potentiel qui dure plus longtemps pendant la réponse.

    L'erreur n'est pas toujours consciente

    Des travaux ont pu montrer que l'erreur est enregistrée aussi bien lorsqu'elle est consciente que subliminale. Ce concept représente aussi un challenge car il suppose que depuis le traitement de l'information, toute la séquence englobant la reconnaissance de la stimulation, la prise de décision, la sélection de la réponse et enfin le "monitoring" de cette réponse puissent être effectués en subliminal [2]. Une idée qui n'a pas toujours rencontré des défenseurs mais qui s'appuie sur la reproduction par de nombreux laboratoires du résultat montrant une réponse égale entre erreurs "conscientisées" et subliminales.

    Quelle est la signification des erreurs inconscientes ?

    La capacité à échapper au contrôle conscient de la détection d'erreur ouvre des perspectives fascinantes en recherche. Cette hypothèse s'articule aussi sur de nombreux concepts philosophiques et cognitivo-psychologiques stipulant que l'action est possible sans conscience... En bref, que nous pouvons évoluer en mode "zombie". Sans oser s'aventurer sur les terrains glissants de la science-fiction, les recherches menées en neurosciences cognitives sur les modalités du traitement de l'erreur contribuent a mieux comprendre les mécanismes qui régissent les comportements les plus adaptatifs inhérents à l'espèce humaine, comme la prise de décision. Une prise de décision qui ne s'établit plus (depuis longtemps), majoritairement, sur un cortège de stimulations externes, sensorielles, mais qui implique le concours de représentations potentielles, elles-mêmes façonnées par l'expérience passée de l'individu et par ses aptitudes à planifier une stratégie comportementale pertinente.


    http://www.bulletins-electroniques.com/actualites/74197.htm

  • Conway, Voronoï et Escher (entre autres) revisités par Santiago Ortiz

    Bon d'accord, ça fait un an et demi que Santiago Ortiz, chercheur en information visuelle m'a envoyé un mail sur Facebook alors que je viens juste de voir il y a une semaine comment les lire... J'avais pas vu l'onglet "autre" de ma messagerie! Mais j'assume et mieux vaut tard que jamais!


    santiago.GIF

     

    Dans tous les cas, il interviendra durant le colloque  Visualized en février 2014 à New-York et là je ne suis pas en retard pour le dire. Il utilise ses connaissances en mathématiques et en sciences de la complexité pour repousser les limites de visualisation de l'information.

    Je vous laisse découvrir quelques-uns de ses travaux. J'en ai placé deux ici. Le jeu de la vie sur un tore et le pavage de la sphère.

    http://moebio.com/lifeonatorus/
    http://moebio.com/research/drinkmeproject/sketch/
    http://moebio.com/santiago/dualism/
    http://moebio.com/research/voronoicity/

    Rendez-vous impérativement sur le portail de Santiago http://moebio.com pour visualiser la mise en forme "géométrique" des pages cibles, toutes plus étonnantes les unes que les autres, en utilisant le petit pavé en bas à gauche.

    Bonne visite.

     

     

  • Un univers sans Big Bang?

    Des cosmologistes espagnols proposent un univers sans Big Bang

    Des chercheurs espagnols de l'Université Polytechnique de Catalogne ont proposé un nouveau modèle mathématique permettant de décrire l'évolution de l'univers. Ce modèle, basé sur des travaux d'Einstein, permet d'interpréter correctement les données expérimentales sur le passé et l'évolution de l'univers disponibles actuellement. Et il ne prévoit pas l'existence d'un Big Bang originel.


    Un des grands desseins de la physique est d'expliquer comment fonctionne l'univers et, notamment, quelle fut son origine et quelle sera son évolution. Dans ce cadre, la conception de la gravitation développée par Einstein il y a un siècle, avait permis d'ouvrir de nouvelles voies. L'introduction de la relativité générale et de la notion d'espace-temps avait conduit les chercheurs à développer un modèle mathématique de l'évolution de l'univers. Lorsque la variable temps est inversée dans ces équations, c'est à dire quand on remonte mathématiquement le temps, les équations conduisent à une singularité : un univers complètement replié sur lui-même ayant son origine dans une sorte d'explosion initiale, le Big Bang.

    Cependant, les données scientifiques récoltées depuis ont contribué à altérer ce modèle. Einstein lui même avait du introduire dans ces équations une constante cosmologique permettant d'expliquer que l'univers était en expansion. L'introduction des concepts de matière noire et d'énergie noire sont d'autres compléments récents qui permettent de maintenir la cohérence entre la réalité des faits observés et le modèle cosmologique standard, sans pour autant expliquer ce que sont concrètement cette matière et énergie sombre.

    L'objectif de tout cosmologiste est donc de pouvoir expliquer les différentes phases dans la vie de l'univers comme la phase d'inflation après sa naissance ou encore le fait que l'expansion continue à l'heure actuelle. Les chercheurs espagnols ont ainsi décidé de tout reprendre à zéro dans un nouveau contexte et de ne se baser que sur les données disponibles pour étudier si d'autres modèles cosmologiques pourraient être développés pour rendre compte de l'histoire de l'univers.

    En reprenant les travaux infructueux d'Einstein cherchant à fusionner les théories de la gravitation et de l'électromagnétisme qui portent le nom de téléparallèlisme, les chercheurs ont développés plusieurs modèles cosmologiques cohérents avec les données expérimentales disponibles : un univers connaissant une phase d'inflation, une phase dominée par la matière et une phase d'expansion accélérée. La nouveauté vient du fait que ces modèles ne présentent pas de singularité, c'est à dire pas de moment originel, ou pas de Big Bang.

    Il s'agit là d'une perspective qui pourrait faire l'effet d'une forte déflagration ! Le travail des chercheurs espagnols a ainsi comme mérite de montrer que d'autres théories sont possibles pour expliquer l'évolution de l'univers. Il ouvre la voie à de nouveaux travaux et, peut être, à de nouvelles polémiques.

    http://www.bulletins-electroniques.com/actualites/72603.htm