Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Culture Générale - Page 39

  • Les machins et les machines de Shannon

    Claude Shannon s'est éteint en 2001. Ce fut un grand mathématicien doublé d'un grand talent d'électricien, ce qui fit de lui un précurseur dans le domaine de la transmission de l'information. Il en fit une théorie et c'est grâce ( ou à cause ) de lui que le schéma "Emetteur-Récepteur" s'est répandu comme une traînée de poudre.

    Les "machins" de Shannon

    Le monde ne serait pas tel qu'il est aujourd'hui si Shannon n'avait pas apporté quelques "machins". Il a en fait été le premier à être en mesure d'expliquer quelles conditions devaient respecter un signal pour qu'il puisse être transmis sans dommage.

    Les fondements de la théorie de l'information et des communications numériques modernes ont été posés par Claude Shannon il y a exactement soixante ans. En particulier, Shannon a établi une importante limite théorique concernant la qualité envisageable d'une transmission numérique, par le moyen d'un code correcteur d'erreurs, lequel restait à découvrir.

    Durant cinquante ans, ce résultat théorique a constitué pour des milliers de chercheurs et d'ingénieurs un défi scientifique majeur car l'enjeu économique était important. Améliorer le pouvoir de correction d'un code, c'est à même qualité d'information reçue (par exemple en téléphonie numérique, pas plus d'une information binaire fausse sur 10.000 reçues), permettre au système de transmission de fonctionner dans des conditions plus sévères. Il est alors possible de réduire la taille des antennes, le niveau de puissance à l’émission ou le poids des batteries d'alimentation. Dans les systèmes spatiaux (satellites, sondes, ...), l'économie peut être considérable, car le poids des équipements et la puissance du lanceur s'en trouvent notablement réduits.Dans les systèmes cellulaires de téléphonie mobile, améliorer le code, c'est aussi permettre à l'opérateur d'augmenter le nombre d'utilisateurs potentiels dans la cellule ou d'accroître l'autonomie en énergie du portable.

    En 1990, l’état de l’art était fixé par le code correcteur aujourd’hui utilisé dans la télévision numérique terrestre. Il s’agit d’un code concaténé ou code gigogne car deux codes emboîtés protègent mieux qu'un seul le message à transmettre comme le font deux enveloppes, au lieu d'une
    seule, autour d'une feuille de papier. Mais la limite calculée par Shannon n'était toujours pas atteinte, d'un facteur deux à trois sur le rapport signal à bruit, et accroître le nombre de codes concaténés n'apporte apparemment aucun gain supplémentaire. On commençait donc à s'habituer à l'idée que la limite théorique était inaccessible.

    Cet extrait est tiré du discours de Claude Berrou lors de la Séance solennelle de l’Académie des sciences / 17 juin 2008 Réception sous la coupole de l'Institut de France des Membres élus en 2007 pour sa nomination le 17 juin. Les travaux de Claude Berrou ont permis de s'approcher de cette limite théorique. On y trouve aussi lors de cette séance, deux autres mathématiciens Jean-Pierre Demailly et Roger Temam. On peut écouter les 11 intervenants et nouveaux membres de l'Académie des Sciences ci-après. Le discours de Claude Berrou débute à 1h18.


    podcast

    Les machines de Shannon

    Si Shannon a fait faire à la science de l'information un pas géant, se distraction principale était sans aucun doute de construire des machines bien surprenantes. Il s'agit en fait de Juggling machines ou machines qui jonglent. Il découvrit même un juggling theorem ! ( Double-cliquez sur la vidéo).

     

     

    C'est aussi à Shannon que l'on doit l'invention de la "most beautiful machine", surprenante machine qui nous fait un peu penser à la main de la famille Adams.

    ONOFF_1.JPG
  • La naissance des nombres

    Which number ?

     

    Dans le chemin qui mène à l'écriture des nombres, la première opération revient à les formuler, la deuxième à les matérialiser par un calculus, la troisième à représenter le calculus par un signe sur la surface d'une bulle.

     

    Les trois écritures, Clarisse Herrenschmidt Gallimard p 83

     

    Y'a tout plein de choses intéressantes ICI

  • Regardez la quatrième dimension en ligne

    Vous pouvez depuis peu, découvrir les vidéos de " Dimensions ... une promenade mathématique " en ligne. Il est possible d'embarquer les vidéos dans un blog. N'hésitez pas à en faire profiter vos lecteurs.

    1,2,3 et 4 dimensions en passant par le plan complexe et les fibrations. Et si les mathématiques vous échappent, il reste la beauté des images. Ci-après le chapitre 4, qui pour être compris, demande de regarder les chapitres précédents.

  • La non-infériorité ou l'utilisation des statistiques en médecine.

    loi normale.jpg

    Statistiques et médecine sont comme deux soeurs ennemies qu'il est impossible de séparer. Plusieurs raisons sont en jeu. Les traitements se basent sur des essais qui produisent des statistiques qui elles mêmes conditionnent le développement des traitements et et leur commercialisation.

    Or les statistiques ont assez mauvais caractère.

    D'une part il faut que le nombre de données soit suffisant.

    Evident direz-vous, il suffit de répéter les mesures. Pas toujours si facile que cela. C'est par exemple la cas des maladies rares où les échantillons ne sont pas suffisants pour pouvoir utiliser l'arsenal des statistiques sans risque important d'erreur.  Il y a aussi les maladies tropicales où les personnes souffrantes ne sont pas facilement accessibles. Et puis il y a ces probabilités conditionnelles qui font que la probabilité qu'un traitement fonctionne sachant que la personne est malade, n'est pas du tout identique à la probabilité que quelqu'un ne soit pas malade sachant qu'il a été traité, et qui est parfois bien inférieure. Ce peut aussi être le cas pour évaluer l'efficacité de certains traitements sur des personnes d'âge, de sexe, de poids et d'état de santé très différents. Tester l'efficacité d'un médicament sur un homme de 25 ans et mince ne veut pas dire qu'elle sera la même sur une femme obèse de 60 ans ayant déjà été traitée d'un cancer. Il faut là encore suffisamment de données pour avancer un résultat avec un risque d'erreur acceptable.

    Les conditions dans lesquelles doivent se faire l'expérience peuvent aussi augmenter le nombre de mesures. Il faut introduire des placebos. Elles doivent être rigoureuses, en double aveugle, faire des mesures de façon aléatoire, etc...

    D'autre part, il faut interpréter les chiffres obtenus. Le travail du statisticien, tient tout autant à l'adaption de ses outils au problème traité qu'à leur interprétation. Or c'est bien souvent la société qui commande et donc paye ces tests qui les utilise. Il y a donc un conflit. A partir de quel moment est-il acceptable de remplacer un produit A par un produit B sachant que son développement a souvent couté beaucoup d'argent ?

    Il est parfois très difficile de montrer qu'un produit est supérieur à un autre. Les effets secondaires peuvent être différents, tout comme le taux de mortalité. Quels critères prendre en compte et quel poids leur donner ?

    Indépendamment de tout cela, les statistiques ont elles-mêmes leur propres limites. Il est absolument impossible de passer de la mesure sur un échantillon à un chiffre sur la population toute entière sans donner le risque d'erreur que l'on commet. Ce risque d'erreur est bien souvent irréductible, quelques % ou quelques dixièmes de %. Considérons donc que l'on élabore un nouveau médicament dont les tests statistiques indiquent une efficacité moindre qu'un autre médicament déjà commercialisé mais dont ce % est inférieur à la marge d'erreur incompressible. Il devient e ce fait non-significatif. Il peut donc être accepté comme médicament équivalent même si l'on a mis en évidence une efficacité qui semble moindre.

    Un pas de plus peut être franchi avec la notion de non-infériorité.

    Ci-après un extrait du blog d'un cardiologue:

    Pourtant, encore une fois, toutes les décisions médicales actuelles et futures se basent et se baseront sur des études cliniques, elles même basées sur des concepts statistiques plus ou moins sophistiqués.
    Au début, un peu comme tout le monde, j’ai fait confiance aux revues scientifiques, et aux quelques bases mathématiques enseignées en médecine pour trier le bon grain de l’ivraie.
    Mais je me suis rapidement rendu compte, que c’était une erreur, et qu’il fallait développer un peu mes connaissances statistiques pour développer mon sens critique, et résister aux Chants des Sirènes.

    Depuis peu donc, éclosent des études dites « d’équivalence » ou de « non infériorité ».
    Pourquoi un tel développement ?
    Primo, car il est plus simple de démontrer qu’un produit est non inférieur, que de prouver qu’il est supérieur en terme de statistiques. Secundo car la taille des échantillons étudiés peut être moindre, donc des coûts plus faibles. Tertio, le risque marketing est moindre, une étude « de non infériorité » positive vaut mieux qu’une étude de supériorité négative (qui signifie l’enterrement quasi systématique du produit).

    L’étude pourra donc être positive, donc favorable pour A, même si A est jugé équivalent à B.

    L'intégralité des notes : La non-infériorité et Let’s talk about stats (2).

    Bonne lecture.