|
|
|
|
|
NUMERO 346 |
|
|
|
|
|
|
|
Edition du 20 Juillet 2005
|
|
|
|
|
Edito
Téléportation quantique, le rêve devient réalité
Tout le monde se souvient de la célèbre série télévisée "Star Trek", où l'on voyait les personnages utiliser la téléportation pour se déplacer instantanément d'un bout à l'autre de la galaxie. Nous n'en sommes pas encore là et il est même peu probable que l'on puisse un jour téléporter un être vivant et, a fortiori, un être humain. Pourtant la téléportation de particules, et même d'atomes entiers, ne relève plus de la science-fiction et est en passe d'être maîtrisée dans les laboratoires, ce qui ouvre des perspectives tout à fait fascinantes dans de nombreux domaines et notamment dans le secteur des télécommunications. «Nous rêvons les pieds sur Terre», souligne Nicolas Gisin, directeur du Groupe de physique appliquée de l'Université de Genève. «Car même avec tous les crédits du monde, nous ne savons tout simplement pas comment faire pour téléporter un être humain composé de milliards de cellules ! En revanche, téléporter un photon, une particule de lumière, relève aujourd'hui d'une mécanique bien rodée pour les Genevois. La méthode permettant de téléporter des particules a vu le jour en 1992 ; en 1997, usant d'une somme d'astuces remarquables, des physiciens parvenaient à téléporter l'état quantique d'un photon (particule élémentaire composant la lumière et véhiculant l'interaction électromagnétique). En 2002, des physiciens suisses téléportaient un grain de lumière sur 6 kilomètres. Les scientifiques travaillent à présent à lever les obstacles techniques pour «parcourir» une plus grande distance. «Il faut pour cela établir des relais car les photons ont tendance à se perdre dans les fibres optiques. Mais de proche en proche, on peut allonger l'intrication», précise Nicolas Gisin. Qui se montre confiant : «Un jour nous téléporterons des photons à travers tout l'univers.» La prochaine étape consiste à téléporter non des photons, particules sans masse, mais des atomes complets. Cette étape décisive a été franchie en juin 2004 quand deux équipes autrichienne et américaine ont réussi indépendamment l'exploit de téléporter un atome. A quoi cela sert-il ? Dans un futur proche, à transmettre des informations confidentielles sur de longues distances, c'est la cryptographie quantique. Elle exploite le fait que, en physique quantique, l'observation d'un objet (photon) modifie son état. On sait donc qu'il a y eu «écoute» et il devient impossible de l'intercepter. Les physiciens ont pour l'instant réussi à montrer la faisabilité des différents processus permettant la téléportation à longue distance. «Dans ce domaine, l'Europe domine», se félicite le professeur Gisin. Dans la téléportation quantique, il n'y a pas de déplacement de matière d'un point à un autre. Seule une structure se reproduit. C'est comme si l'on avait un canard en pâte à modeler d'un côté et de la pâte à modeler de l'autre. Seule la forme du canard passe d'un point à l'autre. Comme a répondu Asher Peres, un des pères de la téléportation quantique, récemment disparu, à un journaliste qui lui demandait si l'on peut téléporter l'esprit en même temps que le corps : «Non, on ne peut téléporter que l'esprit !» Ensuite, il faut «intriquer» les deux particules ou les deux blocs de pâte à modeler. Il s'agit en fait d'établir un lien intangible entre les deux, qui fait que tout changement de l'état de l'un affecte l'autre. En 1935, Einstein, en collaboration avec Boris Podolsky et Nathan Rosen, a montré que l'intrication était une conséquence inéluctable de la mécanique quantique. Troisième étape, séparer géographiquement les blocs de pâte à modeler, afin que l'un serve d'émetteur et l'autre de récepteur. Dans la réalité, comme il s'agit de photons, le voyage se fait par fibre optique. Quatrième étape, la téléportation d'un photon en forme de triangle. Par ce que l'on appelle la «mesure de Bell», une manipulation délicate, on mesure en même temps le photon originel et le photon triangle. Ce qui a pour effet de détruire l'original, du fait de l'intrication. Aujourd'hui, l'équipe de Nicolas Gisin, en pointe mondiale sur ces recherches, est parvenue, au prix il est vrai d'un dispositif expérimental lourd et complexe, à téléporter sur plus de 6 Km des photons avec un taux de fidélité de 81 %. Ces recherches récentes montrent donc la faisabilité de la téléportation à longue distance, que beaucoup de scientifiques jugeaient impossible il y a encore 15 ans. (Voir article de N Gisin dans "La Recherche" de mai 2005 et visioconférence de Nicolas Gisin http://irh.unice.fr/article.php3?id_article=99). D'ici quelques années il ne fait plus de doute que les télécommunications sauront utiliser à grande échelle la téléportation quantique, notamment dans le domaine crucial de la cryptographie. On devrait alors être en mesure de rendre totalement inviolables certaines transmissions de messages sensibles puisque toute tentative d'interception de ces messages se soldera immanquablement par leur destruction immédiate. On imagine sans peine les conséquences de la généralisation d'un tel cryptage dans tous les domaines où il est capital d'assurer la confidentialité des informations transmises, police, justice, commerce électronique, recherche etc... Mais comme toute médaille à son revers il ne fait également nul doute que les organisations terroristes et criminelles voudront s'emparer de ces technologies de cryptage révolutionnaires qui devront faire l'objet d'une protection particulière. A plus long terme, les étranges propriétés de la physique quantique ne seront pas seulement utilisées dans les télécommunications mais permettront également une révolution technologique en électronique et en informatique en dotant nos ordinateurs de qBits, capables de prendre plusieurs états quantiques superposés, ce qui donnera à nos machines une puissance de calcul phénoménale que nous pouvons à peine imaginer aujourd'hui. Plus d'un siècle après sa découverte, la physique quantique, longtemps considérée comme un curiosité conceptuelle, et parfois réduite à une abstraction mathématique, n'a donc pas fini de nous étonner et de transformer notre vie quotidienne. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
On connaissait le Wi-Fi, le Bluetooth, on attend de pied ferme le WiMax... Il va falloir maintenant compter avec le xMax! Ce nouvel outil de connexion Internet sans fil présente comme particularité de fonctionner sur des fréquences radio habituellement encombrées. Sa méthode? Murmurer au lieu de parler... xMax utilise les fréquences habituellement dévolues aux système de pagers (bippeurs pour nous autres francophones) et autres signaux de télévision. Son principal intérêt est donc de rationaliser l'usage de la bande passante, au lieu de s'arroger une gamme de fréquence bien à lui, comme le font tous les nouveaux standards. Normalement, le fait d'émettre sur une fréquence réservée provoque des nuisances pour les utilsateurs patentés de ladite fréquence, et peut même engendrer des poursuites judiciaires contre l'importun. Ce n'est toutefois pas le cas de notre xMax, dont le signal est trop faible pour être capté par des antennes classiques ; d'autres antennes, spéciales celles-là, reçoivent le signal et le transmettent, en émission ou en réception, aux appareils équipés en xMax. L'intérêt de ce système réside donc dans le fait que, théoriquement, chaque gamme de fréquence peut être employée deux fois : une fois pour son usage réservé, et une fois pour une connexion locale grâce à xMax. Les opérateurs de téléphonie mobile, ou les fournisseurs d'accés à Internet, qui souhaitent s'implanter sur un marché aux fréquences "fermées" peuvent donc se rabattre sur cette solution, puisque leurs signaux ne gêneront personne. Seul inconvénient, vu la faiblesse des signaux échangés : au fur et à mesure que leur audience (et leur clientèle) augmentera, ces opérateurs devront accroître le maillage de leurs stations-relais, au lieu d'en élever la puissance d'émission, sauf à entrer en conflit avec les utilisateurs primaires des fréquences employées... Les réseaux locaux à très faible densité de population, comme certaines zones rurales chez nous, pourraient également bénéficier à moindre frais d'une couverture Internet à haut débit. Chez XG Technology, la marque propriétaire de xMax, on avance les chiffres suivants : de 400 % à 500 % d'amélioration en terme de zone de couverture, par rapport aux solutions sans fil (hors WiMax) existantes, même par rapport au Flash-OFDM (Orthogonal/Optical Frequency Division Multiplexing), peu employé chez nous ; des puces appropriées s'échangeraient contre 5 à 6 dollars, si elles sont fabriquées en quantités suffisantes ; des stations-relais coûtant environ 350 000 dollars, à comparer au million nécessaire à l'établissement d'un réseau WiMax de densité équivalente... Selon des chercheurs de l'Université de Princeton, xMax n'est certes pas le meilleurs outil pour transmettre des données en masse, mais sa grande force réside dans sa furtivité, alliée au fait que la gamme de fréquences qu'il emploie (inférieures à 1GHz) le rend plus efficace dans les zones fortement urbanisées que les WiMax et Flash-OFDM, dont les fréquences plus hautes peinent à pénétrer les murs. Une première expérimentation grandeur nature est en cours de lancement autour de Miami-Fort Lauderdale, en Floride ; la station qui y est installée devrait couvrir une zone de plus de 100 kilomètres carrés. GNT
|
|
|
|
|
|
|
|
En 2004, Chicago a enregistré son taux de criminalité le plus bas depuis une quarantaine d'années, une performance attribuable, selon les autorités, au réseau de caméras de surveillance déployé dans la ville. Du coup, ces dernières veulent aller encore plus loin et compléter ce dispositif par un système de détection des bruits des armes baptisé SENTRI pour Smart Sensor Enabled Neural Threat. Fabriqué et commercialisé par la société Safety Dynamics, SENTRI utilise un algorithme issu des travaux sur les réseaux neuronaux de Theodore Berger, de l'University of Southern California (USC), et de ses collègues. Le logiciel est capable, à l'aide de 4 microphones, de détecter n'importe quel coup de feu, d'identifier la source par triangulation dans un rayon de 2 blocs d'immeubles et d'orienter ainsi les caméras vidéos dans la bonne direction. Grâce à sa bibliothèque de signatures acoustiques, le dispositif est par ailleurs suffisamment précis pour distinguer les bruits d'une ville (liés à la circulation, aux travaux publics, etc.) de celui d'une arme à feu. Une trentaine de SENTRI sont déjà en place dans les lieux à forte criminalité et une douzaine d'autres sont en cours d'installation. Le comté de Los Angeles fait actuellement des tests avec une vingtaine d'appareils et sera sans doute suivi sous peu par Philadelphie et San Francisco. Safety Dynamics travaille également avec l'US Army et la Navy pour mettre au point une version militaire de son produit. St Presse USA 747 SJMN
|
|
|
|
|
Selon les derniers chiffres de la Federal Communications Commission (FCC), les connexions à l'Internet haut débit s'élevaient en 2004 à 37,9 millions de lignes, soit une augmentation de 34% par rapport à l'année précédente. Le câble domine toujours le marché avec 21,4 millions de lignes mais sa progression (30 %) s'est faite plus lentement que celle du DSL (Digital Subscriber line) qui a bondi de 45 % avec 13,8 millions de lignes. La plus forte hausse (50 %) concerne les connexions par satellite et celles sans fil, mais pour un nombre de lignes encore très limité avec 500 000 lignes seulement. Les connexions par courant porteur enfin, en plein décollage, ont augmenté de 16 % pour atteindre 700 000 lignes. En parallèle bien entendu, les consommateurs se détournent des contrats traditionnels d'accès commuté ("dial-up"). St Presse USA 748
|
|
|
|
|
|
|
|
Les étiquettes électroniques sont plus résistantes aux températures extrêmes que les codes barres. Cette caractéristique a retenu l'attention de quatre hôpitaux marseillais, qui ont retenu la technologie RFID pour leurs tubes d'analyse médicale. Après la grande distribution et la logistique, les étiquettes électroniques à communication radio ou RFID (Radio Frequency Identification) séduisent le secteur de la santé. Des hôpitaux marseillais - La Timone, l'Hôpital Nord, La Conception et l'institut Paoli Calmettes - les ont adoptées, après deux ans de tests, pour l'identification de leurs échantillons biologiques. Les quatre établissements intègrent les étiquettes depuis le début de l'année ; ils les insèrent dans les capuchons de leurs tubes d'échantillons de tissus humains. Ces tubes sont utilisés par leurs laboratoires à des fins de recherche médicale. Auparavant, les chercheurs avaient recours aux codes barres ou au marquage manuel pour identifier les tubes. Ces deux techniques résistaient cependant mal aux rudes conditions de stockage des prélèvements biologiques. Les tubes peuvent être baignés dans de l'azote liquide à une température de -196° Celsius. Lors des analyses, la température peut même augmenter de 125° en quelques secondes. Les étiquettes électroniques supportent, quant à elle, parfaitement ces traitements. «Elles nous permettent de gérer les échantillons biologiques de manière plus sécurisée et plus fiable, afin d'éliminer les pertes de temps et d'augmenter la disponibilité et la fiabilité des données liées à chaque échantillon», explique le docteur Christian Chabannon, responsable du centre de thérapie cellulaire de l'institut Paoli Calmettes, à l'origine de cette initiative. Les tubes mesurent moins d'un centimètre de diamètre, pour 3 à 5 centimètres de hauteur. Les "tags" ou puces RFID, dont le diamètre est de 8,9 mm, fonctionnent à la fréquence de 13,56 Mhz et disposent de 2 Ko de mémoire. Chacune intègre un numéro d'identification unique non modifiable de 64 bits. Le reste de la mémoire est consacré au stockage des informations relatives au contenu du tube ; données que les chercheurs peuvent modifier. Pour lire les puces, les tubes doivent être tenus à 3 cm de distance de lecteurs à main. Ils peuvent aussi être posés sur une station de base, capable de scanner en une fois une centaine de tubes rangés en "rack". Il est alors possible d'identifier et de positionner chaque tube, car ces équipements de mesure sont reliés à un PC équipé d'une application spécifique. Les puces et les lecteurs sont fournis par la société française Tagsys, spécialisée dans les technologies RFID. Elle sous-traite la fabrication à plusieurs fournisseurs, dont Texas Instrument, Infineon ou ST Microelectronics. Le logiciel de gestion a quant à lui été développé par Cybernétix, une entreprise marseillaise de robotique et automatisation. «La prochaine étape sera de fournir des tubes intégrant déjà les étiquettes RFID», explique Olivier Burah, directeur de Tagsys/ ZDNet
|
|
|
|
|
Fujitsu annonce avoir développé un nouveau type de papier électronique souple présentant la caractéristique singulière de pouvoir afficher des images en couleurs même quand ce support n'est pas alimenté en électricité. En fait ce "papier" est un support de cristaux liquides capables de rendre les trois couleurs primaires sans électricité. Cette couche est pressée entre trois couches de film protecteur, le tout ne dépassant pas les 0.8mm d'épaisseur. Si Fujitsu espère une commercialisation en mars 2007, on ne peut pas dire que les applications manqueront. Ce papier électronique fonctionne sans alimentation et ne requière qu'un courant minimal pour le changement d'image. PCI
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Philips, certainement influencé par toutes les grandes marques japonaises qui s'attellent à la même tâche, poursuit ses recherches dans la robotique domestique. La société espère développer un produit qu'elle pourrait proposer au grand public. Le fleuron de la recherche Philips se nomme iCat, un petit chat présenté cette semaine à Londres. La particularité du iCat est de reproduire les expressions d'un visage humain. Le robot pourrait alors servir d'interface de contrôle simplifiée, permettant de se faire comprendre en une mimique. Le robot aura alors pour fonction d'assister son utilisateur dans les tâches quotidiennes telles que l'envoi d'emails, accéder aux informations, sélectionner sa musique ou ses photos et vidéos favorites, et même la surveillance du logement. L'iCat est doté de reconnaissance vocale, d'une vue, et d'une animation de son visage afin de « manifester une personnalité ». Selon Philips, ce iCat pourrait remplacer une souris, et ce pour tous les engins de son réseau domestique. L'iCat comprendra les demandes, répondra, reconnaîtra le visage de ses interlocuteurs, et fera quelques mouvements de tête en plus de ses expressions faciales. L'iCat se connecte déjà à un PC via une interface USB. Son intelligence artificielle est organisée dans plusieurs couches logicielles successives, qui incluent la simulation de la motivation, des émotions, et un « moteur d'anticipation » qui appréciera le comportement des utilisateurs en fonction de leurs activités quotidiennes et du matériel présent sur le réseau. L'iCat peut aussi directement lire des photos, vidéos, et pistes audio à partir du PC ou du Web selon Philips. La marque peaufine désormais son robot avec de nombreux universitaires et laboratoires de recherches, qui vont rejoindre l'aventure dès cette année 2005. PCI
|
|
|
|
|
|
|
|
La société de services informatiques et filiale du groupe NEC, NEC System Technologies a dévoilé le 9 juin un prototype de robot capable de goûter les aliments, donner leur nom, ou citer les ingrédients qui les composent. De plus, le robot peut donner des conseils de santé, à partir des produits dégustés. Ce robot « diététicien » a été développé en collaboration avec l'Université de Mié, dans le cadre des projets futuristes organisés par le NEDO (New Energy and industrial technology Development Organisation) et a été présenté à l'Exposition Universelle d'Aichi. Jusqu'à aujourd'hui, les recherches sur les cinq sens étaient surtout avancées pour la vue, l'ouïe, le toucher ; et le développement de capteurs et l'intégration sur les robots de ces trois sens ont été effectués assez tôt. Les recherches concernant le goût et l'odorat ont, elles, été retardées par rapport aux trois autres sens, et aucun robot équipé de tels capteurs n'a été développé. Le robot « diététicien » de NEC constitue donc une première mondiale, en intégrant le « goût ». L'arrivée d'un robot équipé des cinq sens est attendue, notamment dans le domaine de l'assistance aux personnes âgées. Le prototype de NEC est basé sur son robot d'accompagnement, PaPeRo. Son bras est équipé d'un capteur qui détecte la quantité de molécules, après exposition des aliments à un rayon infra rouge. Ce système utilise la caractéristique des molécules, qui fait que chaque molécule absorbe différentes longueurs d'onde infra rouge spécifiques. Le fait de mesurer les différentes ondes infra rouges présentes dans un aliment permet de savoir quels ingrédients le composent. Grâce à ces données collectées, le robot serait capable de distinguer les aliments, savoir si un fruit est bien mûr, avertir si un plat contient trop de graisse ou de sucre. Ce robot est même capable de distinguer les marques de chaque produit alimentaire. Cette fonction est possible grâce au spectre d'absorption des ondes infra rouge, qui est différent pour tous les aliments. Si le robot contient une base de données des spectres de chaque produit, il sera capable de comparer et distinguer les différentes marques pour un même aliment. Atelier
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Un groupe de chercheurs de l'Université Technique du Danemark (DTU) a inventé une méthode de stockage de l'hydrogène qui est réversible, compacte et sans danger. Le matériau de stockage se présente sous la forme de pastilles d'un cm3. Le stockage efficace et sûr de l'hydrogène pour la production d'énergie a fait l'objet de beaucoup d'attention ces dernières années. La plupart des recherches dans ce domaine se concentrent sur les "hydrures complexes" à base d'alanates et de borates. Certains hydrures ont des qualités prometteuses mais la plupart souffrent d'une trop faible densité en hydrogène, d'une cinétique trop lente et d'un manque de réversibilité. De plus, tous les matériaux à base d'hydrures sont extrêmement réactifs en présence d'oxygène et d'eau, ce qui rend leur manipulation très difficile. L'ammoniaque est, en théorie, le transporteur d'hydrogène idéal. La décomposition de l'ammoniaque en hydrogène et en azote et la transformation inverse : la synthèse de l'ammoniaques, sont des réactions bien connues et qui peuvent se dérouler à des températures relativement basses : autour de 600-650K (environ 326-376 °C). Cependant, en terme de sûreté, il n'est pas souhaitable de transporter de l'ammoniaque liquide dans un réservoir pressurisé. Une fuite pourrait causer une expansion rapide de gaz toxiques d'ammoniaque dans les environs. Dans le nouveau matériau de stockage de l'hydrogène développé par AMMINEX, la pression de l'ammoniaque est faible (0.002 bar) à température ambiante. Il se présente sous forme de pastilles solides, ce qui permet de le manipuler facilement et sans danger. Ces pastilles contiennent plus de 9 % d'hydrogène en poids. A partir de ce matériau, l'hydrogène est obtenu en résorbant l'ammoniaque qu'il contient puis en le passant dans un catalyseur à décomposition d'ammoniaque. Cette technique sûre et bon marché (1 euro par kilo en matériel brut) est en outre potentiellement un système sans émission de CO2. De nombreuses applications pour cette méthode de stockage sont envisageables comme par exemple son utilisation dans les piles à combustible. AI
|
|
|
|
|
|
|
|
Des chercheurs danois ont annoncé vendredi avoir construit un nouveau type de cellule solaire en plastique dont la durée de vie est beaucoup plus longue que les modèles précédents, une innovation qui pourrait ouvrir la voie à une énergie solaire bon marché. Les cellules en plastique coûtent infiniment moins cher que celles, plus répandues, fabriquées en silicium, qui sont utilisées dans les produits fonctionnant à l'énergie solaire comme les calculatrices. Mais les cellules en plastique sont habituellement fragiles et ne durent que quelques jours. "Notre nouvelle cellule a une durée de vie de 2 ans et demi, ce qui doit être un record du monde pour les cellules en plastique", souligne Frederik Krebs, un scientifique du laboratoire national de Risoe, établissement danois qui vient de présenter ses travaux. Les chercheurs danois ont précisé qu'ils utilisaient une forme plus stable de plastique comme substance active dans la cellule, qui convertit l'énergie des rayons du soleil en électricité. Le prix d'une cellule en silicium classique sur le marché peut aller jusqu'à 5.000 couronnes danoises (675 euros) le mètre carré, contre moins de 100 couronnes (13 euros) pour la version en plastique, ont-ils précisé. Les scientifiques soulignent toutefois qu'ils doivent renforcer l'efficacité de la cellule en plastique, qui n'exploite que 0,2 % à 5 % de l'énergie solaire, alors que les cellules en silicium affichent un taux de 12 % à 15 %. "Nous nous sommes concentrés sur la durée de vie et avons réussi. Nous allons maintenant la rendre plus efficace", a assuré M. Krebs. Selon des experts non liés à l'étude, l'efficacité des cellules en plastique doit être améliorée avant qu'elles ne puissent être utilisées dans des produits de consommation. AP
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Le spectacle est difficilement imaginable pour un Terrien : le ciel de la nouvelle exoplanète découverte par Maciej Konacki est illuminé par trois étoiles. La principale est très proche et éblouissante, les deux autres, plus éloignées, forment une indissociable paire orange et rouge. Pour la première fois une planète a été découverte dans un système comptant trois étoiles, explique Konacki, astrophysicien au Caltech, dans la revue Nature. La formation d'une planète dans un tel système pose de nombreuses questions aux spécialistes. Les systèmes à deux ou trois étoiles sont plus nombreux dans l'univers que les systèmes simples comme le nôtre. Cependant les techniques actuelles de détection des exoplanètes sont plus difficiles à appliquer aux systèmes à plusieurs étoiles. Maciej Konacki a mis au point une nouvelle méthode avant d'observer le trio du système HD 188753 situé dans la constellation du Cygne avec le télescope Keck I de Hawaii. Il a déduit la présence d'une planète autour de l'étoile principale grâce aux effets gravitationnels de la planète sur l'étoile. Il s'agit d'une géante gazeuse qui fait le tour de son Soleil en trois jours et demi. Ce type d'exoplanète, appelé «Jupiter chaud», est supposé se former plus loin de l'étoile, là où il fait moins chaud, à partir d'un coeur de glace, puis se rapprocher du centre du système. Cependant la présence de deux autres étoiles, qui se tournent autour tout en orbitant autour de l'étoile centrale, vient jouer les troubles fêtes. D'autres modèles de formation des géantes gazeuses restent à imaginer, selon Konacki, qui prévoit d'étudier 450 autres étoiles à la recherche de planètes aux multiples soleils. S&A
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
A l'heure où le G8 vient de s'accorder sur un consensus minimal concernant les émissions de gaz à effet de serre, responsables du réchauffement climatique, les scientifiques de huit pays européens livrent leurs conclusions sur l'impact économique que pourrait avoir une hausse durable des températures. Le rapport MICE (Modeling the Impact of Climates Etremes), publié par l'unité de recherche climatique de l'université de Norwich (Grande-Bretagne), est le résultat de trois années de collecte de données et de modélisation informatique. Selon MICE, dans le futur l'Europe connaîtra des vagues de chaleurs de plus en plus élevées et durables tandis que la saison froide sera réduite à la portion congrue ; le pourtour méditerranéen vivra des épisodes récurrents de sécheresse qui pourraient même affecter l'Europe du Nord en été. Pour finir, les hivers seront plus humides sur la majeure partie du continent, multipliant les risques d'inondation et les épisodes catastrophiques comme les tempêtes. Rappelons, tout de même, qu'il s'agit là du scénario le plus noir concernant les quatre-vingt prochaines années. Tous ces changements saisonniers auront, bien sûr, des répercussions sur les activités humaines. Les agriculteurs seront les premiers touchés par les perturbations du cycle de l'eau. Inondations, sécheresses et pollutions devraient en effet se multiplier, avec des conséquences marquées sur les cultures. D'autant plus que celles-ci devront affronter des contraintes fortes, par exemple une chaleur plus importante en période de floraison ou une pluviométrie accrue durant l'ensemencement. Il s'en suivra une nette baisse de rendement. La végétation « sauvage » sera également mise à rude épreuve par les conditions atmosphériques. Les forêts seront aussi menacées par les incendies, les auteurs du rapport redoutent la destruction d'une grande partie du domaine sylvicole européen. Les professionnels du tourisme auront pareillement fort à faire. Les températures caniculaires du sud de l'Europe feront fuir les estivants. Adieu Costa del Sol... A l'inverse, les côtes anglaises deviendraient tout à fait fréquentables et les vacanciers privilégieront désormais les pays du Nord. Côté sports d'hiver, les skieurs risquent d'être déçus par la quantité de neige. D'ici à 2020 la profondeur du manteau neigeux devrait diminuer de 20 à 30 % dans les Alpes du Sud. Enfin, l'ensemble du système énergétique sera lui aussi en crise. Côté production, les centrales nucléaires, par exemple, ne pourront plus pomper l'eau des fleuves en été pour assurer le refroidissement des réacteurs, celle-ci devenant trop chaude. Côté consommation, c'est le yoyo, l'arrivée en masse des climatiseurs décuplera les besoins en été tandis que la douceur des hivers les réduira. Toutes ces modifications, et la liste n'est pas exhaustive, généreront bien sûr des surcoûts. Voilà de quoi tourmenter investisseurs et décideurs politiques. NO
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
L'équipe du professeur Philippe Froguel (CNRS, Université de Lille 2), en collaboration avec des chercheurs de l'Imperial College de Londres et de l'Université de Californie à Los Angeles, vient d'identifier le premier lien génétique et physiologique entre l'obésité commune de l'enfant, l'obésité sévère de l'adulte et le diabète de type 2. Il s'agit du gène ENPP1, un inhibiteur du récepteur de l'insuline dont les mutations, retrouvées dans plusieurs populations européennes, entraînent une résistance à l'insuline au niveau du foie, du pancréas et probablement du cerveau. Ces mutations sont responsables d'obésité précoce et de diabète. Ces résultats ouvrent des perspectives nouvelles dans la compréhension, la prévention et le traitement de la « diabésité », maladie qui associe obésité de l'enfant et de l'adulte et sa complication principale, le diabète. Ces données sont publiées en ligne le 17 Juillet, dans la revue Nature Genetics. L'obésité de l'enfant progresse partout de façon épidémique. En Europe, en 2005, près d'un enfant sur trois est en surpoids et si rien n'est fait la grande majorité d'entre eux seront obèses à l'état adulte. Près de la moitié développeront ensuite un diabète et leur espérance de vie sera plus faible que celle de leurs parents. La sédentarité, la mauvaise nutrition sont en cause au niveau collectif, mais à l'échelon individuel l'hérédité joue un rôle important dans le risque de survenue et la gravité de ces affections. L'équipe CNRS de Philippe Froguel a contribué à identifier, depuis 1998, les formes monogéniques d'obésité de l'enfant. Cependant, jusqu'à présent les bases génétiques des formes communes (polygéniques) de l'obésité de l'enfant restaient inconnues. Pour élucider cette maladie, les chercheurs ont établi la plus grande collection mondiale de familles d'enfants obèses. L'exploration du génome entier de 115 familles françaises avait permis de localiser une région du chromosome 6 prédisposant à l'obésité de l'enfant, où se situe le gène de l'Ecto-Nucleotide Pyrophosphatase/Phosphodiesterase 1 (ENPP1). Ce gène est un inhibiteur du récepteur de l'insuline dont l'expression exagérée dans le foie de souris transgéniques entraîne une insensibilité aux effets de l'insuline et un diabète. Le travail actuel publié dans Nature Genetics repose sur l'étude de plus de 6000 sujets européens. Il montre que la présence simultanée de 3 mutations du gène ENPP1 augmente de 50-70 % le risque de développement d'une obésité pendant l'enfance, puis d'une obésité massive à l'âge adulte, et, dans les mêmes proportions, le risque de diabète de type 2. ENPP1 est le premier déterminant génétique commun entre obésité de l'enfant, obésité morbide de l'adulte et diabète de type 2. La découverte de ce gène de « diabésité » est importante car elle montre qu'au delà des perturbations de la prise alimentaire et de la satiété, il existe des obésités très diabétogènes d'origine purement métabolique. Ces obésités devront être prévenues ou prises en charge de manière différente de celles liées à des troubles du comportement alimentaire. Ainsi des régimes moins « insulino-résistants », une activité physique importante voire des médicaments spécifiques pourraient être très efficaces pour lutter contre la « diabésité », première épidémie d'origine non infectieuse de l'histoire de l'humanité. CNRS
|
|
|
|
|
|
|
|
Une pâte à base de cacahuètes pourrait révolutionner la lutte contre la famine et la malnutrition : produite en Normandie, elle est déjà utilisée avec succès en Afrique, au Turkménistan comme en Haïti. Contrairement au lait en poudre, cette pâte ne nécessite pas d'adjonction d'eau potable, ce qui permet de soigner des enfants mal nourris sans les garder au dispensaire. Les médecins qui se servent de cette pâte baptisée "Plumpy'nut", et vendue exclusivement aux ONG et à l'ONU, sont enthousiastes. "C'est nettement plus efficace que le lait en poudre, nous parvenons à un taux de guérison de 95 % contre 45 % avec le lait en poudre", a déclaré à l'AFP le pédiatre américain Mark Manary, détaché au Malawi, dans une interview par internet. La pâte peut être administrée longtemps parce que la famille peut emporter les sachets chez elle. Les portions de 92 grammes contiennent 500 kilocalories. C'est important, souligne ce médecin venu de la Washington School of Medicine de Saint Louis (Missouri), "parce qu'un être humain souffrant de dénutrition ne peut pas absorber de grandes quantités d'aliments". Enfin la pâte se conserve deux ans dans son emballage même dans des conditions insalubres. Le produit a été développé pour répondre aux besoins des ONG dont la floraison dans les années 1990 a entraîné une "révolution culturelle" dans l'aide au développement, explique Michel Lescanne, co-inventeur de "Plumpy'nut" et PDG de la firme Nutriset. Jusque là, les Européens se contentaient de donner leurs surplus agricoles au tiers monde. Les ONG, financées par des dons, devaient rendre des comptes et présenter des résultats. La lutte contre la faim et la pauvreté s'est professionnalisée, dit-il. Cet ingénieur en agro-alimentaire, âgé de 51 ans, a créé son laboratoire en 1986, dans sa cuisine. Nutriset emploie aujourd'hui plus de 50 personnes. Ses installations modernes tranchent sur les maisons à colombages du village normand de Malaunay, niché dans les prairies au nord-ouest de Rouen. Michel Lescanne a connu son premier succès en 1993, quand il a développé avec l'aide de nutritionnistes des poudres de lait pour un traitement en trois étapes des enfants mal nourris : réhydrater l'organisme en deux jours, ensuite redémarrer le métabolisme en six jours, suivis de trois semaines de prise de poids. Mais les organisations caritatives avaient d'autres exigences. Le lait en poudre doit être dilué dans l'eau potable et les enfants doivent donc être traités dans les dispensaires où elle est disponible. "Ils y attrapent toutes les maladies possibles. C'est pourquoi nous avons cherché un moyen de les nourrir chez eux", raconte Michel Lescanne. Après des années de recherches sur des produits qui, soit ne se conservaient pas, soit n'avaient pas bon goût ou étaient trop coûteux, la pâte de cacahuète s'est imposée. Lescanne ne revendique pas la paternité de l'idée mais l'attribue aux efforts de nombreux experts. "Il vient un moment où la solution paraît si évidente qu'on se demande pourquoi on n'y a pas pensé plus tôt", dit-il. La production de Plumpy'nut a commencé en 1999. En 2004, elle s'est élevée à 1.000 tonnes, et au premier semestre 2005 elle a atteint 900 tonnes. Le chiffre d'affaires de Nutriset est passé de 5 millions d'euros en 1999 à 12 millions en 2004. La pâte de cacahuète est à présent produite sous franchise également au Malawi, au Niger et au Congo. AFP
|
|
|
|
|
|
|
|
Bonne nouvelle sur le front de la guerre contre le cancer. Le Canada autorise la commercialisation du Tarceva, connu sous le nom générique d'erlotinibe, capable de prolonger la vie des personnes qui souffrent d'un cancer du poumon en phase avancée. Le médicament appartient à une nouvelle classe d'anticancéreux à prise orale appelés inhibiteurs de l'EGFR (inhibiteurs du récepteur du facteur de croissance). Cette nouvelle catégorie de médicaments ralentit la croissance des tumeurs en agissant sur les composantes cellulaires responsables de leur reproduction, selon des chercheurs de l'Université de Toronto et de l'hôpital Princesse Margaret. Leurs travaux, publiés dans le New England Journal of Medecine, montrent qu'environ le tiers des patients qui souffraient de carcinomes bronchiques à petites cellules, le type de cancer du poumon le plus fréquent, étaient toujours en vie un an ou plus après avoir pris le médicament, comparativement au cinquième de ceux qui avaient absorbé un placebo. Le Tarceva ne fait pas que prolonger la survie des personnes atteintes, il améliore également leur condition puisqu'il cause très peu d'effets secondaires négatifs. Au Canada, le cancer du poumon est le cancer le plus souvent diagnostiqué et le plus mortel. En 2005, 22 200 personnes recevront un diagnostic de cancer du poumon. D'après les statistiques, 1 homme sur 11 sera atteint d'un cancer du poumon au cours de sa vie, et 1 sur 12 en mourra. Chez les femmes, 1 sur 17 sera atteinte d'un cancer du poumon au cours de sa vie, et 1 sur 20 y succombera. RC
|
|
|
|
|
|
|
|
Six défibrillateurs automatiques, qui pourront être utilisés par tout témoin d'un arrêt cardiaque pour aider à la survie de la victime, viennent d'être installés à Montbard (Côte-d'Or) dans des lieux publics, a-t-on appris auprès de l'organisateur de cette expérimentation unique en France. "Le défibrillateur est comme un extincteur pour le feu : il permet d'attendre les secours, de gagner un temps précieux quand on sait que l'on perd 10 % de chances de survie chaque minute après un arrêt cardiaque", souligne le Dr Jean-Pierre Rifler, chef du service des urgences à l'hôpital intercommunal de Montbard-Châtillon-sur-Seine. Ces appareils sont simples d'utilisation puisqu'il suffit de placer des électrodes et la machine détecte seule s'il y a besoin de déclencher des décharges électriques. Une brève formation préalable facilite l'opération, mais elle n'est pas obligatoire, aucune législation ou réglementation ne fixant de cadre aux défibrillateurs automatiques. Le Dr Rifler a développé depuis 1998 diverses formations aux secours pour "compléter la chaîne de survie", notamment à destination des collégiens. Ces campagnes ont permis d'atteindre le taux de 16 % de chances de survie après un arrêt cardiaque dans la ville, contre 2 % au niveau national. "Ces taux seront améliorés avec les défibrillateurs automatiques, c'est ce que nous voulons prouver. Nous espérons que l'expérience sera généralisée et que le vide juridique en la matière sera comblé", a ajouté le Dr Rifler. Il prend pour exemple les USA, où le taux de survie atteint 30 à 50 % grâce aux défibrillateurs distribués en nombre. Le député de la circonscription de Montbard François Sauvadet a déposé à l'Assemblée nationale une proposition de loi en ce sens. Les six défibrillateurs, d'un coût de 2.000 euros chacun, ont été financés par la Caisse d'Epargne et la société qui les produit, Medtronic. Ils seront placés à la mairie, à la gare, dans les gymnases, dans un hôtel-restaurant et dans la salle des fêtes. L'étape suivante sera l'installation de nouveaux appareils dans les communes rurales des alentours. Une autre expérimentation est en cours à Hyères (Var) où des défibrillateurs semi-automatiques ont été installés dans plusieurs lieux publics. Mais il faut être formé pour les utiliser, note le Dr Rifler. AFP
|
|
|
|
|
|
|
|
La dépense de santé courante s'est élevée à 183,5 milliards d'euros en 2004, soit en moyenne 2.951 euros par habitant, selon une étude de la Direction de la recherche, des études, de l'évaluation et des statistiques (DREES). Cette dépense représente 11,13% du PIB, contre 11,08% en 2003, selon cette étude. Sur ces 183,5 milliards d'euros, la consommation de soins et de biens médicaux représente 144,8 milliards d'euros, soit une augmentation de 5,1 % en valeur et de 3,4 % en volume par rapport à l'année précédente. Les prix des soins et biens médicaux ont augmenté de 1,6 % en 2004, soit une hausse très proche de l'indice des prix à la consommation pour la même année (1,7 %). L'augmentation de ces prix semble se stabiliser, puisqu'elle était sensiblement plus élevée les deux années précédentes : 2,9 % en 2003 et 2,5 % en 2002, contre 1,9 % pour les prix à la consommation. Par ailleurs, la Drees note que la part de la sécurité sociale dans le financement des soins "se stabilise au même niveau qu'en 2003 à 76,7 % de l'ensemble des dépenses de santé", celle de l'Etat et des collectivités locales s'infléchit de 1,4 % à 1,3 %". Celle "des organismes complémentaires (mutuelles, assurances, institutions de prévoyance) progresse de 12,7 % en 2003 à 12,9 % en 2004", tandis que "les dépenses à charge directe des ménages poursuivent leur décroissance tendancielle: 9,4 % en 2002, 9,3 % en 2003, 9,1 % en 2004". Par ailleurs, la "dépense nationale de santé" - agrégat utilisé pour les comparaisons entre les pays de l'OCDE - devrait s'élever à "10,5 % du PIB", un taux qui place la France, "en termes de poids de la santé dans la création de richesse nationale, au 5e rang après les USA (15 %), la Suisse (11,5 %), l'Allemagne (11,1 %), l'Islande (10,5 %)". Drees
|
|
|
|
|
|
|
|
Jesse Sullivan, 58 ans, est électricien et habite le Tennessee. Il a perdu ses deux bras à la suite d'un accident provoqué par une décharge électrique au travail, et a bien cru qu'il ne pourrait jamais retrouver son autonomie de mouvement. Mais c'était sans compter sur les extraordinaires progrès de la bionique aux Etats Unis. Dans des semaines qui ont suivi l'accident, les scientifiques de l'institut de réadaptation de Chicago (RIC) ont remplacé le bras gauche de l'électricien par un bras bionique de dernière génération qui est commandé par son propre cerveau. Maintenant il peut à nouveau s'alimenter, s'habiller et tondre la pelouse de son jardin. Il peut même faire de petits mouvements précis, tels qu'ouvrir une bouteille ou une boite de conserve, et jouer au ballon avec ses 10 petits-enfants. "Quand je suis venu pour la première fois à Chicago, j'étais vraiment pessimiste sur mes chance de récupérer mon autonomie mais maintenant je suis un autre homme et j'ai repris confiance dans l'avenir ;" Cette prouesse médicale a été rendue possible grâce aux dernières avancées de la technologie bionique qui vise à interconnecter le cerveau humain à des neuro-prothèses capables de rendre à l'utilisateur sa motricité. Les quatre nerfs principaux, qui parcouraient les bras de Jesse, ont été prélevés puis implantés sur son thorax. Les nerfs se sont alors développés dans les muscles, ce qui a permis à Jesse de commander son bras bionique à l'aide de son cerveau. Il peut maintenant soulever son coude ou ouvrir et fermer sa main. "Je ne porte pas mon bras en permanence mais seulement quand j'ai quelque chose à faire", précise Jesse qui ajoute "Avec mon bras bionique j'ai pu par exemple repeindre mes fenêtres sans problèmes." Jesse se considère comme un pionnier et est très fier de faire avancer la science. "C'est la première fois qu'une greffe nerf-muscle est tentée sur l'homme pour relier un membre artificiel au cerveau" souligne Jesse qui ajoute "Je ressens des sensations lorsque j'utilise mon bras bionique." A présent les scientifiques qui travaillent avec Jesse tentent d'améliorer encore le dispositif bionique en le complétant avec des capteurs qui pourront indiquer précisément à Jesse quelle force il doit exercer en fonction de l'acte qu'il accomplit. Ces recherches sont activement soutenues par la DARPA (Agence des Projets Avancés de Recherche de la Défense) qui souhaite que les 500 militaires américains revenus estropiés des conflits d'Irak et d'Afghanistan puissent bénéficier le plus rapidement possible de ces avancées de la technologie bionique. Article @RTFlash BBC
|
|
|
|
|
|
|
|
Le mécanisme de la dépendance cérébrale à la nicotine de ces muridés se dévoile enfin. Une équipe des neurosciences du CNRS à l'Institut Pasteur de Paris, dirigée par Jean-Pierre Changeux, vient de démontrer qu'il existe bien un lieu spécifique de la dépendance à la nicotine dans le cerveau. Ce travail a fait l'objet d'une publication dans le dernier numéro de la revue britannique Nature. Chez l'homme, comme chez la souris, la drogue nicotine (dont les manufacturiers savent depuis les années 1960 que c'est la substance addictive du tabac) se lie spécifiquement dans le cerveau à une sorte de serrure microscopique, un récepteur, et seulement à lui. Ce récepteur nicotinique est taillé sur mesure, par assemblage de cinq sous-unités protéiques qui s'emboîtent les unes aux autres et définissent une cavité, où se loge la clé nicotine. On connaît 9 sous-unités dites alpha et 3 sous-unités béta, qui peuvent se combiner à la surface des neurones en des centaines de variétés de récepteurs nicotiniques ayant des propriétés pharmacologiques très différentes. Où se trouvent les neurones munis de ces récepteurs ? Dans une zone profonde et centrale de la base du cerveau, l'aire tegmentaire centrale (VTA), qui est considéré par les neurophysiologistes comme la région principale du «renforcement», et donc de la dépendance à de très nombreuses drogues, dont la nicotine. Mais ces neurones ont également un rôle dans l'amélioration des performances cognitives. Comprendre l'interaction moléculaire de la nicotine avec ses récepteurs aidera la lutte contre le tabagisme, mais aussi à mieux comprendre les fonctions supérieures cérébrales de ce kilo sublime de gras entre nos tempes. Uwe Maskos, qui a mené les recherches avec ses collègues du CNRS, a d'abord créé en 1995 des souris génétiquement programmées dont le récepteur nicotinique ne dispose pas de la sous-unité Beta 2, la plus fréquemment trouvée dans le cerveau normal. Ces souris ont quelques difficultés d'apprentissage, mais, surtout, elles refusent obstinément de se gaver de nicotine. Alors que les souris normales, munies d'une pédale et d'un injecteur à nicotine, deviennent dépendantes rapidement et appuient sur la pédale en permanence pour obtenir leur dose de nicotine. Plus récemment, Maskos et ses collègues ont fait une seconde expérience : ils ont injecté chez leurs souris déficientes, un vecteur viral embarquant le gène de la sous-unité Beta 2 directement dans la région de la «récompense» qu'est le VTA. Le résultat a été immédiat : leurs souris ont fabriqué des récepteurs comportant cette sous-unité et se sont elles aussi auto administrées de la nicotine. Comme l'explique dans un éditorial de Nature Julie Kauer (Providence University, Rhode Island), «étant donné la complexité du cerveau, il est frappant que la réintroduction d'une seule molécule dans une petite zone cérébrale ait un effet comportemental aussi important». Les chercheurs veulent maintenant chercher, dans des cerveaux humains post mortem, d'anciens fumeurs ou non-fumeurs, pour tâcher de trouver des combinaisons des sous-unités du récepteur. Ils ont également un projet de génotypage de cohortes de fumeurs et non-fumeurs, pour trouver des «profils» génétiques des récepteurs. Grâce à ces recherches, un jour il sera sans doute possible d'adapter les stratégies anti-tabac en fonction du profil génétique du patient désirant s'arrêter de fumer. Il est vrai que les produits actuellement disponibles ne dépassent pas 10 à 20 % d'efficacité». Reste une interrogation majeure qui dépasse le domaine médical : pourra-t-on un jour faire cesser la dépendance à la nicotine sans pour autant interférer avec des comportements cognitifs? Articles @RTFlash CNRS Nature
|
|
|
|
|
|
|
|
Bonne nouvelle pour les épileptiques. Une étude publiée dans la revue médicale "The Lancet" prouve qu'en cas de convulsions prolongées, l'administration buccale d'un tranquillisant est deux fois plus efficace que le traditionnel traitement par voie anale. Cette nouvelle méthode consiste à injecter du midazolam liquide dans la bouche du patient, entre les gencives et la joue. Environ 40 millions de personnes à travers le monde souffrent d'épilepsie. Elles sont sujettes à de brèves perturbations électriques du cerveau, qui provoquent des crises. Ces dernières peuvent aller de petits troubles des sens à de graves convulsions. Grâce aux médicaments, les crises disparaissent chez la majorité des patients. Cependant, elles persistent chez environ 20 % des malades. La plupart des crises durent une à deux minutes mais certaines sont plus longues et risquent de déboucher sur des lésions cérébrales, voire la mort. Pour faire cesser ces crises, on utilise en général des tranquillisants tels que le Valium. Lorsqu'un malade adulte est amené aux urgences en pleine convulsion, on lui injecte le médicament en intraveineuse. Mais chez les enfants, le diazepam utilisé pour calmer les crises est souvent administré par voie anale, et ce depuis des décennies. Depuis longtemps, les malades et leurs proches ont la possibilité d'utiliser ce type de traitement en cas d'urgence, même si la pratique n'est pas très répandue chez les adolescents et adultes. En revanche, les parents d'enfants épileptiques l'utilisent couramment lorsqu'une crise dure plus de cinq minutes. Des pilules existent mais elles mettent environ une demi-heure à prendre effet car elles passent par le système digestif. En outre, certains patients n'arrivent pas à avaler quoi que ce soit lorsqu'ils convulsent. Pour l'étude publiée dans "The Lancet", les médecins de plusieurs hôpitaux anglais ont comparé les effets des traitements anal et buccal sur 219 convulsions subies par 177 enfants amenés aux urgences avec une crise persistante. Tous n'étaient pas épileptiques, les convulsions de certains étaient liées à une fièvre. Le traitement par voie orale (le tranquillisant liquide midazolam est injecté dans la bouche de l'enfant) a été testé sur 109 convulsions et a fonctionné contre 61 d'entre elles, c'est-à-dire dans 57 % des cas. Le traitement par voie anale (le tranquillisant liquide diazepam, ou Valium, est injecté dans le rectum) a été testé sur 110 convulsions et a fonctionné contre 30 d'entre elles, c'est-à-dire dans 27 % des cas. C'est deux fois moins que la nouvelle technique, alors que les médicaments utilisés sont de la même famille. D'après l'étude, l'administration par voie orale a aussi l'avantage d'agir plus rapidement et plus durablement. "C'est une découverte qui va probablement être beaucoup utilisée", estime le Dr Gregory Barkley, de l'Epilepsy Foundation of America, fondation qui n'est pas liée à l'étude. Le traitement oral des convulsions est déjà utilisé en Europe, des études précédentes ont suggéré qu'il était au moins aussi efficace que le traitement rectal, selon le Dr John Duncan, directeur médical de la Société nationale pour l'épilepsie, à Londres. Cependant, il n'est pas aussi répandu qu'il le pourrait, le midazolam n'étant homologué que pour son administration en intraveineuse, et non par voie orale, relève-t-il. Des études sont prévues en Europe pour tester un vaporisateur nasal qui, d'après des spécialistes, pourrait donner des résultats encore meilleurs que la voie orale. AP
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut des sciences cognitives de Lyon (CNRS) en collaboration avec des chercheurs de l'Université catholique de Louvain et de l'Université de Rochester, mettent en évidence, à l'aide de modèles mathématiques, dans Nature Neuroscience du mois de juillet, la capacité d'un neurone d'une région du cerveau, le cortex pariétal, d'intégrer des informations spatiales provenant de signaux visuels, sonores, et mécaniques à la surface du corps. Ces intégrations multisensorielles permettent de localiser un objet le plus précisément possible à partir d'indices visuels, mécaniques et auditifs partiels, mais également de prédire au mieux une entrée sensorielle à partir d'une autre Les chercheurs et théoriciens ont mené en parallèle des mesures de l'activité électrique dans le cerveau de singes soumis à des stimulations multisensorielles et des « mesures » de l'activité simulée au sein d'un réseau de neurones artificiels mimant l'organisation du cortex pariétal. Ces mesures présentent un double intérêt, permettant d'une part de comparer les activités neuronales réelles à celles qui émergent des neurones simulés, et d'autre part d'évaluer à un niveau plus global, qui n'est pas accessible aux mesures in vivo, la capacité du réseau à transformer et représenter correctement les informations sur la localisation des objets. Les deux hypothèses avancées par les théoriciens ont été vérifiées expérimentalement. Premièrement, pour être combinées, les informations sensorielles et posturales convergent sur des ensembles de cellules au sein d'aires intermédiaires, ces cellules répondant à des combinaisons de positions de l'objet et de positions du corps. C'est la notion de codage populationnel. Ces populations sont essentielles pour nouer un véritable dialogue entre les cartes visuelles primaires et les cartes somatosensorielles. Deuxièmement, les voies de communication nerveuse sont à double sens, et permettent ainsi à l'information de circuler et recirculer de manière itérative d'une région à l'autre, il s'agit cette fois de la notion de réseau récurrent. Ce type de réseau est particulièrement intéressant car il permet de réaliser deux des fonctions les plus fondamentales du cerveau : l'intégration multisensorielle et la prédiction. En l'occurrence, on peut calculer la localisation la plus probable d'un objet, à partir d'indices visuels et auditifs partiels comme cela se produit lorsque l'on recherche la personne qui nous appelle au milieu d'une foule bigarrée et bruyante. Un joueur de football peut ainsi déterminer le point d'impact d'un ballon se déplaçant sur une trajectoire de collision avec sa tête afin de le dévier, ou un boxeur anticiper la prochaine attaque de son adversaire. Les résultats montrent que les données empiriques sont conformes aux prédictions du modèle, même lorsque ces prédictions ne sont pas intuitives a priori. Par exemple, le modèle prédisait que les cartes neuronales visuelles et somatosensorielles pouvaient ne pas être dans un alignement parfaitement congruent, c'est-à-dire qu'elles ne se projettent pas toujours sur le même bord du champ visuel. C'est effectivement le cas et cette situation ne nuit pas à la capacité du réseau à intégrer correctement les deux types d'information. CNRS Nature
|
|
|
|
|
|
|
|
La télévision, c'est à consommer avec modération. Surtout chez les enfants ! Trois études parviennent à la même conclusion. Plus un enfant passe de temps devant l'écran, plus son niveau d'étude sera faible. D'autant plus si la télé est dans sa chambre. Dina Borzekowski de la Johns Hopkins Bloomberg School à Baltimore, aux USA, a analysé les résultats scolaires de 386 enfants de 8-9 ans selon le nombre d'heures passées devant les étranges lucarnes. Et ce n'est pas très brillant. "Un enfant qui a la télé dans sa chambre obtient au test de mathématiques, un score inférieur de huit points à celui d'un enfant qui n'en a pas", souligne l'auteur. Un second travail, conduit là encore par une équipe américaine, s'est intéressé à une population bien plus jeune. Des petits de 3 à 5 ans. Ils étaient soumis à des tests de mathématiques et de vocabulaire. Résultat, ceux qui passent plus de 3 heures chaque jour devant la télé ont les moins bons résultats. Enfin, des chercheurs néo-zélandais se sont employés à trouver un lien entre le temps passé devant la télévision au cours de l'enfance et le niveau d'études à 25 ans. Pas de surprise là non plus, "les plus passionnés par la télévision sortent du système éducatif sans qualification. JAMA
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Parmi les 67 pôles de compétitivité sélectionnés par le gouvernement, les nouvelles technologies figurent en bonne place, et sous différents angles. Le pôle solutions communicantes sécurisées en Provence-Alpes-Côte-d'Azur, constitué autour de STMicroelectronics, prolongera les travaux sur la carte à puce et l'étiquette électronique. Imagerie, multimédia et vie numérique en Ile-de-France associe des acteurs comme TF1, le groupe Lagardère ou encore l'Ircam, et est axé sur la création et l'échange de contenu numérique.. Images et réseaux en Bretagne se focalise sur l'image numérique : TNT, DVD, télévision haute définition, vidéo à la demande... Le Nord Pas-de Palais a réuni des géants de la distribution et de la vente par correspondance (Auchan, Les 3 Suisses, La Redoute, Decathlon, Leroy-Merlin) pour monter un pôle Industries du commerce centré sur les applications informatiques. Philips Semiconducteurs, le Centre des technologies nouvelles et la division R&D de France Télécom se retrouvent parmi les porteurs du projet sur les transactions électroniques en Basse Normandie, dédié aux enjeux de la sécurisation des données, notamment dans un contexte de développement des documents d'identité numériques. Systèmes et TIC en Ile-de-France se consacre aux systèmes d'information autour de Thalès. Enfin, les acteurs du jeu vidéo, en Rhône-Alpes, ont créé le pôle loisirs numériques afin, surtout, de trouver des moyens de mieux supporter la concurrence (financement, veille, développement de relations d'affaires). Le pôle solutions communicantes sécurisées (PACA) est l'un des six à se retrouver dans la catégorie « projet mondial » tandis que Image, multimédia et vie (Ile-de-France) et Images et réseaux (Bretagne) sont considérés comme des « projets à vocation mondiale ». Dossier des 67 pôles de compétitivité
|
|
|
|
|
|
|
|
En PACA : le pôle "solutions communicantes sécurisées" (SCS), porté par le groupe franco-italien de semi-conducteurs ST Microelectronics. Ce projet, qui se veut «le fer de lance de l'emploi en région PACA», promet de «faire passer ses effectifs directs de 41.000 en 2005, à plus de 65.000 en 2015». Il est axé sur le développement des cartes à puce, secteur sur lequel la France est pionnière. Mais il travaillera également sur les solutions d'étiquettes électroniques (RFID) pour l'identification numérique et la traçabilité. En Île-de-France, le projet "System@tic", porté par le groupe français de technologies de sécurité et de défense; Thales, souhaite devenir la «référence dans le domaine des solutions de gestion et de maintenance des systèmes d'information complexes». Il s'agit des réseaux informatiques de trois secteurs: l'automobile, le transport et la défense nationale. En Rhône-Alpes : "Minalogic" est le dernier pôle mondial. Il est porté par l'équipementier électrique français Schneider Electric. Ce projet concerne les miniaturisations électroniques, notamment les nanotechnologies. Six autres pôles Six autres pôles de compétitivité, plus modestes, sont également liés aux technologies de l'information et de la communication : "Images et réseaux" (Bretagne): consacré aux technologies d'images numériques, notamment télévision numérique terrestre, télévision haute définition, DVD, vidéo à la demande (VOD), télévision sur réseaux haut débit, réalité virtuelle. "Image, multimédia et vie numérique" (Île-de-France): a trait à la création, la diffusion et 'échange de contenus multimédias des jeux vidéo. Mais aussi à l'animation 3D et les effets spéciaux pour le cinéma ou la musique numérique. "Loisirs numériques" (Rhône-Alpes): consacré aux jeux vidéos et aux applications de loisirs numériques, avec l'ambition de faire face à la «concurrence accrue des pays asiatiques». "Transactions Electroniques" (Basse Normandie): pôle dédié aux transactions électroniques sécurisées, de l'e-administration aux transactions financières, un «marché sur lequel les États-Unis interviennent de façon très active». "Industries du commerce" (Nord-Pas de Calais): consacré à la vente à distance, dont l'e-commerce. "Elopsys" (Midi-Pyrénées Limousin): travaille sur les réseaux de communication radio (Zigbee, Bluetooth, Wi-Fi, Wimax, etc.), tant au niveau des interfaces "voix-données-images" que de la sécurisation des transferts de données. Fiches de présentation des pôles
|
|
|
|
|
|
|
|
Suite à la décision prise le 14 juillet par la Commission de consacrer, à l'échelle européenne, une part substantielle du spectre radio aux réseaux locaux radioélectriques, également appelés Wi-Fi, un plus grand nombre de personnes vont pouvoir accéder au haut débit sans fil pour se connecter à l'Internet. Tout en soulignant la priorité donnée à la promotion de l'accès à l'Internet haut débit - une composante majeure de l'initiative i2010 -, la Commission a également lancé une consultation publique sur les actions politiques à entreprendre pour étendre la couverture haut débit aux zones rurales encore mal desservies en Europe. La décision de rendre deux bandes de fréquence spécifiques (5150-5350 MHz et 5470-5725 MHz) disponibles pour l'accès Wi-Fi dans tous les Etats membres ouvre la voie vers un marché unique des systèmes d'accès sans fil. Des règles UE communes permettront de réduire le coût des équipements et faciliteront l'acceptation des systèmes sans fil pour les accès tant publics que privés. "Les réseaux de communication électronique à haut débit sont essentiels pour la compétitivité de l'Europe. Un environnement réglementaire favorable constitue la clé du succès de leur diffusion" a déclaré la Commissaire en charge de la Société de l'information et des Médias, Viviane Reding. "La décision prise aujourd'hui par la Commission aidera l'industrie à créer des services novateurs (comme la voix sur IP sans fil) pour un marché européen unique". Selon certaines projections, les 120 millions d'utilisateurs Wi-Fi actuellement recensés dans le monde (dont 25 millions en Europe de l'Ouest) pourraient être 500 millions dans trois ans à peine, positionnant ainsi le Wi-Fi au niveau des téléphones mobiles en termes d'intérêt auprès du consommateur. En attendant, avec le lancement de sa consultation publique le 14 juillet, la Commission invite les parties prenantes, les Etats membres et les autorités locales et régionales à donner leur avis sur la façon d'aborder le problème persistant de la "fracture numérique" en Europe. En janvier 2005, l'accès haut débit à l'Internet était accessible à 90 pour cent de la population urbaine de l'UE15 et des pays de l'Espace économique européen, proportion ramenée à seulement 62 pour cent pour les habitants en zone rurale. La Commission a fourni une analyse de fond sur le sujet dans un document de travail de ses services intitulé "Accès haut débit et soutien public dans les régions mal desservies". Le document présente le pour et le contre des initiatives gouvernementales visant à étendre la couverture haut débit et donne des exemples d'initiatives financées sur fonds publics. On peut lire en conclusion du document de travail que, malgré les nouveaux développements du haut débit que ne manqueront pas d'induire les dynamiques commerciales, certaines zones de l'UE ne devraient être couvertes qu'avec un certain retard ou être définitivement exclues du déploiement des réseaux haut débit. "J'invite les gouvernements des Etats membres touchés par la fracture numérique à prendre des mesures immédiates, moyennant une coordination étroite avec la Commission européenne, afin que tous les particuliers et toutes les entreprises qui en ont besoin et qui le souhaitent puissent accéder le plus vite possible à l'Internet à large bande", a déclaré la Commissaire Reding. Cordis
|
|
|
|
|
|
|
|
Disponible depuis juin 2005, cette carte interactive, accessible librement sur Internet, sert à visualiser et à localiser l'ensemble des informations économiques disponibles sur le territoire francilien (routes et transports, laboratoires de recherche, entreprises par secteur, etc.). Zooms puissants, simplicité d'utilisation, parcours prédéterminés, espace personnalisable... son ergonomie ouvre un nombre infini de possibilités. Sans compter la capacité d'exporter l'image obtenue. Lancé en début 2004 par l'Agence régionale de développement (ARD) de la région francilienne, ce projet a pour objectif de digitaliser la carte papier existante. Désormais, une entreprise peut parcourir virtuellement la région parisienne et ses paramètres économiques dans les moindres recoins et détails avec ses clients. Atout non négligeable, la carte interactive autorise une mise à jour en temps réel des données économiques. La base d'Econovista rassemble les données fournies par l'Iaurif (Institut d'aménagement et d'urbanisme de la région Ile de France), éditeur de nombreuses cartes papier ou digitales. Cet institut dispose déjà d'un solide service SIG, qui délivre une palette de cartes spécialisées. Le service Econovista offre la possibilité de visualiser une carte spécifique de l'Ile-de-France selon les critères de son choix : gares TGV, pépinières/incubateurs, établissements industriels majeurs, centres de recherche publique, etc. Econovista
|
|
|
|
|
|
|
|
Les Français que l'on disait timorés à l'idée de consommer en utilisant le canal d'Internet sont devenus les champions européens de l'achat en ligne. Pris d'une véritable frénésie, ils achètent de plus en plus de voyages, de billets de train mais aussi des livres, des DVD et même de plus en plus de vêtements en pianotant sur la Toile. En quelques mois, selon une étude conjointe de l'Institut de mesure d'audience Médiamétrie et de la Fédération des entreprises de vente à distance (Fevad), les Français ont comblé leur retard vis-à-vis des Britanniques, des Allemands et des Suédois. Ils devancent largement les Espagnols et les Italiens. Et ce n'est pas fini. «Le dynamisme du marché est spectaculaire. Il s'agit d'un changement profond de comportement. Internet s'impose dans leurs habitudes de consommation, se félicite Marc Lolivier, délégué général de la Fevad. Les achats en ligne ne sont plus anecdotiques, désormais la moitié des internautes font confiance à internet.» Au Top 10 des sites marchands multiproduits, on trouve en terme d'audience eBay, la Fnac, Cdiscount.com, PriceMinister, La Redoute ou encore Amazone et Alapage. Selon l'enquête de Médiamétrie, réalisée par Internet à la fin du premier trimestre, auprès de 1 617 internautes âgés de 15 ans et plus, le nombre d'acheteurs en ligne a augmenté trois fois plus vite que celui des internautes. Près de la moitié des internautes interrogés (47 %) avaient déjà effectué au moins un achat en ligne au cours du 1er trimestre 2005, contre 4 sur 10 (39 %) au premier trimestre 2004. Encore plus intéressant : si la France caracole en tête de l'e-commerce avec une croissance de plus de 32 % entre le 1er trimestre 2004 et le 1er trimestre 2005, c'est... grâce aux femmes. Elles sont de plus en plus nombreuses à se laisser tenter : leur nombre a progressé de 38 % entre le premier trimestre 2004 et le premier trimestre 2005, passant de 3,7 millions à 5,1 millions. «Nos compagnes étaient méfiantes vis-à-vis de l'outil technologique, désormais elles le maîtrisent et l'utilisent avec aisance. Grâce à Internet, elles gagnent du temps», poursuit Marc Lolivier. Autre raison de cet essor : le haut débit. Désormais, 70 % des internautes sont connectés au haut débit à domicile (contre 50 % au début de l'année 2004). Ce qui facilite naturellement l'utilisation. Premier secteur à bénéficier de cet engouement : le tourisme. Dans ce domaine, les consommateurs sont désormais plus nombreux à acheter via Internet qu'en se rendant dans une agence de voyages. Près de 46 % des internautes interrogés déclarent avoir acheté un voyage à distance au cours des six derniers mois, contre 35,6 % qui affirment l'avoir fait en se rendant dans une agence. Au «tourisme-parade», on trouve d'abord voyages-sncf.com, puis Lastminute.com, Opodo, Expedia et Anyway.com. Enfin, et c'est aussi un changement de comportement en profondeur, près de la moitié des cyber-acheteurs (47 %) déclarent utiliser les sites de recherche d'emploi. Le chiffre monte à... 80 % si l'on s'en tient aux jeunes de moins de 24 ans. Pour eux, sans la Toile, point de salut professionnel. A nouvelle génération, nouveau mode vie et... de consommation. Figaro
|
|
|
|
|
|
|
|
L'Inde va mettre en place des "kiosques à ordinateurs" dans des dizaines de milliers de villages pour permettre aux paysans de vendre directement leur production via internet en évitant les intermédiaires, a annoncé le président indien A.P.J. Abdul Kalam. Près de 25.000 villages bénéficieront d'un "kiosque à ordinateurs" dans un premier temps, le but étant d'en établir sur l'ensemble du territoire (environ 100.000 villages) d'ici 2007, a indiqué le président. Les "kiosques à ordinateurs" seront installés dans des centres communautaires, écoles ou bâtiments gouvernementaux ayant une liaison Internet. Le projet Mission 2007 est sponsorisé par 80 organisations et entreprises dont l'américain Microsoft et l'indien Tata Consultancy Services. "Aujourd'hui, notre problème ce n'est pas le manque d'argent, de monde ou de personnes éduquées mais comment tous les intégrer" dans le système économique de l'Inde en émergence, a-t-il dit. "Vous devez utiliser la technologie et la connaissance pour ajouter de la valeur à nos ressources naturelles", a-t-il ajouté. Près de 70 % de la population active en Inde travaille dans le secteur agricole dont les revenus représentent près d'un quart du Produit intérieur brut (PIB). Selon les économistes, il est vital pour l'Inde d'augmenter ses revenus agricoles si le pays veut maintenir une croissance de 7 à 8 % sur le long terme. La croissance s'est établie à 6,9 % pour l'année fiscale 2004-2005, en recul par rapport au record de l'année précédente (8,5 %). Ravi Venkatesan, président du bureau indien de Microsoft Corporation, a expliqué que l'un des obstacles auxquels sont confrontés les paysans est la perte de 25 % des revenus qui reviennent à des intermédiaires. Les "kiosques à ordinateurs" doivent permettre aux paysans de se passer de ces intermédiaires pour vendre directement leur production et acheter semences ou engrais au meilleur prix possible. Wanadoo
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
AeroVironment Inc., une société basée en Californie, annonce avoir réussi le vol d'essai d'un avion mû par l'hydrogène liquide. L'hydrogène liquide stocké à bord et l'oxygène extrait de l'air environnant sont combinés afin de produire l'électricité nécessaire aux huit propulseurs de l'avion. L'avion, appelé Global Observer, ressemble à un planeur, mais la majeure partie de la technologie employée est maintenue secrète. "Nous transportons l'hydrogène liquide à bord à de très basses températures", indique Alex Hill, le directeur des opérations d'AeroVironment à Washington. "Aussi l'isolation du réservoir est-elle cruciale". AeroVironment pense que ce type d'avion pourrait être utilisé comme plateforme de télécommunications, se substituant ou complétant les satellites. L'avion à hydrogène pourrait contribuer à réduire les quantités de gaz à effet de serre générés par l'aviation d'aujourd'hui TS
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|