RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 230
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 14 Février 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Aux Etats-Unis le Net continue à grignoter la télévision mais perd en crédibilité
L'UE se dote d'une agence de lutte contre la cybercriminalité
Le Japon se dote d'un passeport à puce
A Salamanque, le Centre de recherche contre le cancer divise ses coûts par dix avec une grille
Un robot pour aider les personnes âgées
Infineon propose une nouvelle puce pour étudier le cerveau
Pilotime, le magnétoscope numérique selon Canal+
Avenir
L'énergie sombre constituerait la majeure partie de l'Univers et serait à l'origine de son accélération
Matière
Les Etats-Unis préparent l'économie de l'hydrogène pour 2020
Espace
Mars Express: premiers pas de l'Europe sur la planète rouge
Conquête de l'espace : des moteurs à propulsion solaire envisageables vers 2050
Le projet d'ascenseur de l'espace refait surface
Des images stupéfiantes des premiers moments de l'Univers confirment la théorie du big bang
Terre
Gulf Stream la fin d'un mythe
Vivant
Un enfant ou adolescent sur huit souffre d'un trouble mental
Un médicament à l'huile de poisson pour lutter contre les suites d'infarctus
Pour garder une bonne mémoire, du sport et une bonne alimentation
Des toxines bactériennes pourraient prévenir les cancers colo-rectaux
Sida: premiers résultats encourageants pour le vaccin thérapeutique
Le coton génétiquement modifié augmente sensiblement les rendements
Les machines automatiques pourraient bientôt lire dans les pensées de leurs utilisateurs
Recherche
La voiture à hydrogène passe du prototype à la mini-série
L'Europe de la science toujours à la traîne de l'Amérique
Edito
L'eau au XXIème siècle : un défi majeur pour l'humanité



La moitié des habitants de la planète manquera d'eau dans trente ans si rien n'est fait : tel est l'implacable constat fait lors de la conférence des Nations Unies sur le développement et l'environnement qui s'est tenue dans le cadre du sommet de la Terre de Johannesburg. Cette conférence a parfaitement éclairé l'ampleur des défis posés à l'humanité par la question de l'accès pour tous : 1,1 milliard de personnes dans le monde n'ont pas accès à l'eau potable et 2, 4 milliards ne disposent pas d'installations sanitaires décentes, selon le Programme des Nations Unies pour l'Environnement. Plus d'un milliard de personnes disposent de moins de 20 litres d'eau par jour, contre 150 litres pour un européen et 300 litres pour un américain. (source ONU). Le dernier rapport de l'ONU sur L'accès global à l'eau potable et à l'assainissement affirme que l'équilibre entre la quantité disponible d'eau douce et la demande est déjà précaire. Au cours des 70 dernières années, la population mondiale a triplé, passant de 2 à 6,1 milliards, et la consommation d'eau a sextuplé. Entre 1950 et 1990, le taux de croissance des prélèvements en eau a été plus du double de celui de la population. Corrélativement, la quantité d'eau douce renouvelable et disponible est passée, par habitant, de 17000 m3 en 1950 à 7500 m3 en 1995 et devrait tomber à 5100 m3 en 2025. La population mondiale devrait atteindre 9,3 milliards en 2050. Environ 508 millions de personnes vivent dans 31 pays qui sont déjà en état de stress ou de pénurie hydrique et la situation ne manquera pas de s'aggraver dans les prochaines décennies. L'ONU prévoit en effet qu'en 2025, 1,8 milliards d'êtres humains vivront dans des pays ou régions affectés par une pénurie totale d'eau et environ cinq milliards de personnes dans le monde vivront dans des régions où il sera difficile de répondre à tous les besoins en eau douce. L'ONU souligne que plus de cinq millions de personnes meurent chaque année de maladies liées à des problèmes d'eau, soit dix fois plus que le nombre de victimes tuées dans les conflits. Dans les pays en développement, quelque 80 % des maladies et des décès sont dus à l'inaccessibilité de l'eau salubre et à l'absence de gestion des eaux. La mauvaise qualité de l'eau pose un autre problème. Selon les évaluations de l'Organisation Mondiale de la Santé, plus d'un milliard de personnes n'ont pas accès à l'eau salubre. Dans les pays en développement, 90 % des eaux résiduaires et 70 % des déchets industriels sont rejetés sans traitement préalable dans les eaux de surface, où ils polluent la réserve d'eau utilisable. Le rapport de l'IFPRI affirme que des solutions purement technologiques à la pénurie d'eau, comme le dessalement de l'eau de mer et le transport d'icebergs, « risquent de n'avoir qu'un effet limité ». Au lieu de cela, le rapport recommande de rétablir les schémas naturels d'écoulement vers les bassins fluviaux, d'améliorer l'efficacité des modes d'utilisation de l'eau - en particulier concernant l'irrigation, qui utilise les deux tiers de l'eau douce disponible, et d'instituer des politiques efficaces de fixation des prix. Le rapport recommande que les pays inversent la tendance actuelle à la dégradation de la terre et de l'eau. Une autre recommandation clef est d'élargir l'accès à l'éducation et aux soins de santé - y compris la planification familiale et la santé en matière de reproduction - afin d'améliorer les conditions de vie et d'élargir les perspectives, surtout pour les femmes; il en résulterait un ralentissement de la croissance démographique et une atténuation de la pression exercée sur les ressources de la planète. En effet, moins de 3 % seulement des ressources mondiales en eau sont constituées d'eau douce, et l'essentiel de ces 3 % est piégé dans les glaces polaires ou enterré dans le sous-sol sous la forme de sources trop profondes pour être atteintes. Les progrès ont été maigres depuis le Sommet de Rio il y a dix ans : le nombre de personnes desservies par de véritables égouts et canalisations a seulement progressé de 4,1 milliards à 4,9 milliards. Le sommet de Johannesburg a proposé comme objectif de "réduire de moitié le nombre de personnes qui n'ont pas accès à l'assainissement d'ici 2015". Aujourd'hui, un tiers de l'humanité vit dans une situation dite de « stress hydrique », avec moins de 1 700 mètres cubes d'eau douce disponibles par habitant et par an. L'eau douce est donc une denrée rare. Pourtant, à l'échelle de la planète, elle semble ne pas manquer : environ 40 000 kilomètres cubes d'eau douce s'écoulent chaque année sur les terres émergées, lesquels, partagés entre les 6 milliards d'individus vivant sur Terre, devraient fournir 6 600 mètres cubes d'eau douce à chacun. La consommation en eau s'élève à environ 30.000 km3 par an à l'échelle de la planète. Mais si ces réserves sont globalement suffisantes pour répondre à l'ensemble des besoins, elles sont réparties de façon très inégale à la surface du globe. Neuf pays seulement se partagent 60 % des réserves mondiales d'eau douce : le Brésil, la Russie, les États-Unis, le Canada, la Chine, l'Indonésie, l'Inde, la Colombie et le Pérou. D'un pays à l'autre, les situations peuvent donc être très dissemblables. l'Asie, qui concentre près de 60 % de la population mondiale, ne dispose que de 30 % des ressources mondiales disponibles en eau douce. Le manque d'eau est structurel dans le vaste triangle qui s'étend de la Tunisie au Soudan et au Pakistan, c'est-à-dire dans plus de 20 pays d'Afrique du Nord et du Proche-Orient : chaque habitant y dispose en moyenne de moins de 1 000 mètres cubes d'eau douce par an, une situation dite de « pénurie chronique ». Le gaspillage d'eau domestique croît avec le niveau de vie des populations, les nombreux équipements qui apparaissent dans les foyers facilitant l'usage de l'eau. On le constate d'abord dans le temps : les Européens consomment aujourd'hui 8 fois plus d'eau douce que leurs grands-parents pour leur usage quotidien. On le constate aussi d'un pays à l'autre : un habitant de Sydney par exemple consomme en moyenne plus de 1 000 litres d'eau potable par jour, un Américain de 300 à 400 litres, et un Européen de 100 à 200 litres... alors que dans certains pays en développement, la consommation moyenne par habitant ne dépasse pas quelques litres par jour ! Les pertes également peuvent être très importantes. Globalement, seuls 55 % des prélèvements en eau sont réellement consommés. Les 45 % restants sont soit perdus, par drainage, fuite et évaporation lors de l'irrigation et par fuite dans les réseaux de distribution d'eau potable. Enfin, le problème de l'eau dans le monde n'est pas uniquement quantitatif, il est aussi qualitatif. Car plus la consommation d'eau augmente, plus les rejets d'eaux usées et d'effluents sont importants. La population mondiale devrait passer de 6 milliards d'individus en l'an 2000, à 8 milliards en l'an 2025. La quantité moyenne d'eau douce disponible par habitant et par an devrait donc chuter de 6 600 à 4 800 mètres cubes, une réduction de presque un tiers. Si parallèlement la tendance actuelle à l'augmentation des prélèvements en eau se poursuit, entre la moitié et les deux tiers de l'humanité devraient être en situation dite de stress hydrique en 2025 (moins de 1700 mètres cubes d'eau douce disponible par habitant et par an). L'un des problèmes majeurs en matière d'eau douce et d'alimentation humaine est posé par l'irrigation, car pour nourrir toute la population de notre planète, la productivité agricole devra fortement augmenter. Alors que l'irrigation absorbe déjà aujourd'hui 70 % des prélèvements mondiaux, une consommation jugée très excessive, celle-ci devrait encore augmenter de 17 % au cours des 20 prochaines années. Le facteur déterminant de l'approvisionnement futur de l'humanité en eau douce sera donc le taux d'expansion de l'irrigation. Un autre enjeu de taille pour les années à venir est celui de la satisfaction de l'ensemble des besoins en eau potable de l'humanité. Or, selon l'ONU, sur les 33 mégapoles de plus de 8 millions d'habitants qui existeront dans 15 ans, 27 seront situées dans les pays les moins développés, ce qui entraînera 40 % d'augmentation de la consommation domestique dans les 20 ans à venir. Pour tenter d'inverser cette tendance, diverses solutions existent qui permettent de diminuer la consommation en eau et d'en limiter les pertes : améliorer l'efficacité des techniques d'irrigation et surtout généraliser l'usage des méthodes les plus performantes, rénover les structures de production et de distribution d'eau potable et en construire de nouvelles, préserver les réserves, lutter contre la pollution, entre autres en assainissant les eaux usées, recycler l'eau... Mais toutes ces mesures demanderont d'énormes investissements et seront donc coûteuses. Ce seront donc les décisions politiques, au niveau national et international, ainsi que les priorités d'investissements des pays et des agences de financement, qui joueront un rôle déterminant dans la gestion future du risque de pénurie d'eau douce à travers le monde. Or, un pays qui manque d'eau est un pays qui ne peut ni nourrir sa population, ni se développer. La consommation en eau par habitant est désormais considérée comme un indicateur du développement économique d'un pays. Selon une étude des Nations Unies, l'eau pourrait même devenir, d'ici à 50 ans, un bien plus précieux que le pétrole. C'est dire toute l'importance de cette ressource que d'aucuns appellent déjà « l'or bleu ». Avoir accès à l'eau est donc devenu un enjeu économique et géopolitique majeur à l'échelle planétaire qui pourrait devenir, dans le siècle à venir, l'une des premières causes de tensions internationales. Il est vrai que plus de 40 % de la population mondiale est établie dans les 250 bassins fluviaux transfrontaliers du globe. Autrement dit, toutes ces populations se trouvent dans l'obligation de partager leurs ressources en eau avec les habitants d'un pays voisin. Or, une telle situation peut être à l'origine de conflits récurrents, notamment lorsqu'un cours d'eau traverse une frontière, car l'eau devient alors un véritable instrument de pouvoir aux mains du pays situé en amont. Aujourd'hui encore, les contentieux à propos de l'eau sont nombreux à travers le monde, notamment au Nord et au Sud de l'Afrique, au Proche-Orient, en Amérique centrale. Au Proche-Orient, par exemple, une dizaine de foyers de tensions existent. Ainsi l'Égypte, entièrement tributaire du Nil pour ses ressources en eau, doit néanmoins partager celles-ci avec dix autres États du bassin du Nil : Quant à l'Irak et à la Syrie, ils sont tous deux à la merci de la Turquie, où les deux fleuves qui les alimentent, le Tigre et l'Euphrate, prennent leur source. Avec l'essor démographique et l'accroissement des besoins, ces tensions pourraient se multiplier à l'avenir. Aujourd'hui, depuis le deuxième Forum mondial de l'eau, qui se tenait en mars 2000 à La Haye, le constat est unanime parmi les experts qui diagnostiquent une crise grave si les gouvernements n'améliorent pas leur gestion des ressources en eau. Sur les remèdes pour enrayer cette crise, en revanche, les avis divergent. A La Haye, la discussion a en effet essentiellement porté sur la question de la privatisation de l'eau. Celle-ci, qui ne concerne que 5 % des ressources mondiales, est préconisée par le Conseil mondial de l'eau mais les ONG condamnent cette vision « technico-économique et marchande » et prônent l'accès à l'eau comme un « droit fondamental de l'homme », gratuit ou tarifé à prix coûtant. Aujourd'hui, la principale inquiétude porte sur l'approvisionnement en eau potable des pays en développement. D'énormes investissements seront donc nécessaires pour moderniser l'existant et créer de nouveaux équipements (usines de production, réseaux de distribution, stations d'assainissement), mais aussi pour développer de nouveaux systèmes d'irrigation. Ces investissements ont été évalués par le Conseil mondial de l'eau à 180 milliards de dollars par an pour les 25 prochaines années, contre 75 milliards de dollars actuellement investis chaque année. Plus que le mode de gestion, c'est la question de la fixation du prix de l'eau qui est au coeur du problème. Beaucoup d'ONG pensent qu'effectivement le prix de l'eau devra couvrir les frais de traitement, de distribution et de dépollution, mais refusent qu'il soit fixé par le marché. Cependant, même dans ces conditions, payer l'eau restera hors de portée des populations les plus pauvres. Le défi planétaire majeur du XXIe siècle en matière d'eau sera donc double : assurer la rentabilité de la gestion de l'eau, tout en garantissant aux plus pauvres le droit d'accéder à cette ressource vitale.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Aux Etats-Unis le Net continue à grignoter la télévision mais perd en crédibilité
Samedi, 15/02/2003 - 00:00

L'Université californienne de Los Angeles (Ucla) vient de livrer son rapport annuel sur Internet et son usage dans les 70 % de foyers américains connectés au Net. Lancée au début du siècle, cette opération de veille permet de mieux saisir l'évolution du comportement vis-à-vis du Net. Et comme les internautes d'Outre-Atlantique ne sont pas très différents de leurs cousins européens, le tableau qui en ressort a de grande chance de refléter celui que devrait connaître le vieux continent dans les prochaines années. Chaque année depuis trois ans, une équipe de chercheurs de l'Ucla mène l'enquête auprès de 2 000 foyers représentatifs américains. Au programme, de multiples questions qui peuvent être regroupées en quatre grandes catégories : l'accès à Internet, Internet en tant que média d'information, l'effet de l'Internet sur le comportement social et la consommation via Internet. Pour sa troisième édition, l'analyse des réponses, rendue publique le 31 janvier dernier, pointe l'importance que prend peu à peu Internet en tant que média d'information, notamment par rapport à la télévision. Si l'internaute moyen passe globalement plus de son temps libre que le non-internaute à consulter les médias au sens large du terme (livres, magazines, radio), la télévision et la presse d'information papier gardent autant d'attrait pour l'un que pour l'autre. Mais 61% des internautes américains considèrent que le Net est devenu le média le plus important, devant le livre (60,3), les journaux (57,8) et... la télévision (50,2 %). Alors que les deux catégories reconnaissent de façon égale regarder la télévision, ils n'y consacrent pourtant pas le même nombre d'heures. Les utilisateurs d'Internet passent 4,8 heures de moins devant la télévision que les non-utilisateurs. Par ailleurs, les premiers montrent une tendance à la baisse du nombre d'heures dédiées à cette activité (12,3 heures en 2001 contre 11,2 heures en 2002). Pourtant, dans le même temps, le nombre d'utilisateurs déclarant que l'information sur Internet est très ou tout à fait pertinente est passé de 58 % en 2001 à 52,8% en 2002. Cette baisse sera-t-elle passagère ou révèle-t-elle un mouvement de fond de défiance vis-à-vis de l'information en ligne ? Rendez-vous dans un an pour le prochain rapport.

Rapport de l'UCLA : http://newsroom.ucla.edu/page.asp?id=3856

L'UE se dote d'une agence de lutte contre la cybercriminalité
Samedi, 15/02/2003 - 00:00

Les Quinze ont annoncé lundi la mise sur pied d'une Agence européenne de la sécurité de l'information et des réseaux, qui aura en charge la coordination de la lutte contre le piratage informatique sur des installations aussi stratégiques que la distribution d'eau et d'électricité. Cette agence européenne qui emploiera une trentaine d'experts aura pour tâche d'assurer l'échange rapide d'informations entre les quinze pays membres de l'UE lorsqu'un risque de cette sorte est détecté. "L'agence s'appuiera sur les efforts des Etats pour renforcer la sécurité des réseaux et de la circulation de l'information et pour accroître la capacité des pays membres de l'UE à prévenir et remédier à ces problèmes", a déclaré le commissaire européen chargé des Télécommunications Erkki Liikanen. De récentes attaques informatiques, comme celle du ver "SQL Slammer" ont ranimé l'attention des autorités sur les nuisances potentielles. Les attaques terroristes sont aussi de plus en plus prises en compte depuis les attentats du 11 septembre 2001. "Il n'y a pas de mécanisme efficace de réponse (dans l'UE)", a déclaré Liikanen. Cette nouveauté, qui repose largement sur une diffusion spontanée d'informations de la part des opérateurs publics et privés, ne va pas jusqu'à la mise en place d'une "cyberpolice" disposant du pouvoir de contraindre les sociétés à révéler lorsqu'elles ont été victimes de piratage. "Cela ne nous donne pas le pouvoir d'imposer la coopération", ajoute le commissaire, qui dit s'attendre à ce que les sociétés prennent l'initiative de diffuser ces informations dans la mesure où il va de leur intérêt d'élaborer rapidement une réponse efficace aux attaques informatiques. Mais, selon des sources du secteur, des entreprises ont évité de rendre publiques les attaques dont leurs systèmes avaient été victimes. Le fonctionnement de l'agence, qui entrera en activité en janvier 2004, devrait coûter à l'UE 24 millions d'euros pendant les cinq premières années, et neuf millions de plus lorsque l'Europe sera élargie à 25. Elle devra obtenir l'aval d'une majorité des Etats membres et du Parlement européen.

Reuters : http://fr.news.yahoo.com/030210/85/31l6n.html

Le Japon se dote d'un passeport à puce
Samedi, 15/02/2003 - 00:00

Le Japon prévoit d'émettre à l'avenir des passeports équipés d'un micro-processeur renfermant une profusion d'informations physiques sur leur détenteur afin de prévenir le risque de falsification et faciliter les contrôles, a-t-on appris mardi de sources officielles. "Les informations seront stockées dans des puces à circuit intégré et nous espérons y insérer des données sur l'iris, les empreintes de doigts et de paumes, la structure du squelette et les caractéristiques de la voix", a indiqué un responsable du ministère des Affaires étrangères. Le Japon n'a pas encore décidé la totalité des renseignements physiques qui seront renfermés dans la puce car un standard commun devrait être prochainement décidé avec les autres membres du G8 et l'Organisation de l'aviation civile internationale qui dépend des Nations Unies. "Il s'agit d'un effort global. La nécessité d'accroître la sécurité des passeports est devenue encore plus urgente depuis les attentats du 11 septembre" 2001, a indiqué le responsable. Tous les ans, plus de 40.000 passeports japonais sont volés ou perdus dont 3.000 au Japon. En 2002, les autorités ont découvert 730 faux passeports japonais, en hausse de 400 par rapport à l'année précédente.

JDNet :

http://www.journaldunet.com/afp/hightech/030204080805.hwcqppr7_i.shtml

A Salamanque, le Centre de recherche contre le cancer divise ses coûts par dix avec une grille
Samedi, 15/02/2003 - 00:00

Fran Gonzales supervise l'informatique du Centre de recherches contre le cancer de l'Universite de Salamanque, en Espagne. Les chercheurs du CRC observent les gênes impliques dans le développement des tumeurs : ils doivent tracer le comportement de 33 000 gènes dans des conditions variables. Les protocoles expérimentaux débouchent sur des tableaux très complexes, que seul un ordinateur puissant peut interpréter. Ces calculs s'étalent sur un a plusieurs jours lorsqu'on les confie a une machine ordinaire. Pour améliorer le confort des chercheurs, Fran Gonzales a décide de réduire ce temps a quelques heures. Plutôt que d'investir dans un supercalculateur, le CRC a choisi la voie de la grille: le centre est équipe de 150 ordinateurs qui ne fonctionnent ni a plein régime, ni 24 heures sur 24. Autant dire que leurs processeurs passent la plus grande partie de leur journée a se reposer. Fran Gonzales a décide de rassembler dans un premier temps 32 de ces machines. Un parc particulièrement heterogene : "nous avons deux serveurs Sun biprocesseurs, quelques Macs, des PC Pentium III et IV sous NT et XP. Nous avons également deux Silicons Graphics". Au total, 36 processeurs qui consacrent désormais chaque seconde de libre a la grille du CRC. Difficile de connecter des machines si différentes ? Pas tant que ça : "nous avons choisi la solution de Grid Systems en partie parce qu'elle fonctionne sur toutes les plate-formes, tout en restant simple d'utilisation". Les machines sont reliées par un réseau Gigabit Ethernet, bien "qu'un Fast Ethernet serait suffisant a priori". Trois serveurs mènent le bal : "ils distribuent les calculs aux agents présents sur chaque machine, ces agents se signalant bien entendu aux serveurs lorsque leur machine dispose de ressources disponibles". Résultat, "un calcul prend désormais deux heures plutôt qu'un jour : notre infrastructure informatique était apparemment exploitée a 10 % de ses capacités. Pour ce qui est de la facture, on est très loin des 300 000 euros que nous aurions du dépenser pour acquérir un supercalculateur. La facture de la grille se monte a 36 000 euros". De quoi faire réfléchir ... Mais attention : une grille n'a pas que des avantages. La ou l'on peut prévoir avec précision les ressources qu'un supercalculateur pourra dégager a un moment T, une grille reste beaucoup plus imprévisible. Cependant : "les 32 machines impliquées dans la grille ont une activité relativement constante. Nous pouvons donc prévoir les capacités dont nous bénéficierons d'un mois sur l'autre".

JDNet : http://solutions.journaldunet.com

Un robot pour aider les personnes âgées
Samedi, 15/02/2003 - 00:00

Il s'appelle Wakamaru. Il mesure 1 mètre, est doté de deux bras, se déplace sur roues et a plus de 10.000 mots à son vocabulaire. Il est le dernier robot sorti des laboratoires de Mitsubishi Heavy Industries, explique le quotidien japonais Manichi. Wakamaru a été conçu pour aider les personnes âgées au quotidien : grâce à des capteurs glissés sous ses "yeux", il est capable de reconnaître son "maître". Il peut filmer l'environnement dans lequel il évolue et retransmettre les images à un téléphone-vidéo. En cas d'urgence, il contacte seul les pompiers, l'hôpital ou toute personne compétente. Enfin, sa batterie se recharge seule lorsqu'il roule pour se déplacer. Surtout, Wakamaru est doté de parole. Il peut comprendre et parler plus de 10.000 mots, tenir une conversation sommaire, demander si "tout va bien" au cas où son "maître" reste trop longtemps silencieux. Pour cette raison, ses créateurs aiment le comparer à Astro, le robot d'une célèbre bande dessinée qui fut l'une des premières à décrire des robots communiquant avec les humains. Wakamaru sera assez cher : il coûtera 1 millions de Yens (environ 7.700?) à sa sortie en avril prochain. Mitsubichi espère néanmoins en vendre 10.000 exemplaires par an.

LCI :

http://www.lci.fr/news/multimedia/0,,986115-VU5WX0lEIDUy,00.html

Infineon propose une nouvelle puce pour étudier le cerveau
Samedi, 15/02/2003 - 00:00

Des chercheurs d'Infineon Technologies ont développé un nouveau semi-conducteur qui permettra aux scientifiques de lire les signaux électriques émis par des cellules nerveuses vivantes, a déclaré la société allemande. Pouvoir lire et enregistrer les signaux, avec l'aide des ordinateurs, permettra aux scientifiques de mieux comprendre le fonctionnement du cerveau et pourrait finalement conduire à la mise au point de traitements de maladies neurologiques comme la maladie d'Alzheimer, a déclaré Roland Thewes, directeur de la recherche dans la société munichoise. "Par exemple, on pourra placer des tranches de cellules nerveuses de cerveaux sur la puce, leur appliquer des médicaments et (...) observer la réaction de la cellule, a-t-il expliqué dans une interview. Les chercheurs d'Infineon ont travaillé avec les scientifiques de l'Institut Max Planck, sur la nouvelle puce, baptisée "Neuro Chip". Les neurones sont les cellules constituant le système nerveux des organismes vivants et communiquent entre eux par des impulsions électriques. La Neuro-Chip, de la taille d'un ongle, possède 16.000 capteurs suivant les impulsions électriques dans les cellules immergées dans une solution nutritive électrolyte qui recouvre le semi-conducteur et conserve les neurones vivants, a déclaré Thewes. Des amplificateurs intégrés dans le système de circuits permettent à chaque capteur de détecter et de traiter les signaux à faible voltage à travers les différentes couches de cellules. Les données peuvent ensuite être transmises à un ordinateur et transformées en une image pour analyse. Actuellement, les chercheurs utilisent de microscopiques aiguilles pour mesurer l'activité électrique interne, qui ne possèdent pas la précision de la Neuro Chip, a conclu Thewes.

Reuters : http://fr.news.yahoo.com/030211/85/31m1x.html

Pilotime, le magnétoscope numérique selon Canal+
Samedi, 15/02/2003 - 00:00

La convergence passera par une nouvelle génération de réseaux mais surtout de terminaux. Alors que des fournisseurs d'accès ADSL comme LDcom, Free et Club-Internet s'intéressent au monde de la télévision, la société Canal+ dévoile le Pilotime, un nouveau décodeur numérique équipé d'un disque dur et d'une connexion internet dont la fabrication devrait être sous-traitée à Thomson Multimedia et Sony. Selon les informations qui circulent sur le web, le Pilotime dispose d'un disque dur de 80 Go capable d'enregistrer l'équivalent de 40 heures de vidéo, d'une mémoire tampon de 30 minute, d'un port USB pour une liaison avec un modem ADSL ou une imprimante, du support des technologies java, html et mp3 et de lecteurs de cartes : carte d'abonnement et carte de crédit. Le Pilotime devrait être proposé à la location aux clients de CanalSatellite pour environ 8 euros par mois auxquels il faudra ajouter 20 euros pour l'accès aux services numériques interactifs. Il viendra ainsi concurrencer le "Platinium" de son concurrent TPS, fabriqué par Sagem, lancé à l'occasion de la coupe du monde de football en juin dernier. Une chose est sûre, face aux prétentions des géants de l'internet et de l'informatique dans le monde de la télévison, ses acteurs traditionnels devraient s'appuyer sur cette nouvelle génération de terminaux, fusion d'un disque dur, d'un magnétoscope et d'un décodeur, pour convoiter à leur tour les services interactifs et l'internet.

Netéconomie :

http://www.neteconomie.com/perl/navig.pl/neteconomie/infos/article/2003020417461...

^ Haut
Avenir
Nanotechnologies et Robotique
L'énergie sombre constituerait la majeure partie de l'Univers et serait à l'origine de son accélération
Samedi, 15/02/2003 - 00:00

Au début juillet s'est tenu à l'Institut d'astrophysique de Paris un colloque au titre bien mystérieux : « Sur la nature de l'énergie noire ». Cette irruption sur la scène scientifique d'un concept tenant plus de l'alchimie et de la mystique que de la science dure n'était pas anodine. L'énergie noire était devenue « le » sujet de l'année 2002, réunissant cosmologistes et physiciens théoriciens. La raison : quelque cinq mois auparavant, un article paru en Grande-Bretagne, dans les Monthly Notices of the Royal Academy of Science , avait convaincu la communauté scientifique qu'un phénomène étourdissant pour la pensée humaine était à l'oeuvre : l'accélération de l'expansion de l'Univers. Quelques mois plus tard, les chercheurs de l'expérience Archéops le confirmaient. D'après leurs analyses très précises du rayonnement de bruit de fond cosmologique, vestige du Big Bang, ils déduisaient que l'Univers connaissait effectivement une expansion accélérée sous la pression négative d'une mystérieuse énergie noire. C'était là un renversement complet de pensée puisque, selon les vues traditionnelles des cosmologistes, si l'Univers était en expansion depuis le Big Bang, celle-ci, loin d'accélérer, devait ralentir depuis quinze milliards d'années. Les distances extragalactiques dites cosmologiques sont, elles, calculées depuis Edwin Hubble, en 1929, en fonction de différents paramètres, comme le décalage spectral de la lumière de leur source, mais aussi de paramètres plus globaux : tout d'abord la densité de matière présente dans l'Univers, puis la constante de Hubble qui caractérise la vitesse d'expansion, mais aussi, et surtout, la mystérieuse constante cosmologique d'Einstein. Cette dernière connaît aujourd'hui un regain d'intérêt, alors qu'elle était tombée en désuétude depuis soixante-dix ans. Einstein avait rajouté ce terme négatif à ses équations de relativité générale afin que le résultat décrive un Univers statique conforme aux idées de l'époque. Quelques années plus tard, les cosmologistes attribuèrent à ce terme une valeur nulle, lorsque Edwin Hubble découvrit que l'Univers n'était pas statique, mais en expansion. Depuis quatre ans, cette constante est réapparue dans les équations, mais avec un signe positif, opposé à celui donné par Einstein. La constante cosmologique correspond alors à un milieu répulsif, une sorte d'antigravité qui, semblant dominer depuis sept milliards d'années, accélère l'expansion de l'Univers. Cela semble bel et bien être le cas. Car, l'an dernier, deux équipes étudiant des phénomènes complètement indépendants des supernovae sont parvenues aux mêmes conclusions. Chacune juge cette accélération nécessaire pour expliquer leurs résultats. « Nous confirmons l'accélération », ont clamé cet automne les physiciens français de l'expérience Archéops , qui vola en ballon pendant dix-neuf heures le 7 février 2002 à partir de la base suédoise de Kiruna. Leur sondage du bruit de fond cosmologique à grande échelle angulaire a, entre autres, permis d'affiner la composition énergétique de l'Univers. Sa densité de matière ne représente que 27 % (± 6 %) de l'énergie totale. Une valeur en accord avec les mesures des études précédentes, qui évaluaient cette densité à 30 %, dont la plus grande part (25 %) provient de la matière noire, encore inconnue mais qui exerce une influence gravitationnelle observable sur les galaxies et leurs amas. L'équipe dirigée par Alain Benoit, du centre de recherche sur les très basses températures de Grenoble, conclut elle aussi que l'Univers est dominé à 70 % par un milieu répulsif, appelé énergie noire et représenté dans les équations par la constante cosmologique. D'autres études étayent cette vision d'un Univers de densité de matière faible, dominé par une énergie noire qui accélère son expansion. Elles utilisent le phénomène de lentille gravitationnelle, dans lequel la lumière d'une source est déviée et amplifiée par la présence, sur la ligne de visée, d'un astre très massif comme une galaxie ou un amas de galaxies. La concordance de toutes ces expériences a fait sursauter plus d'un cosmologiste. À l'aube du XXIe siècle, il devient clair que 95 % de l'Univers nous est totalement étranger ! Les astrophysiciens s'aperçoivent que toutes leurs théories ne se fondent que sur l'observation des cinq petits pour cent visibles de l'énergie totale . De quoi rendre sceptique le commun des mortels, mais pas les scientifiques, qui continuent à bâtir leur édifice théorique contre vents et marées. Leur plus grand défi est aujourd'hui de dévoiler la nature de cette énergie noire, caractérisée par la constante cosmologique. Les cosmologistes et les physiciens théoriciens ont donc encore du pain sur la planche. En premier lieu, ils veulent mesurer le rapport entre la pression et la densité de ce milieu inhabituel. L'étude des supernovae de type Ia et les effets de lentilles gravitationnelles peuvent apporter des indications sur la valeur du rapport pression-densité, sur son éventuelle variabilité et, in fine, sur la nature de l'énergie noire . L'enjeu est d'importance : c'est elle qui, aujourd'hui, semble commander notre avenir à long terme. en deux mots Déjà mise en évidence il y a quatre ans à partir de l'étude de supernovae, l'accélération de l'expansion de l'Univers a été confirmée cette année par deux expériences indépendantes. Pour déduire ce résultat, la première a analysé plus de 220 000 galaxies, l'autre s'est penchée sur les inhomogénéités du bruit de fond cosmologique. Convaincus, les cosmologistes revoient leurs scénarios et tentent d'en comprendre la cause. Ils en appellent à une mystérieuse énergie noire, qu'ils tentent de caractériser en évaluant le rapport pression/densité de ce milieu encore inconnu.

La Recherche : http://www.larecherche.fr/data/361/03610341.html

^ Haut
Matière
Matière et Energie
Les Etats-Unis préparent l'économie de l'hydrogène pour 2020
Samedi, 15/02/2003 - 00:00

Lors du discours annuel présenté par le Président américain au Congrès et à la nation, le Président Bush a souligné son intérêt pour l'avenir de l'économie dite "à l'hydrogène" qui vise à remplacer les combustibles fossiles par ce seul élément chimique. Un budget de 1,2 milliard de dollars sur cinq ans devrait être consacré à la R&D dans ce domaine. Toutefois, les chiffres seront plus précis dès que l'administration américaine aura présenté son budget au cours de la semaine. L'an dernier, un budget de 97,5 millions de dollars avait été proposé pour financer les programmes de développement des moteurs à hydrogène et des piles à combustible. Cette année, 240 millions de dollars ont été proposés pour ces programmes. Selon les analystes du Breakthrough Technologies Institute de Washington, la production d'hydrogène pur impliquerait une consommation d'énergie considérable. Actuellement, 96% de l'hydrogène produit proviennent du gaz naturel, du pétrole et du charbon dont les réseaux sont gérés par l'industrie pétrolière. Mais la production d'hydrogène à partir des sources d'énergies renouvelables (éolien, solaire, biomasse...) nécessitera la construction de réseaux d'approvisionnement parallèles à ceux, déjà existants, de l'industrie pétrolière. Dans ce contexte, les experts sont unanimes quant au calendrier prévisionnel concernant la commercialisation de véhicules fonctionnant à l'hydrogène : les utilisateurs devront attendre entre dix et vingt ans.

NYT 02/02/03 :

http://www.nytimes.com/2003/02/02/weekinreview/02LIZZ.html

^ Haut
Espace
Espace et Cosmologie
Mars Express: premiers pas de l'Europe sur la planète rouge
Samedi, 15/02/2003 - 00:00

L'agence spatiale européenne (ESA) et le constructeur français Astrium peaufinent, dans les salles blanches du centre d'essais spatiaux Intespace de Toulouse, les préparatifs du satellite Mars Express, qui permettra à la toute fin de l'année à l'Europe de débarquer pour la première fois sur le sol de la planète rouge.D'ici quelques semaines, le satellite et son petit atterrisseur de conception britannique, Beagle-2, seront soigneusement empaquetés puis transportés vers le cosmodrome de Baïkonour (Kazakhstan) pour un lancement prévu à la mi-mars et une arrivée autour de Mars à la fin décembre 2003. "Nous sommes parfaitement dans les temps", a commenté mardi devant la presse Philippe Moulinier, responsable du projet chez Astrium. "Tous les instruments ont été livrés, intégrés sur le satellite et testés avec des résultats satisfaisants", a ajouté l'ingénieur. "Quant à l'atterrisseur Beagle-2, il sera livré à Toulouse à la fin de la semaine prochaine". Cube compact d'à peine plus de 1,5 m de côté pour moins de 2 tonnes, Mars Express fait aujourd'hui l'objet des dernières attentions des ingénieurs d'Astrium. D'autant plus que le "grand frère" à qui il a emprunté, pour des raisons de coût et de délai, l'essentiel de l'architecture et des systèmes de vol, le satellite Rosetta, a été contraint de repousser sa course-poursuite avec la comète Wirtanen après l'échec de la fusée Ariane 5. "Vu les malheurs survenus à la dernière Ariane 5, c'est Mars Express qui ouvrira la voie vers l'espace à son grand frère Rosetta", explique Michel Bouffard, d'Astrium. "C'est lui qui testera en vol tous les systèmes qui ont été mis au point pour cette nouvelle filière de satellite qui, outre Rosetta, comprend aussi la futur sonde européenne Vénus Express". Pour son premier voyage vers la planète rouge, l'agence spatiale européenne a fixé à son véhicule, d'un coût total d'environ 230 millions d'euros (Beagle-2 compris), des objectifs particulièrement ambitieux. Une fois en orbite, Mars Express braquera les objectifs de ses sept instruments vers le sous-sol de la planète avec notamment l'espoir d'y confirmer la présence des poches d'eau dont les scientifiques soupçonnent la présence. Un défi audacieux, pour lequel les ingénieurs qui ont conçu l'engin et cette mission vers une planète dont la conquête a souvent été marqué par des échecs retentissants assurent avoir mis toutes les chances de leur côté. "Nous avons tiré les leçons des récents échecs russe en 1996 et américains en 1999", affirme Michel Bouffard. "Mars Express a bénéficié de l'avionique élaborée pour Rosetta, une mission bien plus lointaine que Mars, ce qui réduit considérablement les risques. Nous sommes confiants". Outre cette vue imprenable sur la géologie, l'atmosphère et le climat martiens, Mars Express pourrait également offrir un début de réponse à une question qui taraude les scientifiques depuis des années. Une fois en vue de la planète rouge, le satellite se débarrassera du module Beagle-2 qui, une fois posé sur le sol poussiéreux d'une de ses plaines vallonnées nommée Isidis Planitia, aura pour tâche d'y détecter les traces d'une hypothétique vie martienne, passée ou actuelle. "S'il y a eu de la vie sur Mars, nous espérons pouvoir en repérer une trace", assure Patrick Martin, de l'ESA. "En tous cas à l'endroit où nous atterrissons..."

AFP : http://fr.news.yahoo.com/030204/202/30ysk.html

Conquête de l'espace : des moteurs à propulsion solaire envisageables vers 2050
Samedi, 15/02/2003 - 00:00

Source d'énergie, gratuite, inépuisable et propre, le Soleil pourrait permettre après-demain la propulsion des engins spatiaux même si les techniques actuelles ne permettent d'envisager son utilisation avant plusieurs décennies. La propulsion solaire thermique, qui vient de faire l'objet d'un séminaire au Centre national d'études spatiales (CNES), à Paris, part d'un principe simple, que connaît tout enfant qui s'est amusé un jour à enflammer du papier en l'exposant aux rayons du Soleil concentrés par une loupe. La technique de l'héliothermie consiste à exploiter de cette manière l'énergie tirée du Soleil. Concrètement, il faut doter le véhicule spatial d'un ou deux grands réflecteurs (miroirs), qui focalisent les rayons en un point où cette énergie se transforme en une forte source de chaleur (de l'ordre de 2.000 degrés Celsius). Cette chaleur sert à chauffer un fluide (généralement de l'hydrogène liquide) et à générer des gaz qui, éjectés à forte vitesse par une tuyère, créent l'effet propulsif. Mais la poussée obtenue est insuffisante pour faire décoller une fusée du sol. Dans cette phase, la propulsion chimique conventionnelle reste indispensable. En revanche, pour des engins déjà en orbite (étages supérieurs de fusées, satellites, sondes interplanétaires...), cette technique présente "un potentiel très important", a souligné Michel Eymard, du CNES. Parmi les principales applications envisagées, le transfert de satellites géostationnaires (36.000 Km au-dessus de l'équateur) à partir d'une orbite de 350 à 1.500 km. Français, Américains, Russes y réfléchissent depuis des années, mais personne n'est pour l'instant parvenu à résoudre les problèmes techniques de base. "Malgré plusieurs annonces, aucun système n'a volé à ce jour", a rappelé Nicolas Bérend (ONERA), en évoquant plusieurs projets américains non aboutis, dont le démonstrateur SSE (Shooting Star Experiment), qui devait être expérimenté lors d'une mission de navette en 2000, ou le SOTV (Solar Orbit Transfert Vehicle). Un autre projet, STOTS (Solar Thermal Orbit Transfer System), destiné à aboutir à des "propositions concrètes", est à l'étude en Europe, a signalé Denis Estublier (ESA). Selon les participants, le plus mûr des projets semble être le SPPS (Solar Power-Propulsion System), du Centre de recherche russe Keldych, qui pourrait voler prochainement. Plus que de la propulsion elle-même, les problèmes viennent des dispositifs annexes, notamment des miroirs qui, en fonction des besoins d'alimentation en énergie, doivent mesurer plusieurs dizaines voire centaines de mètres carrés. Pour pouvoir les amener en orbite, la seule solution actuellement envisageable est le réflecteur gonflable. Mais à long terme, on peut imaginer que la réalisation d'un ascenseur spatial (voir article dans cette même rubrique) pourrait ouvrir de nouvelles perspectives à la propulsion solaire spatiale en permettant de mettre sur orbite, à un coût acceptable, des miroirs solaires de grande taille. Mais, comme l'a conclu Raymond Bec (CNES), organisateur du séminaire, l'objectif actuel n'est que d'élaborer, d'ici à 2010, des actions et recommandations et tracer les voies vers la réalisation de systèmes opérationnels, vers 2050.

CNES : http://www.cnes.fr/actualites/1index.htm

Le projet d'ascenseur de l'espace refait surface
Samedi, 15/02/2003 - 00:00

La catastrophe de la navette Columbia a relancé l'intérêt pour un projet qui propose un approche radicalement nouvelle de la propulsion spatiale : l'ascenseur de l'espace. Imaginé il y a plus de 20 ans, et popularisé par le grand écrivain de science-fiction Isaac Asimov dans son roman "Les fontaines du Paradis", l'ascenseur de l'espace est en train de rejoindre le domaine du possible grâce aux progrès intervenus au cours de ces dernières années dans la production de nanotubes de carbone; Ce matériau matériau aux propriétés extraordinaires, découvert en 1991, rend en effet envisageable, pour le second quart de ce siècle, la réalisation d"un ascenseur spatial qui se présenterait sous la forme d'un cylindre d'un mètre de large et de 100000 Km de long, ancré sur une plate-forme océanique au niveau de l'équateur. "C"est techniquement possible" souligne Robert Cassanova, Directeur de la prospective à la NASA, "ce projet ne présente aucune incompatibilité avec les lois de la physique" ajoute-t'il. Le département de prospective de la NASA a d'ailleurs décidé de consacrer 500000 dollars pour étudier la faisabilité de ce concept. Toutefois, la clé de ce projet réside dans la maîtrise de la production industrielle de nanotubes de carbone, 100 fois plus résistant que le meilleur acier, mais bien plus léger. Or actuellement on ne sait pas produire en grosses quantités ces nanotubes et pour réaliser un tel projet il faudra passer d'une production de quelques centaines de grammes à plusieurs milliers de tonnes. Selon ses concepteurs, l'ascenseur de l'espace pourrait transporter du matériel dans l'espace pour un coût d'environ 100 dollars par kilo, contre 10000 à 40000 dollars pour la navette spatiale. Avec un coût de transport aussi faible il deviendrait possible aux pays en voie de développement de construire des centrales solaires sur orbite et de disposer ainsi d'une énergie propre et bon marché qui accélérerait leur croissance économique. Ce projet, dont le coût de construction serait de l'ordre de 10 milliards de dollars, permettrait également de développer un tourisme spatial de masse qui pourrait s'avérer très rentable c'est pourquoi il commence à intéresser les investisseurs.

Brève rédigée par @RT Flash

Wired : http://www.wired.com/news/technology/0,1282,57536,00.html

Des images stupéfiantes des premiers moments de l'Univers confirment la théorie du big bang
Samedi, 15/02/2003 - 00:00

La Nasa a rendu publiques mardi des photos stupéfiantes des premiers moments du cosmos prises par la sonde WMAP, qui confirment que notre Univers est âgé de 13,7 milliards d'années et qu'il n'est composé que de 4% d'atomes de matière."Nous avons capturé une image détaillée de l'Univers dans son enfance et, grâce à ce portrait, nous allons être capables de le décrire avec une précision sans précédent", a indiqué Charles Bennett, chef de la mission WMAP au centre spatial Goddard de la Nasa, à Greenbelt (Maryland). Ces images étonnantes de l'Univers "bébé", lorsqu'il n'avait que 380.000 ans, ont été prises par la sonde WMAP (Wilkinson Microwave Anisotropy Probe) lancée le 30 juin 2001 de Cap Canaveral (Floride). Sur orbite autour du point dit de Lagrange 2 (L2), à 1,5 million de Km de la Terre, la sonde avait pour mission de dresser une cartographie de l'Univers en mesurant avec une précision d'un millionième de degré Kelvin les infimes fluctuations de température (anisotropies) présentes dans l'Univers 400.000 ans après le Big Bang, l'explosion à l'origine de l'Univers. Elle livre aujourd'hui ses premières images. Selon la théorie du Big Bang, énoncée en 1931 par Georges Henri Lemaître, astrophysicien et mathématicien belge, reprise en 1948 par Georges Gamow, physicien américain d'origine russe, l'Univers serait issu de l'explosion d'un "atome primitif" entré en expansion de façon cataclysmique il y a environ 14 milliards d'années. De cette explosion initiale, il reste une trace fossile émise environ 300.000 ans après, lorsque l'Univers baignait dans un gaz chaud, une sorte de "soupe primordiale" chauffée à 2.725 degrés Kelvin (2.541 degrés Celsius). Cette "lumière" nous est parvenue sous la forme d'un rayonnement radio à micro-ondes, appelé "fond diffus cosmologique". C'est ce rayonnement fossile, qui a mis plus de 13 milliards d'années à nous parvenir, qu'a capturé la sonde WMAP en observant pendant 12 mois la voûte céleste dans ses moindres recoins. Or, en mesurant avec précision les fluctuations infinitésimales de température de cette "lumière" initiale que l'on croyait homogène, elle a pu détecter des grumeaux de matière, ancêtres des galaxies actuelles. Une des plus grandes surprises révélées par ces images réside dans la découverte que les premières étoiles à briller dans l'Univers se sont "allumées" environ 200 millions d'années après le Big Bang, bien plus tôt qu'on ne le pensait jusqu'à présent. De plus, ce nouveau portrait de l'enfance de l'Univers permet de placer précisément son âge à 13,7 milliards d'années avec une marge d'erreur étonnamment faible de 1 %. "Ces données sont solides, une vraie mine d'or", s'est réjoui Charles Bennett. Pour l'équipe de scientifiques de la mission WMAP, ces découvertes confortent la théorie du Big Bang et celle dite de l'inflation, selon laquelle la naissance de l'Univers a été suivie d'une forte et rapide expansion. Ils ont aussi pu déterminer que le cosmos contenait 4% d'atomes de matière, 23 % d'une matière non lumineuse inconnue appelée "matière noire" et 73 % d'une "énergie sombre", dont le rôle reste mystérieux mais dont on pense qu'elle agirait comme force anti-gravitationnelle. "Ces chiffres représentent un tournant dans la façon dont nous voyons l'Univers, un tournant pour la cosmologie", a souligné une responsable de la Nasa, Anne Kinsey. Sorte de thermomètre géant de 3,8 mètres de haut sur cinq de large pour un poids de 840 kg, la sonde MAP, rebaptisée par la Nasa "Wilkinson MAP", ou WMAP, en l'honneur d'un membre de l'équipe décédé, l'astronome de l'Université de Princeton David Wilkinson, est une merveille de technologie. Elle est équipée deux réflecteurs primaires et deux secondaires, ainsi que des récepteurs de micro-ondes différentiels, qui lui assurent une précision inégalée. Sa mission d'observation, d'un coût de 145 millions de dollars, doit se poursuivre pendant encore trois ans.

NASA : http://www.nasa.gov/HP_FLB_Feature_MAP_030211.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Gulf Stream la fin d'un mythe
Samedi, 15/02/2003 - 00:00

Si l'Europe de l'Ouest bénéficie d'hivers cléments, c'est grâce au Gulf Stream. Nous avons tous entendu ou lu cette explication au moins une fois. On la retrouve aussi bien dans les livres de climatologie que dans les guides touristiques. C'est l'une des raisons pour lesquelles tant de recherches ont été consacrées aux modifications de la circulation océanique dans l'Atlantique nord et à leur impact sur le climat. En plein coeur de l'hiver, les températures enregistrées en Europe occidentale (OEles britanniques, Scandinavie, France) sont en moyenne 15 à 20° C supérieures à celles mesurées aux mêmes latitudes sur la côte est de l'Amérique du Nord (Terre-Neuve, Labrador). Entre les deux rives de l'Atlantique, le Gulf Stream (littéralement, le « courant du Golfe ») transporte les eaux chaudes du golfe du Mexique vers le nord, le long de la côte américaine. Il vire ensuite à l'est, au large du cap Hatteras, pour faire route vers l'Europe, se refroidissant progressivement lors de son périple. Étant donné qu'aux latitudes moyennes les vents soufflent d'ouest en est, on en a déduit que la chaleur relâchée par le Gulf Stream, et convoyée par les vents d'ouest vers l'Europe, devait être la raison de la douceur des hivers européens. Il existe pourtant une explication beaucoup plus simple. L'eau de mer ayant une forte inertie thermique, l'océan se réchauffe beaucoup moins que les continents en été et se refroidit moins en hiver. À elle seule, cette propriété suffirait à générer un écart important dans la gamme saisonnière de températures entre masses continentales et océaniques. Mais il y a aussi l'action des vents qui brassent les eaux superficielles. En été, ils redistribuent ainsi la chaleur gagnée en surface grâce à l'ensoleillement sur une couche de quelques dizaines de mètres de profondeur, alors que sur la terre ferme seul le premier mètre se réchauffe. En hiver, quand l'océan se refroidit en surface, les eaux froides superficielles, plus denses, plongent et sont remplacées par les eaux plus profondes, plus chaudes et moins denses. La combinaison du tout fait qu'à la latitude de 50° N l'écart entre températures estivales et hivernales n'est que de 5° C environ sur l'Atlantique, alors qu'il est de 50° C au coeur de la Sibérie ! Les régions comme l'Europe de l'Ouest, qui reçoivent un air océanique, sont donc dotées d'un climat « maritime » aux étés frais et aux hivers doux. Tandis que les régions situées à l'ouest des océans, comme l'Est de l'Amérique du Nord, se caractérisent par un climat continental, avec des étés chauds et des hivers rigoureux. Cela pourrait être l'explication la plus simple du contraste de température entre les deux rives de l'Atlantique nord. Pour comprendre l'origine des hivers doux européens, Richard Seager et ses collègues ont étudié la façon dont les vents et les courants marins distribuent la chaleur autour du Globe. À partir d'observations météorologiques et des données collectées par les bateaux, ils ont d'abord montré que le principal convoyeur de chaleur vers L'Europe n'est pas l'océan mais l'atmosphère... Selon leurs simulations numériques, les deux phénomènes principaux en jeu sont d'une part les grands écoulements atmosphériques liés à la présence des Rocheuses, qui refroidissent l'Est américain, et d'autre part la dissipation dans l'atmosphère de la chaleur stockée pendant l'été dans les eaux superficielles de l'océan. Le Gulf Stream n'y est pratiquement pour rien. Au cours des dernières années, l'amélioration des modèles numériques de prévision météorologique a conduit à une réanalyse systématique de toutes les observations réalisées depuis 1949 . Cette réanalyse a fourni des données à l'échelle du Globe entier, à partir desquelles Kevin Trenberth et ses collègues du National Center for Atmospheric Research, à Boulder (Colorado), ont démontré qu'aux latitudes moyennes l'essentiel de la chaleur est véhiculé non par l'océan mais par l'atmosphère . En fait, les observations utilisées dans les premières estimations provenaient essentiellement de mesures effectuées au-dessus des continents. Or, l'atmosphère transporte d'énormes quantités de chaleur vers les pôles via les tempêtes hivernales qui balaient les océans. Poursuivant leur démarche, nous avons alors calculé les conséquences en termes de température : en l'absence de cette composante atmosphérique, les températures hivernales de la région située au-delà de 35° de latitude nord seraient inférieures de quelque 27° C à ce qu'elles sont ! Toujours grâce aux données réanalysées, les chercheurs ont aussi déterminé les changements moyens de température en fonction du temps, dus aux mouvements atmosphériques. Résultat : aux moyennes latitudes, l'écoulement d'air moyen - c'est-à-dire l'écoulement typique sur une saison - réchauffe les régions situées à l'est des océans et refroidit celles situées à l'ouest. Et c'est surtout l'écoulement nord-sud de l'air associé aux ondes stationnaires qui en est responsable. L'effet net de la variabilité des vents - c'est-à-dire de la continuelle succession de cyclones et d'anticyclones qui déterminent notre climat - réchauffe au contraire les régions intrinsèquement froides (l'Est américain, par exemple) et refroidit les chaudes (l'Europe occidentale). Mais, au bilan, c'est l'écoulement moyen qui l'emporte, d'un facteur 2 au moins ! Ce sont donc clairement les mouvements atmosphériques qui adoucissent les hivers européens. Mais quelle est l'origine de la chaleur relâchée par l'océan que les vents soufflent sur l'Europe ? Ce relargage est-il entretenu par un stockage saisonnier de chaleur dans l'océan ou par les courants marins ? Pour le savoir, nous avons repris l'ensemble des observations collectées par les bateaux et analysé la chaleur relâchée par l'océan par évaporation, les échanges par conduction, ainsi que la perte nette due à l'émission de rayonnement infrarouge : en hiver, la chaleur perdue est compensée en partie par le rayonnement solaire absorbé (qui est faible), en partie par une diminution du stock de chaleur accumulé durant l'été et en partie par la convergence thermique des courants océaniques. On entend par convergence thermique des courants le fait que, dans certaines zones, les courants amènent plus de chaleur qu'ils n'en retirent. Cet excès contribue à réchauffer localement l'océan. D'après nos calculs, les courants océaniques apportent la moitié de la chaleur relâchée en hiver dans deux petites régions. Celle du Gulf Stream, qui borde l'Est des États-Unis, où les eaux tropicales chaudes s'écoulent en dessous d'un air froid et sec venant de l'Amérique du Nord. Et celle située immédiatement à l'ouest de la Norvège. Sur tout le reste de l'Atlantique nord, la chaleur libérée graduellement au cours de l'hiver provient essentiellement du stock estival. Un processus qui continuerait même sans mouvements océaniques. En son absence, les régions de l'Atlantique situées au-delà de 35° N seraient, une fois encore, plus froides de 27° C ! Pour vérifier le rôle secondaire des courants, nous nous sommes tournés vers les simulations numériques. Le modèle de climat que nous avons utilisé combine un modèle de circulation atmosphérique générale et une représentation simplifiée de l'océan sous la forme d'une couche d'eau immobile. Un artifice qui permet d'éliminer le transport de chaleur par les courants océaniques, tout en conservant la propriété d'absorber, de stocker et de libérer de la chaleur. Les variations de températures hivernales ainsi modélisées de part et d'autre de l'Atlantique, entre les latitudes de l'Espagne et de la Norvège, sont presque identiques à celles observées. Et confirment ainsi la faible influence du Gulf Stream sur le contraste thermique entre les hivers européens et américains. En revanche, les courants océaniques jouent un rôle plus important plus au nord, en empêchant la formation de glaces de mer le long des côtes norvégiennes. Ces simulations numériques montrent également que le transport océanique de la chaleur augmente les températures hivernales de l'Est de l'Amérique du Nord et de l'Europe occidentale de 2 à 3° C (laissant le contraste entre les deux inchangé). Ce réchauffement ne représente que 10 % de celui généré par les mouvements atmosphériques ou de celui lié à la libération saisonnière du stock de chaleur des océans ! De façon surprenante, l'Est américain reçoit finalement autant de chaleur des courants océaniques que l'Ouest de l'Europe. L'explication vient des tempêtes hivernales qui pompent la chaleur du Gulf Stream à l'est de l'Atlantique nord et la ramènent vers les côtes américaines. En conclusion, la chaîne des Rocheuses explique pour moitié les 15° C de différence entre les deux rives de l'Atlantique nord. L'autre moitié étant due à la libération saisonnière de chaleur par la couche de mélange - on retrouve ici la distinction entre climat maritime et continental. Le Gulf Stream n'y est pratiquement pour rien.

La Recherche :

http://www.larecherche.fr/data/361/03610401.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un enfant ou adolescent sur huit souffre d'un trouble mental
Samedi, 15/02/2003 - 00:00

Un enfant sur huit souffre d'un trouble mental en France. Tel est le principal enseignement de l'expertise collective rendue publique, jeudi 6 février, par l'Institut national de la santé et de la recherche médicale (Inserm). Intitulée "Troubles mentaux : dépistage et prévention chez l'enfant et l'adolescent", cette expertise menée par treize psychiatres, épidémiologistes et neurobiologistes s'est attachée à étudier les troubles émotionnels ou comportementaux "les mieux définis dans la littérature scientifique" : autisme, hyperactivité, troubles obsessionnels compulsifs (TOC), troubles de l'humeur, d'anxiété, d'anorexie, de boulimie ou de schizophrénie. Ces pathologies, soulignent les experts, "interfèrent le développement de l'enfant, freinent ses apprentissages scolaires et peuvent compromettre son devenir". C'est la première fois en France qu'un document rassemble et analyse toutes les données scientifiques et médicales existant sur ce sujet. L'estimation selon laquelle 12 % des enfants et adolescents seraient atteints d'un trouble mental a été effectuée "à partir des chiffres de prévalence retrouvés dans toutes les études internationales et françaises", précise l'un des experts, Daniel Bailly, psychiatre de l'enfant et de l'adolescent à l'hôpital Sainte-Marguerite à Marseille. Ainsi, 5 % des enfants souffrent de troubles anxieux, 1 % à 2 % d'hyperactivité et, à l'adolescence, 3 % des 13-19 ans ont des troubles de l'humeur. Comme chez l'adulte, les troubles mentaux chez l'enfant et l'adolescent sont en grande majorité "poly-factoriels". Au-delà de la "susceptibilité génétique", d'autres facteurs, "en particulier environnementaux, interagissent", expliquent les experts. Ces derniers relèvent que "les enfants de familles présentant des troubles de type alcoolisme, toxicomanie ou dépression sont susceptibles de développer une pathologie, qui n'est pas nécessairement la même que leurs parents". Ils évoquent également les conflits parentaux et familiaux. En outre, "les traumatismes qui peuvent se passer pendant la grossesse ou à l'accouchement peuvent avoir un impact sur la survenue de troubles mentaux". L'expertise précise également l'influence du sexe et de l'âge. Si les garçons sont "plus vulnérables" que les filles aux troubles du développement avant 12-13 ans, "la situation s'inverse à l'adolescence". De plus, "les deux sexes n'expriment pas le même type de troubles". Les garçons souffrent en général plutôt de troubles "externalisés" (comme l'hyperactivité) et les filles de troubles "internalisés" (anxiété, troubles du comportement alimentaire, etc.). Alors que ces pathologies ont "un retentissement considérable sur l'enfant et sa vie quotidienne", les experts regrettent qu'en France les délais de diagnostic soient "trop longs". "Il s'écoule souvent plusieurs années entre l'apparition des premiers symptômes et leur dépistage", pointent-ils alors que, plus le problème est pris tôt, plus il sera possible de le soigner.

INSERM :

http://www.inserm.fr/servcom/servcom.nsf/(Web+Startup+Page)?ReadForm&actualite

"Troubles mentaux : dépistage et prévention chez l'enfant et l'adolescent"

Un médicament à l'huile de poisson pour lutter contre les suites d'infarctus
Samedi, 15/02/2003 - 00:00

La prise d'acides gras polyinsaturés spécifiques, les oméga-3 à base d'huile de poisson, réduit significativement les risques de décès chez les patients ayant subi un infarctus du myocarde, selon une étude réalisée par l'Institut Mario Negri, près de Milan (Italie) sur plus de 11.000 patients dans 172 hôpitaux pendant 3 ans et demi. Sur des patients qui avaient tous déjà fait un infarctus dans les trois mois, l'oméga-3 a fait baisser de 30% le nombre des décès par maladies cardio-vasculaires par rapport au groupe qui ne prenait pas ce médicament. Le Pr Fabio Turazza, auteur principal de cette étude, a souligné vendredi devant la presse que les effets bénéfiques du médicament se manifestent dès le 3ème mois. Les conclusions de l'essai italien sont d'autant plus importantes que les patients sur lesquels il a été mené suivaient déjà le traitement "classique" destiné à éviter les décès survenant après un infarctus du myocarde et observaient aussi un "régime méditerranéen", destiné à diminuer les risques cardio-vasculaires, a souligné le Pr Turazza. Avec plus de 100.000 cas par an en France, l'infarctus du myocarde est une affection fréquente. Environ 20% des malades meurent de leur infarctus, 10% succombent au cours du mois suivant l'accident cardiaque et ensuite 5% chaque année. Le médicament à base d'oméga-3, Omacor, selon son appelation commerciale qui est la même que celle de la molécule, a obtenu une autorisation de mise sur le marché européen et est déjà en vente en Grande-Bretagne, Allemagne, Irlande, Grèce, Autriche, Belgique, Pays-Bas, Norvège et Luxembourg.

AFP : http://fr.news.yahoo.com/030207/202/31fln.html

Pour garder une bonne mémoire, du sport et une bonne alimentation
Samedi, 15/02/2003 - 00:00

Une étude publiée sur le site des Proceedings of the National Academy of Sciences indique que parmi les personnes qui ne souffrent pas de diabète, une tolérance insuffisante aux glucoses est liée à des performances plus faibles lors des tests de mémoire. Les chercheurs du Nathan Kline Research Institute de la New York University School of Medicine ont mené leur enquête sur 30 personnes en bonne santé, âgées en moyenne de 69 ans, et testé leur tolérance aux glucoses, c'est-à-dire la rapidité avec laquelle leurs tissus absorbent les sucres ingérés. L'absorption des sucres chez les personnes habituées à des exercices physiques réguliers est en moyenne deux fois plus efficace que chez des personnes plus sédentaires. La performance sur le plan de la mémoire des volontaires a été évaluée grâce à des tests classiques et à un scanner cérébral. Ce dernier indique également que les personnes présentant une tolérance basse aux glucoses possédaient en général un hippocampe plus petit par rapport à leur cerveau que celui des participants plus sportifs. Ces résultats suggèrent la possibilité, grâce à une pratique régulière du sport et à un régime approprié, de maintenir et même de rétablir une mémoire plus performante.

NYT 04/02/03 :

http://www.nytimes.com/2003/02/04/health/fitness/04SIDE.html

Des toxines bactériennes pourraient prévenir les cancers colo-rectaux
Samedi, 15/02/2003 - 00:00

Des chercheurs américains de l' Université Thomas Jefferson de Philadelphie, dirigés par GianMario Pitari viennent de proposer une nouvelle hypothèse permettant d'expliquer la faible incidence des cancers colo-rectaux dans les pays du tiers-monde : les toxines sécrétées par les entérobactéries infectant très fréquemment ces populations, et les touristes en provoquant des diarrhées peu agréables pourraient prévenir le développement des cancers colo-rectaux. Les auteurs apportent un argument très convaincant allant dans le sens de cette hypothèse, puisqu'ils ont réussi à mettre en évidence une nouvelle voie de signalisation intracellulaire ayant pour point de départ la fixation d'une entérotoxine à un récepteur cellulaire et, comme effet final, l'inhibition de la prolifération des cellules. L'équipe de Pitari pense qu'il existe une relation inverse entre l'incidence des cancers coliques et celle des infections par les entorébactéries pathogènes, les toxines des entérobactéries pourraient jouer un rôle dans le mécanisme de maintien de la suppression tumorale par les récepteurs GC-C. Une étude pharmacologique menée sur des cellules en culture leur a permis de mettre en évidence que la fixation de toxines bactériennes sur les récepteurs GC-C provoquait effectivement une cascade de réactions provoquant l'inhibition de la prolifération cellulaire. Cette fixation entraîne en effet une entrée massive de calcium qui va, elle-même, par un mécanisme non élucidé, provoquer l'inhibition de la multiplication des cellules. Les résultats de Pitari et coll. fournissent donc de nouvelles cibles thérapeutiques endogènes permettant de préserver ou de restaurer le rôle du récepteur GC-C dans la suppression tumorale. L'administration orale d'agents spécifiques, tels que la guanyline, l'uroguanyline, ou mêmelecalcium, pourrait en effet offrir de nouvelles approches pour la prévention et/ou la thérapie des cancers colo-rectaux. Le cancer colo-rectal est la quatrième cause de mortalité par cancer dans les pays développés où sa fréquence est bien plus important que dans les pays du tiers-monde.

New Scientist : http://://www.newscientist.com/news/news.jsp?id=ns99993372

Sida: premiers résultats encourageants pour le vaccin thérapeutique
Samedi, 15/02/2003 - 00:00

Deux essais de vaccinothérapie administrée à des patients séropositifs contre le virus du sida (VIH) ont donné des résultats "particulièrement encourageants", selon l'Agence nationale française de recherche sur le sida (ANRS), responsable de ces expérimentations. Parmi les sujets vaccinés, 25% ont pu arrêter leur traitement sans problème, selon ces résultats de tests concernant 118 patients, dont 81 vaccinés, présentés mercredi à Boston à la 10e conférence américaine sur les rétrovirus. Ces résultats "préliminaires sont très positifs", estime le professeur Jean-François Delfraissy (hôpital Bicêtre, Kremlin-Bicètre), soucieux cependant comme ses collègues, de conserver "une certaine prudence". Contrairement au vaccin préventif qui a pour objectif d'empêcher l'infection de survenir, la vaccinothérapie vise à induire ou amplifier les réactions ("réponses") de défenses immunitaires spécifiquement dirigées contre le VIH chez les sujets déjà infectés. Elle rendrait possible des interruptions du traitement antirétroviral, pas toujours bien supporté, tout en réduisant le risque d'une reprise de la prolifération du virus. "Il y a une vraie demande car beaucoup de patients sont fatigués de leur traitement", souligne l'association AIDES. "Le recul maximum est d'un peu plus d'un an", relève le Pr Brigitte Autran, immunologiste qui a également participé aux essais, partiellement financés par Aventis-Pasteur et Chiron. Les vaccins thérapeutiques contre le sida pourraient être opérationnels "d'ici trois à cinq ans", a déclaré le Pr Michel Kazatchkine, directeur de l'Agence nationale de recherche sur le sida (ANRS), responsable de ces expérimentations. "C'est une source d'espoir importante. Dans trois à cinq ans, ce pourrait être une stratégie de traitement", a déclaré sur LCI le Pr Kazatchkine, qui devait présenter ses travaux mercredi à Boston, à l'occasion de la 10e conférence américaine sur les rétrovirus. "Les patients vaccinés (25%) qui n'ont pas eu besoin de reprendre leur traitement vont être suivis pendant deux ans pour voir combien de temps cela va durer", précise le Pr Michel Kazatchkine, directeur de l'ANRS. L'innocuité des préparations vaccinales, "Alvac vCP1433" et "Lipo-6T", a été préalablement vérifiée. Les essais concernent des patients dont la charge virale (quantité de virus dans le sang) était devenue indétectable sous traitement. Dans un premier essai (Vacciter), la moitié des patients ont reçu quatre injections vaccinales à un mois d'intervalle, associées à l'interleukine 2 (IL-2), substance connue pour faire remonter le nombre de lymphocytes CD4. En l'absence de traitement efficace, le nombre de ces cellules de défense de l'organisme s'effondre sous l'attaque du VIH. Dans un second essai (Vaccil-2), l'ensemble des patients ont été vaccinés. La vaccination, dans les deux cas, a été suivie d'une interruption du traitement antirétroviral (anti-VIH). L'idée est de réapprendre au système de défense de l'organisme à se battre contre le VIH, de "rééduquer et renforcer le système immunitaire", explique le Pr Yves Lévy, coordinateur de Vaccil-2. La vaccination a induit chez une majorité de patients vaccinés (61% et 57,5% respectivement) une réponse immunitaire (formation d'anticorps, mobilisation de cellules tueuses) spécifiquement anti-VIH. C'est la première fois qu'une telle réponse immunitaire est obtenue chez des patients infectés par le VIH, selon l'ANRS. Pour le Pr Christine Katlama, coordinateur de l'essai Vacciter, les résultats sont "extrêmement encourageants". "Les deux essais mettent, par ailleurs, en évidence pour la première fois une corrélation entre le niveau de la réponse immunitaire et le niveau de contrôle de la réplication (multiplication) du VIH", ajoutent les chercheurs. Les interruptions thérapeutiques les plus longues ont ainsi été possibles chez les patients qui ont le mieux répondu à la stimulation du vaccin. Pour améliorer ces résultats dépassant leurs espérances, les chercheurs envisagent de réduire à 2 les injections après avoir constaté que le coup de fouet donné au système immunitaire était maximal à ce stade et que ses effets diminuaient en poursuivant les injections.

AFP : http://fr.news.yahoo.com/030212/202/31o5o.html

Le coton génétiquement modifié augmente sensiblement les rendements
Samedi, 15/02/2003 - 00:00

Du coton génétiquement modifié pour résister à un insecte nuisible pourrait voir son rendement augmenter jusqu'à 80%, selon des chercheurs qui ont fait des essais en Inde et dont les travaux sont publiés dans la revue Science. Les résultats de leurs travaux sont surprenants: on n'avait jusqu'à présent observé qu'une progression dérisoire des rendements, dans des études similaires menées en Chine et au Etats Unis, c'est-à-dire des zones de climat tempéré, souligne Science. L'ennemi du coton est petit, mais ravageur: l'anthonome du cotonnier, une sorte de charançon, détruit une grande partie de la récolte mondiale chaque année. Les agriculteurs doivent vaporiser les arbustes au moins 20 fois par an pour le combattre. D'où la mise sur le marché en 1997, par le géant de l'agroalimentaire Monsanto, d'une variété de coton résistant efficacement à ce coléoptère: les chercheurs de Monsanto avaient introduit dans la plante un gène bactérien au succès garanti pour un type très spécifique d'insecte. Ce que l'on appelle le "coton Bt" --qui contient le gène Bacillus thuringiensis-- produit en quelque sorte lui-même son insecticide. Ce type de coton modifié représente un tiers de la surface de plantations cotonnières en Chine, où le recours aux pesticides a diminué de plus de 70 %, avec une augmentation du rendememnt d'au maximum 10 %. Dans le cas du soja transgénique, certains scientifiques ont même noté des baisses de rendement, rappelle Science. C'est dans les zones tropicales et sub-tropicales que la menace des insectes est la plus forte, beaucoup plus qu'en Chine ou aux Etats Unis, où les études ont été menées en premier. De plus, les pays pauvres ont moins de moyens pour recourir aux pesticides : les insectes ne détruisent aux Etats Unis que 12 % de la production contre 50 ou 60% en Inde. David Zilberman (Berkeley) et Matin Qaim (Centre pour la Recherche et le développement de l'Université de Bonn) ont testé l'efficacité en Inde du coton Bt, avec un essai sur 395 exploitations en 2001 dans sept états indiens qui s'est révélé concluant. Dans trois champs contigus, les fermiers étaient invités à planter du coton Bt, du coton conventionnel de la même variété, et une troisième variété d'hybride local. La quantité de pesticide utilisée pour le coton Bt était 70 % moindre que sur les deux autres parcelles. Or le rendement a été de 80 % supérieur. "En dépit du coût plus élevé des semences, les fermiers ont quintuplé leur revenu avec le coton génétiquement modifié. Il est vrai que l'invasion des anthonomes a été particulièrement sevère en 2001", reconnait Matin Qaim. Mais dans des études préliminaires effectuées entre 1998 et 2001, nous avons constaté une hausse de rendement de 60%, explique-t-il. Selon le chercheur, il faut prendre au sérieux les risques potentiels de la biotechnologie, même si "dans toutes les études précédentes, il a été prouvé que le coton Bt était sans danger pour les hommes et l'environnement".

Science du 6-02-2003 : http://www.sciencemag.org/

Les machines automatiques pourraient bientôt lire dans les pensées de leurs utilisateurs
Samedi, 15/02/2003 - 00:00

Quoi de moins sensible qu'un distributeur automatique de billets ? Combien de clients perdent les banques à cause de cette froideur mécanique qui remplace de plus en plus souvent les employés derrière un guichet ? En devenant un facteur déterminant dans les stratégies marketing, l'accueil et la qualité de la relation avec ces clients s'accommode mal du tout-automatique. Du moins dans son état actuel. En effet, Teradata, une division de l'entreprise japonaise NCR qui fabrique, entre autres, des terminaux de distribution de billets, s'est attelée à la tâche de rendre plus humaines de telles machines. Elle dispose d'un parc de 300 000 systèmes installés fonctionnant en self-service et réalisant 20 millards de transactions par an. En collaboration avec le département ingénierie de l'université de Californie du Sud (USC), Teradata finance des recherches sur les machines "E-motionnelles". "Le projet fait appel à l'analyse du visage de 150 personnes, avec l'objectif de distinguer six émotions de base : la tristesse, la surprise, la joie, le dégoût, la colère et la peur", explique Werner Sülzer, vice-président de NCR Teradata Europe. Conférer à une machine l'aptitude à déterminer, avec une probabilité de succès acceptable, l'humeur d'un utilisateur grâce à la simple observation de son visage n'est pas simple. Les chercheurs doivent commencer par élaborer des stimuli capables d'induire chez les sujets de l'expérience des réactions émotionnelles précises. C'est le travail du psychologue Skip Rizzo, l'un des trois principaux chercheurs travaillant sur le projet E-Motions à l'USC. Ensuite, le professeur Ulrich Neumann étudie la meilleure méthode pour capter les expressions du visage et en extraire la signification grâce à l'analyse de certaines caractéristiques. Une quinzaine de points particuliers sont ainsi repérés afin de localiser la bouche, les narines, les yeux et les sourcils. La détermination des expressions s'appuie sur des calculs de position du coin de l'oeil, de distance entre les lèvres et le nez ou de taille des yeux, par exemple. Le système doit être capable de s'accommoder des différences d'encombrement du visage dans l'image, fonction de la distance entre le sujet et la caméra. Il lui faut également corriger les angles de rotation de la tête. Le professeur Cyrus Shahabi se charge des travaux sur les bases de données et les algorithmes de correspondance qui permettent au système d'apprendre au fil de l'expérience. En effet, il ne s'agit pas pour les chercheurs de réaliser un logiciel définitif, mais de lui conférer l'aptitude d'affiner ses classifications d'émotions lors de chaque nouvelle interaction avec un utilisateur. "En France, un sourire exprime souvent la satisfaction, tandis qu'au Japon, il peut masquer un malaise...", remarque Werner Sülzer. Le projet E-Motions pourrait aboutir d'ici trois à cinq ans et équiper, sans doute d'abord, des distributeurs de billets. Ces derniers seraient alors capables de s'adapter automatiquement à certaines attitudes des utilisateurs. Parmi les plus simples, Werner Sülzer cite le plissement des yeux exprimant une difficulté de lecture, qui pourrait provoquer une augmentation du contraste de l'écran ou de la taille des caractères. De même, la détection d'une expression d'angoisse ou de crainte pourrait être interprétée comme une difficulté à comprendre les indications et conduire à proposer une aide. Cette fonction serait précieuse lors d'une première utilisation de la machine ou après un changement de logiciel. Au-delà de l'objectif de fidélisation des clients d'une banque, de tels travaux, s'ils aboutissent à un système efficace, trouveront naturellement de nombreuses autres applications. Comment ne pas rêver de détecter, sur le visage d'un terroriste se présentant dans un aéroport, les traces de malaise révélant son projet meurtrier ? De là à imaginer un nouveau et discret détecteur de mensonge ou un auxiliaire médical, il n'y a qu'un pas que Werner Sülzer n'hésite pas à franchir. Sans nier les risques de remise en cause de la protection de la vie privée inhérents à tout système scrutateur, en particulier s'il s'attaque aux émotions.

Le Monde : http://www.lemonde.fr/article/0,5987,3244--308425-,00.html

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La voiture à hydrogène passe du prototype à la mini-série
Samedi, 15/02/2003 - 00:00

Le premier prototype de voiture à hydrogène, présenté par DaimlerChrysler en 1994, avait permis de prouver la viabilité technologique de la pile à combustible, mais faisait figure de laboratoire ambulant avec ses 800 kg d'équipements embarqués. Les véhicules, que vient de réceptionner le California Fuel Cell Partnership (CaFCP), contrastent avec leurs 5 places passagers et leurs performances proches des citadines à moteur à combustion. Cet organisme a ainsi pris possession, le 2 décembre 2002, de la première voiture à hydrogène livrée par Honda et devrait en recevoir quatre autres du même constructeur dans le courant de l'année 2003. D'après le planning du CaFCP, une soixantaine de véhicules propulsés avec des piles à combustibles seront en service à la fin de l'année, faisant de ce partenariat le plus grand laboratoire d'essai, en conditions réelles, de véhicules non polluants. Les constructeurs automobiles impliqués dans ce partenariat sont unanimes, les premières productions de masse de véhicules à piles à combustibles n'atteindront pas le marché avant 2010 au plus tôt. Les mini-séries actuellement livrées ont pour but de tester ces véhicules en conditions réelles et de sensibiliser le public à leurs avantages. Ces véhicules se rapprochent esthétiquement et en performance de modèles grands publics. La voiture à hydrogène de Toyota, le FCHV, est ainsi basée sur le populaire SUV Highlander et peut atteindre la vitesse de 150 km/h pour 250 km d'autonomie. Son principal avantage est de ne rejeter dans l'air ambiant que des particules d'eau, réduisant ainsi considérablement la pollution automobile en ville. L'impact de cette technologie sur la réduction d'émissions de CO2 est, toutefois, plus réduit car l'hydrogène est produit par électrolyse, un procédé gourmant en électricité. Les véhicules actuellement testés fonctionnent à l'hydrogène pure. Il est donc indispensable de créer des stations services spécifiques pour que les usagers puissent faire le plein. Pour l'heure, deux solutions techniques sont étudiées. Le CAFCP a privilégié des unités mobiles qui pourront être redéployées en cas de nécessité. La ville de Las Vegas a, pour sa part, choisi une station fixe. Cette station service, une première mondiale, a été réalisée par la société Air Products pour 10,8 millions de dollars. Non seulement, elle produit et livre de l'hydrogène à partir de pile à combustible mais elle produit aussi 50 kilowatt d'électricité qui seront vendus à une compagnie locale. Il est toutefois difficile aujourd'hui d'imaginer le prototype de station service du futur. Les constructeurs automobiles étudient également d'autres carburants pour les véhicules équipés de piles à combustible. Le gaz naturel, le méthanol ou le CHF (clean hydrocarbon fuel) sont sur les rangs et pourraient compléter l'offre de carburants pour ce type de véhicules. L'utilisation quotidienne de voitures à hydrogène devrait permettre, aux différents constructeurs impliqués, d'identifier et de résoudre de nombreux problèmes générés par leur usage. Avant de les voir se généraliser, leurs performances énergétiques devront être améliorées ainsi que le stockage de l'hydrogène à bord du véhicule. Il parait indispensable de développer des systèmes hydrides qui fonctionneront sur une variété de combustibles. A cela s'ajoute l'absolue nécessité de baisser les coûts de production de ces moteurs. Un moteur à hydrogène coûterait, en effet, 30 000 dollars à produire contre 3 000 dollars pour un moteur à explosion. Dans ces conditions, les 10 ans de développement annoncés semblent réalistes.

Novethic : http://fr.biz.yahoo.com/bourse/novethic.html

L'Europe de la science toujours à la traîne de l'Amérique
Samedi, 15/02/2003 - 00:00

L'Europe de la recherche a beau être en marche, il lui reste encore beaucoup à faire. Pour preuve, ce rapport de la Commission européenne qui fait le point sur le sujet et vient d'être présenté à Athènes, dans le cadre de la conférence européenne sur les politiques de recherche. Premier constat : l'objectif que les dépenses consacrées à la recherche atteignent 3 % du produit intérieur brut (PIB) de chaque pays d'ici à 2010, que les chefs d'Etat et de gouvernement des Quinze se sont fixé au Conseil européen de Barcelone en mars 2002, est loin d'être à portée de main. Avec 1,9 %, l'Europe est à la traîne des États-Unis (2,7 %) et, plus encore, du Japon (3 %). «Ces lacunes sont principalement dues à la faiblesse du secteur privé», stigmatise le rapport. Plus grave, «les écarts qui séparent les différents pays du continent européen se creusent, ceux qui ont le plus de potentiel se renforcent, les autres continuent à décliner», constate à regret le Belge Philippe Busquin, commissaire européen à la Recherche. De fait, l'Europe de la recherche peut se répartir entre quatre groupes. Les pays scandinaves, les plus en pointe, sont en mesure de rivaliser avec le Japon et les États-Unis. La Suède apparaît comme le grand champion, devançant même sur certains points les deux leaders mondiaux. Arrive ensuite un peloton d'Europe du Nord composé de la France, la Grande-Bretagne, l'Allemagne, la Belgique, l'Autriche et la Hollande, qui ont fait des progrès mais se situent néanmoins encore en deçà du Japon et des États-Unis. Le Portugal, l'Irlande et la Grèce peuvent pour leur part revendiquer des progrès importants, tout en partant de beaucoup plus bas. Ce qui ne les empêche pas de disposer d'atouts non négligeables : un nombre croissant d'étudiants en sciences et techniques pour le Portugal, l'engagement des entreprises dans l'innovation pour l'Irlande. Enfin, en queue de peloton, figurent l'Espagne et l'Italie, cette dernière étant le mouton noir sur la plupart des critères. Quels sont les éléments qui permettent d'expliquer de tels écarts ? Le plus important est indéniablement le budget consacré à la recherche. Avec des écarts allant de 3,7 % du PIB pour la Suède à 0,6% pour la Grèce, ce critère est particulièrement discriminant. Tout aussi importante est l'évolution de cet investissement. A cet égard, parmi les grands pays, avec un budget en croissance de 3,8 % entre 1995 et 2002, l'Allemagne sort du lot, cependant derrière la Finlande (+ 13,5 %), la Grèce (+ 12 %) et le Portugal (+ 9,9 %), tandis que la France (+ 1 %) fait figure de dernier de la classe. Mais là n'est pas tout, loin s'en faut. Philippe Busquin estime aussi que «la recherche est très dépendante du lien plus ou moins étroit qui a été instauré entre les PME et les universités d'un pays». Or c'est le cas de 55% des PME en Finlande, à comparer à 10% d'entre elles en France, pour une moyenne européenne de 25%. Autre indicateur clé : le nombre de brevets déposés. A cet égard, l'Allemagne (17,6% des brevets déposés en Europe) affiche sa suprématie. En revanche, le nombre d'étudiants en sciences et techniques est problématique outre-Rhin, alors que le pays compte le plus grand nombre de chercheurs d'Europe (255 000, soit à lui seul plus du quart de l'Europe entière). Pourtant, rien n'est figé. Il suffit de regarder la Grande-Bretagne, qui était tombée à un niveau très faible au cours des années 90 et a bien redressé la barre depuis (avec un nombre de publications supérieur de 15% à la moyenne européenne), grâce à l'instauration d'un crédit d'impôt dans la recherche. Forts de ces constats, la Commission a émis en septembre dernier, dans une communication écrite sur le sujet, une série de recommandations pour tenter de rattraper le retard. Parmi celles-ci, figure l'établissement de priorités plus claires et plus cohérentes pour la recherche et développement (R&D) publique, le développement de partenariats de R&D entre le secteur public et le secteur privé, du type Galileo (future constellation de satellites de navigation, actuellement au point mort), l'amélioration du cadre juridique des droits de propriété industrielle, ou la mise en place de réformes fiscales en vue de réduire les incitations négatives aux investissements.

Figaro : http://www.lefigaro.fr/sciences/20030210.FIG0157.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top