RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 566
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 16 Septembre 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Bientôt une nouvelle technologie de communication sans contact dix fois plus rapide
Le paiement sans contact testé pour le marché américain
Plus de 20 millions d'abonnés au haut débit
Numericable lance sa première chaîne en 3D
Quand les avatars reflètent notre état physiologique inconscient
Matière
Biomasse et bioénergie indispensables pour décarboner l'économie
Californie : un méga projet solaire thermique avalisé
Recyclage des déchets nucléaires : transmutation des actinides mineurs
Espace
La Nasa projette un vol habité vers un astéroïde d'ici 2025
Terre
Le mystère de l'Antarctique commence à être levé
Une équipe de scientifiques allemands et américains développent un nouveau modèle d'émission du CO2
Vivant
Une nouvelle technologie laser détecte les cancers de la peau et évalue l'efficacité des produits anti-âges
Un médicament pour prévenir le cancer du poumon ?
Un biomarqueur, pronostic de l'évolution du cancer du poumon
Antidouleur, antidépresseur : une molécule « tout-en-un »
Cornée artificielle : une lueur d'espoir
Imagerie biologique : une révolution avec la microscopie de super-résolution dynamique
Lupus: un traitement prometteur à l'essai
Mise au point d'un vaccin oral contre la maladie d'Alzheimer
Fatigue chronique : un virus suspecté
Autisme : un nouvel élément d'alerte découvert chez les bébés
Recherche
Un véhicule électrique à induction, sans batterie !
Edito
Google va-t-il prendre le contrôle de votre téléviseur ?



A l'occasion de la conférence de clôture du Salon IFA, le PDG de Google, Eric Schmidt, a présenté sa plate-forme Google TV. Celle-ci sera lancée aux Etats-Unis d'ici à quelques semaines, et en Europe dans le courant de l'année 2011. Google TV pourrait bien révolutionner la façon dont on regarde la télévision mais le pari n'est pas gagné car les obstacles à surmonter restent nombreux.

Le concept : une plate-forme mise à disposition des constructeurs partenaires permettant d'embarquer le moteur de recherche sur les téléviseurs. Avec, a priori, un double usage : accéder à l'ensemble des contenus vidéo disponibles sur le Web, à commencer par ceux de YouTube, et à des informations complémentaires sur les programmes regardés sur la télévision.

En visionnant une émission, on pourra ainsi lancer une recherche liée à celle-ci et naviguer sur Internet tout en continuant de voir le programme. « Le Web va devenir une extension de la télévision », a prophétisé Eric Schmidt.

Le premier téléviseur intégrant la plate-forme sera commercialisé par Sony, qui a présenté un modèle lors de l'IFA. La marque japonaise, qui lancera également un lecteur Blu-ray intégrant Google TV, pourrait être suivie par Samsung. Google TV sera aussi disponible dans une « set-top box » de Logitech. Et les téléphones mobiles sous Android et les iPhone pourront se muer en télécommande.

Google TV donnera aussi accès au kiosque de téléchargement d'applications Android Market et fournira aux développeurs des kits de développement pour qu'ils puissent mettre au point des applications pour télévisions connectées, à partir du début de l'année prochaine. Ce qui pourrait ouvrir la voie à un nouveau marché équivalent à l'App Store d'Apple, tout en replaçant Google au centre du système.

La stratégie du moteur de recherche est donc clairement distincte de celle d'Apple, qui a annoncé récemment la nouvelle version de son Apple TV, proposant des vidéos à la demande, en partenariat avec les « networks » et studios américains, dans un environnement fermé. Google n'est pas un fournisseur de contenus et ne souhaite pas le devenir pour l'instant.

Le succès de Google TV dépendra de nombreux facteurs et d'abord de la manière dont Google parviendra à régler la question complexe et délicate des droits de diffusion numérique avec les différents éditeurs et producteurs.

Reste une autre grande interrogation : le grand public a-t-il envie de disposer du Web sur son téléviseur alors qu'il peut déjà regarder la télévision de manière de plus en plus simple et confortable sur l'ordinateur de la maison qui est à présent couplé avec un écran plat HD d'une taille équivalente à celle d'un téléviseur moyen (22 ou 24 pouces) ?

Mais si Google réussit son pari et s'impose dans nos téléviseurs comme plate-forme d'accès incontournable vers le Web, sa puissance économique et commerciale deviendra colossale, il écrasera ses rivaux numériques, qu'il s'agisse de Sony, Microsoft, Yahoo ou Apple et dominera pour longtemps le paysage numérique mondial.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Bientôt une nouvelle technologie de communication sans contact dix fois plus rapide
Vendredi, 17/09/2010 - 00:00

Les cartes à puce sans contact ont initialement été conçues pour des applications d'authentification : carte de transport, carte bancaire, contrôle d'accès, etc... Les débits de transmission requis restaient faibles. Pour rendre possible le développement de nouvelles applications telles que le téléchargement de fichiers multimédia, la question de la rapidité des transferts de données devient un élément clé. C'est pourquoi le CEA-Leti s'est attaqué à ce verrou technologique afin de proposer des solutions avec des débits plus importants.

Avec de meilleures caractéristiques spectrales que la modulation d'amplitude, il est apparu qu'il était possible avec la modulation de phase d'envisager des débits nettement supérieurs à la limite actuelle de 848 Kbit/s. Dans le cadre du projet MEDEA + Onom@topic, le CEA-Leti a alors réalisé le prototype d'un système complet pour valider l'excellence et la robustesse des performances. Celles-ci atteignent déjà aujourd'hui 6.8 Mbit/s et bientôt plus de 10 Mbit/s après les travaux d'optimisation de traitement du signal en cours. En parallèle, le CEA-Leti mène en partenariat avec la société Gemalto, une action auprès de l'ISO pour valoriser ces travaux et renforcer sa notoriété déjà très forte dans ce domaine.

Cette technologie est le fruit de recherches menées depuis 2003 par le CEA-Leti. Les résultats successifs obtenus au fil des années ont été régulièrement récompensés : en 2006 par le prix Jean-Pierre Noblanc décerné par MEDEA ; en 2007 par le prix Isabelle Attali à la conférence e-Smart, récompensant la communication scientifique la plus innovante ; par le Sésame de la meilleure innovation matérielle lors du salon Cartes 2009 et enfin par le prix du meilleur projet EUREKA lors des EUREKA Innovation Awards 2010 (le projet Onom@topic lauréat parmi 4 000 autres projets en lice).

CEA

Le paiement sans contact testé pour le marché américain
Vendredi, 17/09/2010 - 00:00

L'intégration des technologies de paiement sans contact dans les ordiphones se concrétise, et les premiers téléphones embarquant ce type de solution seront disponibles dès la fin de l'année 2010, prévoit Henri Ardevol, responsable chez NXP. Bank of America et Visa s'apprêtent à expérimenter un système de ce type dès le mois prochain. La plus importante banque américaine - en nombre de clients - et la société dont le processus de paiement est le plus adopté au monde vont tester conjointement cette technologie dans la zone de New York, en permettant à des clients d'utiliser leur téléphone en lieu et place de leur carte bancaire.

Les mobiles qui embarqueront des puces de technologie en champ proche (NFC) pourront ainsi servir aux consommateurs pour effectuer leurs achats en magasin. Ce programme de porte-monnaie mobile sera déployé dans un premier temps (de septembre à décembre) localement, le système étant ensuite étendu à l'ensemble du territoire pour une application nationale. Cette étape constituant une "accélération des paiements sans contact dans le marché américain", selon Elvira Swanson, senior business leader chez Visa.

Atelier

Plus de 20 millions d'abonnés au haut débit
Vendredi, 17/09/2010 - 00:00

Le marché du haut et du très-haut-débit continue à gagner du terrain. Selon l'Arcep, au 30 juin 2010, la France compte 20,37 millions d'abonnés dans ce secteur. Un chiffre qui marque une progression de 9 % par rapport à l'année passée.

L'ADSL reste le mode d'accès le plus courant, avec 19,07 millions d'abonnés. Le dégroupage total, une solution qui permet d'accéder à Internet sans souscrire un abonnement téléphonique auprès de France Télécom, connaît une forte augmentation : en un an, il a été déployé sur 1,47 million de lignes. Au total, 7,4 millions d'accès en bénéficient.

Comparé aux chiffres de l'ADSL, le très-haut-débit (plus de 50 Mbit/s) reste encore confidentiel : il ne totalise que 365 000 abonnés, dont 30 000 acquis sur le seul dernier trimestre. Parmi eux, 275 000 utilisent un accès composé à la fois de fibre et de câble coaxial, une technologie développée par Numericable. Les abonnés 100 % fibre ne sont que 90 000.

Mais tout est prêt pour que, dans les trimestres à venir, la fibre gagne des parts de marché. L'Arcep a recensé 38 700 immeubles raccordés à la fibre au 30 juin 2010, soit une progression de 14,5 % par rapport au décompte effectué au 31 mars de cette même année.

Ces immeubles représentent 900 000 logements, qui peuvent donc souscrire à une offre en très-haut-débit dès qu'ils le souhaitent. Un chiffre qui a progressé de 40 % en un an. La mise en place de la mutualisation, qui permet d'avoir le choix entre au moins deux opérateurs, devrait aussi accélérer l'adoption de la fibre. Pour l'instant, il n'y a que 850 abonnés utilisant un réseau mutualisé, mais 83 000 logements sont éligibles à ce type d'offre.

OINet

Numericable lance sa première chaîne en 3D
Vendredi, 17/09/2010 - 00:00

Annoncée en mai dernier, la 3D débarque aujourd'hui chez Numericable. "La reconquête du segment TV passe par l'innovation, la 3D est une révolution et nous aurons un rôle majeur dans ce domaine", soulignait alors Pierre Danon, p-dg de l'opérateur. Et d'ajouter avec malice : "seul le câble permet de diffuser des programmes en 3D, l'ADSL n'est pas prêt".

Conscient que ce défi ne pourrait pas se faire seul, le groupe a créé la '3D-HD Alliance' avec Panasonic, Cisco, Nagravision et Sagecom (qui fabrique les box de l'opérateur). Concrètement, la possibilité de recevoir des programmes en 3D en full HD passera par une mise à jour gratuite à distance du décodeur HD des abonnés.

Ceux qui sont équipés d'un téléviseur compatible pourront dès aujourd'hui profiter d'une chaîne pilote (sur le canal 19) censée monter les potentiels de cette technologie.

Etant donné que les programmes sont encore rares, cette chaîne ne diffusera que cinq contenus : une fiction (Call of the Wild), deux documentaires et deux dessins-animés.

Mais dès cet automne, le câblo-opérateur entend aller plus loin avec une plate-forme de VOD en 3D-HD sera lancée avec Cisco et Nagravision. Sport et cinéma devraient être au coeur de cette offre.

Pour Numericable, la 3D devrait doper ses abonnements : "Grâce à la puissance de ses débits et à la qualité de la bande passante, le câble est la technologie idéale aujourd'hui pour pouvoir diffuser de la 3D massivement. En effet, un flux en 3D nécessite une bande passante de 15 Mbit/s, l'équivalent de deux chaînes en HD. Il y a une réelle attente des consommateurs pour la 3D, nous sommes convaincus que la 3D va être un moteur et va doper les demandes d'abonnement au Très Haut Débit", explique Jérôme Yomtov, Secrétaire général de Numericable.

Reste que cette "réelle attente" tarde à se confirmer. Il devrait s'écouler en 2010 seulement 4,2 millions de ces appareils dans le monde, une goutte d'eau dans le marché global. En France, GFK a revu ses prévisions à la baisse et table sur 120 000 pièces écoulées, contre 250 000 auparavant anticipés. Les raisons de ce démarrage difficile sont faciles à identifier. Ces écrans sont d'abord encore très chers mais surtout, le catalogue de programme demeure famélique.

ZDNet

Quand les avatars reflètent notre état physiologique inconscient
Vendredi, 17/09/2010 - 00:00

Permettre aux avatars de refléter au travers de leur comportement l'état physiologique et inconscient d'un individu. C'était l'intention initiale d'une équipe de chercheurs de l'université de Barcelone qui ont mis au point un système capable de mesurer les paramètres physiologiques d'un individu. Comme la respiration ou le rythme cardiaque. L'objectif : "adapter la réalité virtuelle de l'avatar aux réponses physiologiques de la personne", explique Christophe Groenegress, l'un des scientifiques associés au projet. Dans la pratique, des capteurs et des dispositifs sans-fil sont disposés sur un individu. Ces derniers mesurent trois paramètres physiologiques en temps réel : la fréquence cardiaque, la respiration et la réaction de la peau.

Les données recueillies sont envoyées à un logiciel qui les utilise pour contrôler et faire évoluer le comportement du personnage virtuel. En pratique : la fréquence cardiaque est reflétée par un mouvement du pied, la respiration par le soulèvement de la poitrine de l'avatar, et la réponse dite "galvanique" de la peau par la couleur plus où moins rosée du visage. Pour autant, les personnes dont les paramètres physiologiques ont été enregistrés, ne se reconnaissent pas dans l'avatar qui reflète leur état inconscient, lorsque celui est au milieu d'autres personnages virtuels.

Principales raisons : d'autres facteurs influencent leurs choix tels que l'aspect physique ou la situation dans laquelle se trouve l'avatar. Un résultat à prendre en compte pour les entreprises dont les salariés communiquent avec leurs collègues ou des clients via des univers pervasifs (comme en son temps Second Life). Les personnages virtuels influencent la perception que se font les différents intervenants de leurs interlocuteurs. Mais aussi les décisions prises au terme de ces échanges.

Atelier

^ Haut
Matière
Matière et Energie
Biomasse et bioénergie indispensables pour décarboner l'économie
Vendredi, 17/09/2010 - 00:00

La journée sur la bioénergie organisée par Ceres Inc. à College Station (Texas), a offert une occasion aux dirigeants de l'industrie énergétique qui ne sont pas familiers avec la production agricole de se promener dans les herbes hautes, de partager des nouveautés, et de voir comment les améliorations à la production de biomasse sont apportées par l'entremise de la sélection végétale et la biologie moderne.

L'évènement de cette année offrait des comparaisons entre des récoltes, des démonstrations sur le terrain et des présentations de Drax Power, Dupont Danisco Cellulosic Ethanol, General Motors, NRG Energy et The Nature Conservancy.

"Nous ne pouvons décarboner l'approvisionnement énergétique du monde sans la biomasse", a déclaré M. Richard Hamilton, président de Ceres, devant plus de 100 participants provenant des États-Unis, de l'Europe, et de l'Amérique du Sud. "La question principale à laquelle nous faisons face consiste donc à trouver la façon la plus échelonnable, efficace et durable de produire la bioénergie et les biocarburants."

La biomasse devrait devenir l'une des plus importantes sources d'énergie pour l'électricité renouvelable aux États-Unis et en Europe, selon les prévisions de l'Energy Information Agency des États-Unis et de la Commission européenne. De plus, une étude menée par Sandia National Labs en 2009 dans laquelle on employait une production conservatrice et des hypothèses de conversion, a permis de conclure que les biocarburants avancés provenant des fibres végétales pouvaient produire 75 milliards de gallons de biocarburants par année aux États-Unis.

Lors de l'événement se déroulant au centre de recherche de la société, Ceres a souligné la performance des plantes énergétiques à faible émission de carbone ainsi que la recherche qui devrait permettre d'accroître la production, de rentabiliser les terres marginales et de réduire les besoins en facteur de production. Une caractéristique de Ceres, par exemple, permettrait de réduire la consommation de pétrole aux États-Unis de plus d'un milliard de barils sur dix ans et de réduire considérablement les émissions de gaz à effets de serre en rendant les plantes encore plus efficaces en employant des engrais azotés.

Si l'on parvenait à exploiter les vivaces comme le panic raide et le miscanthus de façons nouvelles, ces dernières pourraient retirer encore plus de carbone émis durant le cycle de vie qui consiste à les transformer et les brûler. "Nous pourrions réellement commencer à parler de retrait du CO2 de l'atmosphère plutôt que de simplement réduire les émissions globales ; c'est-à-dire le carbone dans l'exploitation agricole en même temps que la production d'énergie", a noté M. Hamilton.

Enerzine

Californie : un méga projet solaire thermique avalisé
Vendredi, 17/09/2010 - 00:00

La Commission de l'énergie de Californie a approuvé le projet visant à construire et à exploiter par Solar Millennium, une filiale de Solar Trust of America, le méga-projet d'énergie solaire thermique de 968 MW, dans le comté de Riverside en Californie. Le projet Ivanpah, précurseur du genre aux Etats-Unis, et qui doit être achevé en 2013 va donc trouver un concurrent de taille. Le nouveau projet solaire qui doit s'implanter dans la ville de Blythe sera supervisé à la fois par Solar Millennium et par Chevron Energy Solutions, une filiale du pétrolier Chevron Corporation.

L'installation sera composée de quatre centrales solaires indépendantes, chacune capable de générer 242 MW d'énergie, soit un total annuel de 2,2 TWh, soit environ le tiers de la production électrique annuelle d'un réacteur nucléaire de 1000 MW. La centrale solaire à concentration de Blythe est constituée d'un champ de capteurs solaires - héliostats - qui concentrent les rayons du soleil sur des tubes où un liquide caloporteur est porté à haute température (420°C). Ce liquide caloporteur est ensuite transmis dans une chaudière qui transforme l'eau en vapeur.

Enfin, la vapeur fait tourner des turbines qui entrainent des alternateurs produisant de l'électricité. "Nous prévoyons de recevoir tous les permis de construire cet automne et de finaliser le financement de notre premier projet, soit environ 484 mégawatts de capacité de production, afin que nous puissions commencer la construction avant la fin de cette année", a indiqué Josef Eichhammer, président de Solar Trust of America et PDG de Solar Millennium.

Enerzine

Recyclage des déchets nucléaires : transmutation des actinides mineurs
Vendredi, 17/09/2010 - 00:00

Les substances radioactives qui irradient le plus longtemps doivent être stockées en toute sécurité pendant plus de 100.000 ans. Les techniciens recherchent donc des techniques leur permettant de recycler une partie des déchets nucléaires et de neutraliser le reste. Dans 1.000 ans, l'intensité de l'irradiation des déchets issus des éléments combustibles pourrait tellement diminuer qu'elle serait comparable à celle de l'uranium naturel. Il faut également réduire le volume des déchets.

Le recyclage se déroule en plusieurs étapes. D'abord, un traitement chimique des substances irradiées permet de séparer les produits de fission : l'uranium et le plutonium, mais aussi d'autres substances chimiques, les actinides mineurs.

Ceux-ci doivent être transformés et utilisés partiellement en tant qu'éléments du combustible dans les nouveaux réacteurs. Les actinides mineurs - comptant notamment le neptunium, l'américium et le curium - jouent un rôle clé et constituent, avec le plutonium, les substances qui irradient le plus longtemps. Pour assurer la transmutation de ces éléments, le plutonium et les actinides mineurs sont bombardés par des neutrons.

A l'Institut des éléments transuraniens de Karlsruhe (ITU), les chercheurs examinent en particulier les variations des propriétés du combustible quand les actinides mineurs sont liés dans le combustible. La transmutation a un double avantage : d'un côté, le danger qui émane des déchets diminue, car les produits fissiles sont stables ou ont une demi-période plus courte ; ils se désintègrent plus vite. Par ailleurs, une partie des actinides mineurs est réutilisée dans les crayons de combustibles des nouvelles filières de réacteurs, en même temps que l'uranium et le plutonium. La fabrication des combustibles constitue alors un défi en soi.

Des essais de transmutation ont lieu dans le Centre de recherche de Dresde-Rossendorf, où une source de neutrons permet de provoquer la transmutation. Les chercheurs de Dresde utilisent un accélérateur pour bombarder les électrons sur du plomb en fusion, afin d'expérimenter la transmutation avec les neutrons libérés. Les scientifiques analysent par exemple l'intensité de la dispersion des neutrons sur les matériaux qui composent les gaines des éléments combustibles. Le projet est subventionné par le Ministère fédéral de l'enseignement et de la recherche (BMBF). Plusieurs universités et l'Office fédéral physico-technique de Brunswick (Basse-Saxe) y participent.

Les filières de réacteurs où la technique de recyclage doit être utilisée ont besoin également d'une longue période de développement. En 2020 environ, le premier prototype français d'un réacteur refroidi au sodium sera prêt. Il faudra attendre selon les experts au moins jusqu'en 2030, avant que des réacteurs commerciaux de ce type puissent fournir de l'énergie à l'Europe.

BE

^ Haut
Espace
Espace et Cosmologie
La Nasa projette un vol habité vers un astéroïde d'ici 2025
Vendredi, 17/09/2010 - 00:00

Deux grandes motivations existent pour justifier l'exploration humaine d'un astéroïde d'ici quinze ans : son étude scientifique bien sûr, mais aussi la "répétition générale" d'un futur vol habité vers Mars, conformément aux souhaits du président Obama. Ce dernier ayant désigné la planète rouge comme objectif d'un futur équipage, au détriment de la Lune, la Nasa entend recycler son expérience de l'exploration lunaire avec ce nouveau challenge.

Mandatée par l'agence spatiale américaine, la firme d'armement Lookheed travaille ainsi sur un projet de véhicule spatial permettant d'amener deux astronautes vers un astéroïde - encore non déterminé - pendant six mois (mission "Plymouth rock"). Elle a d'ores et déjà concocté des plans basés sur la technologie de la capsule Orion, qu'elle avait développée pour de futurs vols habités vers la Lune (programme "Constellation", pour l'instant abandonné), et qui a trouvé une nouvelle jeunesse comme navette de secours pour la station spatiale internationale (ISS).

La Nasa estime posséder les technologies nécessaires pour mener à bien ce projet. Les astronomes espèrent quant à eux que la future mission, qui pourrait éventuellement butiner plusieurs astéroïdes en série, permettrait de rapporter 100 kg d'échantillons et des données pour améliorer la prévention d'éventuelles collisions de l'un de ces corps avec la Terre.

NASA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le mystère de l'Antarctique commence à être levé
Vendredi, 17/09/2010 - 00:00

L'un des paradoxes de l'Antarctique serait-il en passe d'être résolu ? Deux chercheurs de l'institut de technologie de Géorgie (États-Unis) apportent une explication à un phénomène jusqu'alors mal compris : l'augmentation, ces dernières années, de la glace de mer entourant l'Antarctique, alors même que cette région est confrontée à une augmentation des températures (Pnas, 18 août 2010). Une situation d'autant plus étonnante qu'au pôle Nord les glaces, soumises à des contraintes de température identiques, diminuent. De quoi, du coup, alimenter largement les propos des climatosceptiques soucieux de contrecarrer par tous les moyens la thèse du réchauffement climatique.

Selon Jiping Liu et Judith Curry, la hausse des températures, notamment dans les moyennes latitudes, a pour conséquence une plus grande évaporation, elle-même à l'origine de précipitations plus importantes dans les hautes latitudes. La neige plus abondante a un double effet : plus légère que l'eau salée, elle empêche d'un côté les eaux plus chaudes des profondeurs de remonter et de faire fondre la glace. En surface, cette neige réverbère les rayons du soleil (phénomène dit «de l'albédo»), ce qui évite également le réchauffement et donc la fonte. « Ce travail est très intéressant, estime Jean Jouzel, du laboratoire des sciences du climat et de l'environnement (CEA-CNRS), dans la mesure où il lève un coin du voile sur cette région du globe.»

Mais cette protection apparente de la glace par le réchauffement ne devrait pas durer, mettent en garde les deux chercheurs. Sur la base des modèles climatiques prévoyant une poursuite de la hausse des températures consécutive à l'augmentation attendue au XXIe siècle des émissions de gaz à effet de serre, les précipitations sous forme de neige pourraient bien se transformer en pluie. Faute de réverbération du soleil, les couches supérieures de l'océan se réchaufferont, préviennent les chercheurs. «Nous devrions assister au cours du siècle à un basculement dans l'Antarctique. L'extension de la glace de mer devrait commencer à décroître», explique Judith Curry. À quelle échéance ? « On ne sait pas répondre exactement », poursuit son collègue Jiping Liu, mais, si l'on se fie aux modèles, «le déclin pourrait être très rapide à partir de 2060», ajoute-t-il.

Figaro

Une équipe de scientifiques allemands et américains développent un nouveau modèle d'émission du CO2
Vendredi, 17/09/2010 - 00:00

Une équipe de chercheurs financée par l'Union européenne a développé un nouveau modèle pouvant estimer les réductions nécessaires des émissions du dioxyde de carbone pour ralentir voire même arrêter le réchauffement planétaire.

L'objectif de cette étude était de simuler les changements futurs du climat et des émissions de CO2 dans un même scénario pour lequel les concentrations de CO2 atmosphérique seraient à long terme stabilisées à 450 parties par millions (ppm). Le réchauffement global serait ainsi limité à un maximum de 2°C au-dessus du niveau préindustriel. Le modèle a été publié dans la revue Climatic Change.

Ces travaux s'inscrivent dans le projet ENSEMBLES ("Ensemle-based predictions of climate changes and their impacts"), sous la thématique "Développement durable, changement planétaire et écosystèmes" du sixième programme-cadre (6e PCRD) de l'Union européenne. Le projet soutenu à hauteur de 15 millions d'euros, a pour objectif la mise en place d'un système général de prédictions dans le temps (ex : saisons, décennie,...) et l'espace (ex : planétaire, régional,...).

Selon les chercheurs, la concentration en CO2 dans l'atmosphère, renforcée par la combustion de carburants fossiles, a augmenté de quasiment 35 % depuis le début de la révolution industrielle. "La nouveauté dans cette étude est que nous avons intégré dans notre modèle le cycle du carbone afin de recueillir les données d'émissions", explique Erich Roeckner de l'Institut Max-Planck de météorologie de Hambourg .

Le modèle prédit que les émissions de CO2 augmenteront d'ici 2015 de 3 milliards à 10 milliards de tonnes. Pour une stabilisation à long terme du CO2 atmosphérique, les émissions doivent baisser de près de 56 % au cours des 40 prochaines années et tendre vers 0 pour la seconde partie du siècle. Bien que, selon les calculs, le réchauffement planétaire entre aujourd'hui et 2100 ne dépasserait pas le seuil des deux degrés, les scientifiques estiment qu'il pourrait s'accentuer à long terme. "Il faudra des siècles pour que le système climatique mondial se stabilise", souligne Roeckner.

L'équipe d'Allemagne et des Etats-Unis a utilisé une nouvelle méthode pour retracer l'historique des émissions sur la base des calculs de concentrations de CO2 existantes. Roeckner et ses collègues ont repris la méthode proposée par le GIEC (Groupe d'experts intergouvernemental sur l'évolution du climat), organisme scientifique qui évalue les risques d'un changement climatique causé par les activités anthropiques.

Ces modèles de systèmes terrestres intégrent le cycle du carbone et ont estimé les émissions de CO2 d'origine anthropique compatibles avec un modèle de concentration donné. Selon l'équipe de chercheurs, les émissions dépendent de la proportion de carbone anthropique absorbée par les terres et les océans.

Ils ont également distingué le changement climatique d'origine anthropique et le changement interne propre au climat. Le modèle utilisé dans cette étude se base sur une grille spatiale d'une longueur de trame de 400 kilomètres et d'une faible résolution. Ont été également intégrés, des renseignements sur la surface des terres, des mers ainsi que sur le cycle de carbone terrestre et marin.

Actuellement, des centres climatiques dans toute l'Europe analysent les données de cette étude. "Dès que tous les résultats seront disponibles, nous pourrons évaluer la dispersion entre les modèles. Plus de données sont significatives, plus les prévisions seront précises", explique Roeckner.

BE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une nouvelle technologie laser détecte les cancers de la peau et évalue l'efficacité des produits anti-âges
Vendredi, 17/09/2010 - 00:00

Le professeur en bio-photonique et en technologie laser de l'Université de la Sarre, Karsten König, vient de recevoir le prix de l'innovation Berthold Leibinger pour ses travaux sur les scanners laser. Grâce à cette nouvelle technologie, les médecins vont pouvoir détecter les cancers de la peau sans avoir à prélever des tissus. Ils pourront aussi mesurer l'efficacité des produits anti-âges, les conséquences de la prise de nicotine ou de pilules hormonales sur le vieillissement de la peau ou encore les risques des crèmes solaires à base de nanoparticules.

Le nouveau scanner laser permet dorénavant aux chercheurs d'observer l'intérieur de la cellule. En atteignant une résolution mille fois plus élevée qu'avec des appareils à rayons X, il surpasse tous ses concurrents. Les médecins et les pharmaciens peuvent ainsi analyser les différents organelles qui constituent les cellules, comme les mitochondries par exemple. Karsten König explique que "de nombreuses crèmes de soins modifient les cellules de la peau en ralentissant les mécanismes du vieillissement. Avec le scanner laser, on peut vérifier si ses produits sont réellement efficaces". L'appareil va également pouvoir reconnaitre les cellules de la peau cancéreuses comme le mélanome. Les chercheurs exploitent la différence de fluorescence entre les cellules normales et les cellules cancéreuses.

Le scanner laser sera commercialisé par l'entreprise JenLab, qui siège à Iéna (Thuringe) et au parc scientifique de l'Université de la Sarre. L'entreprise fournit d'ores et déjà des appareils de diagnostic à de nombreuses cliniques.

BE

Un médicament pour prévenir le cancer du poumon ?
Vendredi, 17/09/2010 - 00:00

Près de 90 % des décès causés par le cancer du poumon sont dus au tabagisme. Si l'arrêt du tabac constitue la meilleure prévention possible, « plus de la moitié des cas de cancer du poumon sont diagnostiqués chez d'anciens fumeurs » explique le Dr Philip Dennis, chercheur à l'Institut national du cancer, à Philadelphie, E.U.

Face à ce risque, la médecine reste jusqu'à ce jour bien dépourvue. Un médicament d'usage courant dans le traitement du diabète pourrait pourtant changer la donne. La metformine (commercialisée en France sous divers noms : glucophage, stagid, avandamet ...) a en effet significativement réduit le nombre de tumeurs pulmonaires chez des souris exposées à une nitrosamine dérivée de la nicotine appelée NNK, la substance cancérogène la plus courante contenue dans le tabac.

Sous la direction de Philip Dennis, les chercheurs ont administré de la metformine à des souris, oralement ou par injection. Celles ayant reçu un traitement oral présentaient entre 40 et 50 pour cent moins de tumeurs, alors que celles ayant reçu une injection présentaient 72 pour cent moins de tumeurs. Des détails de cette étude sont publiés dans le numéro de septembre de Cancer Prevention Research, une publication de l'Association américaine de recherche sur le cancer.

Devant ces résultats plutôt encourageants, les chercheurs envisagent maintenant des essais cliniques pour déterminer si ce composé pourrait être utilisé comme agent de chimioprévention efficace pour les fumeurs présentant un risque élevé de développer un cancer du poumon.

La metformine a déjà démontré qu'elle activait une enzyme, appelée protéine kinase activée par les peptides antimicrobiens, connue pour inhiber la protéine mTOR, qui régule la croissance et la survie cellulaires dans les tumeurs pulmonaires induites par une substance cancérogène.

Les premières études épidémiologiques menées en Grande-Bretagne en 2005 ont montré que les diabétiques traités avec de la metformine ont vu leur risque de cancer baisser de 40 % comparé à ceux soignés avec un autre antidiabétique.

Le cancer du poumon est le plus meurtrier des cancers et celui qui augmente le plus dans le monde, puisque plus de 12 millions de nouveaux cas sont diagnostiqués chaque année et que près de 8 millions de personnes en meurent.

CPR :

AACR

Un biomarqueur, pronostic de l'évolution du cancer du poumon
Vendredi, 17/09/2010 - 00:00

Première cause de mortalité par cancer dans les pays occidentaux, le cancer du poumon est en légère diminution chez les hommes mais augmente fortement chez les femmes (+ 4 % par an). Principale cause, le tabagisme, loin derrière l'exposition professionnelle aux carcinogènes, le tabagisme passif et les polluants issus de l'environnement.

Le cancer bronchique est silencieux et de très mauvais pronostic avec un taux de survie de 15 % à 5 ans. Seuls un tiers des cas, les moins avancés, sont éligibles à la chirurgie ; les autres cas, souvent plus avancés au moment où ils se présentent au clinicien, répondent mal aux traitements, y compris les plus récents. Les tumeurs du poumon sont très hétérogènes, y compris dans les sous-types biologiques. En conséquence, à l'intérieur d'un même stade tumoral, le pronostic varie fortement d'un patient à l'autre en raison de facteurs génétiques et environnementaux propres à l'individu, mais également de facteurs intrinsèques à la tumeur qui lui confèrent un caractère plus ou moins agressif.

Comprendre les facteurs responsables de la progression d'une tumeur et découvrir de nouveaux marqueurs pronostics de son évolution constitue un réel enjeu pour les médecins et les patients dans la mesure où les traitements pourraient ainsi être mieux adaptés à chaque cas. Le Dr Forgez et son groupe avaient préalablement mis en évidence que le récepteur principal d'une protéine d'origine gastro-intestinale, la neurotensine, retrouvé dans une forte proportion de tumeurs, favorisait dans certaines conditions la progression tumorale.

Les chercheurs montrent aujourd'hui dans une série de 136 patients présentant un adénocarcinome pulmonaire de stade 1, que ceux dont les tumeurs expriment le récepteur principal à la neurotensine, ont un moins bon pronostic en termes de survie à 5 ans. L'activation de ce récepteur favorise en effet fortement la croissance des tumeurs et l'émergence de métastases. A stade égal de développement tumoral, la présence ou non de ce récepteur constitue donc un biomarqueur pronostic d'une évolution plus ou moins favorable.

La procédure de détection de ce récepteur est simple et peu coûteuse ; après la confirmation de ces résultats sur une série plus importante de patients, (étude actuellement menée par le même groupe) elle pourrait être utilisée en routine dans les laboratoires d'analyse biologique pour l'identification des patients à haut risque de récidive. Il s'agit de définir pour ceux-ci une prise en charge plus adaptée en termes de stratégie thérapeutique postopératoire et de surveillance.

Deux brevets ont été déposés conjointement par l'Inserm et l'AP-HP sur ce biomarqueur ; ils permettront d'intéresser d'éventuels investisseurs des industries pharmaceutiques et des biotechnologies, tant sur le plan du développement d'un kit de détection que celui du développement des thérapies innovantes visant à diminuer l'agressivité tumorale.

Inserm

Antidouleur, antidépresseur : une molécule « tout-en-un »
Vendredi, 17/09/2010 - 00:00

Des scientifiques de l'Institut Pasteur associés au CNRS et une équipe du centre de recherche en neuro-psychopharmacologie ETAP-Ethologie Appliquée (Vandoeuvre-lès-Nancy) ont mesuré, chez l'animal, les pouvoirs analgésique et antidépresseur de l'Opiorphine, un messager hormonal naturellement sécrété chez l'homme découvert à l'Institut Pasteur en 2006 : la molécule s'avère aussi puissante que la morphine et ses effets secondaires sont bien moindres. Elle a en outre la même efficacité que l'imipramine, un antidépresseur présent sur le marché, sans ses effets secondaires. Douleur et dépression étant souvent liées, les scientifiques ont l'espoir de pouvoir élaborer sur la base de cette molécule un médicament qui pourrait traiter à la fois les deux types de syndromes.

En collaboration avec l'équipe ETAP du Technopôle de Nancy-Brabois, les scientifiques de l'Institut Pasteur ont ainsi montré in vivo que l'Opiorphine a, pour les mêmes doses, un pouvoir analgésique aussi puissant que celui de la morphine, aussi bien pour une douleur thermique et mécanique que pour une douleur tonique et chronique (qui « lance »). Les effets secondaires sont, eux, très réduits comparés à ceux de la morphine : pas d'accoutumance - il n'est pas nécessaire d'augmenter les doses pour obtenir un même effet antinociceptif (« antidouleur ») -, pas de constipation, et un pouvoir addictif - faculté à induire une dépendance psychologique - très réduit.

Les propriétés antidépressives de l'Opiorphine sont aussi particulièrement puissantes : chez l'animal, la molécule est, pour les mêmes doses, aussi efficace que l'imipramine, un principe actif utilisé pour le traitement de syndromes dépressifs. Elle ne provoque pour autant aucune réaction secondaire d'hyper-excitation, n'a pas d'effet sédatif, et n'affecte pas la mémoire à long terme, comme il est parfois reproché à certains médicaments antidépresseurs.

CNRS

Cornée artificielle : une lueur d'espoir
Vendredi, 17/09/2010 - 00:00

C'est un nouveau pas dans le défi des cornées artificielles. En greffant un modèle de cornée biosynthétique à dix patients, une équipe de chercheurs canadiens et suédois a amélioré la vision de six d'entre eux, avec deux ans de recul.

Membrane transparente située à l'avant de l'oeil, qui laisse passer la lumière vers la rétine, la cornée peut être atteinte par de nombreuses pathologies: infections, dégénérescences... Les lésions peuvent aussi être consécutives à un traumatisme, lors d'un accident ou d'une intervention chirurgicale - notamment pour la cataracte. Quelle que soit son origine, l'opacification de la cornée conduit à une baisse d'acuité visuelle. Dans le monde, les cécités cornéennes touchent dix millions de personnes, selon l'Organisation mondiale de la santé, c'est la quatrième cause de cécité sur la planète.

Les cas sévères relèvent d'une greffe, à partir d'un donneur décédé. Pratiquées depuis 1887 (ce furent les premières greffes de tissu réussies chez l'homme), elles obtiennent de bons résultats dans 50 à 90 % des cas, selon l'indication. La cornée étant quasiment dépourvue de vaisseaux et de cellules, le risque de rejet est relativement réduit. Il est prévenu par des traitements locaux. «Le problème fondamental de ces transplantations, c'est le déficit sévère de donneurs, qui laisse sans traitement environ 10 millions de personnes, et 1,5 million de nouveaux cas de cécité chaque année», soulignent May Griffith et ses collègues dans Science translational medicine.

Si la pénurie est cruciale dans certains pays, elle épargne relativement la France ces dernières années. Environ 3000 greffes de cornée y sont réalisées annuellement, «avec un temps d'attente inférieur à six mois», estime le Pr Gilles Renard, chef du service d'ophtalmologie de l'Hôtel-Dieu (Paris). Les auteurs de l'article pointent par ailleurs les risques d'infection par des virus ou des prions, à partir du donneur.

Pour éviter ces écueils, les chercheurs sont en quête d'alternatives aux greffes de cornées humaines, soit avec des prothèses, soit avec des tissus biosynthétiques mimant une ou plusieurs couches de la cornée. C'est cette voie qu'a choisie l'équipe de May Griffith, qui travaille depuis une dizaine d'années sur le sujet. En laboratoire, elle a reconstruit une couche de cornée à base de collagène humain. Les prototypes ont été greffés à dix malades, dont neuf étaient atteints de kératocône, une dégénérescence de la cornée qui se traduit par son amincissement et sa déformation progressive en cône.

Avec deux ans de recul, aucun rejet n'a été observé, sans aucun traitement. Et des cellules nerveuses ont repoussé dans l'implant, aboutissant, à «une cornée régénérée ressemblant à du tissu normal». Concrètement, la vision s'est améliorée chez six patients, avec une acuité visuelle au bout de vingt-quatre mois de l'ordre de 2/10e avec lunettes, 4,8/10e avec lentilles de contact. «Leur vision avec lentilles est équivalente à celle de patients ayant bénéficié d'une greffe cornéenne conventionnelle», insistent les auteurs, qui continuent à perfectionner leur prototype alors que de nouveaux essais sont prévus.

LF

Imagerie biologique : une révolution avec la microscopie de super-résolution dynamique
Vendredi, 17/09/2010 - 00:00

La microscopie de super-résolution, que l'on appelle également nanoscopie, autorise la cartographie d'une population de molécules individuelles à la surface de cellules vivantes. Il suffit simplement de modifier génétiquement les organismes pour les rendre fluorescents, ce qui représente toutefois un inconvénient. D'où l'intérêt de la nouvelle technique d'"allumage" de ces molécules développée par les physiciens du Centre de Physique Moléculaire Optique et Hertzienne et les biologistes du laboratoire Physiologie Cellulaire de la Synapse, deux unités de recherche CNRS/Université de Bordeaux.

Celle-ci utilise l'immuno-marquage en temps réel. Les cellules vivants sont placées en présence d'une solution d'anticorps fluorescents qui vont s'y lier. Mais au lieu d'utiliser suffisamment d'anticorps pour se lier à toutes les molécules à étudier, les chercheurs réalisent un marquage dilué sous le microscope. Ainsi les quelques anticorps disponibles vont alors se lier aux molécules à étudier et les rendre lumineuses. Puis quand celles-ci seront éteintes, d'autres molécules seront déjà en train de se lier au nouveaux anticorps arrivant dans l'échantillon et s'allumeront à leur tour.

La technique mise au point par les chercheurs bordelais permet d'enregistrer plusieurs dizaines de milliers de trajectoires de molécules uniques sur une seule cellule et d'en étudier la dynamique à l'échelle nanométrique. Son efficacité a déjà été démontré sur divers systèmes cellulaires (cellules hétérologues, fibroblastes, neurones en culture) pour étudier différentes molécules membranaires.

Sa simplicité, son adaptabilité et sa fiabilité permettent d'ores et déjà d'envisager la réalisation d'un grand nombre d'études jusqu'alors inaccessibles. Par exemple, il devient possible de "filmer" l'évolution d'une seule cellule, par exemple un neurone, avec une résolution spatiale de 50 nanomètres pour une cadence d'imagerie correspondant à celle de la vidéo, soit 20 images par seconde. Ainsi les chercheurs de l'Université de Bordeaux ont déjà entamé l'étude de la structuration dynamique des récepteurs de neurotransmetteurs dans les synapses de neurones vivants.

BE

Lupus: un traitement prometteur à l'essai
Vendredi, 17/09/2010 - 00:00

Un traitement de cardiologie, le clopidogrel, testé sur des souris atteintes de formes graves de lupus, a permis d'améliorer leur état et de prolonger significativement leur espérance de vie, selon des travaux qui devraient déboucher en 2011 en France sur un essai clinique humain. La maladie, qui touche une population jeune, surtout des femmes en âge de procréer, se manifeste généralement par des douleurs articulaires intenses, des lésions cutanées du visage (masque en forme de loup) et des atteintes rénales plus ou moins sévères, mais peut également toucher d'autres organes (cerveau, coeur...). Des médecins et chercheurs français, dont les travaux sont publiés par la revue américaine Science Translational Medicine, viennent de démontrer que ce type de médicament se révélait particulièrement intéressant dans cette maladie, le lupus érythémateux disséminé (LED).

Le clopridogrel fait partie, comme l'aspirine, de la famille des médicaments antiplaquettaires qui aident à prévenir la formation de dangereux caillots. Il est prescrit pour réduire le risque de crise cardiaque (infarctus) ou d'accident vasculaire cérébral (AVC). Les plaquettes, des cellules sanguines qui participent à la coagulation du sang, semblent bien jouer un rôle original et jusque-là méconnu dans le développement du lupus. L'équipe du professeur Patrick Blanco, spécialiste d'immunologie (CHU de Bordeaux, France) et ses collègues ont pointé chez des patients atteints de LED la responsabilité des plaquettes dans le déclenchement d'une production aberrante de substances, comme l'interféron alpha, qui intervient normalement lors d'infections par des virus.

Ils ont analysé des plaquettes sanguines prélevées sur des patients atteints de lupus de gravité variable et des personnes en bonne santé et constaté que l'abondance d'une protéine appelée "CD154"produites par ces cellules était corrélée à la gravité de la maladie. Ils ont également observé que le sérum de malades activait les plaquettes d'individus sains, provoquant la production de la protéine CD154, une synthèse d'interféron et la propagation de l'inflammation, tant in vitro que chez les rongeurs.

Allant plus loin, ils ont administré du clopidogrel aux animaux malades. Résultats : "une atteinte rénale moindre et une espérance de vie augmentée chez 60 % des animaux traités", indique le Pr Blanco. L'équipe est en train de mettre sur pied un essai clinique en France qui pourrait débuter en 2011 et inclure 400 à 500 patients.

LE

Mise au point d'un vaccin oral contre la maladie d'Alzheimer
Vendredi, 17/09/2010 - 00:00

Une équipe de chercheurs menés par le professeur Shoichi ISHIURA de l'université de Tokyo a mis au point et testé sur des souris une méthode de vaccination par voie orale contre la maladie d'Alzheimer. Rappelons que la maladie d'Alzheimer est une affection neurodégénérative entraînant la perte progressive et irréversible des fonctions cognitives (par exemple la mémoire, l'expression...) et dont le risque de survenue augmente avec l'âge. Les causes de cette pathologie sont encore mal connues. Le cerveau des patients présente deux types d'anomalies caractéristiques : l'agrégation excessive sous forme de plaques d'un peptide, la bêta-amyloïde 42 (Aß42), autour des cellules nerveuses et la formation d'enchevêtrements neurofibrillaires à l'intérieur des neurones causée par une anomalie dans la phosphorylation d'une protéine appelée tau.

Depuis plusieurs années, une voie de recherche explorée dans la lutte contre la maladie d'Alzheimer est la mise au point d'un vaccin capable de stimuler la production d'anticorps anti-Aß42. Pour le moment, cette approche n'a pas encore donné de résultats concluants chez l'homme. En 2001, un vaccin injectable avait atteint les premières phases d'essais cliniques après avoir donné d'excellents résultats sur des modèles animaux.

Néanmoins, les essais ont dû être arrêtés à cause de la survenue d'effets secondaires sévères (inflammation cérébrale) chez plusieurs participants. Une hypothèse est que l'un des constituants du vaccin aurait entraîné une réaction immunitaire violente chez ces derniers.

Dans le but de développer un traitement plus sûr et moins coûteux, l'équipe du professeur ISHIURA s'est penchée sur une méthode d'administration alternative : la vaccination par voie orale. Les chercheurs ont d'abord produit par transgénèse des poivrons verts dont les feuilles expriment la protéine Aß42.

Un jus produit à partir de ces feuilles a ensuite été donné à boire à des souris de type sauvage, ainsi qu'à des souris modifiées génétiquement pour présenter les caractéristiques de la maladie d'Alzheimer. Les souris qui ont consommé le jus ont effectivement produit des anticorps contre Aß42. Les scientifiques ont pu observer une survie plus longue ainsi qu'une réduction de 70 % des plaques amyloïdes dans le cerveau des souris transgéniques qui ont été immunisées. Enfin, peu d'effets secondaires sont survenus ; en particulier, les chercheurs n'ont pas détecté de réaction inflammatoire.

BE

Fatigue chronique : un virus suspecté
Vendredi, 17/09/2010 - 00:00

Parfois appelé encéphalomyélite myalgique, le syndrome de fatigue chronique est-il causé par un virus ? Des travaux publiés fin août aux USA suggèrent un lien étroit entre cette pathologie énigmatique, longtemps considérée comme psychosomatique, et des rétrovirus de la famille des MLV (MurineLeukemia Virus ) - responsables notamment de leucémies et de neuropathologies chez la souris.

cette nouvelle étude du National Institutes of Health, renforce les premiers travaux, publiés à l'automne 2009, suggérant une telle association. Cette maladie très handicapante, qui mêle une fatigue profonde et durable à des douleurs musculaires ou articulaires et des troubles cognitifs (confusion, perte de mémoire, etc.), toucherait environ un million de personnes aux Etats-Unis.

La question de sa possible cause virale n'est cependant pas encore tranchée.

"Pour l'heure, tout le monde s'accorde pour dire que la causalité entre les MLV et ce syndrome très handicapant n'est pas établie ", dit Marc Sitbon, spécialiste des rétrovirus oncogènes et directeur de recherche (Inserm) à l'Institut de génétique moléculaire de Montpellier (université de Montpellier/CNRS).

En octobre 2009, des chercheurs américains, partiellement financés par une association de malades, avaient trouvé des séquences génétiques de XMRV (Xenotropic MLV-Related Virus) sur 67 % d'un échantillon de "fatigués chroniques". Le virus n'était que marginalement découvert chez les sujets sains.

Ces travaux ont soulevé un intérêt considérable. "Quatre équipes européennes ont cherché à établir ce lien et aucune n'a réussi", dit M. Sitbon. L'équipe de M. Alter, grand nom de la virologie, y est parvenue, ayant pris moult précautions expérimentales, saluées par la communauté scientifique. Comment interpréter ces résultats contradictoires ? "Je ne crois pas que cela soit dû à une divergence dans la définition des symptômes de la maladie de part et d'autre de l'Atlantique, avance M. Sitbon. Cela peut être alors dû à des problèmes techniques lors des expérimentations, ou au fait que le virus ait atteint certaines cohortes de patients et pas d'autres par des voies qui restent à déterminer."

LM

Autisme : un nouvel élément d'alerte découvert chez les bébés
Vendredi, 17/09/2010 - 00:00

On cherche à diagnostiquer l'autisme de façon précoce. En effet, cette maladie qui rend inapte à la communication doit être prise en charge très tôt pour espérer voir le comportement du malade amélioré. Les scientifiques ont aujourd'hui tendance à rechercher les premiers signes de cette affection chez les bébés. Ils s'intéressent à ce qui capte l'attention des touts-petits. Si, une fois livrés à eux-mêmes, ils ne semblent s'intéresser qu'à leurs jouets, cela peut être un signe d'autisme.

Des chercheurs de l'Institut Kennedy Krieger et de l'université du Delaware ont mené une expérience sur vingt-cinq bébés d'un groupe à haut risque et vingt-cinq bébés témoins. Mis face à un jouet, les bébés du groupe à haut risque avaient tendance à beaucoup plus regarder le jouet que la personne qui s'occupait d'eux, contrairement à ceux de l'autre groupe qui cherchaient à capter son attention dans leur jeu.

Néanmoins, en étant stimulés par un adulte, les bébés à haut risque peuvent suivre leur développement. En effet, même si on recherche des signes de l'autisme chez des enfants très jeunes, il est aujourd'hui trop tôt pour établir un diagnostic certain à cet âge et les seuls regards et manques de communication ne sont souvent pas synonymes d'un trouble envahissant du développement (TED).

MS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un véhicule électrique à induction, sans batterie !
Vendredi, 17/09/2010 - 00:00

Baptisé E-Quickie, le véhicule électrique développé par des étudiants de la Hochschule Karlsruhe (Bade-Wurtemberg) a l'apparence d'un vélo allongé avec une cellule de conducteur. Sa particularité est de ne pas embarquer d'accumulateur ou de batterie ; il tire son énergie à distance de pistes équipées de lignes électriques disposées dans le sol.

Un dispositif installé sous la voiture permet de récupérer l'énergie par induction et ainsi d'alimenter le moteur. "Le principe n'est pas tout à fait nouveau, puisqu'il est déjà employé dans un certain nombre d'entreprises pour les véhicules de manutention par exemple, qui sont cependant très lents et lourds.

Les étudiants cherchent maintenant à démontrer que l'emploi de matériaux modernes et l'optimisation des systèmes implémentés pourraient permettre de construire des véhicules électriques de ce type rapides et efficaces", explique Jürgen Walter de la faculté de génie mécanique et de mécatronique. Ils ont donc pour objectif de prouver que le principe du transfert d'énergie sans fil est bien adapté au transport sur route de personnes.

Pour cela, ils ont construit certains composants tels que la direction, les freins et le châssis en matériaux high-tech. La carrosserie, pour laquelle la masse et l'aérodynamique jouent un rôle important, est réalisée en fibres de carbone. Avant la production, chaque pièce a été optimisée par simulation numérique, ainsi que le véhicule complet dans une soufflerie virtuelle.

Le prototype pèse 60 kg, qui pourraient être réduits à 40 kg par d'autres étapes d'optimisation. "Dans d'autres types de véhicules motorisés, le rapport entre le poids du conducteur et du véhicule est de l'ordre de 1:10, voire 1:15. Nous tablons sur un rapport de 1:2".

Le véhicule a déjà fait ses preuves en parcourant quelque 40 tours de 222 m à Karlsruhe sur une piste spécialement préparée. "Il ne s'agissait pas là de montrer à quelle vitesse on pouvait parcourir cette distance, mais avec quelle efficacité énergétique. Nous sommes donc partis avec des batteries à moitié vides qui, à l'arrivée, étaient pleines.

Alors que le moteur n'a pas besoin spécifiquement de batteries pour fonctionner (l'électricité pouvant venir directement du système d'induction), il est nécessaire de stocker une certaine quantité d'énergie à bord pour les phases où le véhicule quitterait les zones non-électrifiées de son parcours, d'où l'utilité des batteries.

BE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top