RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 653
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 24 Mai 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La reconnaissance de mouvements va-t-elle remplacer la souris ?
Un nouveau système de localisation à l'intérieur des bâtiments
La géolocalisation pour évaluer les performances des sportifs
Un serious-game pour démarrer sa start-up
Google passe son moteur de recherche en mode intuitif
Les réseaux sociaux dopent la performance
Le téléphone s'impose comme facilitateur dans le paysage urbain
Avenir
HyQ, le robot tout terrain
Des robots assistent nos soldats en Afghanistan
Commander un robot par la pensée : le rêve devient réalité !
Electronique : des films ultra-minces capables de s'auto-organiser !
Matière
L’Europe a installé davantage de solaire que d’éolien et de gaz en 2011
Création d’une chaire industrielle sur l’oxy-combustion
Speed-dating en chimie organique
La première feuille artificielle génératrice d'électricité dévoilée
Espace
JUICE, une nouvelle mission d’exploration vers Jupiter et ses lunes
Terre
Le gène qui augmente les rendements de betteraves à sucre
Le CO2, un polluant d'avenir ?
Localisation du gène de la résistance au feu bactérien
Inauguration du plus grand site d'essai de captage de CO2 au monde
Vivant
Un traitement ciblé élimine le cancer de la prostate chez certains hommes
Cancer : ces molécules Dbait qui boostent la radiothérapie !
Comment conservons-nous nos souvenirs ?
Des scientifiques découvrent le rapport entre la génétique et une maladie des os
La thérapie génique à l'assaut du vieillissement !
Vers un test simple et fiable pour prévenir les AVC ?
Des chercheurs établissent une cartographie génétique de la schizophrénie
Méningite à méningocoques B : un vaccin pour demain ?
Les hormones thyroïdiennes régulent les cellules souches neurales
Le séquençage à haut débit pour un meilleur diagnostic des maladies neuromusculaires
Recherche
Honda présente une technologie qui détecte les risques d'embouteillage !
Taxicol : un projet de véhicule modulaire électrique entre taxi, tramway et bus hybride
Bientôt des dirigeables pour le transport de fret ?
Edito
Comment augmenter la productivité de la France, et donc obtenir de la croissance, sans dépense d'argent public ?



Certains parmi vous qui me lisent, semaine après semaine, depuis 14 ans, auront eu un petit moment de surprise en lisant le titre de cet édito.

En effet, notre lettre de prospective, depuis 1998, s’est toujours tenue loin de l’actualité politique et continuera à tenir la même ligne éditoriale.

Aujourd’hui, je vais simplement reprendre les idées essentielles d’un édito " Transports urbains du futur : vers la fin des grandes infrastructures " que j’avais mis en ligne le 18 Septembre 1999.

Prenons, tout d’abord, une information qui nous est parvenue le 10 Mai dernier « Google a obtenu le premier permis de circulation pour sa voiture à pilotage automatique ». Ainsi, pour la première fois, une autorité administrative responsable, l’Etat du Nevada, a donné l’autorisation pour qu’un véhicule entièrement automatique circule parmi toutes les autres voitures pilotées par des êtres humains. Certes, le texte du règlement précise qu’une personne devra être à bord pour surveiller et intervenir, si besoin, sur le système informatique, mais le pas franchi n’en est pas moins historique. Qui aurait pu imaginer, il y a seulement quelques années, qu’une voiture entièrement automatique aurait pu s’insérer dans le flot de voitures ininterrompu du Strip à Las Vegas !

Et pourtant, ce qui était annoncé arrive. Google vient de préciser qu’il commercialisera ce véhicule, entièrement automatique, dans les 5 ans.

Ne soyons pas surpris d’une telle annonce ! Observons ce qui se passe dans de nombreux véhicules déjà aujourd’hui.

Nos véhicules, dont toutes les commandes essentielles (direction, freins, accélérateur, boite de vitesses, embrayage, etc…) ont été électrifiées (donc automatisables !), dans ces dernières années, commencent à être bardés, sur l’ensemble de leur périmètre, de radars et de caméras.

Ces voitures qui circulent aujourd’hui sur nos routes ralentissent automatiquement si la voiture précédant la vôtre ralentit, vous ramènent dans le droit chemin si, par inadvertance, vous quittez votre couloir de circulation sans avoir mis le clignotant, vous envoient un signal fort si un véhicule se trouve dans votre angle mort alors que vous mettez votre clignotant pour changer de ligne, et savent même se garer seules, sans que vous interveniez sur le volant, l’accélérateur ou le frein.

Tout cela existe déjà. Ceci signifie que, si les Pouvoirs Publics abandonnaient clairement leurs idées actuelles d’aménagement des déplacements urbains (hors le métro) dont les principes remontent à plus d’un siècle, pour faire le choix d’une automatisation intégrale de tous les déplacements individuels dans les grandes agglomérations, ces nouveaux modes de transport pourraient être totalement opérationnels, dans les 10 ans qui viennent.

Comment cela fonctionnerait-il ?

Comme je l’écrivais déjà en 1999, des « cybercars » automatisés de 4 places, qui seraient fabriqués par nos industriels nationaux, seraient soit achetés par des particuliers qui trouveraient là un vecteur nouveau de placement, soit par les opérateurs ayant obtenu, sur appel d’offres, un droit d’exploitation auprès du gestionnaire public du réseau de l’ensemble de l’agglomération. Pas un seul centime d’argent public ne devrait être dépensé pour acquérir ces dizaines de milliers de « cybercars », dans chaque agglomération. En effet, au même titre que le citoyen s’achète un forfait ou paie ses communications, pour utiliser son téléphone, il en fera de même pour utiliser ces « cybercars ». Dès le départ, la concurrence devra s’exprimer dans ce nouveau marché des « cybercars ». Les normes (technologies, sécurité, protocole de communication, etc…) seront édictées  par les Pouvoirs Publics, et tous les opérateurs qui voudront faire fonctionner ces « cybercars » sur l’ensemble de l’agglomération devront strictement respecter ces normes et les règles d’utilisation.

Les financements pour l’installation de tels réseaux seront faciles à mettre en place auprès des investisseurs privés car la masse potentielle des individus transportés, malgré le prix unitaire très bas, sera à la source de revenus substantiels. Ne pas oublier que dans un tel modèle économique tous les véhicules non automatisés (qu’ils soient privés ou publics) n’auront plus le droit de circuler dans les aires urbaines.

L’utilisateur Lambda, c’est-à-dire vous ou moi, de ces futurs « cybercars » n’aura aucune difficulté pour se servir de ce véhicule du futur. Il lui suffira d’avoir son téléphone portable sur lui. Quand il voudra appeler un « cybercar », pour aller à un rendez-vous, ou faire des courses, il lui suffira d’appuyer sur une touche spécifique protégée, qui sera alors disponible sur chaque téléphone. L’appui confirmé sur cette touche vous permettra, en associant les données très précises de géolocalisation de votre téléphone, d’obtenir en quelques secondes une (ou plusieurs) proposition, vous précisant l’heure exacte (éventuellement les conditions financières) à laquelle le « cybercar » arrivera à l’endroit où vous vous trouvez. Vous confirmerez en appuyant sur le numéro de l’opérateur retenu. A l’heure précise, le « cybercar » se présentera devant vous. Quand vous monterez à bord du « cybercar, un échange automatique se fera entre votre téléphone et le véhicule, pour d’abord certifier que vous ne vous trompez pas de « cybercar », et ensuite ouvrir votre fiche personnelle (identité, abonné ou non, moyen de paiement…). Tout cela se fera sans intervention de votre part ! La seule chose qui vous sera demandée sera de préciser, à voix haute, votre adresse de destination. Après quelques instants de consultation, auprès de l’ordinateur central, votre « cybercar » vous annoncera, à la minute près, votre heure d’arrivée, tous les mobiles étant gérés par une même unité centrale. A partir de cet instant votre « cybercar » se transformera en lieu de détente et de travail. Vous n’aurez plus à vous préoccuper de la circulation et à en subir le stress…

Au lieu d’entrer dans une phase de temps perdu (embouteillages, cohue des transports en commun…), vous pourrez, tout au contraire, en circulant dans les grandes agglomérations, entrer dans une phase d’enrichissement personnel de votre temps (navigation sur Internet, consultation de dossiers, échange d’e-mails…) et arriver détendu et non stressé sur votre lieu de travail. Les « Cybercars » qui seront hyper connectés aux réseaux très haut débit vous inciteront ainsi à enrichir votre temps.

Les études les plus sérieuses nous affirment que les Français passent quelque 20 milliards d’heures, chaque année, dans les moyens de transports. Imaginons que la moitié de ce temps soit affectée au salarié pour son enrichissement intellectuel personnel et pour sa navigation sur Internet, et que l’autre moitié soit affectée à son entreprise.

Ce sont alors quelque 10 milliards d’heures supplémentaires productives soit l’équivalent de plus de 600.000 personnes à temps plein qui viendraient, sans coûts supplémentaires pour l’entreprise et la collectivité, améliorer la compétitivité de notre pays, et ce, sans que le temps global que chacun d’entre nous consacre au travail, chaque jour, (présence dans l’entreprise et temps de trajet) soit augmenté et sans qu’un centime d’argent public soit dépensé. Imaginons un instant le coup de booster énorme qu’une telle modification des déplacements individuels rendue possible par l’innovation et les nouvelles technologies apporterait à notre économie…

Dans une période de crise, où chacun se pose la question : «  Comment retrouver la croissance et éviter l’austérité », ce type de réponse s’appuyant sur l’innovation est porteur d’espoir.

Dans ces temps difficiles où l’argent public devient de plus en plus rare, ne faudrait-il pas enfin réfléchir à toutes les améliorations de compétitivité et de bonheur que pourraient  nous apporter les nouvelles technologies ?

En effet, il n’y a pas que dans le domaine des déplacements urbains que nous pourrions résoudre cette équation « comment améliorer notre productivité et relancer la croissance sans dépenser de l’argent public. » Dans la plupart des domaines où il y a innovation et nouvelles technologies (très haut débit avec la fibre optique, énergies alternatives, aides aux personnes âgées, santé, robotique personnelle, formation, transports, etc…), nous pouvons améliorer la compétitivité de la France et ce, sans faire appel à l’argent public.

Certains affirmeront que cela n’est pas possible. J’affirme le contraire.

Pour preuve, je vous raconterai dans un prochain édito, comment le Conseil Général du Rhône, sur ma proposition, (j’étais alors le Premier Vice-Président de cette Assemblée), a décidé, en 1989,  de construire le plus grand réseau optique unifié de France. Aujourd’hui, alors que tous les Rhodaniens peuvent accéder aux 100 mégabits (à comparer avec les 10 à 20 mégabits de notre ADSL national..), je peux affirmer qu’en fin de concession, dans quelques années, ce réseau unique en France n’aura pas coûté un centime au contribuable !

Réfléchissons bien, tous ensemble, au potentiel énorme que représentent l’innovation et les nouvelles technologies pour améliorer la productivité de notre Pays. C’est bien dans cette direction qu’il faut rechercher la porte qui nous permettra d’atteindre un meilleur avenir.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La reconnaissance de mouvements va-t-elle remplacer la souris ?
Mercredi, 23/05/2012 - 07:40

La Wii, Kinect et même les écrans tactiles viennent de prendre un petit coup de vieux. Une start-up américaine, Leap Motion, a dévoilé un petit appareil connectable à n’importe quel ordinateur en USB, qui pourrait bien connaître un grand succès, tant sa technologie impressionne. Pas plus grand qu’une grosse clé USB, l’objet, baptisé simplement Leap, se place devant votre écran et vous permet d’interagir par gestes… Avec une précision inégalée. La jeune pousse californienne n’est pas peu fière de sa technologie : « Leap est plus précis qu’une souris, aussi fiable qu’un clavier et plus sensible qu’un écran tactile », peut-on lire sur le site. Une description qui se poursuit avec une petite pique à Kinect : «Ce n’est pas un système de jeu qui peut vaguement représenter le mouvement de vos mains. Notre technologie est 200 fois plus précise que tout ce qui existe sur le marché […] Leap peut distinguer individuellement tous vos doigts et suivre vos mouvements avec une précision d’un centième de millimètre.»

L’entreprise, qui accepte d’ores et déjà les précommandes (pour 70 $, un prix raisonnable), promet que son périphérique sera compatible d’emblée avec les fonctions de base de Windows 7/8 et de Mac OS X. Il pourra émuler la souris avec les gestes ad hoc pour cliquer, faire défiler les fenêtres, zoomer… Et peut servir d'outil de création, permettant notamment de concevoir et de manipuler des formes 3D. Leap Motion compte aussi et surtout sur les développeurs tiers pour faire de sa techno une réussite. D’après les informations de Cnet, qui a pu rencontrer les fondateurs de l’entreprise, la start-up envisage de créer un App Store qui réunirait les programmes conçus pour fonctionner avec son appareil. Avant même que la technologie ne soit présentée, un millier de développeurs lui auraient manifesté de l’intérêt. Pour les motiver, la société distribuera des milliers d’unités de Leap gratuitement aux développeurs.

Leap Motion n’est pas très disert sur le fonctionnement de son petit bijou et préfère, pour le moment, ne pas communiquer sur ses spécifications techniques. On sait cependant que l’appareil contient plusieurs capteurs et caméras – comme Kinect – qui créent devant lui un espace 3D invisible. Puis, les mouvements des mains – ou de tout autre objet – sont analysés par le logiciel de Leap Motion pour les retranscrire à l’écran.

01Net

Un nouveau système de localisation à l'intérieur des bâtiments
Mercredi, 23/05/2012 - 07:24

Le Fraunhofer propose un système de localisation qui s'ajoute au mobile et qui fonctionne comme un micro-ordinateur indépendant. Le but : ne pas nuire à la batterie de l'appareil.

Pour retrouver son chemin dans des espaces couverts, il existe des navigateurs indoor sous forme d'application comme celle développée par Pole Star Entreprise pour le centre des Quatre Temps de La Défense, ou encore le système développé par Insiteo. Dans la même veine, les chercheurs de l'Institute for Manufacturing Engineering and Automation IPA de l'université Fraunhofer se sont associés avec des partenaires tels que Bosch Corporation, pour mettre au point un système avec une distance : celui-ci s'implante au téléphone. Baptisé MST-Smartsense, il consiste en un module de navigation qui possède son propre petit micro-ordinateur composé de capteurs.

Il peut être installé directement dans un smartphone ou dans une tablette sans élément supplémentaire. Equipé de son propre micro-processeur à faible consommation énergétique, le système de navigation n'utilise donc pas celui du mobile de l'utilisateur, ce qui lui permet d'économiser sa batterie. Le but du système est également de fonctionner de manière autonome. En ce qui concerne le fonctionnement, il enregistre la vitesse de marche de l'utilisateur, ainsi que la direction dans laquelle il se déplace grâce à un capteur qui mesure l'alignement du corps vis-à-vis du champ magnétique terrestre. En outre, un capteur se charge également de calculer la vitesse de déplacement lorsqu'un autre prend en compte la taille puisqu'il détecte si la personne a des jambes longues ou si elle fait de petits pas. Ce qui fonctionne grâce au développement dudit capteur sur la base de modèles de foulée de divers individus, lui permettant de reconnaître celle d'une personne utilisant ce navigateur.

Ces véritables avancées technologiques, toutefois, se heurtent à une réalité dans le secteur de la navigation indoor. Car pour fonctionner, le navigateur doit être associé à une application et connaître le bâtiment. Et pour cela, il faut télécharger le plan en trois dimensions sur Internet. Si les chercheurs avancent qu'il pourrait se télécharger automatiquement sur le mobile lorsque le possesseur d'un smartphone passe les portent d'un bâtiment ou via un QR Code, il n'en demeure pas moins que le système nécessite une connexion Internet ou mobile.

L'Atelier

La géolocalisation pour évaluer les performances des sportifs
Mardi, 22/05/2012 - 01:20

Pour améliorer les performances physiques des joueurs de football, une solution est d'étudier les déplacements en utilisant des outils de géolocalisation.

Le GPS ne sert pas seulement à orienter les conducteurs de véhicules, il pourrait maintenant orienter les entraîneurs de grands sportifs dans leurs décisions. Voilà les conclusions d'un chercheur de l'Université du Pays Basque, le professeur David Casamichana, qui a consacré sa thèse à l'utilisation des données de géolocalisation dans un but d'amélioration des performances des sportifs. Celui-ci affirme en effet que « les GPS permettraient d'identifier et d'analyser les déplacements des joueurs de manière plus précise, plus fiable et donc plus efficace ». Et pour confirmer cette hypothèse, le chercheur a effectué ses tests auprès d'une équipe de football espagnole semi-professionnelle.

  • Accélération, distance et vitesse

Les joueurs ont ainsi été équipés d'un prototype de GPS élaboré par le département des activités physiques et des sciences du sport de l'Université du Pays Basque à la fois pour les entraînements et les matchs amicaux. Celui-ci, de part sa précision, a permis d'établir trois éléments importants pour les choix tactiques d'un entraîneur concernant les compétences des joueurs. En effet, le GPS a permis d'évaluer la vitesse d'accélération de ceux-ci, leur vitesse moyenne et maximum de course ou encore la distance couverte sur un match. Parmi les données provenant de ces tests, les chercheurs ont par exemple découvert que les défenseurs centraux et les avant-centre parcouraient moins de distance que les milieux de terrains. L'endurance n'est donc pas une priorité sur ces postes. Cela donne ainsi des bases aux entraîneurs pour établir quel emplacement serait le plus approprié pour chaque joueur, mais pas seulement.

  • De la précision pour une meilleure santé

L'évolution de la vitesse et de l'accélération au cours d'un match permettrait également à ceux-ci de déterminer la condition physique du joueur et son niveau de fatigue pour déterminer quand il est nécessaire d'effectuer des changements. A noter que le GPS utilisé pour l'étude, le MinimaxX v.4.0, a été choisi parmi les autres GPS possibles sur le marché car il offre la plus haute fréquence d'échantillonnage, soit 10 Hz. Selon David Casamichana « les versions précédentes permettaient seulement d'analyser une donnée par seconde ». Ce qui posait un réel problème lorsqu'un individu rapide effectuait un mouvement et revenait en arrière en moins d'une seconde. « Le GPS n'arrivait pas à comprendre qu'un mouvement avait été effectué et était donc moins précis à analyser » explique-t-il.

L'Atelier

Un serious-game pour démarrer sa start-up
Mardi, 22/05/2012 - 01:00

Bienvenue dans LaunchLand, terrain virtuel qui permet d’expérimenter le montage d’une start-up. Ce serious-game est proposé sur la plate-forme d’idées collaboratives Open Ideo.

Voilà une proposition intéressante à l’heure de l’open-innovation. A la question soumise par le site communautaire Open Ideo « Comment encourager les web-entrepreneurs à se lancer dans des activités durables ? », une équipe de l’Université Cornell, dans l’Etat de New-York, propose un serious-game.

Le concept de LaunchLand est simple : le joueur vit une simulation de la création de start-up. Après avoir positionné son projet dans le secteur industriel adéquat, l’entrepreneur virtuel est mis en relation avec d’autres membres de la communauté, qui peuvent échanger des conseils, enrichir l'idée de départ, et nouer des collaborations.

Pour financer leur concept, et surtout le lancement de start-up, les créateurs de LaunchLand proposent un jeu payant. Ces profits seront reversés à un incubateur, qui hébergera ensuite les meilleurs projets.

LaunchLand fait partie des vingt projets retenus en réponse au challenge d’Open Ideo. S’il passe la phase de sélection finale, le concept de l’équipe de Cornell pourrait être repris par la Commission Européenne, qui sponsorise le concours. Les résultats seront connus le 29 mai 2012.

Industrie & Technologies

Google passe son moteur de recherche en mode intuitif
Lundi, 21/05/2012 - 01:10

Google a réalisé une « mise à jour majeure » qui favorise la recherche intuitive. Cette nouveauté est pour l'heure réservée aux Etats-Unis.

Google vient d’annoncer une mise à jour majeure de son moteur de recherche pour le rendre toujours plus intuitif en allant au-delà des mots tapés par l'internaute pour mieux lui répondre. La technologie du « graphe du savoir » (« Knowledge Graph ») est conçue pour reconnaître des gens, des endroits ou des choses désignées par certains mots clés. Elle a commencé à apparaître aux Etats-Unis, avec l'objectif de se généraliser partout prochainement.

« Le graphe du savoir est bâti pour comprendre les choses réelles du monde », a expliqué un responsable de Google, Ben Gomes. « C'est le début d'un long voyage qui nous permettra de couvrir plus de sujets et des recherches plus complexes », a-t-il ajouté. Son ambition, c'est que Google soit capable de dire où aller écouter Lady Gaga en plein air par temps doux, ou l'implantation d'un parc d'attractions à proximité d'un restaurant végétarien.

Pour l'instant, les utilisateurs du moteur de recherche aux Etats-Unis vont commencer à voir apparaître un encadré suggérant des types de réponse. Ainsi en tapant « Andromeda » (Andromède en anglais), Google demande si on s'intéresse à la galaxie de ce nom, ou à une série télévisée, ou à un groupe de rock suédois. En cliquant sur l'une de ces suggestions, la recherche est immédiatement affinée.

Google a indiqué qu'il avait soigneusement retravaillé son algorithme pour puiser des informations dans des bases de données comme Freebase ou Wikipedia afin de donner du contexte aux mots.

Les Echos

Les réseaux sociaux dopent la performance
Dimanche, 20/05/2012 - 01:30

Les cadres européens qui utilisent Facebook & Co. estiment qu’ils permettent d’améliorer la productivité des entreprises de près de 20 %.

L’enquête, effectuée par le cabinet Millward Brown pour Google et récemment rendue publique, porte sur l’usage professionnel des réseaux sociaux du type Facebook, Twitter, Google+, ou LinkedIn, ainsi que des réseaux internes comme Yammer ou Chatter. 2700 salariés de sept pays européens (France, Royaume-Uni, Allemagne, Italie, Pays-Bas, Espagne et Suède) ont été interrogés.

Il en ressort que les cadres se montrent majoritairement enthousiastes sur ces réseaux et pensent pouvoir gagner du temps grâce à eux. Notamment en évitant des déplacements pour rencontrer des collègues ou des clients (respectivement près de 3 heures par semaine gagnées), en envoyant et lisant moins d’emails (plus de deux heures par semaine) ou encore en limitant les réunions internes (2,5 heures par semaine).

Les utilisateurs les plus enthousiastes se trouvent en Espagne et en Italie (74 %) et les moins enthousiastes en Allemagne (53 %). La France, avec 61 % d’enthousiastes, est dans la moyenne.

Les cadres disent utiliser ces réseaux d’abord pour trouver des informations et des contacts (41 %), partager des idées (37 %), développer leur réseau professionnel (34 %) ou encore réduire le volume d’emails (31 %).

Tribune de Genève

Le téléphone s'impose comme facilitateur dans le paysage urbain
Samedi, 19/05/2012 - 07:52

48 % des citadins se disent satisfaits de leur vie en ville contre 25 % d'insatisfaits, révèle une étude présentée par le ConsumerLab d'Ericsson. Une étude qui montre que, selon ces habitants, le smartphone serait un outil permettant d'améliorer leur quotidien. Et pour cause, parmi les cinq premières raisons de ce cette satisfaction, on trouve la couverture réseau mobile, non seulement pour l'usage du smartphone, mais également parce qu'il participe à l'amélioration des conditions de vie. Par exemple, pour le déplacement du domicile au lieu de travail. "Les citoyens ont peu d'espoir dans la construction de nouvelles routes ou métros et qu'ils se reportaient donc à une façon personnelle d'améliorer leur vie en utilisant le smartphone, pour naviguer ou connaître des alternatives de transport public lors de difficultés de trafic par exemple", explique à L'Atelier Michael Björn, directeur de la recherche du ConsumerLab. Des conclusions tirées des entretiens qualitatifs menés dans les 13 villes du monde ciblées pour l'étude.

Le smartphone est d'autant plus important que les citadins s'y divertissent ou l'utilisent pour communiquer et qu'ils sont 50 % à l'utiliser pour accéder à Internet. En effet, ils sont environ 54 % à écouter de la musique qui peut être en streaming, 8 % à utiliser les réseaux sociaux, 10 % à regarder leurs e-mails personnels et 9 % leurs e-mails professionnels en voiture, contre 21 % à utiliser les réseaux sociaux ou 30 % à regarder leurs e-mails professionnels dans le métro. Car le smartphone peut améliorer "tout ce qui fait dire aux citoyens qu'ils ne sont pas satisfaits en ville, comme la communication avec les autorités publiques", précise Michael Björn. L'intérêt pour le smartphone et ses possibilités est d'ailleurs plus important en ville qu'ailleurs. D'abord, parce qu'ils sont 50 % à utiliser leur mobile pour accéder à Internet, mais également parce qu'ils en ont un usage plus intensif, passant en moyenne 45 minutes par jour à se socialiser en ligne.

Pour Michael Björn, ceci fait de la ville "un espace de création car les personnes qui se connectent lisent les commentaires de leurs amis et en postent, mais échangent également des idées". Et pas seulement sur les réseaux sociaux puisque, selon Patrik Regardh, directeur du marketing stratégique d'Ericsson, la technologie a permis aux villes de se développer différemment, par exemple avec l'open data, mais également de faire participer le citoyen, "comme à Moscou où ces derniers pouvaient poster des photos des rues abîmées sur un site dédié, permettant aux autorités de savoir où il était nécessaire d'intervenir ou en permettant aux citoyens de participer au développement de la ville en leur donnant la possibilité de développer des applications". Et d'ajouter que si nous ne sommes qu'au début du développement de cette tendance, "les investissements importants sont souvent déjà faits, et qu'il reste à investir dans la facilité d'usage de ces innovations".

L'Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
HyQ, le robot tout terrain
Mardi, 22/05/2012 - 01:10

Le projet HyQ a été lancé en 2008, par l'Italien Institute of Technology, il aura fallu quatre ans pour ce robot quadrupède fasse sa première sortie. Une expérience probante pour ce robot tout terrain et fonctionnant jusqu'à 7,2 Km/h.

Tous ceux qui s’intéressent un peu aux robots se souviennent d’Aibo, le premier chien robotique fabriqué par Sony et sorti en 1999. L’entreprise avait malheureusement du faire piquer son animal en 2006 faute de bénéfices suffisants.

Que les amateurs se réjouissent puisque HyQ a fait sa première sortie dans la nature avec ses concepteurs de l’Italian Institute of Technology (ITT). HyQ est en fait l’acronyme d’Hydrolic Quadruped, un projet lancé en 2008. Il s’agit comme son nom l’indique d’un robot fonctionnant sur quatre pattes. Il a la particularité d’être relativement tout-terrain et surtout bien plus rapide que d’autres modèles similaires avec une vitesse de pointe allant jusqu’à 7,2 Km/h, pour l’instant.

Pour arriver à ce résultat l’équipe a choisi de monter les « pattes » sur 8 vérins hydrauliques (et deux électriques) permettant une grande flexibilité. Accompagnées par plusieurs capteurs, la bête arrive à marcher sur un chemin semé d’embûches et même dans des pentes relativement raides. L’ensemble pèse 70 Kg avec une batterie externe ou 90 si elle montée sur son dos.

Même si l’idée de lancer une balle de tennis à un robot est tentante, le projet n’est pas - principalement - destiné à des fins récréatives mais plutôt militaires ou scientifiques, notamment pour transporter du matériel là où d’autres véhicules auraient du mal.

CNET

Des robots assistent nos soldats en Afghanistan
Dimanche, 20/05/2012 - 01:00

En Afghanistan, les troupes tricolores vont pouvoir compter sur les Cobra, des machines conçues dans l’Essonne. Pénétrer dans l’atelier de la société ECA à Saclay, c’est un peu comme basculer dans un film de Ridley Scott, le réalisateur d’« Alien » et de « Blade Runner ». Des robots de toute taille déambulent partout. Sauf que les machines ne sont pas là pour émerveiller le spectateur, mais pour épargner des vies. La dernière création de l’entreprise, le Cobra, est destinée à l’Afghanistan. Dix appareils de reconnaissance ont déjà été livrés à l’armée française. Vingt autres vont suivre.

Créée en 1936, ECA débute en mettant au point des machines pour détruire les mines sous-marines. Aujourd’hui, son activité s’est diversifiée et rayonne dans le monde entier. Que ce soit avec les simulateurs pour l’aéronautique ou les robots destructeurs de mines, l’objectif reste le même : simplifier les opérations et, au passage, préserver la vie des êtres humains. Le Cobra répond à cette ambition. Cinq ans de développement ont été nécessaires pour mettre au point la machine de 5 kg, truffée de technologie.

En décembre dernier, l’armée française lance un appel d’offres pour un robot de reconnaissance. Un nouveau soldat démineur vient de se faire tuer en Afghanistan. Un électrochoc pour l’état-major. « Ils sont sans cesse pris pour cible », témoigne Daniel Guerson, le dirigeant du site de Saclay d’ECA. Le Cobra permet de limiter les risques lors des interventions. D’une autonomie de deux heures et demie, il est manœuvrable jusqu’à 450 m, se déplace à la vitesse maximale de 8 km/h et grimpe des pentes raides, jusqu’à 30 % de dénivelé. « Il a fallu convaincre l’armée de l’efficacité du robot. Les mentalités évoluent doucement », explique le directeur.

Télécommande tactile en main, les officiers n’ont pas mis longtemps à comprendre les avantages du Cobra. Le maniement, intuitif, s’opère avec un joystick pour orienter le robot. Une caméra retranscrit sur l’écran ce que voit la machine. Surtout, l’appareil est modulable. Il est possible de lui greffer sur le dos un dispositif pour filmer ou entendre plus précisément, un canon à eau pour neutraliser les engins explosifs, un boîtier pour détecter les snipers, un capteur nucléaire… « Tout est envisageable », prévoit Daniel Guerson.

Les prochaines versions du Cobra sont déjà à l’étude. Les ingénieurs souhaitent augmenter son autonomie et espèrent diminuer le temps de pilotage en programmant le robot pour qu’il se rende, par géolocalisation, tout seul dans la zone dangereuse. Ils envisagent aussi la fabrication d’engins suivant automatiquement les soldats. « Pour se défendre, c’est quand même plus utile d’avoir un fusil en main plutôt qu’une télécommande », insiste Daniel Guerson.

Le Parisien

Commander un robot par la pensée : le rêve devient réalité !
Samedi, 19/05/2012 - 08:01

Commander un robot en forme de bras articulé futuriste par la seule force de la pensée n'est plus tout à fait de la science-fiction : c'est la prouesse réalisée par une équipe de chercheurs aux Etats-Unis, révélée mercredi 16 mai dans le magazine Nature.

Tétraplégique depuis quatorze ans à la suite d'un accident vasculaire cérébral, Cathy Hutchinson, 58 ans, passera peut-être à la postérité pour avoir fait bouger un bras robotisé pour boire un café, grâce à un micro-réseau d'électrodes implanté dans son cerveau."C'est la première fois en près de quinze ans qu'elle était capable de prendre quelque chose par sa seule volonté. Je n'oublierai jamais le sourire sur son visage", a expliqué le neurologue Leigh Hochberg du Massachusetts General Hospital de Boston, principal responsable de l'expérimentation.

L'exploit s'est déroulé le 12 avril 2011. Il a consisté pour Mme Hutchinson à télécommander grâce aux signaux captés dans son cortex moteur - partie du cerveau qui contrôle les mouvements du corps - un bras articulé placé devant elle pour saisir une bouteille remplie de café et la porter à ses lèvres.

Cette expérimentation, en partie financée par l'organisme américain de recherche en santé NIH, vise à évaluer la sécurité et la faisabilité du système BrainGate d'interface entre le cerveau et des robots d'assistance pour personnes handicapées. Le système consiste en un réseau d'une centaine d'électrodes, chacune de la taille d'un cheveu, implanté dans le cortex pour capter les signaux du cerveau et les transformer en commandes digitales pour le robot. Dans une première étape, le même groupe avait démontré, il y a six ans, que des personnes paralysées pouvaient déplacer un curseur sur un écran, au moyen de leurs pensées. Le système d'implants cérébraux a permis à Mme Hutchinson - et aussi à un autre patient tétraplégique, Robert, âgé de 66 ans - d'exercer un contrôle suffisamment fin sur le bras robotisé pour saisir un objet en mousse.

Mme Hutchinson a expliqué que l'exercice n'était au final pas fatigant : "Au tout début je devais me concentrer et me focaliser sur les muscles dont j'avais besoin. Mais je me suis vite habituée." Les scientifiques espèrent améliorer le bras robotique pour qu'il fonctionne plus harmonieusement et réalise des tâches plus complexes.

"Nous sommes impatients de faire progresser la technologie pour qu'un jour nous puissions reconnecter le cerveau directement à un membre [paralysé] ou bien le connecter à une prothèse, explique le spécialiste des neurosciences John Donoghue, de l'université américaine Brown. Nous aurons vraiment atteint nos objectifs lorsque quelqu'un qui a perdu sa mobilité en raison d'une lésion neurologique ou d'une maladie pourra interagir pleinement avec son environnement sans que personne ne sache qu'il emploie une interface cerveau-ordinateur." Il faudra encore des années pour y parvenir mais "moins d'une décennie", estime-t-il.

Le Monde

Nature

Electronique : des films ultra-minces capables de s'auto-organiser !
Vendredi, 18/05/2012 - 17:07

La mise au point d'une nouvelle combinaison de polymères associant sucres et macromolécules issues du pétrole permet la conception de films ultra-minces capables de s'auto-organiser avec une résolution de 5 nanomètres. Cette innovation ouvre des perspectives inédites pour augmenter la capacité des disques durs et la rapidité des micro-processeurs. Fruit d'une collaboration franco-américaine pilotée par le Centre de recherches sur les macromolécules végétales (CNRS), ces travaux font l'objet de deux brevets et d'une publication dans la revue ACS Nano.

Cette nouvelle classe de films minces à base de copolymères hybrides offrirait de nombreuses applications en électronique souple tant dans les procédés de nanolithographie que dans les biocapteurs ou les cellules photovoltaïques.

Avant d'imaginer de nouvelles générations de microprocesseurs, une évolution de la lithographie, la technique d'impression des circuits, est indispensable. En effet, jusqu'à ce jour, les films minces des circuits étaient conçus à partir de polymères synthétiques exclusivement d'origine pétrolière. Principale limite : la structure minimale de ces structures atteint une résolution de 20 nanomètres. Impossible de réduire davantage cette taille en associant des polymères issus du pétrole. Cette limite constituait l'un des principaux freins pour développer de nouvelles générations de dispositifs électroniques souples à très haute résolution.

Le copolymère 1, formé de briques élémentaires très incompatibles, est semblable à une bulle d'huile connectée à une gouttelette d'eau. Les chercheurs ont montré qu'une telle structure était capable de s'auto-organiser en cylindres de sucres dans un réseau de polymères issus du pétrole, chaque structure ayant une taille de 5 nanomètres, soit largement plus petite que celles des « anciens » copolymères formés uniquement de dérivés du pétrole. De plus, cette nouvelle génération de matériau intègre une ressource abondante, renouvelable et biodégradable : le sucre.

Parvenir à cette performance permet d'envisager de nombreuses applications en électronique souple : miniaturisation de la lithographie des circuits, capacité de stockage de l'information multipliée par 6 (mémoires flash – clés USB – conservant non plus 1 Tbit de données mais 6 Tbit), performance accrue des cellules photovoltaïques, biocapteurs…

Enerzine

^ Haut
Matière
Matière et Energie
L’Europe a installé davantage de solaire que d’éolien et de gaz en 2011
Mercredi, 23/05/2012 - 08:00

L’EPIA, Association Européenne de l’Industrie Photovoltaïque, vient de rendre public son « Global Market Outlook » à horizon 2016, mettant en lumière que les nouvelles capacités photovoltaïques (PV) installées en 2011 ont largement dépassé celles des autres filières, qu’elles soient renouvelables, fossiles ou nucléaire. Une première historique.

Sur la base de la puissance cumulée fin 2011, le PV délivre à présent 2 % de l’électricité de l’Union européenne à 27 (4 % en période de pointe de la demande) : le PV, dont le bilan sanitaire et environnemental est excellent d’après les études scientifiques multicritères, est vraiment sorti de la marginalité en Europe et permet au continent de tirer profit d’une ressource locale et inépuisable.

Un niveau record d’électricité d’origine solaire est atteint en Italie (5,39 %), en Allemagne (4,19 %), en République tchèque (3,15 %), en Espagne (3,04 %) et en Belgique (2,33 %), ceci en fort contraste avec le niveau français (0,71 %).

Au sein de l’UE27, 21,9 GW de PV ont été installés durant l’année 2011, soit davantage que le total des nouvelles capacités nettes d’éolien (+ 9,4 GW), de centrales à gaz naturel (+ 8,8 GW) et de centrales à charbon (+ 1,3 GW) installées durant la même année. En parallèle, le nucléaire a décliné de 5,9 GW et les centrales au fioul de 0,4 GW. L’Italie a été le premier marché du PV à l’échelle mondiale en 2011, avec 9,3 GW de connectés durant l’année, suivie de l’Allemagne (7,5). L’Italie et l’Allemagne ont représenté à elles seules 60 % de la croissance du marché mondial l’année dernière.

En Bavière, grande région du sud de l’Allemagne, le niveau d’équipement PV s’élève au niveau impressionnant de 646 Watts par habitant, c'est-à-dire à 3 panneaux PV par habitant en moyenne, suivi au nord par le Brandebourg (607) et la Saxe-Anhalt (350). L’Extremadure (508) et la Puglia (534), respectivement dans le sud de l’Espagne et de l’Italie, font également partie des régions championnes en Europe.

Le niveau d’équipement de la France (40 Watts par habitant), pays relativement bien ensoleillé, est deux fois plus bas que celui de la moyenne européenne (79), 7 fois et demi plus faible que celui de l’Allemagne (303), 5 fois plus faible que celui de l’Italie (213) et 4 fois et demi plus faible que celui de la Belgique (184). Cinq régions sont cependant championnes à l’échelle nationale, la Corse (195), le Midi-Pyrénées (100), le Languedoc-Roussillon (96), la Picardie (77), et Provence-Alpes-Côte d’Azur (75). Toutes les autres régions françaises sont bien en dessous de la moyenne européenne. Les experts de l’EPIA indiquent que « le mix énergétique national a été très débattu pendant la campagne électorale présidentielle en France. Mais l’état d’esprit prégnant en France ne devrait pas conduire à d’importants changements dans la façon dont sont développées les énergies renouvelables. Pour la plupart des hommes politiques français, le nucléaire reste la technologie bas carbone préférée ».

François Hollande s’est engagé à « réduire la part du nucléaire de 75 % à 50 % d’ici 2025 », mais en annonçant la fermeture d’une seule centrale nucléaire, celle de Fessenheim (1,8 GW), en 2017. Et en ouvrant parallèlement une nouvelle centrale nucléaire à Flamanville, l’EPR (1,6 GW), ce qui, selon Greenpeace-France est « incohérent » avec l’objectif affiché.

Selon les différents scénarii étudiés par l’EPIA, le PV pourrait représenter en 2020 entre 2,4 % et 12 % du mix électrique de l’UE27. Le développement vigoureux du PV en Europe ces dernières années pourrait être difficile à soutenir si des politiques inadaptées étaient mises en place, les investisseurs ayant besoin d’un cadre réglementaire clair, stable et attractif. « Les politiques de type stop-and-start, avec par exemple des changements fréquents et brutaux dans les tarifs d’achat, peuvent menacer la croissance du PV en détruisant la confiance des investisseurs » soulignent les auteurs. Les politiques de tarifs d’achat, qui n’ont par construction aucun impact sur les finances publiques, constituent un levier clé pour booster la croissance de la filière PV fortement génératrice d’emplois non délocalisables, les deux tiers de la chaîne de valeur portant sur la partie aval.

A l’échelle mondiale, la puissance PV installée cumulée fin 2011 est de 69 GW, produisant 85 TWh d’électricité par an, soit 0,5 % de la demande électrique mondiale, assez pour alimenter 11 millions de personnes vivant selon les standards français. Les trois-quarts (51 GW) de la puissance PV cumulée mondiale concerne l’Europe. Viennent ensuite le Japon (5 GW), les USA (4,4 GW), la Chine (3,1 GW), l’Australie (1,3 GW) et l’Inde (0,46 GW). La Chine, qui produit aujourd’hui plus de la moitié des panneaux solaires à l’échelle mondiale, a installé sur son sol 2,2 GW durant la seule année 2011 et a décidé récemment de mettre en place une politique de tarif d’achat pour booster son marché intérieur. Le Japon, suite à la catastrophe nucléaire de Fukushima, a mis en place la politique la plus incitative du monde en matière d’énergies renouvelables.

Techniques de l'Ingénieur

Création d’une chaire industrielle sur l’oxy-combustion
Lundi, 21/05/2012 - 01:40

Air Liquide, l'Ecole Centrale Paris et le CNRS annoncent la création d'une chaire industrielle d'enseignement et de recherche dans le domaine de l'oxy-combustion. D'une durée initiale de 6 ans, la chaire bénéficie d'une subvention de l'ANR (Agence nationale de la recherche) soulignant le niveau d'excellence du projet et la volonté de soutenir le Partenariat Public-Privé.

Pour Air Liquide, l'oxy-combustion est une solution prometteuse utilisant de l'oxygène à la place de l'air pour la combustion. Combinée à un procédé de purification du CO2 cette technologie permet d'obtenir du CO2 prêt à être capté, stocké ou valorisé directement. Elle ouvre ainsi la voie à la production de vapeur et d'électricité décarbonée. En signant cette chaire, Air Liquide qui est partenaire de l'option « Energie » de l'Ecole Centrale Paris depuis sa création en 2007, renforce son engagement dans cette filière énergétique propre.

Pilotée par Thierry Schuller, professeur à l'Ecole Centrale Paris et chercheur au laboratoire d'énergétique moléculaire et macroscopique, combustion (EM2C, unité propre du CNRS), la chaire vise à former de jeunes ingénieurs et docteurs.

Les travaux de recherche seront centrés sur la compréhension des phénomènes de combustion à haute pression pour des combustibles gazeux, liquides et solides (charbon, biomasse). Cette connaissance permettra à Air Liquide d'obtenir des modèles plus fiables et d'améliorer ses processus de dimensionnement des brûleurs à oxygène, pour des démonstrations à grandes échelles ou en géométries complexes. L'activité de la chaire sera organisée autour d'une plate-forme numérique et expérimentale, implantée au laboratoire EM2C. La plate-forme expérimentale sera équipée de systèmes de diagnostics avancés pour la mesure simultanée, à haute pression, des caractéristiques des flammes et des transferts de chaleur, une première mondiale.

Olivier Delabroy, directeur de la R&D du Groupe Air Liquide, a déclaré : “La réponse aux défis énergétiques de demain et l'émergence de cette filière technologique nécessite le développement de connaissances et compétences scientifiques. Notre engagement au sein de l'écosystème Paris-Saclay et la mise en œuvre de partenariats publics-privés d'excellence permettent de mutualiser les efforts de recherche fondamentale pour nourrir l'innovation industrielle.”

Hervé Biausser, directeur de l'Ecole Centrale Paris, ajoute « L'énergie est un des grands enjeux de société, dans lequel l'Ecole a une expertise reconnue, tant en enseignement qu'en recherche. La signature de cette chaire marque une nouvelle étape dans nos relations avec Air Liquide, qui se traduisent depuis plusieurs années par un partenariat étroit ».

CNRS

Speed-dating en chimie organique
Lundi, 21/05/2012 - 01:20

Des chercheurs du CEA viennent de mettre au point une nouvelle approche pour découvrir des réactions chimiques inédites. Basée sur la miniaturisation des expériences et sur l’utilisation d’une nouvelle technique de criblage à haut débit, cette approche donne désormais la possibilité aux chercheurs d’effectuer jusqu’à 1000 expériences par jour contre une seule auparavant, et a ainsi conduit à la découverte de deux nouvelles réactions chimiques.

Ces résultats constituent une première mondiale avec cette technologie. Ils ouvrent des perspectives dans de nombreux domaines de la chimie mais également de la biologie avec la découverte de combinaisons chimiques utiles pour la recherche fondamentale et pour le développement d’applications, notamment en imagerie ou en nano-biotechnologies. Ces résultats viennent d’être publiés en ligne par la revue Angewandte Chemie International Edition.

En chimie organique, l’identification de nouvelles réactions chimiques, thématique de recherche fondamentale majeure, permet d’envisager la construction de nouvelles molécules pour diverses applications. Afin de les mettre en évidence, les chercheurs utilisent classiquement une approche rationnelle qui consiste à mélanger des molécules conçues pour réagir ensemble et former un nouveau produit. Cependant, la part qu’occupe le hasard dans le processus de découverte n’est pas à négliger, l’histoire de la chimie étant riche de découvertes purement fortuites (découverte du Nylon, de la pénicilline, du Téflon, de colorants, etc.).

Partant du constat simple que la probabilité de découverte augmente avec le nombre d’expériences réalisées, des chercheurs du CEA ont mis au point une nouvelle approche basée sur la miniaturisation des expériences et sur l’utilisation d’une nouvelle technique de criblage rapide à haut débit, capable d’identifier parmi des milliers de combinaisons chimiques celles générant des produits d’intérêt. Le procédé développé consiste à réaliser les expériences chimiques avec de très faibles quantités de réactifs sur une plaque de 96 puits, puis à analyser les milieux réactionnels grâce à un test rapide utilisant des anticorps spécifiques capables de détecter tout produit de couplage. Les chercheurs ont ainsi réalisé le criblage, ou sélection, de milliers de réactions chimiques, mettant chacune en jeux deux fonctions chimiques, en présence d’un métal, tel que le cuivre, le palladium ou l’or, pouvant jouer le rôle de catalyseur.

La miniaturisation leur a permis de travailler sur de très petits volumes, de l’ordre du microlitre, et d’augmenter le haut débit du criblage, effectuant ainsi jusqu’à 1000 expériences par jour. Cette nouvelle démarche est basée sur le principe de « hasard forcé » (« forced serendipity » en anglais), ou encore un speed-dating forcené qui favorise la découverte de nouvelles réactions chimiques. Ce travail démontre qu’il est possible d’accélérer le processus de découverte en combinant conception, miniaturisation des expérimentations et criblage haut débit.

Ainsi, grâce à leur nouvelle approche, les chercheurs du CEA ont découvert deux réactions chimiques inédites : une réaction de désulfurisation et une réaction de cyclisation impliquant toutes les deux le cuivre comme métal catalyseur. Ces résultats constituent une première mondiale avec cette technologie. Ils correspondent à la première phase d’un vaste programme de recherche consacré à l’identification de nouvelles réactions chimiques. L’objectif est notamment la mise en évidence de réactions accessibles et utiles aux biologistes, aussi bien pour la recherche fondamentale que pour le développement de nouveaux outils chimiques dont les applications vont de l’imagerie aux nano-biotechnologies.

CEA

La première feuille artificielle génératrice d'électricité dévoilée
Dimanche, 20/05/2012 - 01:20

Une description détaillée du développement de la première feuille artificielle - une étape clé vers un accès à l'énergie durable - imitant le processus (photosynthèse) que les plantes vertes utilisent pour convertir l'eau et la lumière du soleil en énergie a été publiée dans le Journal de l'ACS Accounts of Chemical Research.

L'article note aussi que contrairement aux précédents dispositifs qui utilisaient des matières premières relativement coûteuses, le nouveau dispositif a été conçu avec des matériaux accessibles et abordables, tout en employant des procédés d'ingénierie et de fabrication peu onéreux. L'auteur, Daniel G. Nocera, fait remarquer que la feuille artificielle répond à la vision d'un célèbre chimiste italien qui, en 1912, prédisait que les scientifiques découvriraient un jour le "secret des plantes." L'un des plus importants d'après le Professeur Nocera reste le processus qui scinde l'eau en hydrogène et en oxygène.

La feuille artificielle possède un collecteur de lumière pris en sandwich entre deux films qui génèrent d'un côté de l'oxygène et de l'autre de l'hydrogène gazeux. En cas d'immersion dans un récipient d'eau soumis à la lumière du soleil, des bulles apparaissent, libérant un atome d'hydrogène qui pourra être utilisé par les piles à combustible afin de produire de l'électricité. Même si ces unités autonomes demeurent attrayantes pour générer proprement de l'électricité dans des endroits reculés ou dans des pays en voie de développement, les prototypes développés à ce jour reposent sur des métaux (platine) et des processus de fabrication qui les rendent prohibitifs.

Aussi, dans l'objectif de rendre ces dispositifs plus largement accessibles, le Professeur Nocera a remplacé le catalyseur de platine qui produit le gaz hydrogène, avec un alliage comprenant du nickel, du molybdène et du zinc. De l'autre côté de la feuille, un film de cobalt a pour fonction de générer de l'oxygène sous forme gazeuse. Le chercheur ajoute que tous ces matériaux sont abondants sur Terre, contrairement au platine, aux oxydes de métaux précieux et autres semi-conducteurs qui sont actuellement utilisés par l'industrie. Par ailleurs, son prototype fonctionne à la pression atmosphérique et à la température ambiante.

"Étant donné que ce sont 6 milliards d'utilisateurs 'non traditionnels' qui tireront la demande en énergie au milieu de ce siècle, le but de cette recherche est donc de fournir de l'énergie solaire pour les populations les plus démunies grâce à des découvertes telles que la feuille artificielle fournissant à la société globalisée un chemin direct à une énergie durable", a t-il conclu.

Enerzine

Artificial Life

^ Haut
Espace
Espace et Cosmologie
JUICE, une nouvelle mission d’exploration vers Jupiter et ses lunes
Lundi, 21/05/2012 - 01:30

La mission JUICE vient d’être sélectionnée par l’Agence spatiale européenne dans le cadre du programme Cosmic Vision 2015-2025. Elle atteindra Jupiter et ses lunes glacées en 2030 et les étudiera durant trois ans, avec une attention toute particulière pour l’intrigante Ganymède.

  • Une nouvelle mission vers Jupiter, 30 ans après Galileo

« JUICE est la première mission d’exploration entièrement européenne qui se dirigera vers une planète géante », remarque Richard Bonneville, directeur adjoint des programmes au CNES. « Ce genre d’aventure n’a lieu que tous les 30 ans, c’est une chance d’y participer ! », avoue Olivier Grasset, co-responsable scientifique de JUICE au Laboratoire de Planétologie et Géodynamique de Nantes.

Quelle est la destination de cette mission ? Le système de Jupiter, la plus grosse planète du système solaire. Et si elle a été baptisée JUICE (JUpiter ICy moons Explorer), c’est qu’elle va explorer 3 des lunes glacées de Jupiter : Ganymède, Europa et Callisto. La mission vient d’être sélectionnée par l’ESA dans le cadre du programme Cosmic Vision 2015-2025 et le CNES soutiendra la réalisation des contributions instrumentales des laboratoires français.

« La sonde Galileo a mis en évidence la présence d’océans liquides sous la croûte de glace de ces lunes mais également la complexité des interactions entre ces lunes et Jupiter dont la magnétosphère est très active, retrace Olivier Grasset. Avec JUICE, nous allons essayer de caractériser ces phénomènes. »

Des informations précieuses pour avancer dans la compréhension des systèmes exoplanétaires, et plus spécifiquement de l’émergence d’environnements viables autour des planètes géantes. JUICE devrait, entre autre, permettre de dresser le portrait des « planètes océans » que l’on commence à découvrir dans d’autres systèmes planétaires.

  • A la conquête des lunes glacées de Jupiter

Lancée en 2022 depuis Kourou, JUICE atteindra Jupiter en 2030. « Baignée pendant 3 ans dans le champ magnétique de Jupiter, la mission devrait nous apporter une multitude d’informations sur la magnétosphère jovienne », raconte Olivier Grasset. La sonde va aussi analyser l’atmosphère tumultueuse de cette géante gazeuse.

Au cours de son périple, JUICE survolera Callisto, une lune composée à 50 % de glace. Elle survolera aussi Europa pour étudier les zones les plus actives de sa croûte glacée et identifier un site adapté à une future exploration in situ. Mais la vedette de cette mission reste Ganymède, une lune de 2 600 km de rayon, autrement dit plus grosse que Mercure !

« C’est la première fois qu’une sonde se mettra en orbite autour d’une lune de glace pour l’étudier en détails, remarque Olivier Grasset. Ganymède possède un océan qui est pris en sandwich entre 2 couches de glaces, tout comme Callisto, Titan, et vraisemblablement les planètes océans. De plus, elle est la seule lune glacée à posséder un champ magnétique propre. »

« C’est une mission de longue haleine et les scientifiques qui exploiteront les données ne seront peut-être pas les mêmes que ceux qui ont conçu les instruments, souligne Richard Bonneville. Il faut donc s’assurer du passage de relais au sein des équipes. » De son côté, Olivier Grasset conclut : « JUICE fera date au même titre que les missions Galileo et Cassini-Huygens, j’en suis persuadé ! »

CNES

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le gène qui augmente les rendements de betteraves à sucre
Jeudi, 24/05/2012 - 06:58

Une équipe européenne de chercheurs a découvert un gène pouvant potentiellement accroître les rendements de betteraves à sucre. Présentés dans la revue Current Biology, les résultats de l'étude indiquent la manière dont le gène B impliqué dans la montaison, l'objet de longues recherches dans la culture de la betterave à sucre, pourrait aider les producteurs de semences à accroître l'efficacité des récoltes en atténuant les contaminations qui réduisent les rendements et pourrait également soutenir les efforts des sélectionneurs de semences visant à créer de nouveaux cultivars donnant des betteraves plus grandes.

Dirigée par des chercheurs de l'université de Kiel en Allemagne et le Centre des sciences végétales d'Umea en Suède, l'équipe a identifié que le gène, appelé BvBTC1, détermine si un plant de betterave fleurira et le moment de sa floraison. Le problème des floraisons précoces, c'est qu'elles arrêtent la croissance des racines de la betterave, ce qui entraîne une réduction des rendements globaux de betteraves à sucre. Cela pose problème aux agriculteurs.

Les Européens reconnaissent le rôle important que joue la betterave à sucre dans l'économie. La betterave sucrière diffère des céréales en ce sens que les graines qui se développent après la floraison ne sont pas récoltées. Seules les racines épaisses qui sont riches en sucre sont utilisées.

Il est courant que les betteraves maritimes, que les spécialistes décrivent comme l'ancêtre sauvage de la betterave à sucre, fleurissent pendant la première année de croissance. La production de betteraves est alors inexistante. Contrairement à la variété sauvage, la betterave à sucre développe une grosse betterave qui est récoltée avant sa floraison, au cours de la deuxième année.

Les agriculteurs européens cultivent habituellement la betterave à sucre du printemps à l'automne. Ils évitent de planter les graines avant l'hiver, parce qu'elles fleuriraient après l'hiver et ne donneraient que de petites racines. Le froid déclenche en effet la floraison de la plante.

«Il était évident que les betteraves sauvages à floraison précoce et les betteraves à sucre domestiques présentaient une différence génétique, avec des implications énormes sur le plan agricole», a déclaré Andreas Müller, chercheur principal à l'Institut de phytogénétique de Kiel. «Nous avons voulu savoir de quelle différence il s'agissait, comment elle a évolué et déterminer si nous pouvions utiliser le gène sous-jacent pour contrôler la floraison et augmenter ainsi le rendement en sucre».

Dans le cadre de leur étude, les chercheurs ont cultivé et évalué l'acide désoxyribonucléique (ADN) de milliers de plantes afin de repérer l'emplacement du gène impliqué dans la montaison. Ils ont ensuite comparé les gènes situés à cet endroit avec les séries génétiques d'autres plantes.

«Nous nous attendions à trouver un gène similaire à celui, souvent étudié, de la plante Arabidopsis thaliana, mais étonnamment, celui que nous avons trouvé était complètement différent», a déclaré Pierre Pin, l'auteur principal de l'étude, un étudiant en doctorat au Centre des sciences végétales d'Umea. «L'étape suivante consistait à vérifier la fonction du gène à l'aide d'une expérience dans le cadre de laquelle le génie génétique permettait de l'inactiver dans les betteraves à sucre. Les plantes n'ont pas fleuri», a-t-il ajouté. «Cette expérience sur la floraison a constitué la preuve définitive que nous avions identifié le gène impliqué dans la montaison de la betterave à sucre».

Commentant les résultats de l'étude, le professeur Ove Nilsson, également de l'institution suédoise, a déclaré: «La caractérisation du gène B impliqué dans la montaison, désormais appelé BvBTC1, et la découverte du rôle clé qu'il joue dans la régulation de la floraison, est une avancée majeure à la fois pour l'industrie sucrière et pour les recherche sur le contrôle de la floraison».

Le professeur Christian Jung de Kiel a qualifié les résultats de révolutionnaires, «parce que le mécanisme génétique qui contrôle la floraison de la betterave à sucre diffère de celui de toutes les autres plantes qui ont été étudiées jusqu'à présent».

Cordis

Le CO2, un polluant d'avenir ?
Mercredi, 23/05/2012 - 07:33

Alors que la technique de capture et de stockage géologique du CO2 fait débat, des chercheurs s’intéressent à d’autres voies de valorisation, chimiques et énergétiques, du dioxyde de carbone. Exemple à l’IFPEN, qui expérimente différents procédés.

On ne le crie pas sur les toits, mais le CO2 est déjà utilisé comme matière première dans certaines industries. Il faut dire que cette exploitation reste marginale, comparée aux 30 Gigatonnes émises chaque année par les activités humaines à l’échelle du globe. Le marché mondial du CO2, qui concerne principalement la chimie (polycarbonates, solvants…) et l’industrie pétrolière, représente un volume inférieur à ce que la France émet annuellement.

Néanmoins, la valorisation directe du gaz à effet de serre s’impose comme une solution d'avenir, en complément de la sobriété énergétique et du stockage géologique du CO2. L’IFP Energies Nouvelles a décidé de financer un programme de recherches sur le sujet. « Le but n’est pas d’éliminer le CO2 », précise Laurent Forti, de la direction scientifique de l’IFPEN, « mais de lui offrir une seconde vie. Ce gaz étant ensuite toujours réémis, sauf dans le cas d’une minéralisation, on se contente d’éviter de consommer un carbone fossile ».

L’organisme de recherche s’intéresse en particulier à deux voies destinées aux secteur de la chimie et de l’énergie :

  • l’électroréduction : c'est le procédé inverse de la pile à combustible, puisqu’il consomme de l’énergie pour fabriquer un composé d’intérêt à partir d’un réactif. A ce stade, l’IFPEN dispose d’une unité pilote pour produire, à partir de CO2 et d’électricité, de l’acide formique, un intermédiaire chimique très répandu dans l’industrie. Les chercheurs travaillent sur le catalyseur métallique pour améliorer le rendement de la réaction ; 
  • la photocatalyse : l’énergie lumineuse et un catalyseur sont utilisés pour dégrader le dioxyde de carbone en produits énergétiques. L’IFPEN passe en revue les catalyseurs à même de réaliser la réaction.

L’IFPEN s’engage enfin sur une troisième voie, qu’il souhaite mener main dans la main avec les industriels. « L’idée est de trouver chez des émetteurs importants de CO2 le gisement le plus intéressant en vue d’une valorisation, de leur apporter notre expertise en termes de génie des procédés, d’analyse économique et énergétique », explique Laurent Forti.

Des partenariats sans doute indispensables pour lever les nombreux verrous économiques et technologiques (rendement, fiabilité, réponses aux standards du marché…) qui subsistent autour de la valorisation du dioxyde de carbone.

Industrie & Technologies

Localisation du gène de la résistance au feu bactérien
Mardi, 22/05/2012 - 17:12

Les nouvelles variétés de pommes doivent nécessairement être mieux armées contre l’agent pathogène du feu bactérien. Dans le monde entier, des équipes travaillent au développement de variétés plus résistantes à cette maladie. Les chercheurs d'Agroscope et de l'EPF de Zurich ont maintenant franchi de concert une étape décisive : la localisation précise du gène de résistance chez la pomme sauvage Malus x robusta 5. Grâce à cette information, les chercheurs pourront trier plus efficacement les plantules porteuses du gène, pour la sélection des futures variétés.

Certaines pommes sauvages se moquent bien du feu bactérien, mais leurs fruits durs ou de la taille d'une cerise ne présentent aucun intérêt pour le commerce de détail. Dans le cadre du projet ZUEFOS (sélection de variétés fruitières tolérant le feu bactérien), les scientifiques d'Agroscope et de l'EPF de Zurich ont étudié la résistance de la pomme sauvage Malus x robusta 5, leurs compétences respectives se complétant de manière idéale.

Les experts d'Agroscope et de l'EPF ont cultivé plus de 2200 lignées de pommes et analysé leurs caractéristiques génétiques. La sensibilité au feu bactérien des plantes sélectionnées a été testée parallèlement à l'analyse génétique. Cette approche a permis aux chercheurs de localiser et de cartographier exactement le gène de résistance. Parallèlement à cette cartographie, des marqueurs moléculaires ont été développés au plus près du lieu de résistance. Ces derniers sont dorénavant utilisés par Agroscope pour sélectionner de manière plus efficace des nouvelles variétés de pomme, qui soient à la fois goûteuses et qui possèdent la résistance de la pomme sauvage Malus x robusta 5. Comme des fanions, les marqueurs signalent en effet quelle plantule contient le gène souhaité et permettent de se passer des tests complexes de sensibilité au feu bactérien. Des résultats intéressants sont déjà visibles, mais il faudra encore près de 10 ans pour achever le développement d'une nouvelle variété de pomme de table.

Financé par l'Office fédéral de l'agriculture, le projet ZUEFOS crée une passerelle entre la science et la pratique avec des partenaires. Dans ce cadre, l'EPF de Zurich et Agroscope ont fait progresser l'identification moléculaire des résistances par la cartographie moléculaire précise de la résistance de Malus x robusta 5, le développement de marqueurs moléculaires proches des lieux de résistance et utilisables en sélection variétale, la cartographie des facteurs de résistance des variétés «Florina» et «Rewena».

Grâce aux marqueurs moléculaires de résistance au feu bactérien, les sélectionneurs peuvent identifier plus facilement les plantes intéressantes.

En outre, les chercheurs ont testé la sensibilité des variétés ascendantes et descendantes à des infections artificielles pratiquées en serre sécurisée. Les variétés robustes sont alors utilisées pour effectuer d'autres croisements. Au début du projet, les sélectionneurs ont choisi leurs propres lignées et/ou des variétés connues pour leur résistance au feu bactérien dans quatre vergers pilotes : Wädenswil ZH, Güttingen TG, Conthey VS et Morges VD. Des candidates intéressantes se profilent déjà. Celles-ci sont maintenant sérieusement mises à l'épreuve, notamment sur un site fortement attaqué par le feu bactérien en 2011, où un verger a dû être entièrement arraché. La qualité des fruits de ces nouvelles spécialités sera soumise à l'avis des spécialistes et des consommateurs.

News CH

Inauguration du plus grand site d'essai de captage de CO2 au monde
Dimanche, 20/05/2012 - 01:10

Le premier ministre norvégien Jens Stoltenberg a inauguré récemment le plus grand site d'essai de captage du CO2 – en partie basé sur la technologie à l'ammoniaque réfrigérée d'Alstom – au Centre Technologique de Mongstad (CTM). En effet, Alstom fait partie des 2 fournisseurs sélectionnés pour construire et tester les installations de captage de CO2, près de Bergen, par les partenaires du CTM, Gassnova, Statoil, Shell et Sasol.

"C'est une étape importante et nous nous réjouissons de participer à cette unité de démonstration de la technologie de captage à l'ammoniaque réfrigérée à Mongstad. Ce qui nous intéresse, au CTM, c'est le fait que notre technologie puisse être testée sur du gaz de combustion provenant d'une centrale au gaz ainsi que sur les fumées de la raffinerie toute proche. Ceci nous permet d'acquérir une expérience précieuse pour améliorer et étendre l'utilisation de cette technologie", a expliqué Patrick Fragman, vice-président des systèmes de contrôle environnemental et des systèmes pour le captage et le stockage du carbone d'Alstom.

Après une phase initiale de démarrage, Alstom et le CTM réaliseront un programme d'opérations et d'essais de 12 à 18 mois qui commencera à l'été 2012. De nouveaux développements et améliorations devraient émerger de cette période d'essai. "Avec l'inauguration du CTM, Alstom joue un rôle vraiment important dans ce développement unique en Norvège et nous sommes convaincus que le centre s'imposera comme référence mondiale avec la réalisation d'unités de captage et stockage CO2", a déclaré Eric Staurset, Président d'Alstom en Norvège.

Enerzine

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un traitement ciblé élimine le cancer de la prostate chez certains hommes
Jeudi, 24/05/2012 - 06:52

Le traitement d'un laboratoire américain a permis d'éliminer totalement ou en grande partie la tumeur cancéreuse chez certains hommes atteints d'une forme de cancer de la prostate à haut-risque de s'étendre, selon un essai clinique publié le 16 mai 2012. Le Zytiga, du laboratoire Johnson & Johnson, qui bloque la production de l'hormone mâle testostérone, était déjà utilisé pour traiter des cancers avancés de la prostate. C'est la première fois qu'il est testé pour des tumeurs de cette glande aux premiers stades de développement, souligne le Docteur Mary-Ellen Taplin de la faculté de médecine de Harvard, principal auteur de cette étude clinique publiée par l'American Society of Clinical Oncology.

Ce type de cancer de la prostate localisé est caractéristique d'hommes dont la tumeur a envahi complètement la glande. Ces malades voient souvent leur tumeur se propager à d'autres organes malgré des traitements agressifs laissant comme seule option une ablation chirurgicale de la prostate. Dans cet essai clinique, les chercheurs ont traité pendant 24 semaines 29 hommes atteints d'un tel cancer avec du Zytiga combiné à du leuprolide qui réduit la production de testostérone via un mécanisme différent. La testostérone stimule la croissance de la tumeur.

Une second groupe témoin de 27 hommes avait pris seulement du leuprolide pendant trois mois, puis du Zytiga et du leuprolide pendant les douze dernières semaines de l'étude. A la fin de l'essai clinique, les hommes des deux groupes ont subi une prostatectomie et les tissus ont été analysés pour déterminer l'étendue du cancer.

Dans le premier groupe, la tumeur cancéreuse avait disparu ou quasiment chez 34 % des hommes contre 15 % dans le groupe témoin. Pour ces patients à haut-risque c'est spectaculaire d'avoir très peu ou pas de cancer détectable dans leur prostate après six mois de traitement avec le Zytiga, a jugé le Docteur Taplin. Elle a aussi jugé lors d'une téléconférence que le Zytiga pourrait éventuellement éviter à certains hommes une opération de la prostate qui peut avoir des effets indésirables comme l'incontinence et des problèmes d'érection. Mais avant cela, il faut mener des essais cliniques plus étendus, a jugé ce médecin. Environ 241.000 nouveaux cancers de la prostate seront diagnostiqués aux Etats-Unis en 2012 et 28.000 hommes en décéderont, selon l'American Cancer Society.

Romandie

NYT

Cancer : ces molécules Dbait qui boostent la radiothérapie !
Jeudi, 24/05/2012 - 06:45

Découvertes à l’Institut Curie en essai clinique, ces molécules Dbait font actuellement l’objet d’un essai clinique de phase 1 chez des patients atteints de mélanome de la peau. En trompant les cellules tumorales, et en leur faisant croire que suite au traitement par radiothérapie, elles sont plus endommagées qu’elles ne le sont réellement, ces molécules Dbait les poussent  à se suicider avant que le tissu sain soit endommagé.

Issu des recherches de l’équipe de Marie Dutreix à l’Institut Curie, il s’agit d’un signal de brouillage à à partir d’une molécule qui répare l'ADN, Dbait, utilisé pour détourner et désorganiser le système de réparation capable de reconnaître et de réparer les coupures double brins d’ADN (double strand break) dans les cellules. L'objectif des molécules Dbait est de compromettre la capacité des cellules cancéreuses à réparer ces coupures causées par les thérapies conventionnelles et donc de rendre à nouveau sensibles les tumeurs résistantes à ces traitements.

"Les mélanomes cutanés résistent généralement à la radiothérapie et si une réduction de nodule a été observé avec l'injection de "Dbait" et la radiothérapie, il encore trop tôt pour se prononcer sur l'efficacité de ce nouveau traitement", souligne pour sa part le cancérologue. Cette "réponse" (diminution d'une tumeur) constitue cependant une preuve de la faisabilité de ce nouveau traitement.

Des essais cliniques de Dbait  ont été menés sur différents modèles de tumeurs en association avec la radiothérapie ou la chimiothérapie, ce 1er essai sur l’Homme ayant été initié en France à l’Institut Curie, au 4ème trimestre 2011. Le principe de cet essai est d’évaluer la sécurité et la tolérance du traitement par Dbait + radiothérapie vs radiothérapie seule, de patients atteints de mélanome de la peau. Les oncologues référents des établissements participant à cet essai vont proposer à leurs patients d’y participer selon des critères très précis et cadrés.

Santé Log

Comment conservons-nous nos souvenirs ?
Jeudi, 24/05/2012 - 01:10

Grâce aux travaux dirigés par le professeur Jean-Claude Lacaille, du Département de physiologie de l'Université de Montréal, les scientifiques possèdent maintenant une meilleure compréhension du mécanisme qui nous permet de tisser des souvenirs précis. « À l'égard des applications chez l'humain, ces découvertes pourraient nous aider à mieux comprendre les problèmes de mémoire liés aux troubles neurodégénératifs comme la maladie d'Alzheimer », a déclaré Monsieur Lacaille. L'étude examine nos cellules cérébrales, ou neurones, et la manière dont elles travaillent ensemble, en groupe, pour former les souvenirs.

Les récepteurs chimiques se situant aux interconnexions neuronales, appelées synapses, permettent à ces cellules de former des réseaux électriques qui encodent les souvenirs, et les neurones sont classés en deux groupes, selon le type de produit chimique qu'ils expriment : excitateurs, pour ceux qui expriment des produits chimiques augmentant la communication entre les neurones, et inhibiteurs, pour ceux qui ont l'effet opposé, soit la diminution de la communication. « Les scientifiques savaient que les cellules inhibitrices nous permettent de raffiner nos souvenirs, pour les rendre propres à un jeu précis de renseignements », a expliqué le professeur Lacaille. « Nos découvertes expliquent pour la première fois comment cela se produit aux niveaux moléculaire et cellulaire. »

Nombre d'études ont été réalisées sur les neurones excitateurs, mais très peu sur les neurones inhibiteurs, en partie parce qu'ils sont très difficiles à étudier. Les scientifiques ont découvert qu'un facteur appelé CREB joue un rôle essentiel dans l'ajustement de l'expression génétique et la force des synapses dans les neurones inhibiteurs. Les protéines sont des composés biochimiques génétiquement codés, qui permettent aux cellules d'effectuer leurs différentes fonctions, et de nouvelles protéines sont nécessaires pour que des souvenirs se forment.

« Nous avons pu étudier comment les synapses des neurones inhibiteurs provenant de rats sont modifiées dans les 24 heures suivant la formation d'un souvenir », a poursuivi Jean-Claude Lacaille. « Dans le laboratoire, nous avons simulé la formation d'un nouveau souvenir à l'aide de produits chimiques. Nous avons ensuite mesuré l'activité électrique au sein du réseau cellulaire. Dans les cellules où nous avions retiré le CREB, nous avons observé que l'intensité des connexions électriques était beaucoup plus faible. À l'inverse, lorsque nous avons augmenté la présence de CREB, les connexions étaient plus fortes. »

Cette nouvelle compréhension du fonctionnement chimique du cerveau pourrait un jour conduire à de nouveaux traitements pour les troubles comme la maladie d'Alzheimer, à mesure que les chercheurs pourront examiner ces mécanismes synaptiques et concevoir des médicaments qui ciblent les processus chimiques qui y contribuent. «Nous savions que les problèmes des modifications synaptiques font partie des causes des symptômes cognitifs dont souffrent les victimes de maladies neurodégénératives», a déclaré le chercheur. «Ces découvertes jettent une lumière sur les fondements neurobiologiques des problèmes de mémoire de ces sujets. Toutefois, nous sommes malheureusement à nombre d'années de la mise au point de médicaments à partir de cette information.»

Université de Montréal

Des scientifiques découvrent le rapport entre la génétique et une maladie des os
Jeudi, 24/05/2012 - 01:00

Une équipe internationale de chercheurs a découvert 32 régions génétiques jamais identifiées auparavant, associées à l'ostéoporose et aux fractures. Présentée dans la revue Nature Genetics, l'étude a identifié que les variations des séquences d'ADN dans ces régions confèrent soit un risque soit une protection contre cette maladie. De nombreuses régions encodent des protéines impliquées dans des voies affectant les os. L'étude a été financée en partie par le projet GEFOS («Genetic factors for osteoporosis»), qui a reçu près de 3 millions d'euros au titre du thème Santé du 7e PC de l'UE.

L'ostéoporose est provoquée par la contribution de dizaines, voire de centaines de gènes. Les résultats indiquent également de nouvelles méthodes de développement de traitements contre la maladie. «Nous découvrons que l'architecture génétique de la maladie est très complexe», commente le Docteur John Ioannidis du Stanford Prevention Research Center aux États-Unis, l'un des auteurs de l'étude.

Dans leur méta-analyse, les chercheurs ont également identifié six régions fortement associées au risque de fracture au niveau du bas du dos ou du fémur. Un total de 17 études d'association génomiques, 180 chercheurs et plus de 100 000 sujets ont participé à cette méta-analyse. Les chercheurs ont découvert que les variantes de 56 régions du génome affectent la densité minérale osseuse (DMO) des sujets, dont 14 contribueraient à augmenter le risque de facture osseuse.

«Bien que la densité minérale osseuse (DMO) n'est pas nécessairement associée au risque de fracture, (en effet, près de 50 % des individus ne souffrant pas d'ostéoporose suite à un diagnostic d'absorptiométrie à rayons X (DXA), souffrent pourtant de fractures), notre étude génétique sur la DMO nous a permis de faire de nombreuses découvertes sur la biologie du squelette humain», commente le professeur Fernand Rivadeneira du Erasmus Medical Center aux Pays-Bas et auteur de l'étude. «Nous avons pu déterminer de nombreux facteurs dans des voies moléculaires essentielles pouvant servir de candidats pour des applications thérapeutiques.»

L'étude suggère que plusieurs voies impliquées dans la santé des os jouent un rôle prédictif dans l'ostéoporose. Le poids, la corpulence et le sexe sont des facteurs communément utilisés pour prédire cette maladie. «Le véritable élément important de notre étude repose sur la capacité de générer des quantités énormes de données et de les analyser dans le cadre d'une étude unique», commente le Docteur Ioannidis. «Nos attentes sont probablement trop élevées en ce qui concerne les accomplissements de l'étude. Chaque équipe a identifié au moins un ou deux marqueurs mais d'autres n'en ont trouvé aucun.»

Cordis

La thérapie génique à l'assaut du vieillissement !
Mercredi, 23/05/2012 - 07:49

En introduisant un gène codant pour une enzyme impliquée dans le vieillissement cellulaire, des chercheurs espagnols ont réussi à prolonger la vie de rongeurs de quelques semaines. Une preuve qu’une telle thérapie serait viable chez des hommes adultes. La thérapie génique est-elle la nouvelle fontaine de jouvence ? Dans des travaux publiés le 15 mai dans la revue EMBO Molecular Medicine, une équipe espagnole du Centre National d'Investigations Oncologiques de Madrid démontre qu'un traitement génétique peut allonger la durée de vie de souris. Les rongeurs, qui étaient âgés d’un an ou deux au moment de l’expérience, ont vécu grâce à lui en moyenne respectivement 24 à 13 % plus longtemps que la normale (autour de trois ans).

Le médicament est un gène codant pour la télomérase, enzyme qui préserve l’intégrité de l’ADN au cours de la division cellulaire. Le gène a été introduit dans les souris en utilisant comme vecteur un virus modifié. Les biologistes n’ont pas vu les effets cancérigènes observés avec des thérapies géniques employées sur des animaux plus jeunes dans d'autres études. Ils ont en revanche mesuré des signes en faveur d’un rajeunissement, comme un renforcement des os, une meilleure coordination musculaire et motrice.

Ces travaux sont potentiellement transférables à l’homme, car la thérapie génique des chercheurs espagnols s'avère utilisable à l'âge adulte. A contrario, les précédents essais visant un allongement de la vie impliquaient de manipuler l'information génétique dès le stade embryonnaire de l'animal, ce qui est beaucoup plus discutable du point de vue éthique.

Néanmoins, avant d'envisager de passer à l’homme, les biologistes devront encore prouver la sûreté et l'efficacité de leur traitement chez des mammifères avec une durée de vie autrement plus longue que des souris.

Industrie & Technologies

CNIO

Vers un test simple et fiable pour prévenir les AVC ?
Mardi, 22/05/2012 - 17:23

Un simple coup de crayon pourrait prédire les risques de rechute chez les personnes âgées déjà victimes d'un premier accident vasculaire cérébral (AVC), selon une étude suédoise. Interruption de l'irrigation d'une partie du cerveau provoquée par un caillot ou hémorragie cérébrale, rares sont les AVC qui préviennent. Des chercheurs suédois de l'université d'Uppsala ont donc mis au point un test de dessin, capable de révéler des dysfonctionnements des vaisseaux sanguins dans le cerveau et donc de prédire les risques de rechute après avoir eu un premier infarctus, d'après leur étude publiée récemment dans le British Medical Journal.

Pendant 14 ans, les chercheurs ont mis à l'épreuve 1000 hommes en bonne santé âgés de 65 à 75 ans. Comme ces jeux pour enfants qui consistent à relier des numéros entre eux pour former un dessin, les participants devaient tracer des lignes entre des points numérotés dans l'ordre croissant et le plus rapidement possible pour évaluer leur vitesse psychomotrice. A la fin de ce test appelé «trail making test», les hommes se voyaient attribuer une note entre 0 (le plus mauvais résultat) et 30 (le meilleur). Les volontaires ont aussi passé plusieurs tests cognitifs pour évaluer leur niveau de mémorisation, leur capacité de calcul et leur sens de l'orientation.

Résultat : Entre 1991 et 2006, 155 hommes ont eu un AVC, dont 22 sont décédés dans le mois qui suivait leur attaque et 84 autres dans un délai de deux ans et demie. En comparant leurs résultats respectifs, les chercheurs ont découvert que ceux qui avaient obtenu un faible score étaient trois fois plus susceptibles de mourir que ceux qui avaient obtenu des scores élevés.

«C'est une étude intéressante car elle suggère qu'il peut y avoir des changements précoces dans le cerveau, susceptibles d'annoncer un accident vasculaire cérébral», a déclaré le Docteur Clare Walton, de l'association anglaise des AVC (stroke association) à la BBC. «Certes, il s'agit d'une petite étude et nous ignorons pourquoi certaines personnes ont plus de mal à dessiner que d'autres, reconnaît le médecin. Mais nous savons que cette tâche, si elle est difficile à effectuer, souligne le risque d'un AVC grave ou mortel et peut permettre à la personne de bénéficier de traitements préventifs», poursuit-elle.

Le Docteur Bernice Wiberg, l'auteur principal de l'étude, ajoute que «ces tests sont très simples, peu coûteux et facilement accessibles pour une utilisation clinique. Ils pourraient compléter les tests déjà mis en place avec cet avantage de pouvoir prédire un risque de mortalité imminente». Chaque année, 130.000 nouvelles personnes sont victimes d'AVC en France. Après la survenue d'un premier AVC, le risque de récidive est important et est estimé entre 30 et 43 % dans les cinq années qui suivent.

Fait intéressant : entre 2002 et 2008, le taux d'AVC a sensiblement diminué pour les plus de 65 ans puisqu'il est passé de 674 pour 100.000 habitants en 2002 à 630 pour 100.000 en 2008 (-6,6 %). La même tendance a été observée dans d'autres pays, par exemple aux États-Unis ou en Écosse. Le résultat est d'autant plus remarquable que l'on classe maintenant dans les AVC des accidents qui étaient auparavant considérés comme moins graves, les accidents ischémiques transitoires (AIT).

Le Figaro

BMJ

Des chercheurs établissent une cartographie génétique de la schizophrénie
Samedi, 19/05/2012 - 08:15

Des chercheurs aux États-Unis viennent d’annoncer qu’ils ont établi une cartographie génétique de la schizophrénie, ce qui pourrait permettre un meilleur diagnostic et traitement de ce trouble mental grave qui affecte 24 millions de personnes dans le monde (chiffres 2011 de l'OMS). «Nous avons décrypté le code génétique de la schizophrénie en identifiant beaucoup de gènes impliqués et leur façon de travailler ensemble pour produire la maladie», explique à l'AFP Alexander Niculescu, chercheur à Indianapolis qui travaille pour l'Indiana University School of Medicine.

«En comprenant mieux les bases génétiques et biologiques de la maladie, nous pouvons développer de meilleurs tests et aussi de meilleurs traitements», ajoute ce psychiatre qui signe un article publié dans la revue spécialisée Molecular Psychiatry (groupe Nature).

Une future étape consisterait à établir des tests génétiques permettant de déterminer si un enfant avec des ascendants schizophrènes risque effectivement de développer la maladie pour, si tel est le cas, lui proposer un suivi médical particulier, explique le chercheur.

La schizophrénie est une psychose grave, survenant chez le jeune adulte, caractérisée par la désagrégation de la personnalité et par une perte de contact avec la réalité. Elle se manifeste par des épisodes aigus de psychose, pouvant inclure hallucinations et délire, et divers symptômes chroniques se traduisant par des troubles affectifs, intellectuels et psychomoteurs.

Les causes de cette affection complexe restent controversées mais cette maladie est considérée comme au moins partiellement héréditaire. Ainsi si les deux parents sont atteints, le risque pour l'enfant de devenir schizophrène est évalué entre 40 et 68 %.

Des chercheurs canadiens avaient mis en évidence en 2010 le rôle de mutations génétiques pouvant prédisposer certaines personnes à la schizophrénie.

Cyberpresse

Méningite à méningocoques B : un vaccin pour demain ?
Vendredi, 18/05/2012 - 17:19

Infection bactérienne entraînant une raideur de la nuque, de la fièvre, des courbatures, des maux de tête et une photophobie, la méningite à méningocoques B touche principalement les enfants en bas âge. Elle peut laisser dans certains cas de graves séquelles neurologiques et parfois être mortelle. En 2010, en France, 364 personnes ont été atteintes par cette maladie et 37 ont succombé de ces suites, soit 10 % des malades.

Face à cette maladie particulièrement contagieuse et handicapante, Peter Richmond et ses collègues de l’Université de Western Australia ont mis au point un vaccin préventif. Testé sur 539 adolescents, ce dernier a montré des réponses immunitaires, qui laisse penser qu’il protégerait l’organisme de 80 à 100 %. Par ailleurs, le vaccin serait plutôt bien toléré et ne serait à l’origine que d’effets secondaires bénins. Seul un jeune patient aurait été victime d’une réponse sévère entraînant de forts maux de tête et des vomissements, ayant nécessité tout de même une hospitalisation de 24 heures.

Devant ces premiers résultats très encourageants, les chercheurs australiens travaillent déjà à la mise en place d’essais cliniques de plus grande envergure. Selon toute vraisemblance, le vaccin pourrait être commercialisé dans moins de 5 ans…

Information Hospitalière

Les hormones thyroïdiennes régulent les cellules souches neurales
Vendredi, 18/05/2012 - 17:14

Les hormones thyroïdiennes sont essentielles pour le développement du cerveau. Une insuffisance en ces hormones est cause de crétinisme. Ceci illustre un des nombreux effets joués par les hormones thyroïdiennes et ce, à différentes étapes fondamentales du développement, notamment lors de la métamorphose des amphibiens et de la période périnatale chez les mammifères. Les troubles thyroïdiens atteignent 1 à 5 % de la population (une femme sur huit). Plusieurs processus clés dépendants des hormones thyroïdiennes lors du développement du cerveau, telles la neurogenèse et la plasticité synaptique, persistent chez l'adulte. S'ils touchent essentiellement des personnes adultes, les connaissances sur le rôle des hormones thyroïdiennes dans la physiologie du cerveau mature sont cependant parcellaires.

Chez l'humain adulte, des problèmes de thyroïde peuvent affecter la mémoire et l'humeur. Chez les mammifères, un défaut de neurogenèse peut également être associé à des troubles cognitifs. Les scientifiques du laboratoire « Évolution des régulations endocriniennes » ont ainsi analysé les liens entre les hormones thyroïdiennes et la neurogenèse chez la souris adulte. Ils ont pu démontrer que l'expression d'un gène clé, Sox2, impliqué dans la physiologie des cellules souches neurales, est directement régulée par les hormones thyroïdiennes dans une des niches neurogéniques du cerveau adulte. En effet, la T3, forme active des hormones thyroïdiennes, agit via le récepteur TRa1 dans les progéniteurs neuraux. Cette action favorise la prolifération et la différenciation des cellules souches neurales.

Les hormones thyroïdiennes engagent les cellules souches neurales adultes vers la différenciation. Trois types cellulaires majoritaires sont présents dans la niche neurogénique du cerveau de mammifère adulte : les cellules souches, les cellules progénitrices et les neuroblastes qui migrent vers les bulbes olfactifs. Les hormones thyroïdiennes (T3 via leur récepteur TRα1) répriment l'expression du gène Sox2, impliqué dans la prolifération des cellules souches, et engagent ainsi les progéniteurs à donner des neuroblastes. Ces travaux devraient à terme permettre de mieux comprendre les pathologies cognitives associées à un déficit en hormones thyroïdiennes chez l'homme.

CNRS

Le séquençage à haut débit pour un meilleur diagnostic des maladies neuromusculaires
Vendredi, 18/05/2012 - 17:01

Le séquençage à haut débit devrait être rapidement adopté pour diagnostiquer l’origine génétique des maladies neuromusculaires. Les chercheurs de l’Institut de génétique et de biologie moléculaire et cellulaire de Strasbourg (Unité Inserm 964) ont validé la technique chez plusieurs patients : elle est au moins aussi efficace, plus rapide et moins coûteuse que le mode actuel de séquençage gène par gène.

Le séquençage à haut débit a de beaux jours devant lui pour diagnostiquer les maladies d’origine génétique. C’est notamment le cas pour les maladies neuromusculaires, un vaste ensemble de près de 200 pathologies affectant les nerfs et les muscles (myopathies, dystrophies, maladie de Charcot-Marie-Tooth, sclérose latérale amyotrophique, certaines paraplégies, etc). Au total, l’ensemble de ces maladies affecte environ une personne sur trois mille dans le monde. Les manifestations cliniques de ces maladies sont très hétérogènes mais elles ont en commun leur origine génétique.

Les progrès effectués au cours de ces dernières années ont permis d’identifier au moins 267 gènes en cause. A ce jour, le diagnostic repose sur des examens cliniques, des tests complémentaires parfois invasifs comme des biopsies et le décodage de l’ADN des patients gène par gène, jusqu’à trouver celui en cause dans la maladie. Ensuite seulement, les médecins peuvent appliquer les traitements les plus adaptés. Mais cette technique de "gène par gène" est très longue, près de deux mois par gène candidat, et s’avère infructueuse pour la moitié des patients.

A ce titre, une équipe de l’Inserm a testé le séquençage à haut débit pour accélérer et améliorer le diagnostic moléculaire. Les chercheurs ont constitué deux groupes de patients atteints de maladies neuromusculaires diverses. Pour l’un des deux, les mutations en cause étaient déjà connues et pas pour l’autre. "Nous nous sommes placés en situation réelle de diagnostic de routine en partant de cohortes très hétérogènes", clarifie Jocelyn Laporte, coauteur des travaux (Inserm 964 - IGBMC Strasbourg). A partir d’un échantillon sanguin, les 267 gènes connus à ce jour ont été analysés simultanément avec une machine de séquençage à haut débit. Les résultats ont permis de retrouver toutes les mutations connues pour le premier groupe et d’identifier celles en cause pour la moitié des patients du second groupe, soit un résultat tout à fait satisfaisant selon les auteurs. Le tout, en deux mois à peine et pour un coût bien inférieur à celui de la technique actuelle du "gène par gène".

"Nous avons apporté la preuve de principe que le séquençage à haut débit de l’ADN permet d’accélérer grandement la caractérisation des causes génétiques des maladies neuromusculaires", explique Jocelyn Laporte. Utilisée en routine et dans les premières étapes du diagnostic, cette technique permettra aux patients d’accéder à un traitement plus précoce et plus adapté, quitte à confirmer le diagnostic avec des examens complémentaires ciblés. Elle favorisera également un conseil génétique plus rapide auprès des familles ou encore l’intégration de groupes de patients dans des essais cliniques", illustre-t-il.

INSERM

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Honda présente une technologie qui détecte les risques d'embouteillage !
Lundi, 21/05/2012 - 01:00

Honda Motor Co Ltd a annoncé le développement réussi, en première mondiale, d'une technologie qui détecte les risques d'embouteillage et détermine si le mode de conduite du véhicule est susceptible de créer des congestions du trafic. Honda a développé cette technologie tout en admettant que le comportement d'accélération/décélération d'un seul véhicule influe sur la circulation de l'ensemble des véhicules en file et peut provoquer un bouchon.

En collaboration avec le Centre de Recherche des Sciences et Technologie avancées de l'Université de Tokyo, Honda a effectué les essais expérimentaux d'une technologie capable de détecter les risques d'embouteillage. D'après les résultats, le système fait augmenter la vitesse moyenne d'environ 23 %, améliore la consommation des véhicules en convoi d'environ 8 % et diminue aussi clairement les émissions de CO2.

A des fins de future commercialisation, Honda va dès à présent entamer les premiers essais routiers de cette technologie, respectivement en mai en Italie et en juin en Indonésie, pour vérifier l'aptitude du système à réduire les embouteillages.

Plutôt que de donner au conducteur des informations pour l'aider à éviter les encombrements en se fiant aux infos-trafic, le système surveille les paramètres d'accélération/décélération du véhicule pour déterminer si le comportement du conducteur risque ou non de provoquer un bouchon. En se fondant sur cette détermination, le système fournit au conducteur les informations adéquates qui s'affichent selon un code de couleurs sur le terminal embarqué, pour l'inciter à adopter une conduite coulée qui limitera le phénomène de circulation en accordéon et contribuera ainsi à éviter ou résorber les congestions de trafic.

En outre, l'effet bénéfique de la réduction des encombrements et de la baisse de la consommation pourra être encore amélioré en connectant les terminaux embarqués à des serveurs en réseau (cloud) pour sensibiliser le conducteur au comportement des véhicules en amont et lui permettre de se synchroniser avec eux, en activant au moment opportun le régulateur ACC (Adaptive Cruise Control) pour maintenir l'écart de distance constant le plus approprié entre les véhicules.

Boursier

Taxicol : un projet de véhicule modulaire électrique entre taxi, tramway et bus hybride
Samedi, 19/05/2012 - 07:47

Nous sommes en 2017 et vous patientez à un arrêt Taxicol. Alors que votre smartphone affiche 15h15, les horaires officiels indiquent que le prochain passage n’est prévu qu’à 16h. Vous décidez alors d’appuyer sur un bouton d’appel placé sur l’abribus. Dix minutes plus tard, un petit module vitré, sans chauffeur, s’arrête à votre arrêt. Science-fiction ? Non, c’est l’ambition de la société Exid Assistance aux projets.

Projet de véhicule roulant, Taxicol se présente sous la forme d’une module doté d’une capacité de 22 personnes, autonome en énergie, sans chauffeur, et qui peut se lier à d’autres modules pour former une chaîne (jusqu’à 110 passagers). Les innovations majeures du système résident dans le module, mais aussi dans un système innovant d’appel : un « taxi-tram » à la demande pour les usagers. Il est ainsi possible de pré-réserver une place à bord d’un Taxicol via une application ou même d’appeler directement un module lorsqu’on est en phase d’attente. Ce système d’appel constituerait un outil statistique et prévisionnel idéal pour l’exploitant qui - en ajustant au mieux le nombre de modules en fonction de la fréquentation - augmenterait alors la satisfaction des usagers et diminuerait la consommation énergétique de sa flotte.

En termes d’infrastructures, une simple bande peinte au sol sur une voie réservée permet au véhicule de s’auto-diriger par guidage optique. Couplé à un système GPS et une boucle radio, le Taxicol peut également franchir, seul, des obstacles routiers existants comme des carrefours, feux et autres voies en ville. « Le coût d’infrastructure est considérablement réduit. Il n’est pas nécessaire d’installer des caténaires ou des rails explique Régis Coat, dirigeant de la société EXID Assistance aux projets. Le coût est équivalent à celui d’une piste cyclable. »

Le projet Taxicol se présente comme un véritable concentré d’innovations. La carrosserie et le châssis sont ainsi en fibre de lin - plutôt qu’en fibre de carbone ou de verre – afin de soutenir une nouvelle filière agricole et industrielle en France. De plus, les stations de recharge - placées au dépôt mais aussi tout au long du parcours du Taxicol - rechargeront les batteries des modules par induction. Elles seront également équipées d’éoliennes et de panneaux photovoltaïques.

Sur le toit de chaque module, des panneaux photovoltaïques supplémentaires permettront d’alimenter le système de chauffage et climatisation, l’éclairage ainsi que la signalétique à l’intérieur. Enfin, pour la propulsion, le moteur électrique sera soutenu par un moteur d’appoint au bioéthanol qui ne servira qu’à franchir certaines pentes, et à prolonger l’autonomie du module. Là où un bus classique consomme 50L/100km, un bus hybride 23L/100km, Taxicol ne devrait ainsi consommer que 2L/100km (calculé sur un trajet de 200km).

Taxicol est né avec le soutien de plusieurs institutions et notamment celui du Conseil Général des Yvelines qui l’a récompensé dans le cadre de l’appel à projet « véhicule intelligent - ville du futur ». Ces partenaires institutionnels subventionnent le projet à hauteur de 25 %, le reste est investi par la société Exid. Le budget prévisionnel de construction et d’exploitation d’une flotte de Taxicol devrait être bientôt dévoilé. « Aujourd’hui, on peut comparer les coûts d’infrastructure à ceux d’un bus hybride, Taxicol offre des coûts d’exploitation en moins et  la modularité en plus avance Régis Coat . Le système Taxicol sera également économiquement compétitif par rapport à une solution de tramway sur rails ou tramway sur roues.»  Comptez 2 à 5 millions par kilomètre pour Taxicol contre 25 millions par kilomètre en moyenne aujourd’hui pour un système de tramway.

Cleantech

Bientôt des dirigeables pour le transport de fret ?
Samedi, 19/05/2012 - 01:00

Plus lourd que l'air, plus léger qu'un avion, le V901, qui s'apprête à faire son premier vol ambitionne de redonner ses lettres de noblesse au dirigeable, à des fins de transport de fret dans les zones peu peuplées. Et envisage, à plus long terme, le transport de marchandises à l'hydrogène pour l'après-pétrole. Alain Bernard, qui dirige la société d'investissement New York Finance Innovation (NYFI), est un éclectique. Il a récemment financé à travers la société Modulowatt le développement d'un démonstrateur pour un système de recharge pour véhicules électriques, innovant à la fois sur le plan technologique et en termes de modèle économique.

Mais il s'intéresse également à un type de transport encore plus étonnant : les dirigeables. Pas tout à fait ceux qui ont connu leur heure de gloire au début du vingtième siècle et dont les faiblesses (sensibilité aux aléas climatiques, inaptitude aux altitudes élevées, etc.) ont peu à peu conduit à la quasi-disparition. Encore utilisés à des fins publicitaires, par des photographes, des amateurs de tourisme aérien ou des scientifiques, ils sont en tout cas inaptes au transport de charges lourdes.

Comme les grands industriels (Aeros, Lockheed Martin et Hybrid Air Vehicles, Northrop Grumann), qui s'intéressent à la nouvelle génération de dirigeables, Alain Bernard travaille sur une machine hybride, alliant les performances aérodynamiques et aérostatiques de l'avion et du dirigeable.

Il s'intéresse à Voliris depuis sa création en 2001 par les Theuveny père et fils et recapitalise l'entreprise en 2008 pour financer le développement du V901. De forme plus allongée que le dirigeable classique, et trilobé (composé de trois parties), il est plus manoeuvrant qu'un dirigeable classique et plus lourd que l'air, ce qui doit lui conférer une capacité d'emport importante.

Depuis 2009, Voliris est engagé dans un programme de recherche baptisé DGV2, pour Dirigeable Grande Vitesse et Géométrie Variable. Le prototype qui doit effectuer son premier vol prochainement, depuis l'aérodrome de Moulins (Allier) constitue la première étape d'un projet labellisé par le pôle de compétitivité PEGASE, qui vise la réalisation d'un démonstrateur de 15.000 mètres cubes. Celui-ci doit être capable de transporter un container de 32 tonnes. Voliris vise la desserte de régions à faible densité de population, difficilement accessibles à bas prix par mer, par rail ou par route, comme l'Afrique. 

Si dans un premier temps le V901 volera au diesel et à l'hélium, à terme l'objectif est plus ambitieux encore. Il s'agit en effet de préparer l'intégration de l'hydrogène, utilisé à la fois pour la portance et la propulsion. Conscients des risques associés à l'inflammabilité de l'hydrogène, Daniel Bernard imagine des ponts aériens grâce à des navettes "dronisées", fonctionnant sans pilote. Si le coût de développement du premier aéronef est évalué à quelque 300 millions d'euros, le prix visé est d'un euro par tonne/kilomètre.

La Tribune

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top