RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 602
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 16 Juin 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Affiner les sensations de texture pour améliorer l'usage des écrans tactiles
Internet considéré comme un accélérateur de croissance
Steve Jobs sur scène pour présenter iCloud
Matière
Soleil en Tête s'engage dans le « froid solaire » avec le soutien du CEA à l’INES
Actionner les équipements sans fil et sans pile
Pioneer connecte ses autoradios à Internet
Le méthane, une future matière première ?
Espace
La Nasa a lancé Aquarius, un satellite qui mesure la salinité des océans
Terre
Les émissions de CO2 ont atteint un niveau record en 2010
Des satellites pour mieux comprendre la pluie au Sahel
Vivant
Polyarthrite rhumatoïde : le renouveau thérapeutique
Maladies hormonales : une enzyme majeure, la protéine kinase A en cause
Mélanome : des chercheurs dévoilent les mécanismes à l'origine de l'échec des chimiothérapies
Une étude découvre le bouclier protecteur contre la surinfection du paludisme
Un milliard de personnes handicapées dans le monde
Recherche
Le trafic routier en temps réel grâce au réseau de téléphonie mobile
Les bateaux du futur marieront technologies vertes et nucléaire
Edito
Cancer : des avancées majeures



Malgré l’impression implacable qui nous submerge quand un être cher disparaît, emporté par le sale crabe, c’est un vent d'optimisme et d'espoir qui a soufflé cette année à l'occasion du grand congrès mondial de cancérologie (ASCO 2011) qui s'est tenu à Chicago du 4 au 8 juin. Sans vouloir être exhaustif, voici les annonces les plus encourageantes faites pendant cette rencontre qui réunissait les meilleurs spécialistes et chercheurs en matière de cancer.

S'agissant du cancer colorectal métastatique, l'agent expérimental Zaltrap (aflibercept), également connu sous le nom de VEGF Trap, améliore significativement la survie des patients atteints. Dans le traitement du mélanome, pour la première fois, deux médicaments ont permis, chacun de leur côté, d'augmenter la survie des malades souffrant de formes métastatiques. Ces deux nouvelles molécules porteuses d'espoirs agissent de façon complètement différentes. La première, le vemurafenib, développé par les laboratoires Roche, cible une mutation d'un gène appelé Braf.  En présence de cette anomalie génétique, présente dans 50 % des mélanomes, les cellules tumorales ont une croissance plus rapide. Le vemurafenib avait obtenu des résultats préliminaires prometteurs chez des malades porteurs de la mutation Braf. Ces promesses se confirment dans une étude de phase 3 (dernière étape avant la commercialisation) portant sur 675 patients qui ont reçu soit le traitement ciblé, soit de la dacarbazine. Avec un recul de quelques mois, le vemurafenib a diminué de 63 % la mortalité par rapport à la chimiothérapie, et il a permis un allongement notable de la survie sans progression de la tumeur. La seconde, l'ipilimumab (laboratoires Bristol-Myers Squibb) est un anticorps monoclonal qui stimule certaines cellules immunitaires pour aider l'organisme à éliminer les cellules cancéreuses.

Autre avancée : une étude de phase II a montré que la polythérapie Abraxane, gemcitabine et bévacizumab en traitement de première ligne des patients atteints de cancer du sein métastatique augmentait le taux de survie sans progression de 81 % à 6 mois. Toujours dans le domaine du cancer du sein, c'est une véritable révolution qui se dessine en matière de prévention : une étude publiée par le New England Journal of Medicine vient de révéler que l'Aromasine, un anti-oestrogène, réduit de 65 % le risque de cancer de sein ou de récurrence chez les femmes ménopausées. D'après les analyses menées par le docteur Paul Goss, professeur à la faculté de médecine de Harvard et principal auteur de cette étude, l'Aromasine, qui permet de mettre fin à la production d’œstrogènes, entraînerait une réduction de 65 % du risque de cancer de sein chez les femmes ménopausées. Des résultats qui pourraient avoir de profondes retombées lorsqu'on sait que "1,3 million de femmes dans le monde sont diagnostiquées annuellement comme souffrant d'un cancer du sein et que près de 500.000 en meurent", a souligné le professeur. Selon les résultats de l'essai clinique, "l'Aromasine (exémestane) est une nouvelle approche prometteuse pour empêcher le cancer du sein de survenir chez les femmes ménopausées présentant le plus gros risque d'être affectées par cette maladie", a ajouté le docteur Paul Goss.

Dans le domaine du cancer de la prostate, Celgene International Sàrl a annoncé les résultats d'une étude expérimentale de phase II de REVLIMID (lénalidomide) administré en association à Avastin (bévacizumab), au docétaxel et à la prednisone, chez des patients atteints de cancer de la prostate métastatique résistant à la castration. Au moment de la présentation, 46 des 51 patients prévus étaient inscrits à l'étude. Le taux de réponse global de l'ASP était de 86,4 % (38 patients sur 44). Plus de 70 % des patients (31 sur 44) ayant participé à l'étude ont constaté une réduction de l'ASP d'au moins 75 %. Sur 24 patients présentant des symptômes mesurables de la maladie, le taux de réponse global évalué par les critères RECIST était de 87,5 %, dont une réponse complète, 20 réponses partielles et 3 patients ayant atteint un stade stable.

Au cours de ce congrès, ont également été présentées plusieurs nouvelles familles très prometteuses de molécules anti-cancéreuses. La société Niiki Pharma a notamment présenté les données provisoires de l'étude clinique de phase I présentement en cours pour son produit principal, le NKP-1339. Le NKP-1339 est un composé anticancéreux novateur à base de ruthénium et ciblant la transferrine. Les cibles intracellulaires du NKP-1339 incluent le GRP78, un régulateur important dans la transformation de protéines mal repliées. Lors d'études précliniques, in vivo et in vitro, une activité a été démontrée contre plusieurs types de tumeur, y compris ceux qui sont résistants à d'autres agents anticancéreux.

Une autre molécule mise au point par une équipe de l'Inserm au Centre de recherche en biochimie macromoléculaire (CNRS/Université de Montpellier 1 et 2) permettrait de pallier les phénomènes de résistance développés lors de certaines chimiothérapies. La molécule UA62784 serait capable d'empêcher in vitro la prolifération des cellules cancéreuses et de provoquer ainsi leur mort cellulaire. Son effet amplifierait celui d'autres molécules anti-cancéreuses actuellement utilisées cliniquement. Cette molécule bloque la division des cellules cancéreuses, et les oriente majoritairement vers la mort cellulaire. Des expériences complémentaires ont montré qu'associée à d'autres molécules déjà utilisées cliniquement en chimiothérapie, UA62784 peut amplifier leur action. Enfin, les doses efficaces d'UA62784 sont beaucoup plus faibles que celles administrées avec les médicaments actuels. Traiter avec cette molécule permettrait donc de diminuer l'apparition de résistance aux chimiothérapies.

Mais au-delà de ce congrès, les prochaines avancées majeures attendues à moyen terme en matière de cancérologie viendront sans doute des nanotechnologies et le CNRS est en pointe dans ce domaine de recherche visant à utiliser des "nanovecteurs" pour combattre le cancer. La première équipe, du Centre de recherche en automatique de Nancy (Cran) et du Centre de lutte contre le cancer Alexis-Vautrin, expérimente des nanoparticules capables de détruire les tumeurs cérébrales grâce à la thérapie photodynamique : « Cette stratégie thérapeutique consiste à injecter au patient une molécule photo-activable qui, en présence de lumière, réagit avec l’oxygène moléculaire présent dans les tissus. Il se forme alors des espèces réactives de l’oxygène, qui détruisent les tissus cancéreux ciblés », explique Muriel Barberi- Heyob, chercheuse au Cran. Les nanoparticules utilisées ont une taille inférieure à 10 nanomètres et sont composées de trois éléments. Elles possèdent tout d’abord, greffés à leur surface, des peptides ciblant un récepteur surexprimé par les vaisseaux sanguins qui nourrissent les tumeurs agressives, où les nanoparticules vont ainsi s’accumuler. Elles possèdent également un agent de contraste, molécule permettant de les repérer à l’aide d’une IRM et d’obtenir ainsi une image en Fichiers communs de la tumeur afin de guider une fibre optique jusque dans la zone malade.

Avec ces deux constituants, tout est prêt pour commencer la thérapie photodynamique : la fibre optique apporte la lumière à la molécule photo-activable qui, par l’intermédiaire des espèces réactives de l’oxygène produites, détruit les vaisseaux sanguins cancéreux. La tumeur, privée de nutriments et d’oxygène, est alors en théorie sérieusement mise à mal. Pour le moment, ces recherches en sont encore au stade de l’expérimentation animale.

La seconde équipe, du Laboratoire de chimie des polymères organiques (LCPO), à Bordeaux, travaille à la conception de vecteurs intelligents, véhicules capables de transporter une drogue anticancéreuse et de la libérer dans la tumeur. « En ciblant très précisément la tumeur, on peut considérablement réduire les effets secondaires des chimiothérapies », explique Sébastien Lecommandoux, chercheur au LCPO. Les vecteurs confectionnés par les chercheurs sont des nanoparticules d'une centaine de nanomètres composées de polymères capables de transporter toutes sortes de molécules actives. Ils contiennent aussi des nanoparticules magnétiques d’oxyde de fer, dont le rôle est de guider à l’aide d’un aimant jusque dans la tumeur.

On voit donc qu'à coté des grands outils thérapeutiques "classiques" utilisés contre le cancer, chirurgie, chimiothérapie, immunothérapie et radiothérapie qui ne cessent de faire des progrès et d'être associés et combinés de manière toujours plus efficace, les nanotechnologies, associant physique, chimie et biologie, vont permettre de disposer de nouveaux et puissants moyens de lutte contre les cancers. Dans ce contexte scientifique, il est capital que notre pays, qui a la chance de posséder des équipes de recherche remarquables dans ces domaines d'avenir, intensifie son effort global de recherche fondamentale pour développer ces outils et technologies de rupture qui permettront demain de remporter des victoires décisives contre ce fléau.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Affiner les sensations de texture pour améliorer l'usage des écrans tactiles
Jeudi, 16/06/2011 - 10:54

Améliorer les sensations de toucher avec les interfaces tactiles serait possible si la surface des écrans offrait aux utilisateurs un réalisme plus poussé quant aux interactions entre le doigt et l'écran. Pour répondre à cette problématique, un groupe de chercheurs canadiens, américains et néo-zélandais s'est penché sur ce que l'on appelle les frictions programmables. Une méthode qui permet de paramétrer un caractère "adhérent" ou "rugueux" à l'écran, afin de sentir plus de sensations. L'écran ne serait à proprement dit pas collant puisque c'est un système de vibration qui lui donnerait cette nouvelle texture, adaptée et réactive aux actions d'un utilisateur. Pour mettre en places leurs hypothèses, les chercheurs ont mis au point un prototype d'écran composé de deux couches superposées et d'une série de capteurs.

La première couche est une dalle LCD classique tandis la seconde est composée d'actionneurs piézoélectriques, qui sont des micro-éléments convertissant un signal électrique en signal mécanique. Enfin, une série de capteurs de position, installés le long de l'écran, permettent de repérer les mouvements des doigts sur un appareil. Ce dispositif permet par la suite de créer un calque d'air invisible entre le doigt et l'écran, actionné et modifié en fonction de la position du doigt par des vibrations à hautes fréquences dispensées par les actionneurs piézoélectriques. Ce sont ces vibrations qui donneront une sensation de texture. Une fois la technologie développée, les chercheurs ont souhaité l'appliquer à de réelles expériences, comparables à l'utilisation des smartphones tactiles.

A titre d'exemple, ils ont utilisé le réglage d'un réveil, qui s'effectue par un défilement vertical des heures et minutes. Habituellement, un iPhone est en mesure de vibrer si on pose l'écran dessus, mais dans le cas présent, les frictions s'accroissent au fur et à mesure que l'utilisateur fait glisser sont doigt sur l'écran, et en fonction de la vitesse à laquelle il fait tourner la roue. Une sensation de glissement ou de dureté est donc perçue dans le doigt, améliorant ainsi l'interaction entre un usager et son téléphone. A noter que les chercheurs ont fait tester leur trouvaille par des potentiels utilisateurs, qui affirment préférer ce type de toucher, car cela permet plus de réalisme, et réduit la dépendance de la vision sur le téléphone, car la sensation tactile est plus intuitive.

L'Atelier

Internet considéré comme un accélérateur de croissance
Jeudi, 16/06/2011 - 10:46

Deux milliards de personnes utilisent aujourd'hui Internet dans le monde, rapporte McKinsey dans une étude publiée à l'occasion du forum e-G8 et dédiée aux chiffres du marché de l'Internet. Selon le cabinet, ces utilisateurs ont généré jusqu'à plus de 8 000 milliards de dollars sur les sites marchands en ligne en 2010. Dans l'ensemble des pays qui ont été étudiés pour l'occasion, Internet représente en moyenne 3,5 % du Produit national brut (PNB). Ce chiffre atteint même plus de 6 % en Suède, ou au Royaume-Uni. Internet a notamment permis d'augmenter fortement la productivité du travail.

Ce sont surtout les Petites et moyennes entreprises (PME) qui ont su tirer profit de son déploiement puisque qu'elles ont ainsi augmenté leur productivité d'environ 10 %. De plus, celles qui l'utilisent ont en moyenne plus que doublé leur chiffre d'affaire et leurs exportations. Plus largement, bien que l'étude souligne que beaucoup d'emplois ont été détruits avec l'arrivée de cette technologie, environ 500 000 ces 15 dernières années, cette technologie a cependant permis de créer plus de 1,2 millions de nouveaux postes. Cela représente donc près de trois emplois créés pour un de perdu.

Le cabinet McKinsey insiste également sur le fait que la maturité du marché est corrélée avec l'amélioration du niveau de vie. En effet, d'après leur rapport, ces quinze dernières années, le web aurait permis de faire augmenter, dans l'ensemble des pays étudiés, de près de 500$ le PIB par tête. Pour obtenir des proportions similaires, il a fallu attendre environ 50 ans aux XIXème siècle. Le surplus net généré pour le consommateur final grâce à l'utilisation d'Internet est estimé par exemple à environ 13 euros par mois en Allemagne et 20 euros au Royaume-Uni.

L'Atelier

Steve Jobs sur scène pour présenter iCloud
Vendredi, 10/06/2011 - 06:56

Le directeur général d'Apple a présenté le nouveau service de stockage en ligne du groupe d'électronique et d'informatique, permettant aux détenteurs de terminaux mobiles Apple d'avoir accès à leur bibliothèque musicale.

Steve Jobs a une nouvelle fois créé l'événement. Le directeur général d'Apple a fait une rare apparition lundi 6 juin pour présenter l'iCloud, le nouveau service de stockage en ligne du groupe d'électronique et d'informatique, permettant aux détenteurs de terminaux mobiles Apple d'avoir accès à leur bibliothèque musicale.

Revenant sur le devant de la scène pour seulement sa deuxième sortie publique depuis son congé maladie pris en janvier, Steve Jobs a été ovationné par les 5.000 aficionados d'Apple réunis à la conférence des développeurs du groupe, qui s'est tenue au centre de San Francisco. "C'était une bonne chose de le voir apparaître malgré son congé maladie. En même temps, il a laissé ses lieutenants se charger de l'essentiel de la présentation, ce qui montre qu'Apple est une équipe et non pas le fait d'un seul homme", a déclaré Shaw Wu, analyste chez Sterne Agee.

Steve Jobs a précisé qu'une première version d'iCloud serait disponible gratuitement très prochainement. A partir de l'automne, les utilisateurs devront payer 24,99 dollars par an pour pouvoir accéder à leurs bibliothèques musicales constituées sur iTunes à partir de n'importe quel gadget Apple. Ce service, baptisé iTunes Match, rendra les chansons trouvées via iCloud automatiquement disponibles sur les iPod, iPad et autres iPhone.

Google et Amazon ont déjà lancé un service de stockage en ligne de musique, qui, contrairement à celui présenté par Apple, suppose que l'utilisateur charge la musique qu'il veut écouter. L'informatique en nuage, appelée cloud (computing) consiste à héberger en ligne des applications et des services sur des serveurs distants plutôt que sur les réseaux ou disques durs des particuliers ou d'entreprises.

Challenges

^ Haut
Matière
Matière et Energie
Soleil en Tête s'engage dans le « froid solaire » avec le soutien du CEA à l’INES
Mardi, 14/06/2011 - 01:10

Plus il fait chaud, plus le besoin en climatisation se fait sentir… Rien de nouveau sous le soleil a priori… Sauf si l’on compte précisément sur l’énergie solaire pour produire du froid ! Tel est le concept que va développer Soleil en Tête, spécialiste en énergies renouvelables et économies d’énergie, en partenariat avec les équipes du CEA à l’INES (Institut National de l’Energie Solaire).

Il est communément admis que l’énergie solaire permet de produire de l’électricité (solaire photovoltaïque) et/ou de la chaleur (solaire thermique), Mais que du froid puisse être généré à partir de capteurs solaires thermiques : voilà qui est pour le moins contre-intuitif. Or les besoins en froid, notamment pour la climatisation des bâtiments, concordent parfaitement avec l’intensité de l’ensoleillement. A partir de ce constat, les équipes de Soleil en Tête et celles du CEA à l’INES ont décidé de se lancer dans le développement d’une technologie originale qui puise l’énergie dans des capteurs solaires thermiques pour alimenter une machine thermique capable de produire du froid.

Couplé à des capteurs thermiques de toiture, ce système compact sera à même de couvrir tous les besoins énergétiques d’un bâtiment : climatisation, chauffage et production d’eau chaude sanitaire. Il est destiné à l’habitat individuel ou collectif. Cette technologie a un double avantage : son coût très raisonnable et une émission de gaz à effet de serre très faible par rapport aux climatisations classiques. Le caractère innovant de cette technologie repose essentiellement sur la compacité de la machine thermique et sur la précision du contrôle-commande associé.

Aujourd’hui, les réseaux électriques de nombreux pays sont fortement sollicités par des systèmes de climatisation classiques. Le besoin en énergie électrique est alors maximum en pleine journée, lorsque le coût de l’électricité et sa teneur en carbone sont élevés. Dans un tel contexte, la climatisation solaire a toute sa pertinence.

Soleil en Tête s'est bâti grâce à une grande maîtrise des technologies solaires et une excellente connaissance des besoins énergétiques des bâtiments. Ce partenariat va lui permettre d’étendre sa gamme de produit et de s’orienter vers des marchés où le besoin en climatisation est élevé (Etats-Unis, Afrique du Nord, Asie,…). "L'engagement de Soleil en Tête dans la climatisation solaire s'inscrit dans une démarche de diversification et d’exportation. L'énergie solaire reçue à la surface de la terre couvre 900 fois le besoin énergétique mondial, toutes énergies confondues. C'est clairement la source énergétique d'avenir que nous devons apprendre à maîtriser pour nos besoins de la vie quotidienne. Nous souhaitons activement participer à l'émergence d'une véritable filière industrielle dans le domaine de l'énergie solaire française », commente Eric Laborde, Président de Soleil en Tête.

CEA

Actionner les équipements sans fil et sans pile
Lundi, 13/06/2011 - 09:29

Basée sur des convertisseurs d'énergie miniaturisés et une électronique très basse consommation, la technologie « Enocean » permet de faire dialoguer, par message radio, les équipements au sein des bâtiments. Déjà bien présente dans le tertiaire, les entreprises l'utilisant souhaitent l'introduire dans les logements.

Vous rentrez dans une pièce, le détecteur de présence génère un «message radiofréquence» et l'envoie vers des luminaires à 20m de distance, qui s'allument alors. Vous venez d'être éclairé via la technologie «Enocean». Tout cela en moins d'une seconde et sans besoin d'apport électrique. L'envoi du «télégramme» de l'émetteur au récepteur ne nécessite qu'une quantité d'énergie inférieure à 0,0001 Watt. Un convertisseur thermique permet donc, avec un delta de 1°C,  l'envoi de « 20 000 » télégrammes. Le simple mouvement d'un interrupteur peut également permettre l'envoi du message radio par effet dit piézoélectrique.

Technologie découverte en 2001 au sein de la recherche et développement du groupe Siemens, elle a donné naissance à une société qui lui est entièrement dédiée, puis à un réseau de désormais 200 entreprises ayant en commun d'utiliser, d'une façon ou d'une autre, celle-ci. Un standard « Enocean » est en cours de normalisation. Jusqu'à aujourd'hui, ce sont principalement les bâtiments tertiaires qui se sont équipés de la technologie Enocean, en l'intégrant à des systèmes de pilotage intelligent des bâtiments. Demain, les entreprises utilisant Enocean comptent bien faire entrer la technologie au sein des logements.

Risque d'interférence avec les ondes d'un système «wifi» de la maison ? "Aucun", assure Emmanuel François, représentant  de l'Alliance «Enocean» en France, en précisant que les fréquences des télégrammes  Enocean  sont très éloignées de celles d'une onde wifi. Ce dernier reconnaît tout de même que son principal défaut est  son prix. Il faut compter un prix de 50 % plus élevé par rapport à une installation classique et supérieur de 30 % à un équipement sans fil avec batterie.

Le Moniteur

Pioneer connecte ses autoradios à Internet
Lundi, 13/06/2011 - 09:23

Le groupe japonais lance un autoradio compatible avec la connexion Internet de l'Iphone 4. Ce partenariat inédit avec Apple devrait s'enrichir d'applications d'aide à la conduite.

En attendant la voiture connectée en haut débit de demain, les spécialistes de l'électronique grand public embarquée conçoivent des autoradios qui esquissent leurs premiers pas sur la Toile. Deux modèles sont commercialisés ce mois-ci. Le français Parrot lance l'Asteroid, un boîtier conçu pour Android, le système d'exploitation mobile de Google, qui permet d'accéder à des applications optimisées pour la voiture. Pour accéder à Internet, il faut connecter une clé USB 3G, ce qui implique de prendre un nouvel abonnement.

Pioneer a choisit une autre option : son AppRadio fonctionne directement avec un iPhone 4 (ou un iPod touch). "L'AppRadio est le premier autoradio qui permet de piloter et visualiser des applications iPhone dédiées à l'automobile, pour une conduite en toute sécurité. C'est le fruit d'une collaboration inédite avec Apple", explique Sébastien Rosnet, responsable marketing de Pioneer France. Selon lui, l'AppRadio répond aux principales critiques formulées par les utilisateurs de smartphones dans la voiture : une taille d'écran peu adaptée et une puce GPS peu performante. Le modèle de Pioneer utilise un écran capacitif multi-touch trois fois plus grand que celui de l'iPhone et intègre la réception GPS grâce à une antenne déportée dans le véhicule.

Pioneer reste encore discret sur les applications disponibles au lancement du produit. Les applications de base sont des adaptations pour le format de l'autoradio de celles de l'iPhone : les contacts, les cartes, le calendrier ou les photos. A noter que cette dernière application n'est accessible que lorsque le frein à main est serré, pour des raisons de sécurité. Les autres applications issues de partenariats avec des développeurs seront dévoilées au lancement du produit : navigation, information trafic, avertisseur de zones dangereuses, météo.

Ce produit est entièrement dédié à l'iPhone d'Apple. D'autres versions devraient suivre, compatibles avec des smartphones d'autres constructeurs. Pour un produit commercialisé à 379 euros, il manque cependant des fonctions que l'on retrouve habituellement dans des autoradios numériques de cette catégorie, comme les commandes vocales pour gérer ses contacts ou la musique. Quand au lecteur de CD, ce n'est plus qu'un lointain souvenir...

La Tribune

Le méthane, une future matière première ?
Vendredi, 10/06/2011 - 07:03

Le méthane (CH4) est un gaz à fort potentiel d'effet de serre (21 fois supérieur au CO2) et est souvent perçu comme un déchet, un sous-produit polluant dont on se passerait bien. La seule utilisation industrielle de cette molécule présente en grandes quantités sur la planète est sa transformation en monoxyde de carbone CO et en hydrogène H pour la production de gaz de synthèse.

Une des principales caractéristiques du méthane est sa grande stabilité. Les atomes formant la molécule CH4 sont fortement unis entre eux et un des défis de la chimie moderne est justement de réussir à casser ces liaisons pour pouvoir transformer le méthane. Le méthane a déjà été transformé en méthanol ainsi qu'en acide acétique, cependant, ces transformations nécessitent des conditions de travail très spécifiques comme une température extrêmement élevée ou un milieu de réaction très acide.

Récemment, une équipe franco-espagnole composée de chercheurs des universités de Huelva et de Valence ainsi que des scientifiques de Toulouse ont réussi pour la première fois à convertir le méthane en propionate d'éthyle, aussi appelé propanate d'éthyle (CH3CH2COOCH2CH3).

Pour obtenir cette transformation, les scientifiques ont utilisé un catalyseur à base d'argent. L'équipe de Huelva avait déjà utilisé cette méthode avec d'autres hydrocarbures, mais avait échoué avec le méthane car le caractère peu réactif de celui-ci impliquait que toutes les autres substances du réacteur réagissent avant lui. Pour résoudre ce problème, les chercheurs ont dû utiliser du dioxyde de carbone CO2 en conditions supercritiques comme milieu de réaction. Le CO2 est un gaz dans des conditions normales de température. Il est lui aussi très stable et peu réactif. En conditions supercritiques, c'est-à-dire à des valeurs de pressions et températures définies, il peut se transformer en un fluide dissolvant, c'est-à-dire un fluide ayant la capacité de dissoudre un corps.

Le propanoate d'éthyle est un ester utilisé comme arôme dans l'industrie alimentaire. Il possède une odeur de fruit avec une note de rhum et est présent dans de nombreux fruits et dans certaines boissons alcoolisées. Le proponate d'éthyle est obtenu de manière classique par une réaction d'estérification entre l'acide propanoïque et l'éthylène. Sa production à partir de méthane a été réalisée à une température de 40 degrés et n'a généré qu'un seul sous-produit: de l'azote. Suite à cette expérience réussie, le méthane pourrait désormais être une matière première intéressante.

Techno-Science

^ Haut
Espace
Espace et Cosmologie
La Nasa a lancé Aquarius, un satellite qui mesure la salinité des océans
Mardi, 14/06/2011 - 01:00

La Nasa vient de lancer le satellite d'observation Aquarius visant à améliorer la compréhension du système climatique terrestre en mesurant régulièrement les concentrations de sel à la surface des océans.

Après un report de 24 heures, la fusée Delta 2 à deux étages s'est arrachée de son pas de tir sur la base aérienne de Vandenberg en Californie (ouest) comme prévu. Le premier étage s'est séparé normalement 4,32 minutes après le lancement. La séparation du satellite du second étage intervient 56 minutes et 42 secondes après le lancement ce qui marque le succès de la mise sur orbite.

Le satellite Aquarius/SAC-D (Satelite de Aplicaciones Cientificas) est le fruit d'une collaboration entre la Nasa et l'Agence spatiale argentine, Comision Nacional de Actividades Espaciales (CONAE). Le Brésil, la France, le Canada et l'Italie y participent également. Aquarius étudiera tous les sept jours l'ensemble de la surface océanique depuis son orbite à 657 km de la surface terrestre et fournira des estimations mensuelles du changement de salinité suivant le moment et l'endroit.

Le satellite transportera aussi différents instruments pour "collecter des données environnementales qui auront une grande variété d'applications, comme des études sur les risques naturels, la qualité de l'air, l'évolution des sols et l'épidémiologie", explique la Nasa. Le satellite européen Smos, lancé en 2009, étudie déjà la salinité des océans, mais Aquarius permettra d'améliorer la connaissance des scientifiques grâce à la précision de ses relevés.

Son lancement intervient trois mois après la perte par la Nasa de Glory, un satellite d'observation de la Terre de 424 millions de dollars qui n'a pas réussi à se séparer normalement de son système de propulsion et s'est abîmé dans l'océan.

Orange

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les émissions de CO2 ont atteint un niveau record en 2010
Jeudi, 16/06/2011 - 11:15

L’Agence internationale de l’énergie (AIE) a publié le 30 mai ses dernières estimations d’émission de CO2 imputables à l’utilisation de l’énergie. Elles ne sont pas bonnes. En brûlant du charbon et des hydrocarbures, l’Humanité a émis l’an passé 30,6 milliards de tonnes de gaz carbonique, indique l’institution parisienne. Inédit, inattendu et colossal, ce chiffre est aussi catastrophique. En un an, nous avons, collectivement, accru de 5 % nos rejets de dioxyde de carbone «énergétique». Ce faisant, nous avons accru de plus de 4 parties par millions (ppm) la concentration de gaz carbonique dans l’atmosphère. Nous sommes donc tout près du bord du gouffre climatique. Nombre de climatologues estiment, en effet, que le système climatique pourrait être gravement perturbé si la concentration de CO2 dans l’atmosphère venait à dépasser les 400 ppm.

Or, selon les dernières données de l’observatoire de Mauna Loa (exploité par l’administration américaine de l’océan et de l’atmosphère, NOAA, cet observatoire évalue très précisément depuis les années 1960 les teneurs de CO2 dans l’atmosphère, ndlr), l’atmosphère contient désormais 393 ppm de CO2. Si nous gardons le même rythme d’émission, nous n’atteindrons jamais l’un des objectifs de la convention-cadre des Nations unies sur le changement climatique (Ccnucc) : empêcher «toute perturbation anthropique dangereuse du système climatique».

Fixé par les sommets climatiques de Copenhague (2009) et de Cancun (2010), l’objectif de stabiliser à 2°C le «réchauffement» est lui aussi hors de portée. Car, souligne Fatih Birol, l’économiste en chef de l’AIE, les émissions de 2020 seront le fruit de l’activité de centrales thermiques ou d’usines qui sont déjà en activité ou en construction. Pas de baisse à espérer de ce côté. D’autant moins que les systèmes de captage et de stockage géologique de carbone ne pourront équiper que des installations industrielles conçues à cet effet. Ce qui ne sera pas le cas avant une dizaine d’années.

Pour échapper aux pires effets du réchauffement, l'AIE a averti que les émissions annuelles de CO2 ne devaient pas dépasser les 32 gigatonnes en 2020 avant de décroître. Ce qui signifie, que nos émissions ne doivent pas augmenter, au cours des 10 prochaines années, plus qu’elles n’ont progressé l’an passé !

AIE

Des satellites pour mieux comprendre la pluie au Sahel
Mercredi, 15/06/2011 - 01:00

Mieux comprendre pourquoi et où la pluie tombe au Sahel afin d'aider les paysans d'Afrique de l'Ouest à assurer leur subsistance : c'est dans ce but que des scientifiques ont analysé par satellites les orages qui s'abattent sur cette région aride. Sans surprise, ils ont confirmé qu'un sol déjà humide favorisait, par évaporation, l'arrivée de la pluie. Mais leurs travaux, publiés récemment dans la revue britannique Nature Geoscience, montrent aussi que les orages n'éclatent pas nécessairement là où on les attend.

Les chercheurs britanniques, français et australiens, se sont penchés sur les images satellitaires montrant l'apparition et l'évolution de 3 765 orages ayant arrosé quelque 2,5 millions de kilomètres carrés entre 2006 et 2010. Entre 80 et 90 % de l'eau qui tombe sur le Sahel provient de ce type d'orages, qui peuvent apparaître très brutalement durant la saison des pluies. Hydrologues et météorologues ont ensuite croisé ces données sur les orages avec les relevés satellites sur l'humidité des sols dans les zones concernées.

"A l'échelle de la centaine de kilomètres, les orages se développent plus fréquemment au-dessus des surfaces les plus sèches et les plus chaudes", relève dans un communiqué le CNRS, qui a participé à l'étude. Plus précisément, "les résultats obtenus montrent que le nombre d'orages augmente significativement sur des surfaces présentant de forts contrastes d'humidité du sol", particulièrement dans les zones de transition allant d'une zone sèche vers une zone humide, dans le sens du vent.

Selon l'étude, une zone humide de seulement 10 à 40 kilomètres suffit à provoquer la pluie, à condition qu'elle se trouve à côté d'une région beaucoup plus sèche. Et les orages ont deux fois plus de chances d'éclater dans les zones à fort contraste d'humidité que dans celles où le niveau d'humidité est homogène. "La pluie est difficile à prévoir, en particulier dans les régions comme le Sahel, où de violents orages peuvent surgir de nulle part en quelques heures", souligne Chris Taylor, du Centre britannique pour l'écologie et l'hydrologie, auteur principal de l'étude.

"Nous avons découvert que des régions à fort contraste d'humidité peuvent jouer un rôle important dans l'apparition de nouveaux orages, un facteur qui n'est pas pris en compte dans les modèles climatiques actuels." Un "effet important" dans une région particulièrement exposée à la sécheresse et aux mauvaises récoltes, et qui joue "dans un orage sur huit", précise-t-il. Des phénomènes qui restent à explorer par des études futures, mais qui pourraient à terme se montrer très utiles pour l'agriculture des pays sahéliens et évaluer l'impact du changement climatique sur cette région du monde.

Le Point

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Polyarthrite rhumatoïde : le renouveau thérapeutique
Jeudi, 16/06/2011 - 11:07

Cette maladie rhumatismale concerne 300.000 personnes en France et apparaît en général entre 40 et 60 ans, avec une forme juvénile qui touche 3000 enfants. La polyarthrite rhumatoïde se caractérise par une inflammation de la membrane synoviale des articulations des membres qui peut conduire, plus ou moins rapidement, à la dégradation de l'os et du cartilage.

La polyarthrite rhumatoïde provoque des douleurs et des gonflements principalement au niveau des articulations des mains et des poignets, de manière symétrique. Ces douleurs sont particulièrement fortes la nuit et, au matin, il faut au moins une demi-heure pour «dérouiller» les articulations touchées. Dès que ces signes apparaissent, il faut consulter le plus rapidement possible son généraliste afin d'établir, en collaboration avec un spécialiste, la meilleure stratégie d'intervention. Le diagnostic repose sur l'examen clinique des articulations et sur des analyses biologiques. Des examens radiologiques peuvent également être effectués pour repérer des érosions osseuses.

La polyarthrite rhumatoïde est une maladie auto-immune dans laquelle le système immunitaire réagit contre certaines protéines modifiées dans l'organisme. «Ces modifications sont naturelles, elles se produisent plus fréquemment dans certains organes comme le poumon, mais, dans certains cas qu'on ne comprend toujours pas, le système immunitaire déclenche une réaction contre ces molécules », précise le Professeur Rannou. Le facteur déclenchant n'est donc toujours pas élucidé, mais certains gènes de prédisposition semblent impliqués dans 30 % des cas.

Lorsque la maladie est identifiée tôt, le médecin prescrit ainsi du méthotrexate, qui reste le médicament de référence pour bloquer l'inflammation. Si la maladie est déjà avancée ou que, après trois mois, le traitement est insuffisant, le médecin peut puiser dans le nouvel arsenal des biothérapies pour trouver, parmi les quatre molécules désormais disponibles, celle à laquelle le patient répondra le mieux. Une nouvelle molécule devrait s'ajouter très bientôt aux biothérapies existantes : le tofacitinib, qui inhibe certains médiateurs intracellulaires de l'inflammation.

La polyarthrite rhumatoïde comporte plusieurs composantes, immunitaires et inflammatoires, sur lesquelles se concentrent les efforts de recherche, à la fois pour comprendre les mécanismes de la maladie, les facteurs qui la déclenchent et identifier de nouvelles pistes thérapeutiques. La composante acquise de la polyarthrite rhumatoïde correspond au déclenchement d'une réponse auto-immunitaire dirigée contre la membrane synoviale de certaines articulations. L'antigène responsable de cette réaction n'est pas encore identifié, même si certains travaux semblent indiquer une piste infectieuse.

Le Professeur François Rannou s'intéresse plus particulièrement à la phase aiguë de l'inflammation, qui correspond à l'envahissement de l'articulation par des cellules inflammatoires. «La meil­leure stratégie consiste à éviter cette phase, grâce aux traitements de fond mais, face aux crises aiguës, on ne dispose aujourd'hui que des corticoïdes, qui présentent de nombreux inconvénients.» L'équipe Inserm dans laquelle il travaille, basée à l'hôpital Cochin à Paris, explore ainsi le rôle de l'hème oxygénase-1, qui semble avoir un intérêt dans la résolution de la phase inflammatoire et étudie également la régulation de la mort programmée des polynucléaires, qui se rassemblent dans l'articulation et libèrent des substances favorables à sa destruction.

D'autres stratégies visent plus particulièrement la composante immunitaire de la maladie et les cellules qui y prennent part. L'équipe dirigée par Christian Jorgensen, à Montpellier, étudie l'intérêt d'une thérapie cellulaire à partir de cellules souches mésenchymateuses, qui sont à l'origine de l'os et du cartilage et qui jouent également un rôle dans la régulation de l'immunité. Plusieurs équipes évaluent également l'intérêt d'injecter, dans l'articulation, des lymphocytes T dits «régulateurs» qui limitent l'inflammation.

Les toutes premières biothérapies ayant été développées sont des anticorps anti-TNF alpha. L'une des pistes d'avenir les plus avancées est un vaccin thérapeutique dont l'objectif serait de provoquer la production de ces anticorps par l'organisme lui-même. Même si les injections doivent être répétées régulièrement, les chercheurs espèrent que la réponse immunitaire serait mieux régulée de cette façon. La fondation Arthritis, présente aux côtés de nombreux projets de recherche sur la polyarthrite rhumatoïde, soutient ainsi un essai multicentrique mondial de phase II, utilisant un candidat-vaccin de la société Néovacs. Les premiers résultats sont attendus d'ici à la fin de l'année.

Le Figaro

Maladies hormonales : une enzyme majeure, la protéine kinase A en cause
Mardi, 14/06/2011 - 01:20

Grâce à l’étude de patients atteints d’une maladie osseuse rare, l’acrodysostose, des chercheurs de l’unité Inserm 986, Caroline Silve, directrice de recherche à l’Inserm, et Agnès Linglart, pédiatre du service d’Endocrinologie de l’Enfant de l’hôpital Bicêtre Hôpitaux Universitaires Paris-Sud - AP-HP, avec la contribution de collègues médecins et biochimistes, ont élucidé le défaut moléculaire responsable d’une résistance généralisée à de nombreuses hormones. Ce défaut intervient au niveau d’un carrefour "universel" dont on ne connaissait pas jusqu’à ce jour le rôle dans la résistance hormonale : la protéine kinase A. La résistance concerne la parathormone, son peptide apparenté, les hormones hypophysaires de la fertilité, la thyréostimuline, la calcitonine, et probablement d’autres signaux passant par cette voie biologique. Ce travail est publié dans la revue The New England Journal of Medicine datée du 9 juin 2011.

En 1971, le prix Nobel de médecine est attribué à un médecin américain, Earl Sutherland, "pour sa découverte du mécanisme d'action des hormones" dans lequel il démontre l'existence et le rôle de l'AMPc (adénosine monophosphatase cyclique). Une fois activée, l’AMPc entraine une cascade de réactions qui amplifie le signal initial déclenché par de nombreuses hormones et aboutit à une réponse cellulaire adaptée (par exemple la stimulation de la formation et résorption osseuses par la parathormone, et la stimulation de la lipolyse par l’adrénaline.) Pour ces raisons, on qualifie l’AMPc de "second messager". Ce mode d’action des hormones via l’APMc est l’un des concepts fondamental de la biologie actuelle. La protéine kinase A (PKA) en est le médiateur principal chez les mammifères.

Il existe plusieurs types de résistance hormonale bien caractérisés impliquant cette voie de signalisation. Jusque-là, les pathologies associées à une résistance de cette voie mettaient en cause essentiellement soit un récepteur, soit la protéine G. Les chercheurs de l’Inserm ajoutent aujourd’hui à cette liste un nouveau syndrome causé par une mutation bien particulière de la protéine kinase A.

A partir de l’observation de patients atteints d’une maladie très rare, l’acrodysostose, les chercheurs ont élucidé le défaut moléculaire responsable d’une résistance généralisée à de nombreuses hormones agissant par la voie décrite dans le schéma ci-contre. En l'absence de l'AMPc, la PKA existe sous forme inactive où deux sous-unités régulatrices (R sur le schéma) verrouillent deux sous-unités catalytiques (C sur le schéma). La libération des sous-unités catalytiques et donc l’activation de l’enzyme PKA est déclenchée et dépendante de la fixation de l'AMPc aux sous-unités régulatrices.

Chez trois patients atteints d’acrodysostose, les chercheurs de l’Inserm ont identifié une mutation ponctuelle récurrente dans le gène codant pour la sous-unité régulatrice de la PKA (PRKAR1A). La mutation inhibe la liaison de l’AMPc à la PRKAR1A, qui ne peut plus libérer la sous-unité catalytique. L’activité de la PKA, médiateur principal de la signalisation via l’AMPc est donc diminuée.

De l’avis des deux chercheuses : "C’est la première fois que le rôle de la PKA est mis au jour dans les mécanismes de résistance hormonale. Il est par ailleurs remarquable que ce défaut soit toujours le même, chez 3 patients issus d’horizons géographiques variés et de familles différentes." Comme la résistance concerne l’ensemble des hormones agissant par cette voie de signalisation, même si vraisemblablement à des degrés divers, cette découverte devrait s’appliquer aussi bien à la compréhension d’autres maladies hormonales, métaboliques, ou de la croissance osseuse, qu’à la définition de nouvelles cibles et molécules thérapeutiques inattendues.

INSERM

Mélanome : des chercheurs dévoilent les mécanismes à l'origine de l'échec des chimiothérapies
Lundi, 13/06/2011 - 09:16

Des chercheurs de l'Inserm ont mis en évidence une partie des mécanismes à l'origine de l'échec de la plupart des chimiothérapies anti-mélanome. Publiés sur le site de la revue scientifique Genes & Development, mardi 7 juin, leurs travaux pourraient contribuer à l'élaboration de nouveaux traitements plus efficaces pour soigner ce type de cancer de la peau et réduire les risques de récidives.

Le mélanome malin est l'un des seuls cancers de la peau à ne jamais guérir intégralement. D'une façon générale, même les médicaments chimiothérapeutiques entraînent une guérison incomplète, souvent suivie de récidives fatales.

En détails, les médicaments chimiothérapeutiques ne tuent pas l'intégralité des cellules du mélanome. Celles qui survivent peuvent néanmoins entrer en sénescence, un programme présent dans l'ensemble des cellules normales qui permet d'empêcher la prolifération ces cellules "génétiquement instables", annonciatrices de tumeurs. De fait, la sénescence pourrait devenir une stratégie thérapeutique très intéressante. Néanmoins, les chercheurs de l'Inserm ont montré qu'elle pouvait en réalité être liée à l'échec thérapeutique du mélanome.

Les scientifiques révèlent que les cellules du mélanome deviennent sénescentes lorsqu'elles sont exposées aux médicaments de chimiothérapie, fabricant un sécrétome aux caractéristiques pro-invasives et pro-tumorigènes. Les cellules cancéreuses sont ainsi plus difficiles à supprimer, expliquant l'échec des chimiothérapies anti-mélanome.

Les chercheurs doivent désormais mettre en évidence la composition et le fonctionnement des différents acteurs du sécrétome pour élaborer de nouvelles cibles d'interventions thérapeutiques plus efficaces.

Le Parisien

Une étude découvre le bouclier protecteur contre la surinfection du paludisme
Samedi, 11/06/2011 - 01:00

Les parasites responsables du paludisme caractérisé voyagent au départ dans le foie, se multiplient et par la suite, se propagent et envahissent les globules rouges. Les chercheurs s'accordent pour affirmer que les parasites ont besoin de fer pour croître. Une nouvelle recherche, toutefois, fait remarquer que les patients atteints de paludisme caractérisé pourraient être protégés contre les nouvelles infections à la suite de l'activation d'une hormone assurant que les cellules du foie ne peuvent pas s'alimenter en fer. L'étude, présentée dans la revue Nature Medicine, a été en partie soutenue via COST (European Cooperation in Science and Technology), un programme soutenu par le programme-cadre de l'UE Recherche et développement technologique (RDT). La découverte pourrait mener à une meilleure gestion et des méthodes de prévention du paludisme améliorées.

Des chercheurs menés par l'Instituto de Medicina Molecular (IMM) à l'université de Lisbonne au Portugal se sont concentrés sur le développement des parasites du paludisme dans le foie et les globules rouges, mais aussi sur les cas de «surinfection», où un individu atteint de paludisme caractérisé est piqué par un second moustique infecté. Leurs découvertes démontrent que la seconde piqûre de moustique d'un organisme abritant déjà des parasites sanguins ne déclenchera pas une seconde infection caractérisée. La première infection bloque la surinfection dans le foie.

La découverte est une nouvelle positive pour les personnes vivant dans les zones à risque élevé. D'après les chercheurs, les données montrent pour la première fois que le fer joue un rôle vital dans le développement de multiples infections paludéennes, qui a de fortes implications sur l'apport en fer utilisé pour combattre l'anémie dans les régions endémiques au paludisme. Grâce à ce bouclier protecteur, les parasites dans le sang ne croissent pas car ils sont privés de fer.

«Je suis très contente que nous ayons pu trouver une interaction tellement intéressante survenant entre les différentes étapes de parasite du paludisme chez un simple hôte, et cela pourrait contribuer à contrôler le paludisme à l'avenir», affirme le Dr Silvia Portugal de l'IMM, auteur principal de l'étude. Pour sa part, le Dr Maria Mota, de l'IMM également et chef d'étude, affirme : «Nos résultats permettent d'expliquer les différences en matière de risque d'infection et la complexité des infections chez des jeunes individus observée dans les régions endémiques au paludisme qui ont jusqu'à présent nécessité d'explications spéculatives. Aussi, ils souhaitent relever le défi de l'idée selon laquelle l'infection dans des types de cellules est indépendante pourrait avoir un impact sur la recherche future dans le domaine des maladies infectieuses dans leur ensemble.»

En commentant les résultats, le Dr Hal Drakesmith, qui a co-dirigé l'étude au Weatherall Institute of Molecular Medicine et à l'université d'Oxford au Royaume-Uni, affirme: «Maintenant que nous comprenons comment les parasites du paludisme protègent leur territoire dans le corps des parasites compétiteurs, nous pouvons stimuler ce mécanisme de défense naturelle afin de combattre le danger des infections de paludisme. En même temps, nous pouvons avoir besoin de consulter de nouveau l'opportunité de programmes d'apport en fer dans les régions endémiques au paludisme, étant donné que le risque accru possible d'infection peut nécessiter d'être soupesé par rapport aux bénéfices - davantage de données sont requises à ce sujet.»

Plus de 300 millions de personnes sont touchées par le paludisme chaque année, et 800 000 personnes succombent à cette maladie létale.

Cordis

Un milliard de personnes handicapées dans le monde
Vendredi, 10/06/2011 - 16:09

Plus d'un milliard de personnes souffrent d'un handicap physique ou mental dans le monde, soit 15 pour cent de la population totale, selon le premier rapport global sur le handicap publié récemment et réalisé pour l'Organisation mondiale de la Santé (OMS) et la Banque mondiale. Ce premier rapport, s'appuyant sur les bases de données existantes et l'étude de la santé de l'OMS menée dans 70 pays, démontre qu'un cinquième des personnes handicapées, soit environ 150 millions, souffrent d'un «handicap sévère», en particulier les plus pauvres et les femmes, a noté le docteur Etienne Krug, directeur du département Prévention de la violence et des traumatismes et handicap, à l'OMS. Car aujourd'hui le handicap s'appréhende en termes de «situation physique et d'environnement, avec des obstacles érigés par la société».

Entre 110 et 190 millions de personnes handicapées doivent en effet affronter des difficultés que ce soit en matière de santé, d'éducation ou de travail. Globalement, les personnes handicapées sont en moins bonne santé, réussissent moins bien leurs études, ont moins d'occasions d'emploi et connaissent des taux de pauvreté plus élevés que les personnes valides.

«La probabilité pour les personnes handicapées de recevoir des prestations de santé inadaptées à leurs besoins est deux fois plus élevée, et le risque de se voir privé des soins nécessaires est trois fois plus élevé que pour les valides», d'après le rapport présenté récemment à Paris et à New York. Et dans les pays à faible revenu, les personnes handicapées présentent 50 pour cent de risques supplémentaires d'être confrontées à des dépenses de santé catastrophiques.

Face à ce qui paraît comme une double peine, l'OMS et la Banque mondiale émettent neuf recommandations, notamment un appel pour que les personnes handicapées aient accès à tous les services de base de la société, mais aussi des investissements dans des programmes spécifiques.

«Ce rapport est un début, un programme d'action pour les années à venir», a affirmé le docteur Krug. Car le handicap englobe des réalités complexes qui n'épargnent pas les pays riches, avec en tête des causes de handicap aujourd'hui dans le monde : le diabète, les accidents de la route et les blessures par armes légères, a noté le docteur Susan Girois, directrice des ressources techniques de l'organisation non gouvernementale Handicap International. Sans parler du vieillissement général de la société.

Ce rapport vise à «fournir des bases factuelles à des politiques et programmes novateurs pouvant améliorer la vie des personnes handicapées», souligne la directrice générale de l'OMS, le docteur Margaret Chan, dans son préambule. Il devrait également «faciliter la mise en oeuvre de la Convention relative aux droits des personnes handicapées (CRDPH), entrée en vigueur en 2008».

Yahoo! Actualités Québec

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le trafic routier en temps réel grâce au réseau de téléphonie mobile
Mardi, 14/06/2011 - 01:30

Les ingénieurs de l’Orange Lab de Belfort ont mis au point un dispositif d’informations routières en temps réel qui sera commercialisé au second semestre.

Repérer les bouchons grâce aux téléphones portables, c’est désormais possible. Les ingénieurs de l’Orange Lab de Belfort ont mis au point pendant un an et demi « Trafic zen », un dispositif d’informations routières en temps réel. Expérimenté dans l’agglomération toulousaine depuis le début de l’année sur 1200 km de routes, ce système sera commercialisé au second semestre 2011.

« Le logiciel utilise les données qui passent par notre réseau de téléphonie mobile, explique Laurent Feurer, responsable de l’Orange Lab. On peut établir combien d’abonnés fréquentent tel ou tel axe donc, par extrapolation, évaluer la densité de trafic. On peut aussi déterminer très précisément à quelle vitesse progressent les véhicules. »

De vastes zones géographiques peuvent ainsi être analysées, sur les grands axes comme sur les routes secondaires. Sur autoroute, par exemple, des capteurs intégrés dans la chaussée permettent déjà de connaître l’état du trafic. « Mais les conseils généraux ne vont pas creuser des tranchées pour équiper toutes les départementales, glisse Laurent Feurer. Nous apportons une réponse pour les axes qui ne sont pas encore couverts. »

Orange se prépare à proposer sa solution aux agrégateurs d’info-trafic qui compilent toutes les données disponibles dans ce domaine, par exemple celles des caméras de surveillance des sociétés d’autoroute. Ces agrégateurs fournissent ensuite les sites d’information en ligne, les fabricants de GPS, les constructeurs automobiles… À l’autre bout de la chaîne, le particulier peut s’imaginer disposer dans son véhicule ou sur son smartphone d’une carte mise à jour toutes les 15 minutes pour l’aider à contourner les ralentissements.

Les collectivités locales peuvent aussi être intéressées par ce logiciel, par exemple pour décider des aménagements routiers. À l’Île Maurice, où le trafic est souvent chargé aux heures de pointe, ce nouvel outil est vu d’un bon œil. Espagne, Royaume-Uni, Belgique, Pologne, Moldavie… Dans les 30 pays à travers le monde où Orange est implanté, la solution imaginée et mise au point à Belfort pourrait trouver des applications concrètes.

L’Orange Lab de Belfort existe depuis 1993. Il s’agissait alors d’une antenne du Centre national d’étude des télécommunications. Aujourd’hui, il existe huit centres de recherche et développement (R & D) de France Telecom-Orange en France, et huit autres à travers le monde. Soixante-trois personnes travaillent à l’Orange Lab de Belfort, au sein de trois équipes de R & D. Environ 80 % sont des ingénieurs.

Le centre belfortain est spécialisé dans l’ingénierie (expertise et logiciels) des réseaux d’accès pour la téléphonie mobile et ADSL. Il travaille aussi à la supervision et à l’analyse du trafic sur les réseaux, aux tests de validation des box ADSL ou à l’ingénierie des réseaux de télérelève. Autour de 80 % des projets de R & D développés à Belfort voient le jour, contre 25 % en moyenne pour l’ensemble des Orange Labs.

Le Pays

Les bateaux du futur marieront technologies vertes et nucléaire
Dimanche, 12/06/2011 - 19:40

La Journée mondiale de l'océan est l'occasion d'étudier les différentes pistes de développement des navires de demain. Les projets se multiplient sous la pression des prix des carburants et des exigences environnementales.

Les navires que verront accoster nos petits-enfants seront très différents de ceux d'aujourd'hui. Les exigences environnementales combinées à la rareté des carburants fossiles et donc leur renchérissement, impliquent que toutes les activités marines développent des solutions. Sinon, elles risquent tout bonnement de disparaître faute de s'être adaptées. Alors que s'est ouverte la Journée Mondiale de l'Océan, qui a pour but de sensibiliser le public à l'environnement marin, le projet que développe la société bretonne Avel Vor Technologie préfigure ce que pourraient être les navires du futur. Le projet, baptisé « Grand Largue », consiste « à équiper un navire de voiles auxiliaires automatisées », explique Pierre-Yves Glorennec, l'un de ses concepteurs. Le bateau, un chalutier de 16 mètres et 70 tonnes, a été équipé d'un gréement aux voiles manipulées automatiquement par ordinateur. « L'apport des voiles permet de réduire la puissance du moteur sans réduire la vitesse du bateau ». Par petit vent, « les économies en carburant sont de l'ordre de 20 % et peuvent atteindre 46 % », affirme Pierre-Yves Glorennec. En somme, une technologie qui marie l'art ancestral de la voile et la propulsion classique par moteur thermique.

D'autres voies sont actuellement explorées sous la houlette du Groupement industriel des constructions et armements navals (GICAN). Un prototype de ferry fonctionnant au gaz naturel liquéfié (GNL) pouvant embarquer 300 véhicules et 2.100 passagers est en cours de réalisation. Ses performances sont intéressantes, puisqu'il abaisserait la facture carburant (au fioul) de 20 % pour une surface utile de transport supérieure de 15 %.

Dans la série ferry/navette, le bateau électrique a le vent en poupe. « Dans ce cas, l'intérêt de l'électrique est évident car le souci de l'autonomie ne se pose pas pour des trajets parfaitement prévisibles », commente Christian Buchet, secrétaire général du comité de suivi du Grenelle de la mer. Un démonstrateur est en cours de réalisation pour un bateau de 100 mètres de long, capable de transporter environ 300 passagers et 115 véhicules. La navette sera susceptible d'effectuer 50 trajets par jour et ne mettra que 7 minutes à recharger ses batteries entre chaque rotation.

Tous ces projets « peuvent être développés et devenir parfaitement rentables », affirme Alain Griot, pilote du comité opérationnel du Grenelle sur les navires du futur. Mais si la plupart d'entre eux font appel aux technologies vertes, d'autres se tournent résolument vers le nucléaire. Les projets et études de bateaux à propulsion atomique se multiplient et s'affichent comme « verts », au motif que « le nucléaire n'émet aucun gaz à effet de serre ».

La Tribune

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top