|
|
Edito
La vie sur Terre est-elle venue de l'espace ?
Personne n'a oublié les expériences historiques de Stanley Miller à Chicago en 1953 qui avait réussi à recréer en laboratoire les conditions de la "soupe primitive", qui existait sur Terre au moment de l'apparition de la vie, et qui avait montré que ces conditions étaient propices à la formation des acides aminés qui constituent les "briques" de base du vivant. Depuis cette date qui coïncidait d'ailleurs avec la découverte de la structure de l'ADN par Watson et Crick, la communauté scientifique n'a cessé de s'interroger sur la question fascinante de l'origine et de la nature de la vie.
La semaine dernière, une équipe franco-allemande regroupant des chercheurs de l'Institut de chimie de Nice (Université Nice Sophia Antipolis/CNRS) et de l'Institut d'astrophysique spatiale (CNRS/Université Paris-Sud) a publié une étude qui montre, dans une remarquable expérience, que les premières molécules constituant les "briques" de la vie peuvent se former spontanément dans les comètes. Après avoir fabriqué une comète artificielle dans les conditions extrêmes qui règnent dans l’espace (-200°C et sous vide), les chercheurs ont regroupé sur un fragment de fluorure de magnésium (MgF2), des composés présents dans le vide interstellaire (eau, ammoniac (NH3) et méthanol (CH3OH)). Ils ont ensuite irradié cette "soupe" à l'aide d’un rayonnement ultraviolet (Voir le communiqué de presse du CNRS).
Deux semaines plus tard, la matière organique interstellaire ainsi obtenue a été analysée par les chercheurs (l'équipe d’Uwe Meierhenrich et de Cornelia Meinert) en utilisant un chromatographe multidimensionnel en phase gaz, une technologie de pointe dix fois plus sensible que les systèmes de détection traditionnels. Alors que, jusqu'à présent, seuls trois acides aminés avaient été mis en évidence dans ce type d'expérience, ils ont pu identifier vingt-six acides aminés, les éléments qui constituent les protéines, dans la comète artificielle.
Mais surtout, ils ont aussi découvert pour la première fois six acides diaminés, des molécules formées de deux groupes amines (-NH2), au lieu d’un seul pour les acides aminés classiques. Parmi ces molécules figure la N-(2-Aminoethyl) glycine qui est peut-être le composant majeur des premières molécules d'ADN terrestre : les molécules d’acide peptidique nucléique (APN). Ces résultats confirment donc de manière éclatante que les premières "briques" moléculaires nécessaires à l'apparition de la vie ont bien pu se former dans les comètes et dans le vide interstellaire et "ensemencer" la Terre à l'occasion des chutes permanentes de météorites et de comètes. Ces résultats passionnants justifient largement la pertinence de la mission spatiale européenne « Rosetta » qui vise à faire atterrir en 2015 une sonde sur la comète Tchourioumov-Guerassimenko pour étudier la composition de son noyau.
Cette très belle découverte vient après plusieurs autres qui avaient déjà considérablement élargi et transformé notre approche de la vie. Début 2000, des chercheurs australiens avaient notamment découvert, dans le grès du fond des océans, des organismes vivants d'une taille extraordinairement petite, comprise entre 20 et 150 nanomètres (voir article de la lettre 82, rubrique biologie "Y-a-t-il une vie dans le nanomonde ?").
Fin 1999, une autre découverte réalisée par l'astronome Sun Kwok, de l'Université de Calgary, au Canada (voir article de la lettre 80, rubrique biologie "La chimie de la vie au coeur des étoiles") avait révélé, en mesurant le spectre de nombreuses étoiles à des stades de développement avancés que celles-ci synthétisaient des quantités importantes de molécules organiques en quelques milliers d'années seulement. Ces molécules organiques qui constituent la base des sucres et des acides aminés étaient ensuite expulsées vers l'espace interstellaire et pouvaient alors entrer dans le processus de constitution de nouvelles planètes, provoquant ou favorisant l'apparition de la vie.
Il faut rappeler que l'idée même de la "soupe primitive" est très ancienne et que le grand Darwin l'avait déjà imaginée dès 1871. Dans les années 1920, deux biologistes, le Britannique John Haldane et le Russe Alexandre Oparine eurent également l'idée, indépendamment l'un de l'autre, que l'atmosphère primitive de la Terre avait pu favoriser l'apparition de molécules organiques qui se seraient ensuite complexifiées jusqu'à produire l'émergence des premiers être vivants monocellulaires. Mais à l'époque, ces chercheurs ne purent étayer leurs hypothèses par l'expérimentation. C'est cette étape décisive qui fut magistralement franchie en 1953 par Stanley Miller, sous la direction d'Harold Urey (Prix Nobel de chimie 1934), qui avait construit un modèle d'atmosphère primitive basé sur le carbone et le méthane.
D'autres expériences réalisées en partenariat par le laboratoire d'Astrochimie du Ames Research Center de la NASA et le Département de Biochimie de l'Université de Santa Cruz Californie ont également montré que la formation des constituants primordiaux de la vie avait pu se dérouler dans les conditions hostiles de l'espace. Cette équipe de recherche menée par Louis Allamandola du Centre Ames avait réussi à provoquer la formation de composés biochimiques particuliers se présentant sous la forme de petites bulles similaires à des membranes cellulaires et permettant des échanges avec l'extérieur. Ces résultats montraient donc que la vie avait très bien pu naître dans l'espace avant d'être apportée sur Terre par une météorite ou un astéroïde.
En 2004, la sonde américaine Stardust était parvenue à collecter des poussières de comète en passant à proximité de la comète Wild 2. Ces poussières avaient été ramenées sur Terre en 2006 et les scientifiques de la NASA eurent la surprise d'y trouver de la glycine, le plus simple des acides aminés. Après trois ans d'analyses et de vérifications, les chercheurs purent démontrer que cette glycine était bien d'origine extraterrestre et ne provenait pas d'une contamination humaine.
En 2007, une équipe internationale d'astrobiologistes a montré, en reproduisant, en laboratoire, les conditions d'impact d'un astéroïde, la possibilité d'un transfert de vie entre Mars et la Terre. En 2010, avec le télescope infrarouge de la Nasa installé sur le M'auna Kea, à Hawaï, une autre équipe américaine avait détecté de la glace d'eau et des composés organiques (briques élémentaires de la vie) sur l'astéroïde 24 Themis. Cette découverte avait alors conforté l’hypothèse selon laquelle l’eau des océans, ainsi que les molécules nécessaires à l’apparition de la vie, proviendraient d’astéroïdes.
En mars 2011, une équipe de chercheurs de la Nasa dirigée par Richard Hoover a découvert sur trois météorites des traces de bactéries fossilisées autochtones dont la structure montre qu'elle ne peuvent pas provenir d'une contamination par des micro-organismes terrestres et qui viendraient donc bien de l'espace. Toujours en 2011, une autre équipe de la NASA, après avoir analysé neuf météorites tombées notamment en antarctique, ont identifié de l'adénine, et la guanine, qui sont des composants de l’ADN.
On voit donc que depuis une dizaine d'années l'accumulation des observations et des expérimentations valide, d'une part, l'hypothèse que la vie est infiniment plus résistante et adaptable qu'on ne l'imaginait et, d'autre part, que l'apparition de la vie sur terre pourrait avoir été provoquée par des micro-organismes extra-terrestres amenés sur notre planète par des comètes et par l'apport d'eau extraterrestre contenue dans les astéroïdes.
En outre, début 2012, une équipe de recherche française a estimé pour la première fois le nombre de planètes existant dans notre galaxie à 240 milliards ! Sur l'ensemble de ces planètes, plus d'un milliard de planètes pourraient être semblables à la Terre et présenteraient des conditions physico-chimiques qui rendraient possible l'apparition et le développement de la vie, selon une autre étude réalisée en 2002 par des astronomes britanniques de l'Open University.
On voit donc, à la lumière de toutes ces avancées et observations scientifiques, que ces deux hypothèses en entraînent une troisième encore plus vertigineuse : la vie, loin d'être un phénomène tout à fait exceptionnel, liée à un extraordinaire concours de circonstances dont la terre aurait été le théâtre, pourrait être, au moins sous ses formes les plus rudimentaires, relativement répandue dans l'univers, surtout si l'on prend en compte le nombre gigantesque de planètes dans le Cosmos. La mise en service de la prochaine génération d'outils d'observations et d'analyses astronomiques et cosmologiques et la poursuite des voyages d'exploration spatiale dans notre système solaire permettront peut-être dans les décennies à venir de découvrir ou observer indirectement des traces de vie extraterrestres.
L'un des grands défis scientifiques et théoriques de ce siècle sera donc de savoir si la vie, même sous des formes très étranges, est bien présente ailleurs que sur terre (il n'est d'ailleurs toujours pas exclu qu'elle existe dans le sous-sol martien ou dans les profondeurs liquides d'Europe, l'un des satellites de Jupiter) ou si nous devons nous résoudre finalement à accepter l'idée qu'elle n'est apparue sur notre planète qu'à la suite d'une succession de circonstances si exceptionnelles et improbables qu'elles n'ont aucune chance de s'être reproduites ailleurs dans l'Univers.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
La vision des réseaux optiques de Martin Maier, ingénieur et professeur au Centre Énergie Matériaux Télécom- munications de l'INRS (Canada), pourrait bien changer la façon dont on communique et distribue l'information, mais aussi l'énergie. Formé en génie électrique dans son Allemagne natale, sa préférence pour la fibre optique étonne. C'est que les fils de cuivre qui servent à acheminer l'électricité ne sont pas fameux pour le transport d'information, n'en déplaise à messieurs Morse et Bell. « La bande passante et la vitesse y sont limitées, explique le professeur, sans compter que les fils s'oxydent et ont une durée de vie limitée. La fibre optique décuple les possibilités de transmission et surtout, elle est pratiquement inusable. »
Martin Maier ne se qualifie pas pour autant de spécialiste de la fibre, lui dont la spécialité est les réseaux, plus particulièrement l'architecture des réseaux. Avec d'autres spécialistes de partout dans le monde, il construit l'Internet nouveau, un Internet tout en fibre optique, où le fil électrique n'aura plus sa place.
C'est à la Technical University de Berlin qu'il a fait ses études d'ingénieur électrique et informatique. En 2005, il débarque au Québec pour entrer à l'INRS et y fonder l'Optical Zeitgeist Laboratory, une infrastructure vouée à fournir un aperçu des technologies, des protocoles et des algorithmes qui formeront l'avenir des réseaux optiques, et à démontrer leur intégration parfaite avec la prochaine génération d'accès réseaux sans fil à large bande. Car actuellement, on peut diviser le Web en deux parties : il y a le noyau ou le cœur, c'est-à-dire l'ensemble des grands serveurs de la planète qui s'échangent en continu des masses colossales d'information. Et il y a les accès à ce noyau, les branchements qui relient chaque utilisateur à cette masse de données. Alors que les communications dans le noyau bénéficient présentement de la performance de la fibre optique, les connexions au noyau se font encore par des fils de cuivre (câbles coaxiaux ou téléphoniques). Martin Maier rêve du moment où la fibre optique se rendra directement jusqu'à l'utilisateur. Ce sera la fin du cuivre et l'avènement du tout optique : « Dopé par la capacité de transmission des fibres optiques, c'est seulement à ce moment qu'Internet pourra déployer tout son potentiel », s'enthousiasme-t-il.
Après le WiFi, pour Wireless Fidelity, viendra donc le FiWi, pour Fiber-Wireless. En combinant la capacité des réseaux de fibre optique avec l'ubiquité et la mobilité des réseaux sans fil, les réseaux FiWi formeront une puissante plate-forme. Ils permettront le support et la création d'applications et de services émergents ou jamais vus, comme la télévision HD et la téléprésence, qui permettra de voir, d'entendre et même de manipuler des objets à distance lors de vidéoconférences par exemple.
Et ce n'est pas tout ! « Le changement que le Web a apporté à notre façon de partager l'information, il va l'apporter aussi à notre façon de partager l'hydroélectricité », prédit l'ingénieur. Au Québec, l'énergie électrique est générée dans quelques grosses centrales avant d'être transmise directement vers les utilisateurs. Un peu comme autrefois l'était l'information, émise à sens unique par la radio, la télé, les journaux… Mais l'avènement du Web a tout bouleversé : les utilisateurs eux-mêmes alimentent le flux d'information en ajoutant les leurs et le réseau n'est plus seulement vertical (des centrales vers les utilisateurs), mais aussi horizontal (d'utilisateur à utilisateur).
Imaginez maintenant un Québec où le réseau électrique ressemble à celui du Web : chaque utilisateur produira un peu d'électricité (par le solaire, l'éolien ou les piles à combustible) et l'injectera dans le réseau. En contrepartie, nous aurons des voitures électriques rechargeables qui, une fois stationnées et branchées sur le réseau, deviendront des parties de ce réseau et serviront à autre chose : leur électricité pourra être utilisée pour recharger un autre appareil qui en a un besoin plus pressant… « Tout cela nécessitera un réseau intelligent, souligne Martin Maier. On l'appelle déjà la Smart Grid, la grille intelligente. Le couplage entre le réseau électrique et Internet sera très intime, et il permettra de tout analyser en continu. Le système prendra l'énergie où il y en a trop pour l'acheminer là où il y a une demande. Cet équilibre constant fera diminuer les pics et les creux de demande en électricité. »
Enerzine
|
|
|
|
|
|
|
|
Une esthétique 8-bits, des niveaux plutôt relevés, et un personnage attachant. Santa Needs Help a toutes les caractéristiques des petites productions ludiques. Mais ce jeu de plates-formes a la particularité d'avoir été créé par ANGELINA (pour A Novel Game-Evolving Labrat I’ve Named ANGELINA) , une intelligence artificielle, spécialement dédiée à la création de jeux. Dans les applications ludiques conçues par ANGELINA, les niveaux, les obstacles et les objets à collecter sont créés de façon aléatoire. "Il y a seulement peu de temps que nous nous sommes demandés si nous pouvions générer, de façon procédurale, l'ensemble des éléments", explique Michael Cook de l'Imperial College London à l'origine de l'initiative, sur le New Scientist.
D'après les documents techniques de M. Cook (.pdf), la grammaire ludique se compose de trois éléments essentiels, analysés par ANGELINA. La carte, qui "définit les lieux que le joueur peut franchir ou non", l'agencement du personnage principal et des personnages non-joueurs, et les règles proprement dites. A partir de ces éléments fondamentaux, l'intelligence artificielle produit différents types de jeux. "Les productions que peut actuellement réaliser ANGELINA sont pour l'heure de simples jeux d'arcade, mais nous avons l'intention de développer des jeux plus sophistiqués à l'avenir", soulignent les initiateurs du projet.
Si l'initiative est séduisante, le résultat final n'est pas toujours à la hauteur. Dans les premiers tests de l'intelligence artificielle, les universitaires ont analysé 100 jeux, générés aléatoirement. Sur ce corpus, seulement 3 étaient parfaitement jouables, montrant que le chemin est long pour que la machine remplace les gamedesigners. Les créateurs d'ANGELINA ont toutefois intégré un autre paramètre, qui en permettant de simuler le jeu d'un humain, est censé réduire le nombres de titres injouables, souligne le site Ars Technica. Si, avec ANGELINA, les jeux sont créés ex nihilo, ce n'est toutefois pas la première fois que les créateurs de jeux utilisent des techniques procédurales. "Alors que les consommateurs attendent une plus grande profondeur dans le contenu des jeux, les techniques de génération procédurale permettent d'alléger le fardeau des développeurs, et ouvrir la voie à des jeux plus dynamiques et intéressants", selon M. Cook.
Le Monde
|
|
|
|
|
|
|
|
Une étude du Boston Consulting Group chiffre à 4.200 milliards le poids de l'économie Internet en 2016, contre 2.300 milliards en 2010. Parmi les pays du G20, le Royaume-Uni afficherait la contribution d'Internet au PIB la plus forte, devant la Corée du Sud.
Si le réseau Internet était un pays, il serait en voie de devenir la cinquième puissance économique du monde en 2016, derrière seulement les Etats-Unis, la Chine, le Japon et l'Inde, et devant l'Allemagne, selon une étude du cabinet de stratégie Boston Consulting Group. Dans quatre ans, il y aura 3 milliards d'internautes dans le monde, contre 1,9 milliard en 2010 et l'économie Internet devrait représenter 4.200 milliards de dollars dans les pays du G20, contre 2.300 milliards de dollars en 2010, prédit BCG dans son rapport publié récemment.
Cet essor, chiffré à quelque 10 % par an, est porté par deux tendances de fond : l'accès à Internet sur appareils portables et l'Internet «social», où la navigation est largement guidée par affinités. «Dans le monde en développement en particulier, beaucoup de consommateurs vont « directement au social », explique cette étude, fruit de trois ans d'enquêtes menées dans une cinquantaine de pays.
Parmi les pays du G20, le Royaume-Uni est largement en tête pour ce qui est de la contribution d'Internet à l'économie globale du pays : en 2016, Internet devrait y représenter 12,4 % du produit intérieur brut (PIB), faisant bien mieux que la Corée du Sud (8 %), l'Europe des 27 en général (5,7 %), les Etats-Unis (5, 4%), le Canada (3,6 %) ou la France (3,4 %). En Chine, où la population d'internautes explose, la Toile devrait représenter 6,9% du PIB.
- Un atout pour les entreprises
BCG note enfin qu'Internet est un atout pour les entreprises : «Dans plusieurs pays, dont la Chine, l'Allemagne, la Turquie et la France, les petites et moyennes entreprises qui ont des relations actives avec les consommateurs sur Internet ont vu leurs ventes progresser plus vite que celles des entreprises avec peu ou pas de présence sur Internet, avec une différence représentant jusqu'à 22 points de pourcentage», selon BCG. «En encourageant les entreprises à se mettre à Internet, les pays peuvent améliorer leur perspectives en termes de concurrence et de croissance», conclut un co-auteur du rapport, Paul Zwillenberg, associé chez BCG.
Les Echos
|
|
|
|
|
|
|
|
Le lancement des facebook credits en juillet 2010 avait fait repartir le débat autour de l'enjeu des monnaies virtuelles. Que sont-ils, ces "crédits" ? Très simple, en échange de votre argent (classique, soit le hard money), vous recevez des facebook credits qui vous autoriseront à acheter des biens virtuels ou des accès à des jeux. C’est avec le jeu Farmville de Zynga que cette monnaie virtuelle avait connu son heure de gloire. Ces monnaies vont-elles détrôner les monnaies classiques, sonnantes et trébuchantes ? Nous verrons dans les douze prochains mois. C’est ce que l’on pouvait entre autres retenir de la conférence "Credit coins social cash : social currency & finance 2 .0", proposée lors du SXSW, qui s'est tenue à Austin.
En attendant, voici les freins à leur expansion : elles ne sont pas vraiment reliées à la vie réelle non connectée. Ce sont des monnaies à sens unique. Une fois que vous avez donné de l’argent à facebook, Microsoft ou d’autres acteurs, vous n’avez plus aucun droit sur votre compte virtuel. Les conditions d’utilisation peuvent changer, l’entreprise peut faire faillite et vous ne récupèrerez rien. Les fournisseurs de virtual currencies ne vous fournissent pas assez l’équivalent réel de vos achats en ligne. Cela revient à vous faire croire que vous utilisez des billets de Monopoly, ou des colliers de perle comme ceux qui étaient utilisés par le Club Med pour que ses clients règlent leurs consommations.
Autre chose : elles sont rarement compatibles entre elles. Si elles peuvent enfin être échangées contre de l’argent classique, elles deviendront des proies pour les truands. Elles sont rarement accolées à des banques (en dehors du projet Entropia en Suède). Si cela ne suffisait pas, les pays – telle la Corée du Sud - ou des structures étatiques sont de plus en plus nombreux à vouloir récupérer une partie de cette manne qui reste en ligne, dans les nuages. Des taxes devraient donc se mettre en place. Ces taxes pourraient aussi être assorties de régulation, mais cela ne pourra être que bénéfique pour le consommateur.
L'Atelier
|
|
|
|
|
Ouest-France, en collaboration avec l'éditeur Rue des écoles, accompagne les élèves, du CP à la Terminale, dans leurs apprentissages (français, maths, anglais...) avec le site Internet Meilleurenclasse.com, mis en ligne très récemment.
Conçu comme un complément aux apprentissages scolaires, Meilleurenclasse.com propose, après une évaluation gratuite des connaissances de l'élève, un programme d'entraînement adapté à ses besoins à partir de 5,50 euros par mois, un accès à des fiches de cours et au téléchargement d'ouvrages complémentaires.
Les contenus pédagogiques (5 000 exercices) ont été conçus par des enseignants, à partir des programmes de l'Education Nationale.
Pour les parents, le site donne des clés pour comprendre l'école et identifier ce qu'elle attend d'eux. Il leur permet également de suivre l'activité de leurs enfants et de mesurer les progrès accomplis grâce aux exercices en ligne.
Journal du Net
|
|
|
|
|
|
|
|
Une révolution en perspective pour les réseaux sans fil ? Peut-être : une équipe de chercheurs suédois et italiens vient en effet de présenter un nouveau moyen de transmettre des informations par radio, permettant d'exploiter sur une même fréquence une multitude de canaux, voire, en théorie du moins, une infinité... Comment faire ? En tordant les ondes comme des pâtes fusilli, explique à Futura-Sciences un chercheur italien membre de l'équipe.
Il suffit d’essayer d’envoyer plusieurs SMS à minuit le 1er janvier pour se rendre compte du problème de l’engorgement des ondes radio. Et ce n’est qu’un début, puisqu’avec la multiplication des smartphones et la mise en place de la TNT, les bandes de fréquences radio risquent de rapidement saturer. Pour augmenter la capacité de transmission, le seul moyen actuellement disponible est d'élargir les bandes de fréquences. Mais la méthode trouve ses limites quand, à force d'inflation, ces bandes réservées à différents utilisateurs (3G, militaires, aéronautique...) menacent de se superposer.
Depuis quelque temps, des scientifiques planchent sur un autre procédé pour moduler des ondes radio, un peu comme si l'on exploitait une dimension supplémentaire. Longtemps resté une possibilité théorique, l'exploit vient d'être réalisé lors d'une véritable transmission radio par une équipe de scientifiques italiens et suédois. De quoi bouleverser l’univers du sans-fil dans les prochaines années et, pourquoi pas, rendre possible le visionnage de vidéos en 3D et en HD sur les smartphones. Comment ? « En donnant aux ondes une forme torsadée, à l'aspect d'une pâte fusilli », a expliqué à Futura-Sciences, Fabrizio Tamburini, docteur à l’université de Padoue, en Italie, qui porte le projet. La forme de l’onde est générée par une antenne hélicoïdale parabolique. L’onde est enroulée autour de son axe plusieurs fois dans le sens des aiguilles d'une montre. Au final, représentées en 3D, ces ondes ressemblent effectivement à des pâtes de blé torsadées, autrement dit, des fusilli.
Modeste, le chercheur précise que finalement, les scientifiques n’ont pas inventé grand-chose : « Il ne s’agit pas de techniques difficiles mais uniquement d'une autre façon de réfléchir sur les lois physiques de base. ». Cette technique repose en effet sur un phénomène de physique quantique connu. Les photons, vecteurs des ondes électromagnétiques, peuvent présenter un moment angulaire supplémentaire, appelé moment angulaire orbital, ou OAM, pour Orbital Angular Momentum. Un peu comme si les ondes tournaient sur elles-mêmes. Dans un même faisceau, de fréquence unique, plusieurs photons peuvent présenter des OAM différents. Si on parvient à moduler indépendamment plusieurs ondes présentant des OAM différents, on peut encoder autant de signaux. D'où la possibilité de créer plusieurs canaux sur une même bande de fréquence. Découvert dans les années 1930 sur le plan théorique, cet OAM est resté longtemps hors de portée des technologies. Depuis quelques années, on commence à savoir le maîtriser et donc à le moduler.
Pour expérimenter cette théorie, les chercheurs ont effectué une démonstration publique devant 2.000 personnes... à Venise, une ville idéale pour présenter une multiplication des canaux. L'endroit a été choisi pour des raisons historiques : c'est là que Guglielmo Marconi a effectué plusieurs expériences de radiotransmission entre Venise et son yacht, l'Elettra.
Franchissant 442 mètres, l'émission transmettait un faisceau d'« ondes fusilli » sur une unique bande de fréquence étroite, à 2,414 GHz mais avec deux canaux. L'une des ondes était « tordue » et l'autre présentait un OAM nul. Entre l'île de San Giorgio et le palais des Doges, l’antenne de réception a pu capter les deux flux d'ondes, l'une transportant l'image de barres colorées, l'autre de la baie. Il suffisait, pour passer de l'une à l'autre, de bouger la petite antenne du récepteur. On peut regarder la vidéo de l'expérience (en anglais) sur le site du New Journal of Physics, où les résultats ont été publiés. Lorsqu’on l'interroge sur l’avenir de cette découverte, Fabrizio Tamburini dit y croire vraiment. Il indique même qu’un brevet a déjà été déposé et que plusieurs entreprises souhaitent investir dans le développement de ces recherches.
Futura Sciences
|
|
|
|
|
|
|
|
Du point de vue des recruteurs, les réseaux sociaux en diraient plus sur nous que l’on ne pourrait le croire, notamment sur la manière dont nous sommes susceptibles de réagir dans le milieu professionnel.
Vous pensez peut-être : "J'ai pris soin d’enlever de ma page Facebook toute photo compromettante, tout commentaire et message indiscret sur mon mur" – et pourtant, vous serez quand même percé à jour par vos futurs employeurs. En vous évaluant sur certains critères clés de votre personnalité, vous pourriez attirer l’attention quant à votre lucidité mais faire peur quant à votre degré zéro de sociabilité…
Et oui, car d’après une publication du Journal of Applied Social Psychology, les profils utilisés par les médias sociaux en diraient plus sur nous que l’on ne pourrait le croire, notamment sur la manière dont nous sommes susceptibles de réagir dans le milieu professionnel. Comment ? Avant tout parce que le Web nous fournit un degré d’interactivité difficilement atteignable dans la vie réelle, mais aussi parce que les réseaux sociaux, en connectant les utilisateurs avec les autres, affichent par là des renseignements personnels sur les goûts de chacun, sur l’appartenance identitaire d’un individu, et sur la manière dont chacun compense "un manque de signaux non verbaux" en créant de nouvelles interactions sociales.
Deux études ont permis d’arriver à ces conclusions. Des chercheurs de l'Université Northern Illinois, l'Université d'Evansville et l'Université d'Auburn, six professionnels des ressources humaines ont évalué un échantillon de 500 personnes sur cinq traits de personnalité - les "Big Five" - et ce uniquement à travers l’analyse de leurs profils de réseaux sociaux. En travaillant moins d’une demi-heure par jour, avec une moyenne de 5 à 10 minutes par profil, ils ont déterminé cinq critères : la stabilité émotionnelle, la lucidité, l’extraversion, la convivialité, l’ouverture à de nouvelles expériences. Les participants ont ensuite été invités à s’auto-évaluer, et à faire un test de QI.
- Forte corrélation entre les traits de personnalité et les profils Facebook
Six mois après l’expérience, les chercheurs ont demandé aux employeurs des participants d’évaluer leur rendement au travail. Ils ont constaté une forte corrélation entre les traits de personnalité exprimés par l’employeur et les évaluations faites grâce aux profils Facebook des candidats. Plus important encore, ils ont constaté que les évaluations Facebook étaient plus précises qu’un test de QI pour juger du rendement au travail d'une personne.
Par exemple, une personne en faiblesse émotionnelle se reconnaît dans le fait de publier du contenu intime quant à ses expériences personnelles ou ses émotions. Les personnes de confiance et sociables affichent elles plus de renseignements sur leurs goûts. Parler de ses goûts musicaux, artistiques, littéraires, ou poster des commentaires sur un groupe Facebook montre par ailleurs une personnalité ouverte, créative, avec une forte curiosité intellectuelle. Enfin, plus on a d’amis, plus on a de chance d’être perçu comme un extraverti.
Bien que cette étude se révèle utile pour les employeurs, Donald Kluemper, le chercheur principal de l'étude, a déclaré que ceux-ci doivent faire preuve de prudence, notamment d’un point de vue éthique. "Je n'irai pas jusqu'à dire que cette étude devrait être utilisée comme une raison suffisante pour utiliser Facebook dans le recrutement." En effet aujourd’hui utiliser les informations d’un profil Facebook reste encore illégal. Ne serait-ce que pour y éviter la discrimination, car n’oublions pas que le sexe d'une personne, sa "race", son âge et autres signes distinctifs peuvent être visibles sur le profil Facebook d’un individu. Et pourtant, une étude (2011) par le service des médias sociaux Reppler révèle que 90 % des recruteurs et RH utilisent les données Facebook pour juger d’un candidat à l’embauche.
Atlantico
|
|
|
|
|
|
|
|
Pouvoir transmettre directement sur sa tablette les informations collectées lors de la visite d'un patient au sein d'un hôpital améliorerait l'efficacité des professionnels du secteur. Le rapport au malade en bénéficierait aussi.
L'utilisation de technologies dans le secteur médical augmenterait l'efficacité du travail des médecins, estime une étude de l'université de médecine de Chicago qui, depuis novembre 2010, a mis à disposition de chacun de ses 115 internes une tablette iPad. Interrogés en 2011 sur leurs pratiques, trois internes sur quatre révèlent que l'outil leur a permis de terminer leurs tâches plus rapidement et leur a même libéré du temps pour être en contact plus direct avec le patient. L'étude s'est déroulée en deux parties : un sondage auprès des internes en 2011 et une comparaison avec les données collectées par l'hôpital dans la prise en charge des patients sur les mois de janvier, février et mars 2010.
- Une intégration bénéfique
Le sondage montre que 90 % des internes ont utilisé quotidiennement leurs tablettes dans leur travail, 78 % ont ressenti que l'outil les a rendu plus efficaces et 68 % déclarent qu'il a permis de réduire les retards dans le processus de soin. La comparaison avec les informations effectives prouve les résultats de l'enquête. Lors de l'introduction des tablettes, les internes ont réalisé 5 % de prise en charge de patient en plus qu'en 2010 avant 7h. Ils ont également transmis 8 % de dossiers supplémentaires à d'autres services avant de quitter l'hôpital vers 13h, respectant leur temps de travail. L'iPad est un outil compatible avec le devoir du médecin de conserver le secret médical, note le rapport.
- Une adoption encore trop parcellaire
Chaque interne possède en effet une tablette protégée par un mot de passe. Il peut également avoir accès au réseau sans fil de l'hôpital, mais surtout il dispose d'un bon nombre d'applications tels que les accès au journal médical et au système informatique principal. Il favorise ainsi la transmission d'informations entre les différents services. Cette expérience, si elle a été concluante, reste cependant une exception dans le pays : L'Atelier évoquait ainsi récemment une étude du PwC Health Research Institute, qui soulignait que les professionnels du secteur reconnaissent les bienfaits des solutions informatiques et technologiques existantes. Mais qu'ils sont encore peu nombreux à véritablement les utiliser.
L'Atelier
|
|
|
|
|
|
|
|
Tout le monde a déjà vécu cette situation. Au moment de passer à la caisse d’un supermarché, qu’elle soit automatique ou non, impossible pour le scanner de déchiffrer le code-barre d’un produit. La conséquence est en général une attente qui semble durer une éternité pour les clients suivant, durant laquelle le caissier doit taper un à un les chiffres correspondant à votre boîte de ravioli ou votre sandwich de midi.
Pour les impatients des grandes surfaces, le jour de gloire est peut-être arrivé, explique DigitalTrends. La compagnie japonaise Toshiba développe actuellement un scanner capable de reconnaître les objets selon leur forme et leur couleur. Sans code barre. L’appareil, baptisé pour l’instant Object Recognition Scanner (ORS), fonctionne avec une caméra associée à une base de données. Une invention qui pourrait se montrer particulièrement utile pour les fruits et légumes, explique Keiichi Hasegawa, un des ingénieurs à l’origine du projet.
«Les fruits et légumes n’ont en général pas de code barre, puisqu’ils doivent arriver rapidement sur les rayons lorsqu’ils sont frais. Les employés doivent donc les enregistrer manuellement. Cela prend du temps et peut poser problème pour ceux qui travaillent à temps partiel ou depuis peu, et ont souvent du mal à reconnaître les produits.»
Plus besoin de taper un code interminable. En plaçant tomates et courgettes devant le capteur, le nom du produit s’affiche immédiatement. De plus, le processus est rapide et fonctionne même si l’objet n’est pas tenu parfaitement immobile. Un gain de temps, mais aussi d’argent. Car le dispositif permet une identification parfois plus précise que celle du meilleur des caissiers, affirme un porte-parole de l’entreprise au LA Weekly : «La Fuji et la Jonagold sont deux pommes qui viennent de la même souche. Si vous n’êtes pas un connaisseur, elles peuvent vous sembler identiques, alors qu’elles n’ont pas le même prix. Mais ce scanner peut les distinguer, en reconnaissant de subtiles différences de forme et de couleur.»
Les supermarchés ont de plus en plus tendance à devenir des concentrés de technologie. En février 2011, nous vous parlions déjà de scanners faciaux installés dans les grandes surfaces et destinés à suggérer des menus au consommateur en panne d’inspiration. Autre exemple : l’intégration d’un GPS dans les chariots, afin de suggérer des achats au client en fonction du rayon dans lequel il se trouve.
Slate
|
|
|
|
|
|
|
|
Peut-on imaginer mettre au point un ordinateur parfait capable d'effectuer des opérations logiques sans consommer aucune énergie ? A cette question, Rolf Landauer a répondu non en 1961. Le physicien américain avait en effet remarqué qu'à chaque fois qu'un bit d'information est créé, la mémoire binaire de l'ordinateur se voit réduite à un seul de ses deux états possibles.
Faisant le lien avec la thermodynamique, Landauer a proposé que cette diminution du désordre exige pour être réalisée une quantité minimale d'énergie dont la valeur est aujourd'hui connue sous le nom de limite de Landauer. Vérifiée par des simulations numériques, cette énergie extrêmement faible (un milliard de fois plus petite que l'énergie nécessaire pour réchauffer d'un degré un micron cube d'eau) n'avait encore jamais été mesurée expérimentalement.
Dans l'expérience des chercheurs, c'est une bille en silice de 2 microns qui a joué le rôle du bit d'information. Plongée dans un liquide, la particule a été immobilisée par le faisceau extrêmement focalisé d'un laser, un instrument appelé ''pince optique'' couramment utilisé par les physiciens ou les biologistes.
Pour leur expérience qui exige une très grande précision, les chercheurs ont conçu et construit eux-mêmes le dispositif de manière à le rendre totalement stable et insensible aux perturbations extérieures. Un deuxième piège optique identique a ensuite été focalisé juste à côté du premier. La bille microscopique peut ainsi occuper indifféremment deux positions possibles, tout comme un bit d'information peut prendre la valeur 0 ou 1. Les chercheurs ont ensuite créé un petit écoulement dans le liquide, de la droite vers la gauche, obligeant la particule à finir sa course dans le piège de gauche. Comme si on imposait au bit de prendre la valeur 1 par exemple.
Répété un très grand nombre de fois, ce cycle a été filmé par une caméra rapide à plus de 1 000 images par seconde. Connaissant avec précision la position de la particule, la vitesse d'écoulement du fluide ainsi que sa viscosité, les chercheurs ont pu ainsi mesurer l'énergie moyenne nécessaire pour faire passer la bille du piège de droite vers le piège de gauche. Et ils ont alors remarqué que pour des vitesses d'écoulement très lentes, cette énergie était minimale et correspondait précisément à la limite de Landauer.
Si en informatique, le résultat n'offre pas de perspectives immédiates, nos ordinateurs étant encore très loin de fonctionner à la limite de Landauer, les nanotechnologies en revanche pourraient en bénéficier dans un futur proche. L'énergie dépensée par un système nanométrique est en effet comparable à celle mesurée par les chercheurs. Un paramètre important à prendre en compte si l'on veut mettre au point des machines miniatures capables de travailler avec une grande efficacité.
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
L'industrie française est en retard pour s'équiper en robots. Notre pays en compte 34.000 quand l'Allemagne, modèle tellement vanté, en totalise 150.000 et l'Italie 64.000. L'opération « robotlocaliser », lancée en 2005 par le Syndicat des entreprises de technologie de production (Symop), se poursuit avec l'ambition de montrer que les robots sont un moyen de lutter contre la délocalisation par les gains de productivité générés.
Au-delà du coût de tels automates -des réflexions sont d'ailleurs en cours avec le ministère de l'Industrie pour mettre en place des aides financières -, il faut vaincre certaines réticences des partenaires sociaux, entre autres. A ce propos, la robotique de service (à usage domestique, médicale, mobilité...) qui, beaucoup plus populaire, a tenu son deuxième sommet Innorobo à Lyon du 14 au 16 mars à l'initiative de Syrobo (fédération professionnelle), est susceptible de faire avancer les mentalités. «Nous sommes conscients qu'il existe des convergences sur un certain nombre d'applications. Ces deux univers peuvent se nourrir et s'enrichir mutuellement et nous donner accès à des outils améliorant encore la sécurité et réduisant la fatigabilité de certaines tâches», atteste Vincent Schramm, directeur général du Symop. Il en va ainsi pour les exosquelettes, structures externes au corps réduisant ou remplaçant l'effort musculaire. Dans ce registre, le groupe français RB3D a présenté, à Innorobo, Hercule, un prototype de jambes à enfiler pour démultiplier les capacités de l'être humain à transporter jusqu'à 100 kilos sans effort : le poids est porté par le robot et non les muscles.
La passerelle avec le monde professionnel est évidente eu égard à la prévention des troubles musculo-squelettiques, un des maux du siècle. Par ailleurs, la notion de « cobotique » ou robotique «collaborative» selon laquelle le robot devient co-équipier, intéresse également la robotique industrielle. En la matière Kibo-kist, spécimen humanoïde sud-coréen, a effectué à l'occasion d'Innorobo son premier voyage hors de son pays. Mesurant 1,20 mètre et pesant 43 kilos, cet assistant de vie est conçu pour interagir avec l'humain tout en exprimant dix émotions. De nationalité britannique, Robothespian est, lui aussi, un robot humanoïde, grandeur nature, programmé pour l'interaction humaine et le divertissement.
Au total, une centaine de robots de quatorze nationalités différentes -la moitié d'entre eux n'a encore jamais été présentée en Europe – ont fait leur show au Palais des congrès de Lyon. En amont, «nous avons amplifié nos relations avec les centres de recherche comme le GDR qui regroupe une soixantaine de laboratoires, le CEA et avec les écoles. Par exemple l'Ecole supérieure de physique, chimie et électronique de Lyon a pris un stand et ouvrira à la prochaine rentrée une formation à la robotique», se réjouit Bruno Bonnell, président de Syrobo et fondateur de Robopolis devenu premier distributeur européen de robots de service (aspirateurs, tondeuses... autonomes ). Dynamique, ce marché qui pèse aujourd'hui 3,5 milliards de dollars (2,6 milliards d'euros) à l'échelle planétaire, devrait atteindre les 100 milliards de dollars en 2020 selon l'International Fédération of Robotics.
Les Echos
|
|
|
|
|
|
|
|
Les robots ne ressemblent pas à C3PO, il sont pourtant de plus en plus présents dans notre quotidien. Utilisés depuis une cinquantaine d’années dans les usines pour le soudage ou la peinture, ils ont récemment fait leur entrée dans les foyers. Le robot aspirateur, qui traque tout seul les grains de poussière jusque sous les meubles en votre absence, est disponible dans les rayons des magasins d’électroménager. Selon l’entreprise américaine iRobot, un des leaders du secteur, plus de six millions d’entre eux ont déjà trouvé preneur dans le monde.
Autre succès commercial, les robots tondeuses à gazon se multiplient sur les pelouses romandes. «La demande explose, raconte Marc Keller, responsable d’Arobeco, une société vaudoise spécialisée dans les robots de tonte. En Suisse, 6.000 robots de tonte ont trouvé preneur l’an dernier, contre un peu moins de 4.000 en 2010. A mes débuts il y a cinq ans, mes clients étaient surtout des gens à l’esprit avant-gardiste, qui voulaient tester de nouvelles choses. Aujourd’hui, c’est Monsieur et Madame tout le monde.»
Dans le registre des robots de ménage, on trouve encore l’appareil qui sèche et repasse les chemises, ainsi que celui qui récure le carrelage sans que l’on ait à lever le petit doigt. Et on devrait bientôt voir arriver de nouveaux spécimens. «Les robots se trouvent dans une nouvelle phase, note Dario Floreano, professeur à l’EPFL et directeur du Centre national suisse de recherche en robotique. Ils quittent les laboratoires pour faire leur entrée dans les ménages, une tendance qui va s’accentuer ces prochaines années.» Mais à quoi ressembleront les robots de nouvelle génération ? «Ils seront plus intelligents, davantage capables de s’adapter à des environnements différents et d’interagir avec les humains. Ils seront aussi plus doux, un peu comme de la chair, donc plus sûrs et plus faciles à contrôler.»
Les nouvelles technologies robotiques ouvrent la porte à une foule d’applications potentielles. Le chercheur lausannois évoque l’exemple de lits qui s’adaptent à leurs occupants, qui changent en fonction de leur poids, de leur température, des battements de leur cœur et de la qualité de leur sommeil. Autre projection : une table de salon se transformant en chaise, puis redevenant table, selon les besoins. Ou encore une boîte à jouets qui se déplace et invite les enfants à mettre leurs effets dedans.
L’EPFL travaille actuellement sur la lecture des signaux envoyés par le cerveau, lecture qui donnerait aux robots la possibilité d’estimer les intentions humaines. Cette avancée pourrait par exemple être utilisée afin d’augmenter la sécurité dans les véhicules. L’idée relève d’un contrôle partagé : la voiture serait capable de prendre le relais quand le conducteur est fatigué ou s’il a trop bu.
Pour Dario Floreano, les avancées de la recherche pourraient aussi trouver leur place dans le débat sur la maîtrise des coûts de notre système social. «La prise en charge des personnes âgées dans des maisons de retraite est extrêmement chère. Avec le vieillissement de la population, nous avons besoin d’autres options. Des choses très simples, comme un robot mobile qui perçoit les mouvements et peut appeler à l’aide en cas de problème, pourraient permettre aux gens de rester plus longtemps à la maison.»
Largeur
|
|
|
|
|
|
|
|
Chez les robots aussi, le made in France est à la mode. Nao, le petit humanoïde (58 cm) d'Aldebaran Robotics a été vendu à 2.000 exemplaires, en grande majorité à l'étranger (85 %), essentiellement au Japon et aux Etats-Unis. Conçu par la PME française comme une plate-forme de recherche, il va bientôt être rejoint par Roméo. Tête ronde d'un enfant, 1,43 mètre pour 40 kilos, cet autre robot humanoïde doit être lancé dans le courant de l'été.
Une arrivée très attendue, alors que vient de se tenir à Lyon le Salon Innorobo, qui est un peu la « fashion week » de la robotique : une centaine d'exposants venus du monde entier et au moins autant de robots. Les machines à l'image de l'homme voisineront avec des robots moins ludiques, mais tout aussi -voire plus- utiles.
Si beaucoup de laboratoires mettent au point « leur » robot, le marché, lui, se cherche encore malgré des prévisions alléchantes. De 2009 à 2020, il devrait passer de 13,5 milliards à 100 milliards de dollars, selon l'International Federation of Robotics, et serait dominé à 85 % par la robotique de service, les 15 % restants étant dédiés à la robotique industrielle. Pour l'heure, on est loin du compte, les engins professionnels, civils et militaires (inspection en milieu hostile, démolition, nettoyage...) ayant généré en 2010 un chiffre d'affaires mondial de 3,2 milliards de dollars (+ 15 %) et de 538 millions de dollars (+ 39 %) pour les robots de service personnels (assistance, domotique, éducation...). Cela, alors que les prévisions font état pour ces derniers de 35 milliards de dollars en 2025, selon la Japan Robotics Association.
Aujourd'hui, le problème ne vient pas tant de l'offre que de la demande : un robot, oui, mais pour quoi faire ? A mesure que les machines arrivent à maturité, leur avenir se dessine davantage autour de leurs fonctions que de leur look. A Nice, l'Inria utilise un mannequin, Charlie, pour mettre au point un prototype de robot conçu pour les personnes à mobilité réduite. Installée dans un laboratoire-appartement, cette plate-forme expérimentale est surmontée de câbles et de poulies. Il s'agit d'un « robot parallèle à câbles », capable d'extraire une personne de son lit, de l'installer sur un siège ou de la soutenir dans un harnais pour ses déplacements à l'intérieur de la maison. Actuellement en phase d'homologation, il ne devrait pas être commercialisé avant plusieurs années.
D'autres domaines, comme la rééducation physique, voient également une demande émerger. A la frontière du civil et du militaire, l'exosquelette est une structure extérieure au corps, qui offre de nombreuses possibilités y compris celle de porter de lourdes charges. Hercule, qui sera produit à partir de 2015, sera fabriqué par une PME de l'Yonne, RB3D. Doté d'une centrale inertielle, il doit aider les soldats, les pompiers ou les secouristes à porter leurs équipements.
La vraie percée, ce sont les robots domestiques, dont les ventes en 2010 ont atteint 369 millions de dollars. D'ailleurs, les aspirateurs robots (3,4 % du marché français en volume, 9,8 % en valeur) constituent avec 71 500 exemplaires vendus en 2011 le créneau le plus dynamique de l'électroménager en France. D'autres produits arrivent sur le marché, comme le robot tondeuse à gazon ou le laveur de carreaux. Dommage, toutefois, que ce segment soit tenu par des marques américaine (iRobot) ou coréennes (Samsung et LG). Pour ce type de robots, les entreprises françaises brillent par leur absence.
Les Echos
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des scientifiques ont annoncé récemment avoir enregistré pour la première fois en temps réel deux atomes bougeant au sein d'une molécule, un exploit pour un mouvement qui n'a duré qu'un millionième de milliardième de seconde. Pour y parvenir, ils ont bombardé à l'aide d'un laser ultra-rapide des molécules d'azote (N2) et d'oxygène (O2). Ces rafales laser ont chassé un des électrons gravitant autour de la molécule, qui est aussitôt venu reprendre son orbite naturelle, provoquant une minuscule collision libératrice d'énergie.Tout comme un photographe a recours à la lumière d'un flash qui enveloppe son sujet pour en saisir l'image, c'est cette énergie libérée par l'électron que les chercheurs ont observée et analysée pour reconstruire les mouvements des deux atomes au sein de la molécule.
Pour Louis DiMauro (Ohio State University), le responsable de l'étude publiée dans la revue britannique Nature, il s'agit d'une étape décisive non seulement pour observer en temps réel des réactions chimiques mais aussi pour pouvoir les contrôler à l'échelle de l'atome. «Grâce à ces expériences, nous nous sommes rendu compte que nous pouvions contrôler la trajectoire quantique d'un électron lorsqu'il revient vers la molécule, en ajustant le réglage du laser qui le frappe», explique le physicien.
«La prochaine étape sera de voir si nous parvenons à diriger l'électron juste comme il faut pour contrôler la réaction chimique», dit M. DiMauro. L'autre difficulté pour les scientifiques sera aussi de s'attaquer à des molécules plus complexes, comme une protéine. L'azote et l'oxygène utilisés pour ce premier test ont en effet une structure très simple (deux atomes identiques).
Canoe
|
|
|
|
|
|
|
|
Alstom a inauguré la plus grande éolienne offshore au monde, sur le site du Carnet en Loire-Atlantique, le 19 mars. La cérémonie s’est déroulée en présence d’Eric Besson, Ministre chargé de l’industrie, de l’énergie et de l’économie numérique, et de Patrick Kron, Président Directeur Général d’Alstom.
D’une puissance de 6 MW, l’éolienne Haliade 150 a été développée pour répondre à l’appel d’offres lancé par le gouvernement français en juillet 2011 et visant à installer 3 GW d’éolien offshore en France d’ici 2015. En vue de sa certification, la première Haliade 150 fera l’objet d’une série de tests à terre pendant un an sur le site du Carnet, avant la mise en mer d’une seconde machine au large des côtes belges à l’automne 2012. La fabrication des préséries est prévue en 2013 pour une production en série dès 2014.
Le site du Carnet situé à proximité de Saint-Nazaire en bord d’estuaire a été choisi pour ses caractéristiques géologiques très proches de l’environnement sous-marin dans lequel seront installées les éoliennes. Sur des piliers enfoncés à plus de 30 m de profondeur a été installée la sous-structure de 25 m (le jacket) sur laquelle a été progressivement monté le mât d’une hauteur de 75 m. Au total, la nacelle domine à plus de 100 m du sol. L’éolienne et sa structure de support cumulent un poids total de 1 500 tonnes.
Alstom est le fournisseur exclusif du consortium mené par EDF Energies nouvelles qui regroupe Dong Energy, énergéticien danois leader mondial de l’éolien offshore, ainsi que des développeurs (Nass & Wind et wpd Offshore). L’accord du consortium avec Alstom offre une occasion unique de développer une éolienne de technologie française, fabriquée et assemblée sur le territoire national, faisant appel à de nombreux sous-traitants industriels locaux, et bénéficiant de partenariats technologiques avec plusieurs organismes. Près de 200 fournisseurs du secteur de l’éolien offshore seront impliqués dans ce projet.
Alstom prévoit, en cas de succès dans l’appel d’offre du consortium, d’implanter jusqu’à 4 usines dédiées à la production des composants et à l’assemblage de ces éoliennes offshore dans les zones portuaires de Saint-Nazaire (Loire-Atlantique) pour les nacelles et les alternateurs, et de Cherbourg (Manche) pour les pales et les mâts. Ces sites français seraient pour Alstom les premiers au monde entièrement dédiés à l’éolien offshore et permettraient de créer 5 000 emplois pérennes et qualifiés, dont 1 000 emplois directs.
Cette éolienne en mer de nouvelle génération sera capable d’alimenter en électricité l’équivalent d’environ 5 000 foyers par unité.
Pour répondre aux contraintes strictes imposées par l’environnement marin, Alstom a développé une éolienne de 6 MW, simple, robuste et efficace, qui permettra d’améliorer la compétitivité de l’éolien offshore. Simple, cette éolienne fonctionne sans boîte de vitesse (par entraînement direct) et est dotée d’un alternateur à aimants permanents, ce qui réduit les coûts d’exploitation et de maintenance. Robuste, l’Haliade 150 est équipée de la technologie Alstom PURE TORQUER qui protège l’alternateur grâce à un report des efforts mécaniques indésirables du vent vers le mât de l’éolienne, ce qui en optimise la performance. Enfin, l’Haliade 150 présente une productivité accrue grâce à un rotor de 150 m (les pales de 73,50 m sont les plus longues au monde) qui constitue le gage d’un meilleur facteur de charge.
L’analyse de la courbe de puissance de l’éolienne qui détermine sa capacité à produire efficacement de l’électricité en fonction du vent, est au cœur de cette procédure de certification. Les tests permettront aussi, une fois tous les capteurs supplémentaires installés, de valider l’ensemble des simulations (efforts, températures, durées de vie,…) qui ont servi à la conception de l’Haliade 150 et d’en affiner le fonctionnement. Les essais en mer qui commenceront à l’automne 2012 permettront de tester dans les conditions réelles d’exploitation les aspects de maintenance et de raccordement.
Alstom
|
|
|
|
|
|
|
|
Imaginez des puces empilées les unes sur les autres puis interconnectées entre elles, non pas par des fils, mais par des trous verticaux, percés sur toute l'épaisseur en silicium puis remplis de métal conducteur. Telle est la promesse de la technologie TSV : la réalisation de façon intégrée des puces 3D.
La technologie TSV (Through Silicon Via) suscite un grand espoir pour augmenter la densité des circuits électroniques au-delà des résultats de la loi de Moore. L’idée est de construire des circuits en 3D en superposant les puces de façon collective, tranche sur tranche. Et au lieu de fils, comme c’est aujourd’hui le cas pour les circuits 3D, les interconnexions sont intégrées directement dans le silicium sous la forme de trous enterrés, appelés TSV.
Ces trous microscopiques mesurent typiquement 10 µm de diamètre sur 80 µm de profondeur, et on tend à descendre à des dimensions de 5 µm sur 50 µm. Percés par gravure ionique sur toute l’épaisseur de silicium, ils sont ensuite remplis d’un métal conducteur – du cuivre ou du tungstène – par voie électrochimique. Chaque puce en comporte des centaines, voire des milliers. On envisage d’interconnecter ainsi jusqu’à huit puces pour réaliser des modules mémoire, ou des supercomposants combinant mémoire et processeur, capteur d’image et circuits de traitement, etc.
La réalisation des TSV nécessite une dizaine d’opérations et des équipements de gravure spécifiques comme ceux fournis par LAM Research. Cette technologie pose deux difficultés : le bon remplissage des trous pour assurer la qualité de connexion électrique et l’alignement parfait des tranches de silicium. Elle commence à être appliquée à des modules mémoires chez Samsung, Toshiba, Micron et Elpida.
Industrie & Technologies
|
|
|
|
|
|
|
|
Une équipe internationale de chercheurs a découvert une méthode plus efficace pour reproduire sur image des protéines, ce qui pourrait conduire à filmer leur fonctionnement à l'échelle moléculaire.
L'équipe de chercheurs, originaires d'Allemagne, de Suède et des États-Unis, s'est basée sur des travaux antérieurs sous la direction de l'un des auteurs de l'étude, le professeur Richard Neutze de l'université de Göteborg, l'un des premiers à reproduire sur image des protéines en utilisant des rayons X courts et intensifs. Les scientifiques peuvent reconstituer la structure de protéines et leur comportement dans les cellules, pour pouvoir découvrir des remèdes aux maladies graves telles que le cancer et le paludisme.
Leur nouvelle étude, publiée dans la revue Nature Methods, teste une méthode sur un nouveau type de protéines, et les résultats sont prometteurs pour de futures expériences. L'équipe a étudié une protéine membranaire similaire à une bactérie qui vit à l'abri de la lumière du soleil. Il est important d'étudier les protéines membranaires, car elles transportent des substances à travers la membrane cellulaire et sont responsables de la communication avec l'entourage de la cellule et les autres cellules.
L'auteur principal de l'étude, Linda Johansson, de l'université suédoise, commente : «Nous avons réussi à créer un modèle sur le fonctionnement de la protéine. La prochaine étape est de filmer cela pour que nous puissions étudier les différentes fonctions de la protéine, par exemple son comportement pendant la photosynthèse. Pour simplifier, nous avons développé une nouvelle méthode pour créer de petits cristaux de protéines. Nous avons démontré qu'il est possible d'utiliser de petits cristaux de protéines pour déterminer la structure d'une protéine membranaire.»
Deux difficultés se posent pour la reproduction sur image des protéines : la première est qu'il faut créer des cristaux de protéines ayant la bonne taille, et la seconde est de les irradier de telle manière qu'ils ne se désintègrent pas. Bien que la Suède possède une installation de rayonnement de rayons X générés par synchrotrons à l'université de Lund, ce type de technologie n'est pas assez intense en lumière, et nécessite alors de grands cristaux de protéines qui prennent beaucoup de temps à produire. Pour surmonter cela, le professeur Neutze a décidé d'essayer de reproduire sur image de petits échantillons de protéines en utilisant des lasers à électrons libres qui émettent des rayons X intensifs en de très courtes impulsions, plus courtes que le temps nécessaire à la lumière pour se déplacer sur une distance équivalente à la taille d'un cheveu humain. Heureusement, les partenaires de recherche de Californie ont pu offrir une installation rentable.
«La production de petits cristaux de protéines est simple et prend moins de temps, et cette méthode est plus rapide», continue Linda Johansson. «Nous espérons qu'elle sera la norme dans les années à venir. Des installations laser à électrons libres sont actuellement en construction en Suisse, au Japon et en Allemagne.»
Une découverte importante était que très peu d'images sont nécessaires pour reconstituer la protéine, par rapport à ce que les chercheurs pensaient. Un laser à électrons libres permet de produire près de 60 images à la seconde, ce qui signifie que l'équipe a plus de 365 000 images à sa disposition. Mais il a fallu près de 265 images pour créer un modèle tridimensionnel de la protéine.
Cordis
|
|
|
|
|
|
|
|
Toyota a exprimé au salon de Genève le désir d’être prêt d’ici 2020 à produire en grande quantité des modèles à hydrogène. Le concept FCV-R, présenté sur place, serait évocateur de la technologie utilisée à l’avenir dans ce domaine. Les constructeurs automobiles japonais s'intéressent de près à la pile à combustible. Le responsable européen de la recherche Toyota, Didier Leroy, l'a prouvé une fois de plus. Il a expliqué au salon de Genève : « nous nous préparons à pouvoir produire des dizaines de milliers de véhicules à hydrogènes par an d’ici 2020. »
Une déclaration qui n’est donc pas réellement surprenante. Il y a un an, 13 sociétés japonaises, dont Toyota, se sont associées afin de proposer un modèle abordable d’ici 2015, carburant à l’hydrogène. Une situation qui prouve la volonté commune des constructeurs à se diriger vers ce domaine. Mercedes, à cette même époque, a lui aussi déclaré que les coûts de production d’un tel modèle seraient inférieurs à celui d’une hybride diesel d’ici 2015.
Même si les dates annoncées semblent très proches, rappelons que les concepts à hydrogène sont de plus en plus récurrents lors des grands rendez-vous automobiles. Celui de Toyota, le FCV-R présenté au salon de Genève, démontre une fois de plus l’intention de la marque de produire une berline de série à hydrogène. Celle-ci pourrait voir le jour d’ici 2015 et s’inspirer de la motorisation proposée sur cette étude.
- Des coûts de production réduits
Pari encore plus ambitieux, Toyota avait parlé en 2010 de commercialiser ce futur modèle aux alentours de 50 000$ soit environ 40 000€. Un coût qui pourrait encore baisser avec les années. A l’époque, le constructeur parlait déjà d’utiliser un tiers de platine en moins dans sa pile à combustible. Ce métal rare et coûteux, utilisé pour un tel système, reste le principal frein au développement de cette énergie. Néanmoins, Toyota et d’autres marques continuent leurs efforts dans ce domaine puisqu’à terme la pile à combustible utilisant de l’hydrogène promet une autonomie supérieure à celle des moteurs électriques et quasiment équivalente à celle d’une motorisation thermique.
Cartech
|
|
|
|
|
|
|
|
Les laboratoires de recherche d'IBM ont mis au point une puce optique capable de travailler à 1 Tbit/s. Les scientifiques ont utilisé des composants standards ouvrant la voie à une fabrication industrielle de cette puce.
Les chercheurs d'IBM ont développé un prototype de puce optique capable de transférer des données à 1 Tbit/s (térabit par seconde), l'équivalent de 500 films en haute définition, via des impulsions lumineuses. La puce, appelée Holey Optochip, est un transmetteur qui comprend à la fois un émetteur et un récepteur optique.
Elle a été est conçue pour gérer la grande quantité de données transmise sur les réseaux d'entreprise et grand public par les applications et les services. Cette puce pourrait également être utilisée pour dynamiser les applications des prochains supercalculateurs et des datacenters, des domaines où IBM utilise déjà la technologie optique. Big Blue explique que les réseaux optique améliorent le taux de transfert des données en utilisant des impulsions lumineuses, au lien d'envoyer des électrons sur des fils.
Les chercheurs ont réussi à combiner l'utilisation des signaux optiques avec une fabrication industrielle (grand volume et faible coût) des puces. Ils ont développé ainsi la puce Holey avec 48 trous sur un circuit CMOS gravé en 90 nanomètres. Les trous permettent l'accès optique au dos de la puce et comprennent 24 récepteurs et 24 émetteurs, précise IBM. Enfin, la puce répond à des objectifs de green IT en consommant moins de 5 watts.
Le Monde Informatique
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Les premières molécules de la vie se forment naturellement dans les comètes : c'est ce que suggèrent des travaux menés par une équipe franco-allemande comprenant les groupes d'Uwe Meierhenrich et de Cornelia Meinert de l'Institut de chimie de Nice (Université Nice Sophia Antipolis/CNRS), et de Louis Le Sergeant d'Hendecourt de l'Institut d'astrophysique spatiale (CNRS/Université Paris-Sud). Après avoir fabriqué une comète artificielle, les chercheurs ont analysé ses composants avec une technique unique au monde. Et il est apparu pour la première fois que les comètes pourraient renfermer des molécules qui constituaient la matière génétique primitive : des « acides diaminés ». Au croisement de la chimie, de la biologie, et de l'astrophysique, ces travaux soutiennent la thèse selon laquelle les briques élémentaires de la vie ne sont pas apparues sur Terre mais dans l'espace. Ils viennent d'être publiés dans la version en ligne de la revue ChemPlusChem.
Ces analyses s'inscrivent dans le cadre de la grande mission spatiale européenne « Rosetta ». Ce programme a pour objectif de faire atterrir en 2015 une sonde sur la comète Tchourioumov-Guerassimenko pour étudier la composition de son noyau. Pour essayer d'anticiper les résultats de Rosetta, les scientifiques ont imaginé fabriquer une comète artificielle, ou « glace interstellaire/cométaire simulée », et analyser ses constituants.
L'équipe de Louis Le Sergeant d'Hendecourt s'est chargée de fabriquer une micro-comète à l'Institut d'astrophysique spatiale (CNRS/Université Paris-Sud) . Dans des conditions extrêmes semblables à celles de l'espace (-200°C et sous vide), les chercheurs ont condensé, sur un morceau solide de fluorure de magnésium (MgF2), des composés existant dans le milieu interstellaire : des molécules d'eau (H2O), d'ammoniac (NH3) et de méthanol (CH3OH). Cela, en irradiant le tout avec un rayonnement ultraviolet. Au bout de dix jours, ils ont obtenu quelques précieux microgrammes (10-6 grammes) de matière organique artificielle.
Cette matière organique interstellaire simulée a été ensuite analysée à l'Institut de chimie de Nice (Université Nice Sophia Antipolis/CNRS) par l'équipe d'Uwe Meierhenrich et de Cornelia Meinert. Cela, avec une technologie très performante : un « chromatographe multidimensionnel en phase gaz » (un « GCxGC/TOF-MS »). Installé à Nice en 2008, cet appareil permet de détecter dix fois plus de molécules dans un échantillon qu'un chromatographe traditionnel dit « monodimensionnel ».
Grâce à leur technologie, les chimistes ont pu identifier vingt-six acides aminés dans la comète artificielle, là où les précédentes expériences internationales avaient trouvé seulement trois acides aminés. Plus important, ils ont aussi découvert ce que personne n'avait observé avant eux : six acides diaminés, dont - surtout - la N-(2-Aminoethyl)glycine. Un résultat révolutionnaire. Car ce dernier composé pourrait être un des constituants majeurs de l'ancêtre de l'ADN terrestre : la molécule d'acide peptidique nucléique (APN).
Primordiaux, ces résultats indiquent que les premières structures moléculaires de la vie auraient pu se former dans le milieu interstellaire et cométaire, avant d'atterrir sur la Terre primitive lors de la chute de météorites et de comètes.
CNRS
|
|
|
|
|
|
|
|
Les séjours prolongés dans l’espace pourraient avoir des conséquences néfastes sur les yeux des astronautes, suggère une étude.
L’absence de gravité a des effets bien connus sur les muscles et le squelette des humains qui séjournent en orbite autour de la Terre : la masse musculaire fond et la densité osseuse diminue. D’où les machines installées dans la station spatiale pour d’entraînement physique des astronautes. Cependant un autre effet de la microgravité pourrait affecter la vision des astronautes, selon une étude publiée dans la revue Radiology.
27 astronautes ayant passé 108 jours en moyenne dans l’espace, à bord de la navette spatiale ou de la station spatiale internationale (ISS), se sont soumis à un examen par IRM. Un second IRM a été pratiqué sur 8 d’entre eux après une nouvelle mission spatiale d’environ 40 jours.
D’après le Docteur Larry Kramer (University of Texas Medical School, Houston, Etats-Unis), plusieurs anomalies étaient visibles chez certains astronautes. Pour 9 d’entre eux, l’IRM a révélé une augmentation du fluide céphalo-rachidien autour du nerf optique ; un aplatissement de l’arrière du globe oculaire pour six, ou encore des changements de l’hypophyse (qui sécrète des hormones régulant de nombreuses fonctions de l’organisme). Ces mêmes symptômes sont observés chez des patients souffrant d’une hypertension intracrânienne (augmentation de la pression dans la boîte crânienne), soulignent Kramer et ses collègues. Et ils peuvent déboucher sur des problèmes de vue.
Le médecin chef du centre spatial de la Nasa (Johnson Space Center) relève de son côté que des changements de l’acuité visuelle des astronautes ont déjà été observés mais que leurs causes ne sont pas encore connues. Il considère en l’état que l’hypothèse de l’hypertension intracrânienne est intéressante mais pas concluante.
Sciences et Avenir
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon une étude publiée par la revue scientifique Nature Climate Change, la calotte glaciaire du Groenland, est bien plus sensible au réchauffement climatique que ce qui était généralement admis jusqu’à présent. De précédentes études avaient montré un seuil de réchauffement de +3,1°C par rapport à l’époque pré-industrielle, à partir duquel les glaces qui recouvrent le Groenland pourraient avoir totalement fondu. mais selon cette nouvelle étude, c'est à partir de seulement +1,6°C que cette fonte totale pourrait se produire, sachant que la planète s’est déjà réchauffée de 0,8°C depuis le début de l'ère industrielle.
Une fonte totale de la calotte (ou inlandsis) du Groenland dépendrait de la durée et de l’ampleur du dépassement de ce seuil : elle pourrait avoir disparu en 2 000 ans en cas de réchauffement de +8°C, mais en 50 000 ans en cas de hausse contenue à +2°C, selon les chercheurs de l’Institut de Potsdam (PIK) et de l’université Complutense de Madrid. Le Groenland constitue, après l’Antarctique, la seconde retenue d’eau sur Terre (5 % de la glace terrestre). Une fonte importante de la calotte glaciaire, qui recouvre environ 80 % du territoire, pourrait contribuer à une élévation de plus de 6 mètres du niveau de la mer et affecter la vie de centaines de millions de personnes, rappellent les auteurs.
«Notre étude montre que, sous certaines conditions, la fonte des glaces du Groenland devient irréversible», précise par ailleurs l’un des chercheurs, Andreï Ganopolski, de l’Institut de Postdam. Cette irréversibilité est liée aux interactions existant entre le climat et la calotte glaciaire. La calotte peut atteindre plus de 3 000 mètres d’épaisseur et s’élève ainsi à des altitudes où les températures sont plus froides. Mais, en fondant, sa surface s’affaisserait à des altitudes où les températures sont plus élevées, ce qui provoquerait un cercle vicieux d'accélération de la fonte glacière sous forme de rétraction positive.
« Si les températures mondiales dépassent de manière significative le seuil sur une longue période de temps, la glace continuera à fondre et ne se régénérera pas, même si le climat retournait, après plusieurs milliers d’années, à son niveau préindustriel » souligne Andrey Ganopolski, de l’Institut Postdam pour la Recherche sur l’Impact Climatique qui ajoute "Si le monde n’agit pas pour limiter ses émissions de gaz à effet de serre, la Terre pourrait voir ses températures augmenter de 8°C, ce qui provoquerait la fonte d’un cinquième des calottes glaciaires en 500 ans et à une fonte totale en 2000 ans ».
Actualités News Environnement
NCC
|
|
|
|
|
|
|
|
Reproduire les modes constructifs du bloc béton ou de la brique avec le bois, c’est ce que permet ce bloc bois isolant, un bloc précontraint pour la réalisation de tout type de constructions BBC. Un produit que ses concepteurs revendiquent comme un concurrent direct du bloc béton.
Construire avec du bois comme avec des blocs béton ou de la brique, c’est le challenge relevé par la jeune société Woodway dans le Cantal (12). Ainsi en collaboration avec l’Ecole des Mines de Saint-Etienne, cette PME a développé et commercialise, depuis peu, un système constructif bois (Batipack) de type bloc, pour la réalisation de murs porteurs. Un procédé qui aura bientôt un Avis technique du CSTB.
A l’origine du projet, Jean Pierre Ladvie, dirigeant de la société, qui explique sa démarche : « L’idée est partie d’une réunion interprofessionnelle où l’on nous avait expliqué que si la construction bois avait du mal à se développer dans notre pays, c’était notamment en raison d’un problème de distribution non adapté au BTP». Quel rapport alors avec le développement d’un bloc ? « J’ai simplement pensé que pour résoudre ce problème, il fallait concevoir des produits simples et efficaces, facilement transportables, manuportables, palettisables et accessibles à tous comme un produit lambda du bâtiment – le bloc béton, par exemple ».
C’est donc à partir de cette idée simple qu’est né le bloc bois. Pour répondre à l’ensemble des critères qu’il s’était fixés, Jean-Pierre Ladvie a éliminé l’option bois massif et travaille exclusivement avec des panneaux OSB4 : « Ces panneaux, exempts de formaldéhyde, présentent toutes les garanties d’un produit normalisé.
C’est de mon point de vue un produit exceptionnel ». Les six faces du bloc creux (h 600 X L 300 mm), tel un caisson, sont donc réalisées avec ces panneaux. Lesquels travaillent sous contraintes élevées et sont compatibles avec le milieu humide. Pour répondre aux critères de la réglementation thermique, mais aussi pour des raisons de tenue au feu, ils sont remplis d’un isolant en laine de roche. Suivant le degré d’isolation souhaité, les blocs sont plus ou moins épais – un bloc de 300 mm présente un R de 5,4 m2.K/W et un bloc de 350 mm un R de 6,4 m2.K/W, soit des valeurs compatibles et en phase avec la construction de bâtiment basse consommation (BBC). Une attention particulière a été apportée à la jonction des blocs : un système de laine de roche compressée sur les flancs horizontaux et verticaux vient, en effet, y bloquer le pont thermique. Un pare-vapeur est mis en place à l’intérieur et un pare-pluie à l’extérieur, ce conformément aux prescriptions du DTU 31.2 « construction de maisons et bâtiments à ossature en bois ».
A la pose, les blocs sont assemblés entre eux par emboîtement, vissage et câbles précontraints. Soit un système de tenségrité qui stabilise, répartit et équilibre les forces de tensions et de compressions sur l’ensemble de la construction. Concrètement, des câbles de précontrainte (acier galvanisé de 8 mm de diamètre) sont positionnés de part et d’autre de chaque bloc. Ils sont dotés, en parties basse et haute, d’un système de boulonnage et d’étrier (partie haute), permettant de serrer les lisses de chaînage bois des blocs. Un procédé qui rend le système compatible avec la construction parasismique.
Autre originalité du projet, le mode de fabrication : « C’est un produit nouveau ; il nous fallait donc trouver un moyen de fabrication avec des machines à commandes numériques existantes dans la filière ». Après réflexion, les choix se sont portés sur les machines utilisées dans le secteur de l’agencement : « Nous fabriquons nos blocs comme des meubles de cuisine, il n’y a que le matériau qui change ». Et comme pour une cuisine, tout type de réalisation sur mesure est envisageable. Le calpinage des blocs étant effectué par le biais d’un logiciel de conception dédié à partir des plans fournis par l’architecte.
Le Moniteur
|
|
|
|
|
|
|
|
Une étude menée par l’INRA-CNRS de Montpellier montre la réalité du réchauffement climatique dans notre région. Mené sur 14 stations météorologiques du sud-ouest et du sud-est dont celle de Lyon-Bron, ce travail montre que le bassin méditerranéen et les régions périphériques se réchauffent plus vite que la moyenne mondiale. En 1979 et 2009, le climat méditerranéen est en effet remonté de 70 à 100 kilomètres vers le nord et le nord-ouest, provoquant une hausse des températures de +1,5°C en moyenne et de +2,4°C pour les mois de mai, juin, juillet et août. Pendant ces 4 mois, il fait aujourd’hui plus chaud à Lyon qu’à Avignon ou Montpellier il y a 30 ans.
Alors que le pouvoir évaporant du climat a augmenté de 20 à 25 %, le cumul des pluies a diminué de 50 à 60 % de janvier à août. De plus en plus fréquentes et sévères, les sécheresses deviennent ainsi la norme en ce début de XXIe siècle : 2003, 2005, 2006, 2009, 2011.
Et ces modifications climatiques ont un fort impact sur la production agricole du Rhône avec des récoltes fruitières et viticoles de plus en plus précoces et des pénuries fourragères qui fragilisent les éleveurs : en 2011, ils ont dû s’approvisionner à l’étranger (Espagne, Tchéquie) pour plus de 10 M d’euros, les pertes en fourrage représentant de 40 à 50 % de la production moyenne annuelle.
CNRS
|
|
|
|
|
|
|
|
Les terres irriguées sous des climats chauds peuvent souffrir d’une augmentation de la salinité du sol. Le sel absorbé par les végétaux perturbe alors la photosynthèse. Inexorablement, le rendement agricole diminue. Une nouvelle souche de blé non OGM a été produite et testée durant deux ans. Elle tolère le sel et reste rentable quoi qu’il puisse arriver. Cette découverte est des plus importante tandis que la population mondiale ne cesse d’augmenter.
Plus de 40 % de la production vivrière mondiale provient de terres agricoles irriguées. Or, l’irrigation est responsable d’un problème préoccupant dans les régions semi-arides ou arides : elle peut provoquer une augmentation de la salinité des sols. Les sels sont alors puisés par les plantes et s’accumulent dans les feuilles où ils perturbent la photosynthèse. Ce processus se traduit souvent par une perte de rendement. Chaque année, 1 à 2 % des terres irriguées seraient affectées et perdraient de la valeur.
L’augmentation de la salinité serait principalement liée à de mauvaises techniques d’irrigation. Naturellement, les roches et sols sont érodés par l’eau. De petites quantités de sel sont emportées vers les fleuves et les nappes aquifères où l’eau des systèmes d’arrosage est puisée. Un épandage insuffisant cause une incrustation du sel dans le sol suite à l’évaporation rapide de l’eau. Une irrigation trop importante peut quant à elle provoquer une remontée du niveau des nappes phréatiques. Le sol aspire alors l’eau par capillarité. L’évaporation agit à nouveau et le sel se concentre autour des racines.
L’Australie est le deuxième exportateur mondial de blé dur, une espèce particulièrement sensible au sel. Or, les deux tiers du pays sont soumis à un climat au mieux semi-aride. Une équipe de l’université d’Adélaïde, menée par Rana Munns, a réussi à produire une nouvelle variété de blé non OGM tolérant la présence de sel. Testé en conditions réelles d’exploitation, son rendement s’avère supérieur de 24 % à celui de la souche mère en présence de sel. Les mécanismes génétiques et physiologiques en jeu ont également été décrits. Tous les résultats sont publiés dans la revue Nature Biotechnology.
- Un nouveau blé rentable avec ou sans sel
Le blé dur, Triticum turgidum ssp. durum, a subi de très nombreuses hybridations durant son histoire. Il est même devenu polyploïde et contient deux génomes complets, nommés A et B. Il a acquis de nombreux caractères avantageux, mais en a perdu d’autres, tels que la résistance au sel. Un gène codant pour une exclusion du sodium (TmHKT1;5-A) des feuilles a été trouvé chez une espèce ancestrale, T. monococcum. Cette espèce ne possède qu’un seul génome, le A. Les chercheurs ont donc effectué des croisements entre ces deux espèces. Les descendants, les cultivars Tamaroi [+], ont fait l’objet d’analyses permettant de détecter et confirmer la présence du gène souhaité dans la nouvelle souche.
Ils ont ensuite été mis en culture, avec des espèces ou cultivars témoins, durant deux ans à Moree (Est de l’Australie) dans des sols à la salinité variable. Avec de faibles quantités de sel, les différents cultivars ont présenté les mêmes rendements, notamment en nombre de grains. La souche possédant le gène de résistance au sel n’est donc pas pénalisée. En revanche, lorsque la concentration en sel a augmenté, les variantes dépourvues du gène ont vu leurs rendements chuter de 50 % (environ 1,2 tonne par hectare) contre 36 % pour le Tamaroi [+]. Ce cultivar a produit plus de 300 kg supplémentaires par hectare par rapport aux autres en présence de sel. Sa productivité est supérieure de 24 %, principalement grâce à un nombre plus important de grains sur les épis.
L’action du gène TmHKT1;5-A, qui code pour une protéine de transport uniport spécifique au sodium, a également été décrite. Elle s’observe dans la membrane plasmique des cellules jouxtant les vaisseaux de xylème, dans les racines. Elle permet de réduire d’environ 50 % le transport de sel vers les feuilles en bloquant son entrée dans le réseau envoyant l’eau et les nutriments vers les parties aériennes de la plante.
Cette équipe a donc produit un nouveau blé particulièrement adapté à la culture dans les zones irriguées des régions chaudes. Puisqu’il ne s'agit pas d'un OGM, il peut être planté sans aucune contrainte. Cette découverte est importante puisque la demande en nourriture devrait fortement augmenter dans le futur suite à la croissance de la population mondiale.
Futura Sciences
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Après le ravage d'Escherichia coli (E. coli) en Allemagne en 2011, les dangers de transmission de germes pathogènes dangereux dans les aliments d'un pays à l'autre font la une des journaux. Malgré les avertissements, jusqu'à présent, très peu d'études portant sur les réels dangers posés par ces microbes entrant dans l'UE via les aliments ont été menées, d'où le lancement d'un projet financé par l'UE qui espère aborder les pathogènes comme E. coli.
Le projet PROMISE («Protection of consumers by microbial risk mitigation through segregation of expertise») a reçu près de 3 millions d'euros en soutien au titre du thème Alimentation, agriculture et pêche et biotechnologie du septième programme-cadre (7e PC). Il rassemble 20 partenaires de projet d'Autriche, de Croatie, de République tchèque, d'Allemagne, de Grèce, de Hongrie, d'Irlande, de Roumanie, de Slovaquie, de Slovénie, d'Espagne, de Turquie et du Royaume-Uni.
Les chercheurs prélèveront des échantillons d'aliments confisqués aux principaux ports et aéroports européens ainsi qu'aux petits postes frontaliers et les testeront pour détecter toute présence de bactéries.
Les normes d'hygiène de la production alimentaire dans de nombreux pays tropicaux et subtropicaux ne correspondent pas à celles appliquées en Europe, l'importation d'aliments en Europe peut entraîner de sérieuses implications sanitaires. Martin Wagner, de l'institution de coordination, l'institut pour l'hygiène du lait, la technologie du lait et les sciences alimentaires de l'université de médecine vétérinaire de Vienne, en Autriche, explique : «Rien qu'à l'aéroport de Francfort, près de 22 tonnes d'aliments rapportés par les voyageurs sur plus de 5000 vols ont été confisqués sur une période de 15 mois. Et ce n'est que la partie submergée de l'iceberg. Les autorités de l'aéroport de Vienne réalisent des vérifications et trouvent souvent des aliments d'origine animale importés illégalement.»
Toutefois, certains passagers sont conscients des règles déterminant les objets et aliments acceptés en avion. De plus, même lorsqu'une vérification de sécurité ne découvre aucun aliment, les examens pour déterminer les bactéries contenues et leur degré de danger sont rares.
Les deux principaux objectifs du projet sont les suivants : «Nous voulons réaliser une étude sur les germes rapportés dans les aliments et étudier le potentiel pathogène de ces bactéries.» Les partenaires du projet rassembleront des données dans toute l'Europe pour réaliser des évaluations précises des risques posés par les aliments contaminés d'origine animale et constituer une base de données complète d'isolats bactériens identifiés au cours des travaux. PROMISE tentera également d'améliorer la communication entre les autorités responsables de la gestion de risque dans les États membres de l'UE et les pays candidats.
Une cargaison de graines de fenugrec envoyée d'Égypte serait la source de l'épidémie d'E. coli en Allemagne en juin dernier. Elle a coûté la vie à 48 personnes en Allemagne, avant que l'épidémie ne se propage dans d'autres régions d'Europe, dont la France. L'homme et l'animal sont tous deux porteurs de bactéries E. coli dans leurs intestins, elles sont généralement inoffensives. Mais des souches particulières d'E. coli sont capables de produire des toxines. Ces dernières ont le potentiel de provoquer des diarrhées graves sanglantes, qui entraînent une insuffisance rénale aigue nécessitant des soins intensifs.
Pour réduire le risque de contracter une infection à l'E. coli, l'Autorité européenne de sécurité des aliments (EFSA) conseille de toujours laver les mains avant de préparer, de servir ou de manger, notamment après avoir utilisé les toilettes ou d'avoir changé les couches d'un bébé, après avoir manipulé des légumes crus, des racines ou de la viande, après un contact avec des animaux de la ferme ou après avoir visité une ferme ou après tout contact avec les selles d'animaux domestiques.
Cordis
|
|
|
|
|
|
|
|
Des chercheurs ont découvert qu'un nombre de médicaments pouvaient renforcer la fonction cognitive. Ces médicaments peuvent renforcer notre compréhension des troubles cognitifs, dont la maladie d'Alzheimer. Présentée dans la revue PLoS Biology, l'étude avait été partiellement financée dans le cadre du projet MEMSTICK («Synaptic mechanisms of memory loss : novel cell adhesion molecules as therapeutic targets»), qui a reçu 2,9 millions d'euros au titre du thème Santé du septième programme-cadre (7e PC).
Les synapses, les connexions neuronales de notre cerveau, jouent un rôle important dans nos fonctions cognitives. Plus précisément, c'est le schéma d'activité des synapses qui contrôle nos fonctions cognitives. Les experts expliquent que ces connexions neuronales sont dynamiques et évoluent en terme de force et de propriétés, un processus appelé plasticité synaptique. Les chercheurs pensent que ce processus forme la base cellulaire de l'apprentissage et de la mémoire. Certains scientifiques ont également postulé que les altérations au niveau des mécanismes de plasticité synaptique provoquent de nombreux déficits cognitifs, dont l'autisme, la maladie d'Alzheimer et de nombreuses formes de retard mental.
Sous la direction des Dr Jose A. Esteban et Shira Knafo de l'Universidad Autónoma de Madrid et Cesar Venero de l'Universidad Nacional de Educación a Distancia en Espagne, les chercheurs ont identifié comment ce processus peut être manipulé pour renforcer les performances cognitives. L'utilisation d'un petit fragment de protéine, appelé peptide, dérivé d'une protéine neuronale impliquée dans la communication cellule-à-cellule peut produire une synapse plus flexible. Ce peptide, appelé FGL, déclenche une cascade d'événements dans le neurone, qui permettent de faciliter la plasticité synaptique.
FGL déclenche l'insertion de récepteurs neurotransmetteurs en synapses dans l'hippocampe, explique les chercheurs, ajoutant que cela jouerait un rôle dans de nombreuses formes d'apprentissage et de mémoire.
S'expliquant sur les résultats de l'étude, le Docteur Esteban explique : «Nous savons depuis 30 ans que les connexions synaptiques ne sont pas figées depuis la naissance, mais qu'elles répondent à l'activité neuronale qui modifie leur force. Ainsi, les stimuli externes entraîneront au renforcement de certaines synapses et à l'affaiblissement d'autres. C'est exactement ce code de hauts et de bas qui permet au cerveau d'emmagasiner des informations et de former des souvenirs pendant l'apprentissage. »
Pour sa part, le Docteur Knafo fait remarquer : «Il s'agit d'études fondamentales sur les processus moléculaires et cellulaires qui contrôlent la fonction cognitive. Néanmoins, ils mettent en lumière les voies thérapeutiques potentielles pour les troubles mentaux lorsque ces mécanismes sont perturbés.»
Cordis
|
|
|
|
|
|
|
|
Trois études viennent de confirmer l'effet protecteur puissant de l'aspirine dans la prévention et le traitement des cancers. Ces études viennent renforcer les résultats déjà obtenus par l'équipe du Professeur Peter Rothwell (université d'Oxford). Dès 2007, ses travaux indiquaient une réduction globale par l'aspirine du risque à long terme de décès par cancer. En 2010, il avait démontré cet effet bénéfique d'abord pour le cancer colorectal, puis pour d'autres tumeurs -prostate, estomac, poumons, pancréas… Cette réduction globale de la mortalité par cancer, de 20 à 25 % selon les tumeurs, était encore plus élevée (34 %) lorsque la durée de la prise quotidienne d'aspirine dépassait cinq ans.
Les chercheurs ont cette fois voulu savoir si le même bénéfice existait aussi à plus court terme. Dans la première étude publiée par le Lancet, l'analyse des dossiers médicaux des 77.549 patients inclus dans 51 essais de prévention cardio-vasculaire montre que l'aspirine diminue globalement de 15 % le risque de décès par cancer chez les patients traités par rapport aux témoins. Ce risque est même réduit de 37 % si on tient seulement compte des 5 premières années de traitement. De plus, dans 6 essais de prévention primaire des accidents cardio-vasculaires par de faibles doses quotidiennes d'aspirine (soit 35.535 participants), la survenue d'un cancer est réduite d'environ un quart durant les 3 premières années du traitement, de façon presque identique chez les hommes (23 %) et les femmes (25 %). Le risque de saignements lié à l'utilisation de l'aspirine a tendance à se réduire avec la durée du traitement.
La deuxième étude porte sur la survenue de métastases au cours de cancers diagnostiqués durant 5 essais randomisés de prévention des accidents cardio-vasculaires par de l'aspirine à la dose quotidienne de 75 mg, soit 17.285 personnes. La durée moyenne du suivi a été de 6,5 ans. Ici, le risque de cancer avec métastases à distance a été réduit de 36 % dans le groupe traité par aspirine comparé au groupe témoin sous placebo. Cette réduction est particulièrement forte (46 %) pour les adénocarcinomes, les formes les plus courantes des tumeurs solides (côlon, poumons, prostate… notamment), plus faible pour les autres formes de cancer. Pour ces adénocarcinomes, le risque est réduit de 31 % s'il s'agit d'un diagnostic de tumeur métastatique d'emblée, et de 55 % lorsqu'il s'agit de métastases apparues secondairement au diagnostic. Cet effet est indépendant de l'âge et du sexe.
La troisième étude, publiée par le Lancet Oncology, s'intéresse aussi à l'effet préventif de l'aspirine sur les métastases, mais cette fois en comparant les résultats des essais randomisés avec ceux des études menées selon d'autres méthodologies. Ce travail confirme la réduction des métastases pour plusieurs cancers étudiés (colorectal, œsophage, estomac, sein…).
Après avoir mis en évidence les vertus de l'aspirine en rhumatologie et en cardiologie, les chercheurs viennent donc de confirmer le grand intérêt de l'aspirine dans la prévention des cancers. Les résultats deviennent significatifs à partir de la 3e année à dose élevée, de la 5e année pour les faibles doses, ce qui est remarquable.
The Lancet
The Lancet Oncology
|
|
|
|
|
|
|
|
Des équipes du CEA, de l’Inserm, de l’Hôpital Henri Mondor (AP-HP) et de l’Université Paris-Est Créteil (UPEC) viennent de montrer, grâce à un système unique au monde d’IRM à ultra-haut champ magnétique, et dédié à l'imagerie du petit animal, qu’il est possible d’observer en temps réel l’action des agents anesthésiques sur la vascularisation du cerveau.
Ces résultats permettront à terme de comprendre les effets encore mal connus de l’anesthésie générale sur le cerveau et l’action de nouveaux agents anesthésiques chez l’homme. Elle montre également le potentiel de ces dispositifs IRM à ultra-haut champ magnétique, qui fournissent des images plus précises de la physiologie cérébrale, de résolutions bien supérieures à celles obtenues avec les IRM actuellement utilisés dans les hôpitaux. Ces résultats viennent d’être publiés en ligne par la revue PloS ONE.
Que se passe-t-il dans le cerveau lorsque l’on administre des agents anesthésiques ? Des millions de personnes dans le monde subissent chaque année une anesthésie générale. Et pourtant, même si l’acte est considéré comme relevant de la routine, la compréhension des phénomènes physiologiques qui sous-tendent l’anesthésie générale au niveau du cerveau demeure un défi en biologie et en médecine.
Actuellement les chercheurs disposent à NeuroSpin, d’un imageur IRM à ultra-haut champ magnétique (17,2 Teslas) destiné à effectuer de l’imagerie sur le rongeur. Grâce à cet imageur, des équipes du CEA, de l’Inserm, de l’Hôpital Henri Mondor (AP-HP) et de l’UPEC ont pour la première fois réussi à observer en temps réel l’action des agents anesthésiques sur la vascularisation du cerveau. Ils ont ainsi montré que l’administration de certains anesthésiques se traduit par une augmentation du contraste observé sur les images entre les tissus et les veines, et que tous les agents anesthésiques ne produisent pas le même effet. « Les contrastes différents que nous observons dans nos images sont directement liés aux effets des différents agents anesthésiques sur le niveau de l'oxygénation du sang dans le cerveau » explique Luisa Ciobanu, chercheuse à NeuroSpin, qui a mené cette étude. « Ces niveaux d’oxygénation reflètent des changements du débit sanguin cérébral ou du métabolisme basal, c’est-à-dire de la quantité d'énergie minimale permettant de faire fonctionner l'organisme au repos. L’étude sur le fonctionnement cérébral en temps réel par IRM à très haut champ apporte des informations que l’analyse du niveau d’oxygénation dans la circulation sanguine périphérique ne peut pas donner ».
Ces résultats ouvrent des perspectives pour l’évaluation de nouveaux agents anesthésiques et pour la compréhension des effets encore mal connus de l’anesthésie générale sur le cerveau, notamment chez l’homme. « Ils laissent également envisager d’autres applications possibles pour cette technique, comme par exemple l’étude des perturbations de la circulation sanguine cérébrale associées aux maladies neurodégénératives », concluent les chercheurs. Au-delà de leur intérêt pour l’étude des effets des agents anesthésiques sur le cerveau, ces résultats obtenus chez l’animal soulignent l’importance des ultra-haut champs magnétiques pour l’IRM. Ces dispositifs sont cependant loin d’être à la disposition des médecins qui ne sont souvent équipés dans les hôpitaux que d’IRM à 1,5 Teslas, et rarement à 3 Teslas. Pour des raisons technologiques, le développement d’imageurs IRM à ultra-haut champ magnétique destinés à l’homme reste un véritable challenge.
Avec le projet Iseult, dont l’objectif est de développer un imageur IRM opérant à 11,75 Tesla destiné à l’utilisation chez l’homme, le CEA, en collaboration avec Siemens, Alstom et Guerbet, tente de relever ce défi. L’aimant de cet imageur devrait être installé, courant 2013, à NeuroSpin.
CEA
|
|
|
|
|
|
|
|
La douleur est une expérience désagréable, mais si elle dure – on parle de douleur chronique si elle persiste plus de trois mois –, elle peut devenir insupportable et avoir des conséquences graves, telles que l'anxiété, voire la dépression. Sept millions de Français souffrent de douleurs chroniques depuis en moyenne plus de cinq ans, et les traitements sont rarement efficaces. Les travaux d'André Laferrière, de l'Université McGill à Montréal, et ses collègues sont porteurs d'espoir : ces chercheurs ont montré chez le rat qu'en inhibant une molécule nommée PKMζ, essentielle à la mémoire de la douleur, ils éteignent la douleur chronique.
Lors d'une blessure, par exemple, les nerfs transmettent au système nerveux central – le cerveau et la moelle épinière – des informations dites nociceptives, et ces centres cérébraux supérieurs déclenchent alors des réactions de protection et de réparation. Mais parfois, l'activation de ces centres cérébraux – et donc la sensation douloureuse – persistent alors que la stimulation nociceptive a disparu. Pourquoi ? Notamment parce que la douleur modifie la force des connexions entre neurones dans certaines régions du système nerveux central, en particulier la corne dorsale de la moelle épinière, là où arrivent les fibres nerveuses périphériques. Une « mémoire » de la douleur s'inscrit dans ces neurones via un mécanisme de plasticité neuronale nommé potentialisation à long terme : plus la connexion entre deux neurones est stimulée, plus elle se renforce et plus elle reste active sur le long terme ou est facilement activée lors d'une stimulation ultérieure. C'est cette mémoire de la douleur que les neurobiologistes canadiens ont cherché à éteindre.
On sait notamment que les protéines kinases C (PKC) participent à la plasticité nociceptive – le renforcement des connexions entre neurones impliqués dans la douleur – dans la corne dorsale de la moelle épinière. Et il existe plusieurs « isoformes » (ou configurations) de la PKC, mais seule l'une d'entre elles, nommée PKMζ, est impliquée dans le mécanisme de potentialisation à long terme, et donc de mémoire synaptique, dans la corne dorsale de la moelle épinière.
Les neurobiologistes ont blessé des rats en leur injectant dans la peau des substances qui excitent les fibres nociceptives et provoquent des douleurs prolongées, telle la capsaïcine. Ils ont alors constaté que la production de PKMζ est augmentée dans les neurones de la corne dorsale de la moelle épinière. Et s'ils bloquent cette production avec un inhibiteur spécifique de PKMζ, la plasticité nociceptive disparaît, ainsi que la douleur. En outre, dans un autre modèle animal de douleur chronique, où les rats subissent une lésion du nerf sciatique, l'inhibition de PKMζ abolit aussi la douleur chronique, qui persiste normalement trois semaines après la blessure. Cette molécule est donc nécessaire à la mémoire de la douleur, et l'inhiber suffirait à éteindre des douleurs persistantes. C'est une cible thérapeutique potentielle pour le développement de nouvelles générations d'antidouleurs.
Pour La Science
|
|
|
|
|
|
|
|
Les femmes enceintes ayant des taux élevés de polychlorobiphényles (PCB) dans leur organisme ont de fortes chances d'accoucher d'un bébé dont le poids sera en dessous de la normale. C'est la conclusion d'une nouvelle étude financée par l'UE publiée dans la revue Environmental Health Perspectives.
Des chercheurs de Belgique, du Danemark, des îles Féroé, de Finlande, de France, d'Allemagne, de Grèce, des Pays-Bas, de Norvège, de Slovaquie et d'Espagne ont été soutenus par deux projets financés au titre du septième programme-cadre (7e PC) de l'Union Européenne. L'équipe a mené une étude sur 8000 femmes enceintes ayant accouché entre 1990 et 2008 dans toute l'Europe, et ont testé leurs concentrations de PCB dans le sang.
Les chercheurs ont étudié des échantillons de lait maternel et de sang provenant de la mère et/ou du cordon ombilical, et les ont testé afin de détecter la présence du congénère de PCB 153 ainsi que le dichlorodiphényldichloroéthylène (DDE), un produit émis par la décomposition du pesticide parent, le dichlorodiphényltrichloroéthane (DDT). Ils ont ensuite comparé ces résultats aux poids des nouveau-nés.
Ces activités de recherche ont reçu un financement d'un million d'euros au titre du projet ENRIECO («Environmental health risks in European birth cohorts») et de près de 3 millions d'euros au titre du projet OBELIX («Obesogenic endocrine disrupting chemicals: linking prenatal exposure to the development of obesity later in life»). Ces deux projets étaient respectivement soutenus au titre des thèmes «Environnement» et «Alimentation, agriculture et pêches et biotechnologie» du 7e PC.
Interdits dans de nombreux pays depuis plusieurs décennies en raison de leur toxicité et considérés comme des polluants organiques persistants, les PCB étaient auparavant utilisés pour leurs propriétés diélectriques comme fluides de refroidissement, par exemple dans les transformateurs électriques, condensateurs, et moteurs électriques. Du fait de leur grande stabilité cependant, ils peuvent s'accumuler dans les tissus adipeux de l'homme et de l'animal. La source principale d'exposition aux PCB se trouve dans la consommation de poissons gras, mais on compte également des sources environnementales. On ne dispose encore que de peu d'informations sur les effets de faibles doses de PCB chez les femmes enceintes.
Les résultats de l'étude ont révélé un lien évident entre la concentration de PCB et le poids des bébés. Les mères porteuses affichant une concentration de PCB dans le cordon ombilical de 1 microgramme par litre ont donné naissance à des bébés qui étaient 150g plus légers que les bébés nés de mères ayant une concentration indétectable de PCB dans le sang. Le tabagisme a servi de point de comparaison: les femmes fumant pendant la grossesse ont eu des nouveau-nés du même poids. Pour l'autre substance testée, le DDE, aucun effet sur le poids n'a été trouvé.
Les chercheurs continuent d'analyser l'influence des concentrations élevées de PCB sur la réduction du poids à la naissance, car il est possible que les PCB perturbent l'équilibre hormonal et ainsi le développement du foetus.
Cette étude montre donc que l'interdiction d'utiliser des PCB était une mesure prudente à l'époque, et que le suivi continu de substances étrangères dans le corps humain est essentiel.
L'objectif général d'ENRIECO est d'approfondir davantage les connaissances sur les relations causales santé/environnement dans des cohortes de grossesse et de naissance. Le projet soutient l'exploitation de données sur la santé générées par des études antérieures ou actuelles financées par la Commission européenne et les programmes nationaux. Les objectifs spécifiques visent à réaliser des recueils de cohortes de naissance, d'assurer la qualité et l'interopérabilité des données sur l'exposition, la santé et les réactions à l'exposition, d'obtenir des données d'accès, de créer des bases de données, de conduire des analyses et de formuler des recommandations pour la collecte de données à l'avenir en vue d'améliorer les relations et informations sur la santé et l'environnement et de diffuser ces informations au grand public.
Le projet OBELIX portait sur la recherche en matière d'obésité infantile, qui a atteint des proportions épidémiques dans le monde entier; il se concentre sur le besoin urgent de mieux comprendre l'impact des contaminants alimentaire sur le développement de l'obésité.
Cordis
|
|
|
|
|
|
|
|
Les ossements fossilisés des trois individus découverts en 1989 dans la grotte du Cerf rouge, en Chine, appartiennent-ils à une espèce humaine jusque-là inconnue ? C'est ce que laissent penser les conclusions d'une étude menée par une équipe internationale de paléoanthropologues et publiée mercredi 14 mars dans la revue scientifique américaine PloS One. Les restes datés de l'âge de pierre et dotés de caractéristiques anatomiques humaines très variées apportent un éclairage rare sur une étape de l'évolution humaine et le début du peuplement de l'Asie.
D'après les chercheurs, ces hommes auraient vécu entre 14 500 à 11 500 ans avant notre ère. Le groupe est donc contemporain des hommes modernes du tout début de l'agriculture en Chine, l'une des plus anciennes du monde. Les paléoanthropologues, dirigés par les professeurs Darren Curnoe, de l'université de Nouvelle-Galles du Sud en Australie, et Ji Xueping, de l'Institut d'archéologie du Yunnan en Chine, se montrent cependant très prudents quant à la classification de ces fossiles, en raison de la mosaïque rare des traits anatomiques qu'ils révèlent.
- Le "Peuple du Cerf Rouge" étudié depuis 2008
"Ces nouveaux fossiles pourraient bien être ceux d'espèces inconnues jusqu'alors, ayant survécu jusqu'à la fin de l'âge glaciaire, il y a environ 11 000 ans, relève le professeur Curnoe. Ils pourraient bien aussi descendre de peuplades d'humains modernes inconnues auparavant qui auraient émigré d'Afrique beaucoup plus tôt et qui n'auraient pas contribué génétiquement aux populations actuelles."
Les restes fossilisés ont été mis au jour par des archéologues dans la grotte de Maludong - grotte du Cerf rouge en Chinois -, située près de Mengzi, dans la province du Yunnan. Ils ont commencé à être étudiés en 2008 par une équipe de six chercheurs chinois et de cinq australiens.
Bien que l'Asie compte aujourd'hui plus de la moitié de la population du globe, les paléoanthropologues savent peu de choses de la manière dont les humains modernes y ont évolué après que leurs ancêtres se furent installés en Eurasie il y a 70 000 ans. "La découverte de ces nouveaux humains baptisés 'peuple du cerf rouge' - qu'ils chassaient pour se nourrir - ouvre le prochain chapitre dans l'histoire de notre évolution, celui de l'Asie, et cette histoire n'en est qu'à ses débuts", juge le professeur Curnoe.
Le Monde
|
|
|
|
|
|
|
|
En France, le cancer colorectal représente le 2e cancer le plus fréquent. Les polypes hyperplasiques sont les lésions colorectales les plus fréquentes. Près d’un quart de la population européenne entre 20 et 54 ans en développe. Ces lésions ont longtemps été considérées comme des lésions bénignes et à l’heure actuelle, aucun suivi n'est recommandé pour ces patients après l’ablation chirurgicale des polypes. Cependant, certains de ces polypes pourraient être des précurseurs de cancers colorectaux. Jusqu'à présent, rien ne permettait d'identifier le sous-groupe de polypes qui pouvait avoir un potentiel malin.
Dans l’optique de trouver un marqueur prédictif du risque de cancer colorectal chez les patients présentant des polypes hyperplasiques, qui sont les polypes les plus bénins, Catherine Seva et ses collaborateurs ont réalisé une étude clinique rétrospective sur 10 ans en analysant, sur des polypes hyperplasiques de 74 patients, la présence d’une protéine particulière, la progastrine, déjà connue pour être impliquée dans la cancérogenèse colique.
Cette protéine produite par les cellules tumorales colorectales n’est d’ailleurs pas présente dans les cellules saines du côlon. Pour les chercheurs, il s’agissait de déterminer si son expression pouvait prédire l’apparition de lésions cancéreuses dans les années suivant la résection chirurgicale des polypes. "Lorsque nous avons émis cette hypothèse, nous pensions qu’une telle avancée serait très utile pour un suivi adéquat et une détection très précoce du cancer colorectal" explique Catherine Seva, directrice de recherche à l’Inserm.
Grâce à leurs analyses, les chercheurs ont montré une association significative entre des taux élevés de progastrine et la survenue ultérieure de lésions précancéreuses. Alors que ces polypes étaient considérés comme bénins et sans risque, 100 % des patients qui présentaient des taux élevés de progastrine ont développé dans les 2 à 10 ans des adénomes, reconnus comme des lésions précoces du cancer colorectal. A l’inverse, chez les patients n’exprimant pas ou très peu cette molécule, aucune lésion ne s’est développée dans les 10 ans qui ont suivi le retrait des polypes.
Sur la base de ces résultats, les chercheurs ont établi un test prédictif basé sur l'âge du patient et le marquage par immunohistochimie de la progastrine. Ce test permet de prédire, avec une très bonne sensibilité et spécificité, la survenue de tumeurs chez les patients ayant développé un polype hyperplasique.
Inserm
|
|
|
|
|
|
|
|
L'institut Paoli Calmettes, centre régional de lutte contre le cancer de Marseille, propose à ses patientes souffrant d'un cancer du sein, "une technique de radiothérapie nouvelle et prometteuse" pratiquée "juste après l'ablation de la tumeur", une première en France. Cette "radiothérapie per-opératoire de contact", une technique pilote accessible depuis le 8 février à l'IPC, est pratiquée tout de suite après l'ablation de la tumeur, en salle d'opération, et "permet de remplacer les 25 séances de radiothérapie habituellement pratiquées dans les semaines suivant la chirurgie", a expliqué à l'AFP une porte-parole de l'Institut. Elle permet donc "une économie importante pour la sécurité sociale" et épargne la pénibilité et les trajets pour les patientes.
Caractérisée par une irradiation partielle et mieux ciblée du sein, directement sur la zone de la tumeur, elle permet de "réduire à moins de 5 % le risque de récidives", "sans majorer la toxicité par rapport aux radiothérapies classiques", en appliquant des doses concentrées appelées "boost", souligne-t-elle. Les patientes pouvant être traitées par cette technique innovante "doivent avoir plus de 60 ans et un certain type de tumeurs (tumeur unique sur bilan IRM de type canalaire infiltrant). A ce jour, l'IPC estime à 80 le nombre de patientes qui pourraient être incluses dans la phase de démarrage. L'IPC a été retenu par l'Institut national du Cancer (INCa) pour mener ce programme pilote qui a nécessité l'achat d'un appareil de radiothérapie de contact par photons de 50Kv d'une valeur de 540.000 euros et l'aménagement en radioprotection d'une salle d'opération.
Cet achat a été financé à hauteur de 240.000 euros par l'IPC, de 150.000 euros par l'INCa et de 150.000 euros par la fondation du Crédit agricole Paca. L'INCa a également alloué à l'IPC 150.000 euros pour mener cette étude pilotée par l'Institut de cancérologie de l'Ouest (ICO) dont la phase d'essai durera de 24 à 30 mois. Après évaluation des résultats prévue fin 2013, cette technique innovante pourra être généralisée à toute la France à partir de 2014.
Cette radiothérapie per-opératoire pourrait également être utilisée dans le traitement des carcinomes colorectaux ou "l'irradiation de certaines récidives pelviennes ou gynécologiques". Deux essais cliniques internationaux ont validé l'intérêt de ce traitement, l'étude TARGIT-A et l'essai ELIOT. Avec la modernisation des traitements, désormais plus efficaces et moins pénibles, la chirurgie qui était très mutilante autrefois est de plus en plus préservatrice et de moins en moins douloureuse, indique l'IPC qui précise qu'aujourd'hui "plus de 70 % des femmes conservent tout ou partie de leur sein". "Une dizaine d'essais ont prouvé qu'une chirurgie conservatrice suivie de la radiothérapie était aussi efficace que la mastectomie".
Le Figaro
Institut Paoli Calmettes
|
|
|
|
|
|
|
|
Une équipe franco-anglo-japonaise menée par le professeur Philippe Froguel du laboratoire Génomique et maladies métaboliques (CNRS/Université Lille 2/Institut Pasteur de Lille, Fédération de recherche EGID et Imperial College London) vient de montrer pour la première fois qu'une mutation du gène GPR120, produisant le récepteur cellulaire des acides gras insaturés, augmente de 60 % le risque d'obésité chez l'homme.
De plus, des souris dont ce récepteur a été inactivé, soumises à un régime riche en graisses, ont développé rapidement une obésité associée à un diabète et à d'autres anomalies métaboliques. Ces travaux, publiés par la revue Nature, précisent les mécanismes d'action des acides gras de type oméga-3 dans le maintien de l'équilibre métabolique et ouvrent la voie à des médicaments nouveaux contre les maladies hépatiques et lipidiques liées à l'obésité. Au niveau sociétal, l'épidémie mondiale d'obésité est due aux modifications de notre mode de vie. Mais au niveau individuel, l'hérédité joue un grand rôle : chaque individu réagit différemment à l'environnement et notamment, à une alimentation déséquilibrée.
Les chercheurs se sont penchés sur un aspect particulier de cette hérédité. Les cellules de certains organes comme le foie, mais surtout les intestins, possèdent des récepteurs spécifiques qui captent les lipides alimentaires et transmettent un signal au cerveau, au foie, au pancréas et au tissu adipeux. Ce signal commande l'appétit, la préférence alimentaire et le stockage des graisses ingérées. L'un de ces récepteurs, spécifique aux acides gras insaturés comme les oméga-3, est codé par le gène GPR120. Ce récepteur est particulièrement important car son activation stimule la production d'insuline et la sécrétion de peptides de la satiété, hormones qui coupent l'appétit. Il intervient aussi dans le goût pour les graisses et la production de nouvelles cellules adipeuses qui stockent les graisses.
Pour mieux comprendre le rôle du gène GPR120, les chercheurs ont créé une lignée de souris chez qui ce gène est muté et par conséquent, chez qui le récepteur n'est pas fonctionnel. Ils les ont ensuite soumises à un régime riche en graisse et en glucides. Résultat : ces souris ont développé une obésité bien plus rapidement que les souris témoins. Elles ont aussi développé un diabète et une infiltration lipidique du foie, anomalies qui ressemblent en tout point à celles que l'on observe chez les personnes obèses et qui peuvent déboucher sur des maladies mortelles telles que la cirrhose et le cancer du foie, ou l'athérosclérose accélérée.
Parallèlement, les chercheurs ont séquencé le gène GPR120 et ont découvert une mutation, R270H, qu'ils ont analysée chez 14 500 personnes obèses. Celle-ci, présente chez 3 % des obèses, invalide complètement le récepteur. Ils ont montré que cette mutation augmente de 60 % le risque de développer une obésité. Chez les porteurs de la mutation, les acides gras insaturés ne déclenchent pas le signal qui active les voies métaboliques telles que la production d'hormones de la satiété. Parmi ces hormones on trouve le GLP1, utilisé comme médicament du diabète car il favorise la production d'insuline. Ces travaux montrent que GPR120 pourrait devenir une cible pour de futurs traitements contre l'obésité et les maladies hépatiques liées au surpoids.
CNRS
Nature
|
|
|
|
|
|
|
|
Le laboratoire VirPath dirigé par le Professeur Bruno Lina à Lyon, en partenariat avec l'Inserm, travaille depuis 2008 à l'identification de nouvelles molécules anti-grippales au mode d'action original.
Rappelons qu’actuellement, les antiviraux disponibles bloquent spécifiquement des protéines virales afin de limiter la réplication et la dissémination du virus dans l'organisme. Mais cette stratégie se heurte au problème de la grande variabilité des virus. C’est le cas cette année par exemple : l’un des virus a évolué, rendant un peu moins efficace le vaccin de cette saison…
« Un traitement exerce une pression de sélection sur le virus qui mute rapidement et devient ainsi résistant », insiste le Docteur Manuel Rosa-Calatrava (Inserm), coauteur des travaux. A ce titre, son équipe (VirCell) a travaillé sur une nouvelle approche : cibler les voies de signalisation cellulaires détournées par les virus de la grippe et qui rendent les cellules de l'hôte favorables à l'infection, puis identifier des molécules déjà existantes qui bloqueraient les voies de signalisation en question.
Dans un premier temps, l'équipe du Docteur Rosa-Calatrava a travaillé sur des cultures de cellules épithéliales pulmonaires humaines infectées par différents virus de la grippe de type A humains (H1N1 et H3N2) et aviaires (H5N1, H5N2 et H7N7).
Les chercheurs ont constaté que l'infection par ces virus modifie systématiquement l'expression d'environ 300 gènes qui induit un état cellulaire propice à l'infection. « Une signature cellulaire de l'infection en quelque sorte, explique le Docteur Rosa-Calatrava. A partir de là, l'objectif était de trouver des molécules capables d'inverser cette signature afin de rendre la cellule hermétique aux virus », clarifie-t-il.
C'est ce que son équipe a réalisé dans un second temps. Les chercheurs ont ainsi identifié des molécules ayant déjà une autorisation de mise sur le marché et présentant une activité antivirale in vitro contre l'ensemble des virus influenza (H1N1, H3N2, H5N2, H7N7 et H5N1). « Cinq molécules présentent une activité anti-grippale à large spectre contre ces différents virus de la grippe y compris le virus pandémique A(H1N1) de 2009. A ce titre, elles ont fait l'objet d'un dépôt de brevet pour cette nouvelle indication anti-infectieuse », précise encore le chercheur. La plus prometteuse d'entre elles in vitro, le chlorhydrate de midodrine, fait l'objet d'un premier essai clinique (FluMeD). Maintenant, l'objectif est de valider son efficacité antivirale en termes de vitesse d'élimination du virus.
Pour cela, 161 patients âgés de 18 à 64 ans, consultant pour une grippe évoluant depuis moins de 42h et n'ayant pas reçu de vaccination antigrippale, seront recrutés par des médecins généralistes dans la zone du Grand Lyon, pendant les deux saisons grippales 2011-2012 et 2012-2013. La moitié d'entre eux recevra du midodrine pendant 5 jours et l'autre moitié, un placebo. Les investigateurs effectueront un prélèvement nasal 0, 2, 3, 5 et 7 jours après le début du traitement pour mesurer la concentration de virus et évaluer la fréquence de réponse clinique au médicament (disparition complète ou atténuation des principaux symptômes). Les résultats sont attendus en septembre 2013.
Senior Actu
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Aujourd’hui, grâce au Fonds Démonstrateur de Recherche et au programme des Investissements d’Avenir pilotés par l’ADEME, plusieurs modèles de véhicules décarbonés particulièrement innovants sont prêts à être industrialisés pour une mobilité quotidienne plus efficace et économe en énergie. L’ADEME a organisé vendredi 9 mars à Paris des tests grandeur nature de ces prototypes.
- La ville, un terrain particulièrement adapté au véhicule électrique ou hybride
Dans un contexte d’augmentation du prix des énergies et d’urgence à réduire les émissions de gaz à effet de serre, l’utilisation d’un véhicule individuel pèse de plus en plus lourd sur le budget des ménages et sur la qualité de l’air, en particulier dans les grandes métropoles. La nouvelle génération de véhicules décarbonés pourrait représenter environ 2 millions de véhicules à l’horizon 2020 pour atteindre l’objectif de réduction de 17,5 millions de tonnes de CO2 fixé par le Grenelle Environnement pour le secteur des transports.
Cette nouvelle génération de véhicules, qu’ils soient hybrides ou électriques, doit être conçue pour consommer le moins d’énergie possible et donc émettre le moins de CO2 possible. Les villes offrent un environnement propice pour les développer à grande échelle, en complément des transports collectifs et modes doux : les trajets y sont en général de courte distance et ne nécessitent donc pas une grande autonomie électrique ; le mobilier urbain, quant à lui, facilite l’installation de bornes de recharge. Petits et légers pour la plupart, ces véhicules sont peu gourmands en électricité et faciles à stationner. Si les véhicules individuels constituent l’un des principaux chantiers de la mobilité de demain, les transports en commun – bus, tramways et métros – sont également concernés : toute l’offre de mobilité urbaine doit être revue pour être plus efficace et cohérente.
- Bouger autrement : de nouveaux services de mobilité
En complément des solutions individuelles, l’ADEME préconise le développement des services de mobilité. En effet, ces services, comme l’auto-partage notamment, permettent non seulement le déploiement à grande échelle d’une nouvelle génération de véhicules mais aussi d’améliorer de façon significative l’efficacité énergétique des trajets urbains.
ADEME
|
|
|
|
|
|
|
|
Les raisons qui font le succès d'un produit sont souvent nombreuses mais il y en a toujours une qui occupe une place de choix : le prix. Même dans le secteur automobile où l'irrationalité continue d'être très (trop ?) présente.
Dans l'industrie automobile comme dans beaucoup d'autres, une nouvelle technologie s'impose par rapport à une technologie plus ancienne uniquement le jour où celle-ci devient rentable et accessible au plus grand nombre, tout en offrant des performances au moins aussi élevées que celles offertes auparavant. C'était du moins la règle non écrite qui prévalait jusqu'à l'arrivée des véhicules électriques de nouvelle génération.
Moins performants en valeur absolue (vitesse max, accélération...), les véhicules électriques de nouvelle génération restent très inférieurs à leurs homologues à essence en terme d'autonomie. Mais est-ce une raison suffisante pour les bouder ? Si l'on accepte de changer de paradigme automobile, le doute est franchement permis. Soyons clair : le moteur thermique associé à son précieux allié qu'est le réservoir à carburant offre aujourd'hui des performances qu'il serait illusoire de vouloir surpasser avec l'électrique. Même avec des batteries 2 à 3 fois plus performantes que les batteries Li-ion actuelles, impossible de concurrencer la densité énergétique des carburants liquides quand bien même le rendement d'un moteur électrique est très supérieur à celui offert par les meilleures moteurs thermiques actuellement disponibles.
Pour l'emporter face aux véhicules à moteur thermique, le véhicule électrique va donc devoir mettre en avant d'autres atouts parmi lesquels : le silence de fonctionnement, l'agrément de conduite, sa sobriété, son efficacité énergétique et enfin, son impact environnemental global. Pour rendre compétitif le véhicule électrique par rapport à la concurrence thermique, il va donc falloir accepter l'idée de taxer le gaspillage et la pollution à la hauteur de ce que cela mérite, en évitant de reporter sans cesse une partie de la note sur le dos des générations futures ! Un bon moyen pour développer en parallèle la production d'électricité à partir de sources renouvelables. Un nouvel environnement fiscal dont plusieurs pays promoteurs de mobilité électrique n'ont pas encore pris la pleine mesure. C'est du moins ce que l'on peut penser lorsque l'on constate le démarrage très chaotique des véhicules électriques dans certains pays (…). En attendant, on peut quand même espérer que les pionniers de l'électrique continuent de faire des envieux autour d'eux en montrant les avantages nombreux des véhicules électriques face aux moteurs à pétrole.
Enerzine
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|