RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 760
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Juillet 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La reconnaissance faciale : nouvel outil pour détecter les maladies génétiques ?
Un algorithme pour décrypter le langage corporel en temps réel
Le MIT dévoile un processeur expérimental doté de 36 cœurs
Avenir
Un patient paralysé parvient à commander sa main par la pensée !
Une nanopuce qui détecte d'infimes quantités d'explosifs !
Des nanoparticules au service de la médecine régénératrice…
Vivant
La vie complexe est bien plus ancienne que prévue…
Une cornée humaine régénérée à partir de cellules souches
Trop de télévision réduirait l'espérance de vie !
Une découverte pour lutter contre la douleur chronique
Cancer du sein: la supériorité de la mammographie 3D démontrée…
Un gène commun favoriserait la schizophrénie et la prédisposition à fumer du cannabis
Découverte d'un gène-clé dans la motricité
Edito
Une économie mondiale sans carbone en 2050… Est-ce possible ?



Dans moins d’un an et demi, en décembre 2015,  aura lieu, à Paris, la Conférence décisive  sur le climat, dite « COP 21 », qui accueillera près de 50 000 acteurs et délégués internationaux de 194 pays. Cette réunion sera capitale car elle constitue la dernière chance de déboucher sur un accord international ambitieux prenant le relais du Protocole de Kyoto et définissant de nouveaux objectifs mondiaux de réduction des gaz à effet de serre qui soient enfin à la mesure du défi de civilisation qui nous attend pour éviter un basculement catastrophique du climat mondial.

Une prise de conscience politique planétaire est-elle en train d’émerger enfin sur la question fondamentale de la réduction drastique des émissions humaines de carbone ? Peut-être, si l’on en croit le passionnant rapport de 220 pages, réalisé par l’Institut pour le Développement Durable et les Relations Internationales et remis à ce sujet le 8 juillet dernier à Mr Ban Ki-moon, secrétaire général de l'ONU.

Cette étude montre pour la première fois comment 15 des pays les plus polluants, dont la Chine et les Etats-Unis, peuvent se "décarbonner" d'ici à 2050. La communauté internationale s'est fixée comme objectif de limiter le réchauffement à 2°C, or "très peu de pays ont étudié les conséquences de cet objectif, souligne le "Projet de feuille de route vers une décarbonisation profonde » (DDPP) dans son premier rapport. (voir UNSDSN)

Ce rapport très argumenté montre que la décarbonisation profonde est compatible avec une croissance économique robuste et une prospérité accrue. Cette étude montre que, pour avoir une bonne chance (supérieure à 66 %) de rester dans une hausse du réchauffement climatique de deux degrés,  le « crédit » carbone dont dispose l’Humanité d’ici 2050 ne doit pas dépasser 825 Gigatonnes, ce qui correspond à environ 23 gigatonnes de CO2 par an, alors que le Monde en émet déjà 36 gigatonnes par an (Déforestation comprise). Conclusion : nous devons absolument stabiliser nos émissions de CO2 d’ici 2020, puis les diviser par plus de trois d’ici 2050, pour atteindre 11 Gigatonnes en 2050.

L’étude souligne qu’en supposant que la population mondiale s’élève à 9,5 milliards de personnes d’ici à 2050, cela signifie que les pays devraient converger vers une moyenne mondiale d’émissions de CO2 par habitant de 1,6 tonne en 2050, contre 5,2 tonnes aujourd’hui…

Comme vient de le confirmer le GIEC dans son dernier rapport, les efforts actuels de réduction de gaz à effet de serre, dont le CO2 représente les trois quarts, restent encore insuffisants pour espérer parvenir à contenir à deux degrés le réchauffement climatique. Or, l’immense majorité de la communauté scientifique est d’accord pour admettre que si ce réchauffement dépasse les deux degrés et atteint par exemple trois ou quatre degrés d’ici 2100, hypothèse non exclue, les conséquences négatives pour l’Humanité seraient incalculables.

C’est pour tenter de trouver des solutions à ce défi majeur que, dans la perspective du sommet international de Paris, une trentaine d'institutions et groupes de recherche en Afrique du Sud, Australie, Allemagne, Brésil, Canada, Chine, Corée du Sud, France, USA, Inde, Indonésie, Japon, Mexique, Royaume-Uni et Russie, se sont associées dans cette étude pour répondre à la question suivante: « Que faut-il faire pour avoir une bonne chance, en 2050 , de rester dans cette limite des deux degrés et de parvenir à réduire des deux tiers les émissions humaines  globales de CO2 ?"

Ce rapport montre qu’en 2050, les émissions de CO2 liées à la seule consommation d'énergie pourraient être réduites de 45% par rapport à 2010 (de 22,3 milliards de tonnes à 12,3), soit une baisse de 56% par habitant.

Cette étude rappelle également que  trois grands chantiers s'imposent comme prioritaires dans ce défi planétaire: d’abord, l'efficacité énergétique, qui consiste à la fois à réduire « à la source » nos besoins en énergie et à doubler le « rendement » énergétique de notre économie et de nos bâtiments.

Deuxième levier d’action : produire l'électricité mondiale sans carbone, en utilisant toutes les ressources technologiques à notre disposition (énergies renouvelables, nucléaire, stockage de CO2...) et enfin, dernier axe, utiliser des carburants à très faible émissions de gaz à effet de serre.

Selon cette étude, l’essentiel de cette décarbonisation de l’économie va avoir lieu dans le secteur de la production d'énergie (-85% en 2050), dans le secteur résidentiel (-57%), et dans le transport des passagers (-58%). En revanche, il sera beaucoup plus difficile de décarbonner le transport de fret et l'industrie.

Ce rapport, dont la version définitive incluant le volet financier, sera présenté en septembre à New-York, à l’occasion du sommet international sur le climat, survient alors que l’Agence américaine océanique et atmosphérique (NOAA), vient d’annoncer que le mois de mai 2014 a en effet été le plus chaud dans le monde depuis le début des relevés de températures en 1880. Selon cet organisme, les données relevées montrent que la température moyenne à la surface du sol et des océans a atteint 15,54°C en mai, soit 0,74°C au-dessus de la moyenne de 14,8°C du XXe siècle. Ce fut également le 39e mois de mai consécutif et le 351e mois d’affilée que la température de la planète a été au-dessus de la moyenne du XXe siècle,  précise cette étude.

L'Organisation Météorologique Mondiale (OMM) souligne, pour sa part, que l’année 2013  se classe au sixième rang, ex-aequo avec 2007, des années les plus chaudes jamais enregistrées et confirme la tendance au réchauffement observée sur le long terme. Selon cette organisation, la température moyenne à la surface du globe, terres émergées et océans confondus, a été de 14,5 °C en 2013, soit 0,50 °C de plus que la normale calculée pour la période 1961-1990 et 0,03 °C de plus que la moyenne de la décennie 2001-2010.

Les conséquences de ce réchauffement accéléré sont de plus en plus visibles : une étude de la NASA vient ainsi de montrer, à partir de l’analyse de 40 ans de données, que la fonte des grands glaciers de l’ouest de l’Antarctique était bien plus rapide que prévue et avait dépassée « le point de non-retour ». Ce phénomène pourrait, à lui seul, entraîner une hausse global du niveaux des mers allant jusqu’à trois mètres au cours de ce siècle, au lieu des 80 cm généralement admis…(Voir jpl.nasa.gov/news)

Notre pays n’échappe pas à cette évolution très inquiétante du climat planétaire : la France a connu un premier semestre 2014 exceptionnellement chaud, le deuxième plus chaud depuis 1900, après 2007, a annoncé Météo France qui précise qu’au cours de la première moitié de l'année, la température moyenne a été supérieure de 1,4 °C à la moyenne de référence 1981-2010.

Il faut par ailleurs rappeler que le XXIe siècle compte déjà 13 des 14 années les plus chaudes jamais observées et l’ONU souligne que « chacune des trois dernières décennies s’est révélée plus chaude que la précédente, la décennie 2001-2010 battant tous les records.

Le 25 juin dernier une étude de la Commission européenne a révélé que, si rien n’était fait pour freiner le réchauffement et que la température planétaire moyenne grimpe de 3.5°C d’ici la fin du siècle, les coûts dus aux changements climatiques pour l’Union européenne se monteront au moins à 190 milliards d’euros, soit une diminution du PIB de 1.8%. Ce coût financier considérable résulterait principalement d’un doublement du nombre de morts prématurées imputables aux vagues de chaleur, mais également des conséquences du réchauffement sur les régions côtières et sur l’agriculture.

De leur côté, deux anciens secrétaires au Trésor américains, le républicain Henry Paulson et le démocrate Robert Rubin, peu suspects de sympathie écologiste, ont publié simultanément un rapport intitulé « Risky Business » qui a eu un grand retentissement dans les milieux d'affaires américains. Cette étude analyse les impacts des changements climatiques dans neuf secteurs: agriculture, inondations, zones côtières, tourisme, énergie, sécheresses, feux de forêts, infrastructures de transport et santé humaine.

Ce travail très solide s’est appuyé sur de puissantes simulations numériques réalisées à l’aide de superordinateurs et le moins qu’on puisse dire est que le résultat est préoccupant puisqu'il montre qu’au moins  40 % de la population, des propriétés et des entreprises américaines risquent de subir les conséquences négatives de ces changements et estime les pertes pour l’économie et la société américaines à 507 milliards de dollars d’ici 2100.

Selon cette étude, des vagues de chaleur extrême affecteront la productivité de plusieurs secteurs de l’économie comme l’agriculture ou la construction et réduiront également les rendements annuels moyens des cultures de maïs, de blé, de soja et de coton, qui pourraient diminuer de moitié dans le Sud du Midwest.

C’est dans ce contexte que la Commission européenne a annoncé une enveloppe d'un milliard d'euros pour des projets visant à accroître la production d'énergies propres. Ce programme "NER 300" sera financé grâce au produit de la vente de quotas d'émission de l'UE, ce qui fait que "les pollueurs deviennent l'élément moteur du développement de nouvelles initiatives en faveur de la réduction des émissions de CO2", selon la Commission. "NER 300" concerne toutes les sources d'énergie renouvelables: bioénergies, solaire, géothermie, photovoltaïque, éolien, énergie océanique, mais intègre également le captage et le stockage du CO2.

Ce programme intégrera notamment un projet britannique visant à utiliser la technique de "l'oxycombustion" pour capter 90% du carbone résultant de la combustion du charbon à la centrale électrique de Drax, près de Selby, dans le Yorkshire, avant de les stocker dans un site en mer du Nord. Ce n’est pas un hasard si cette initiative européenne survient alors que la Commission propose aux 28 états-membres de l’Union européenne de se fixer comme nouvel objectif une réduction de 40 % des émissions de CO2 d’ici 2030…

Enfin, il y a quelques semaines, a été publiée une étude d’une ampleur sans précédent concernant les stratégies technologiques possibles pour lutter contre le changement climatique. Pour réaliser ce travail, d'une équipe internationale de chercheurs du Stanford Energy Modeling Forum ont utilisé les simulations de 18 modèles informatiques (Voir springer et phys)

"Pour réduire les coûts du changement climatique, les technologies polyvalentes semblent être les plus intéressantes", souligne Elmar Kriegler, qui a dirigé ces recherches. Cette étude montre notamment que, dans l'industrie et la sidérurgie, la combustion du charbon de coke dans les hauts fourneaux pourrait être combinée avec la capture et la séquestration de carbone (CSC) et que,  dans le secteur des transports, les combustibles fossiles pourraient être remplacés par les biocarburants. "Les herbes et les arbres qui sont utilisés pour la production d'énergie à partir de biomasse, consomment du CO2 pour leur croissance. En combinaison avec le CCS, du CO2 peut donc être retiré de l'atmosphère pour compenser les émissions qui se produisent inévitablement dans certains secteurs et ne pourront être évitées qu'à long terme ", souligne  Elmar Kriegler.

Cette étude a le mérite de confirmer deux points essentiels : d’abord qu’il sera très difficile d’atteindre les objectifs souhaités sans recourir aux technologies de capture et d’emprisonnement du carbone. Ensuite que le doublement de l’efficacité énergétique à tous les niveaux est une nécessité qui permettra de réduire de moitié le coût du changement climatique.

Mais comme le souligne John Weyant, directeur du Stanford Energy Modeling Forum. " Si notre étude donne des raisons de croire que nos stratégies technologiques pour atteindre les objectifs de la politique climatique sont disponibles, ces stratégies ne peuvent être efficaces que si des politiques climatiques plus volontaires et plus ambitieuses sont mises en œuvre sans tarder au niveau mondial."

Autrement dit, la technologie seule ne suffira pas à relever ce défi mondial et doit s’inscrire dans un cadre et une démarche plus vastes, intégrant les dimensions économiques,  sociales, politiques et culturelles.

Il est également essentiel de concevoir un nouveau cadre pour le marché mondial du carbone, comme l’ont rappelé il y a quelques jours les économistes réunis à l’occasion des Rencontres du Cercle des économistes d’Aix-en-Provence qui soulignent que le marché européen du carbone a vu son impact annulé par les politiques de soutien direct aux énergies renouvelables. La conséquence de cette politique est qu’aujourd’hui, le prix du CO2 est bien trop faible (moins de 6 euros la tonne) pour attirer les investissements vers les technologies à faible intensité carbone.

L’économiste britannique Nicholas Stern, auteur du fameux rapport qui porte son nom, souligne également, dans un rapport publié il y a un mois, qu’il faut tout faire pour que la tonne de carbone coûte entre 32 et 103 dollars d'ici à 2015, contre seulement 7,70 dollars (5,70 euros) aujourd'hui sur le marché européen. Stern prévoit même un prix du carbone autour de 150 à 200 dollars la tonne à l’horizon 2035.

Pour tenter de sauver le marché européen du carbone (qui est passé de 95 à 61 milliards en quatre ans), la Commission a proposé un gel des quotas pour essayer de faire remonter le cours de la tonne de carbone et d'absorber les excédents sur le marché, estimés à 1,4 milliard de tonnes. Mais cette proposition a été rejetée par le Parlement européen.

Il est vrai qu’un nombre croissant d’économistes pensent qu’un tel gel ne suffira pas à remettre le marché du carbone européen sur ses rails et qu’il faut  d'abord d'agir sur le plafond de quotas en fixant au sein des 27 membres de l'UE un objectif de réduction de 40% des émissions en 2030. En outre, il semble également indispensable de mettre en place une autorité indépendante du marché carbone qui aura la charge de gérer les quantités de quotas et de s’assurer de la régularité des enchères, et d'en rendre compte publiquement devant le Conseil et le Parlement européen.

Mais face à l’ampleur et à l’urgence de ce défi climatique et énergétique à relever, il faut aller encore plus loin et réorienter l’ensemble de notre fiscalité en y intégrant la « contrainte carbone », sans pénaliser les familles les plus modestes, de manière à accélérer et à financer  la nécessaire transition énergétique. Il faut également, comme le fait la Grande Bretagne depuis 2009, adopter et généraliser, tant au niveau de l’Etat que des collectivités locales, le « budget-carbone » qui évalue et publie  le « coût-carbone »  de chaque mesure budgétaire prise.

Il faut enfin réfléchir à la pertinence de propositions audacieuses, comme celle de la carte carbone introduite par David Fleming et Mayer Hillman, deux chercheurs britanniques : l’idée est que chaque personne dispose d’un quota annuel de droits d'émissions de CO2 qui conditionnerait toute consommation d'énergie primaire (gaz, électricité, fioul, essence, etc.).

Pour faire le plein dans une station-service, par exemple, les particuliers devraient payer en monnaie le prix commercial de l'essence, comme c'est le cas actuellement, mais également son prix climatique, en restituant le nombre de droits d'émissions correspondant à la pollution engendrée.

La taille des quotas individuels distribués aux habitants du pays diminuerait progressivement, dans le cadre d'un budget carbone national indépassable, fixé en cohérence avec les engagements climatiques du pays. Dans ce système universel, les allocations ne seraient plus réservées seulement aux gros émetteurs, mais réparties de manière équitable, par individu, ce qui permettrait à chacun de se senti responsable et acteur de la lutte contre le changement climatique.

On le voit, l’immense défi qui nous attend est au moins autant social et culturel que technologique et économique. Il ne pourra être relevé seulement grâce aux progrès technologiques et à la volonté politique des états,  de la communauté internationale et des entreprises mais il devra également s’appuyer sur la  participation active de chacun d’entre nous qui se traduira par un changement profond dans nos modes de vie, non seulement sous l’effet de contraintes législatives et fiscales mais d’abord parceque nous aurons acquis la conviction que nos choix individuels constituent les premiers leviers d’actions pour éviter une catastrophe collective. Cet engagement personnel nous permettre de léguer un monde vivable à nos descendants.

René TREGOUET


TIC
Information et Communication
La reconnaissance faciale : nouvel outil pour détecter les maladies génétiques ?
Jeudi, 17/07/2014 - 12:06

Des chercheurs de l’Université d’Oxford, dirigés par Christoffer Nellaker ont développé un algorithme capable d’analyser des photographies de visages pour déceler des troubles génétiques chez les enfants. Grâce à ce nouvel outil logiciel, des syndromes tels que ceux de Down, Angelman ou Progeria peuvent être identifiés par analyse des caractéristiques faciales sur les photographies des patients en utilisant les techniques de machine learning et de vision par ordinateur.

Ces chercheurs précisent que 30% à 40% des cas de maladies génétiques provoquent une modification dans la formation du crâne et sur le visage.  L’algorithme développé permet ainsi de traiter de manière automatique cette étape du diagnostic. Le programme fonctionne comme un logiciel de photographie capable de détecter les visages sur une photographie de la vie quotidienne. Une description du visage prendra alors en compte le coin des yeux, le nez, la bouche et d’autres caractéristiques pour les comparer aux photographies analysées auparavant.

Le potentiel de ce programme informatique pourrait également permettre de déceler des maladies génétiques très rares, car l’algorithme conserve les analyses de cas qui n’ont jamais été observés pour les mettre en perspective.

NMN

La reconnaissance faciale : nouvel outil pour détecter les maladies génétiques ?
Jeudi, 17/07/2014 - 12:05

Des chercheurs de l’Université d’Oxford, dirigés par Christoffer Nellaker ont développé un algorithme capable d’analyser des photographies de visages pour déceler des troubles génétiques chez les enfants. Grâce à ce nouvel outil logiciel, des syndromes tels que ceux de Down, Angelman ou Progeria peuvent être identifiés par analyse des caractéristiques faciales sur les photographies des patients en utilisant les techniques de machine learning et de vision par ordinateur.

Ces chercheurs précisent que 30% à 40% des cas de maladies génétiques provoquent une modification dans la formation du crâne et sur le visage.  L’algorithme développé permet ainsi de traiter de manière automatique cette étape du diagnostic. Le programme fonctionne comme un logiciel de photographie capable de détecter les visages sur une photographie de la vie quotidienne. Une description du visage prendra alors en compte le coin des yeux, le nez, la bouche et d’autres caractéristiques pour les comparer aux photographies analysées auparavant.

Le potentiel de ce programme informatique pourrait également permettre de déceler des maladies génétiques très rares, car l’algorithme conserve les analyses de cas qui n’ont jamais été observés pour les mettre en perspective.

NMN

Un algorithme pour décrypter le langage corporel en temps réel
Mercredi, 16/07/2014 - 18:40

Les algorithmes d’intelligence artificielle parviennent aujourd’hui à détecter un visage parmi une foule ou identifier les émotions d’une personne grâce à la reconnaissance d’images. Mais lorsque plusieurs actions sont réalisées simultanément, les programmes informatiques ont du mal à les identifier.

Deux chercheurs du MIT et de l'Université d'Irvine ont mis au point un algorithme pour identifier une action lorsqu’elle est en train d’être réalisée. Pour ce faire, l’algorithme s’appuie sur le traitement automatique du langage naturel, discipline informatique proposant des techniques pour analyser le langage humain. Déjà utilisé pour la reconnaissance de la voix dans des applications comme Google Voice, ce système permet désormais de reconnaître efficacement des actions réalisées dans une vidéo.

Les chercheurs ont eu recours à une segmentation et à une classification de ces éléments grammaticaux pour l’étude des vidéos. L’avantage de cet algorithme est qu’il procède à une analyse en temps réel et n’attend pas la fin de la vidéo pour émettre des hypothèses de reconnaissance des actions. Celles-ci sont classées par ordre de probabilité et sont modifiées à mesure que la vidéo avance pour éliminer les hypothèses ne correspondant pas à la structure grammaticale de l’action.

Pour le moment, l’algorithme a été testé sur huit types d’efforts physiques différents allant de la levée d’haltères au bowling, via des vidéos extraites de Youtube. Le système est parvenu à identifier avec précision de nouvelles structures grammaticales.

Hamed Pirsiavash souhaiterait appliquer cet algorithme au domaine médical. Il pourrait par exemple aider les patients lors de thérapies physiques, en vérifiant si les gestes sont bien exécutés, ou encore vérifier que les patients âgés n'ont pas oublié de prendre leurs médicaments et leur envoyer une alerte en cas de besoin…

MIT

 Article rédigé par Georges Simmonds pour RT Flash

 

Le MIT dévoile un processeur expérimental doté de 36 cœurs
Vendredi, 11/07/2014 - 15:12

Des chercheurs en informatique du MIT, dirigés par Li-Shiuan, ont mis au point une nouvelle microarchitecture permettant à une puce informatique de fonctionner avec 36 cœurs, grâce à un réseau intégré reliant les cœurs entre eux. Ce groupe de travail du MIT spécialisé en génie électrique et en informatique travaille depuis plusieurs années à la conception d'une architecture en réseau reliant ces cœurs entre eux, et il vient de présenter le fruit de ses recherches à l'ISCA 2014 (International Symposium on Computer Architecture).

Dans cette puce équipée de 36 cœurs, chaque cœur dispose d'un routeur dédié qui lui permet de transmettre des données par paquets aux autres cœurs du système, s'assurant que le cache de chaque cœur reste à jour par rapport aux autres. Dans les processeurs actuels, tous les cœurs (il y en a rarement plus de huit) sont connectés par un seul bus, et si deux d'entre eux doivent communiquer, ils obtiennent un accès exclusif à ce bus. Mais avec cette configuration, plus le nombre de cœurs est grand, plus les échanges de données, via les bus, ralentissent, ce qui diminue sensiblement les performances finales de la puce.

Dans la nouvelle architecture "Réseau sur puce" du MIT, chaque cœur est connecté aux cœurs voisins, ce qui permet une communication rapide entre ces cœurs mais permet également aux informations d'emprunter plusieurs chemins pour atteindre un cœur distant, ce qui évite les "embouteillages" des architectures classiques.

La coordination et la gestion de ce nouveau réseau complexe repose également sur un second réseau qui possède une structure similaire au premier. Les circuits qui y sont connectés n'échangent qu'un seul type d'information, qui indique si oui ou non le cœur associé a effectué une demande d'information auprès des autres cœurs.

Cette architecture permet ainsi de déterminer des priorités aux cœurs qui reçoivent ces requêtes et de hiérarchiser ces dernières mais, comme ces règles de hiérarchisation changent fréquemment, chaque cœur peut être exploité de manière optimale.

Article rédigé par Georges Simmonds pour RT Flash

MIT

^ Haut
Avenir
Nanotechnologies et Robotique
Un patient paralysé parvient à commander sa main par la pensée !
Vendredi, 18/07/2014 - 09:57

Des chercheurs américains du Wexner Medical Center de l’Université de l’Ohio sont parvenus à redonner une autonomie partielle à un homme paralysé des quatre membres, grâce à une "neuroprothèse" commandée par la pensée. Grâce à une minuscule puce implantée dans son cerveau, reliée à un ordinateur, lui même connecté à une manche munie d’électrodes, Ian Burkhart, tétraplégique depuis 4 ans, est parvenu à bouger sa main et même saisir une cuillère.

Si des patients victimes d’attaques ont déjà pu contrôler des bras robotisés grâce aux ondes émises par leur cerveau, c’est sans doute la première fois qu’un patient utilise la force de son esprit pour bouger une partie de son propre corps paralysé.

S’appuyant sur les recherches de Chad Bouton, un inventeur américain qui travaille notamment sur les méthodes permettant de décoder l’activité cérébrale, les médecins, associés à l’organisation non-lucrative Battelle, ont mis au point une technologie appelée Neurobridge.

Le jeune tétraplégique, paralysé depuis un accident de plongée, a subi une opération visant à implanter une micro puce de 3,8 millimètres de large dans son cerveau. Composée de 96 électrodes, elle est capable de transformer en signaux électriques exploitables certaines pensées et de les transmettre à l’ordinateur auquel elle est connectée.

La machine envoie à son tour l’information vers une manche placée sur l’avant-bras du patient, qui à l’aide d’électrodes, stimule les muscles et permet à la main de bouger. Ian Burkhart a ainsi pu fermer sa main, la rouvrir, et attraper une cuillère, des résultats qui dépassent les attentes des médecins. “J’ai pu ouvrir et fermer ma main, et accomplir des mouvements complexes que je n’avais pas pu faire depuis quatre ans.

Si le système n’en est encore qu’au stade expérimental, les spécialistes sont optimistes. “Je pense vraiment qu’un jour viendra où les personnes souffrant de handicap - par exemple des personnes tétraplégiques, ayant eu une attaque, ou avec n’importe quel genre de lésion cérébrale - pourront utiliser le pouvoir de leur esprit et en pensant, seront capables de bouger leurs bras et leurs jambes”, souligne le Dr. Ali Rezai, le chirurgien de Ian Burkhart.

oxford

Article rédigé par Georges Simmonds pour RT Flash

Une nanopuce qui détecte d'infimes quantités d'explosifs !
Mercredi, 16/07/2014 - 18:11

Des chercheurs israéliens dirigés par Fernando Patolsky, de l'Université de Tel Aviv ont conçu un dispositif nanotechnologique capable de détecter et d'identifier un grand nombre d'explosifs, même masqués par d'autres substances, à des concentrations si faibles qu'elles échappent aux moyens de détection classiques.

Ce système, encore au stade expérimental, a réussi à identifier des molécules de TATP (peroxyde d'acétone) dans l'air à plus de cinq mètres de sa source. Ce composé chimique est pourtant très volatile et difficilement détectable. Cette nanopuce est également très  sensible au TNT (trinitrotoluène), qu'elle détecte jusqu'à quatre mètres de distance.

Ce dispositif se compose d'une puce unique, divisée en huit secteurs comprenant chacun 18 nanotransistors. Chaque secteur subit un traitement chimique particulier pour réagir de façon spécifique lorsqu'il est mis en présence d'une molécule donnée.

"Chaque type d'explosif produit un schéma distinctif lorsqu'il interagit avec le nanodétecteur, ce qui permet l'identification simple et rapide de la molécule en question", quelle qu'en soit la concentration, précise l'étude. Une fois calibré, le système est capable de reconnaître rapidement et facilement la "signature" particulière de l'explosif, même en très faible quantité. Autre avantage majeur : ce système  n'est pas limité à un petit nombre de substances, comme les détecteurs actuels d'explosifs.

Nature

Article rédigé par Georges Simmonds pour RT Flash

Des nanoparticules au service de la médecine régénératrice…
Vendredi, 11/07/2014 - 15:05

Une équipe de scientifiques dirigée par Ludwik Leibler, du Laboratoire « matière molle et chimie » (Ecole supérieure de physique et de chimie industrielles) et Didier Letourneur, du Laboratoire de recherche vasculaire translationnelle, ont mis au point une nouvelle technique de cicatrisation qui utilise des solutions aqueuses de nanoparticules et permet de réparer des organes « mous » et des tissus, en collant un gel.

Dans une première expérience menée sur des rats, les chercheurs ont fait une analyse comparée d'une fermeture d'une plaie profonde de la peau par la méthode traditionnelle de points de sutures, et d'une fermeture par l'application au pinceau de la solution aqueuse de nanoparticules. Dans une seconde expérience, les chercheurs ont appliqué cette dernière solution à des organes dits « mous », tels que le foie, la rate ou le poumon qui sont particulièrement difficiles à suturer.

Les chercheurs ont ainsi refermé une entaille profonde du foie avec hémorragie, en étalant la solution aqueuse de nanoparticules et en pressant les bords de la blessure et la perte de sang s'est arrêtée rapidement. Les chercheurs ont utilisé la même méthode pour réparer un lobe de foie sectionné. Dans les deux situations, les animaux ont survécu et le fonctionnement de l'organe n'a pas été altéré.

Les résultats sont surprenants car, outre le fait de fermer des blessures, même profondes et en quelques secondes, cette méthode permet d'obtenir une cicatrisation de qualité et esthétique.

Les chercheurs ont également réussi à fixer une membrane dégradable utilisée dans la thérapie cellulaire sur le cœur. A l'aide de cette nouvelle technique, il serait donc possible de fixer des dispositifs médicaux ou même de réparer et renforcer des organes et des tissus de façon mécanique.

Article rédigé par Georges Simmonds pour RT Flash

Azonano

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La vie complexe est bien plus ancienne que prévue…
Jeudi, 17/07/2014 - 12:01

Des chercheurs du CNRS et de l'université de Poitiers en collaboration avec des équipes de l'université Lille 1, de l'université de Rennes 1, du Muséum national d'Histoire naturelle et de l'Ifremer, ont mis au jour dans les sédiments argileux du Gabon les plus vieux fossiles d'organismes pluricellulaires jamais observés. Ce sont des fossiles vieux de 2,1 milliards d'années qui ont été récoltés, dont des dizaines de nouveaux spécimens. Leur analyse détaillée, publiée le 25 juin 2014 dans la revue Plos One, révèle une surprenante et foisonnante biodiversité ayant évolué dans un écosystème marin, composée d'organismes micro et macroscopiques de formes et de tailles extrêmement variées.

La mise au jour en 2010 de ces 250 fossiles d'organismes pluricellulaires complexes vieux de 2,1 milliards d'années dans un gisement sédimentaire proche de Franceville, au Gabon, a totalement remis en cause  le scénario généralement admis de l'histoire de la vie sur Terre. Jusque-là, les plus vieux fossiles d'organismes complexes remontaient à 600 millions d'années (Vendobionta d'Ediacara en Australie) et il était communément admis qu'avant cette période, la vie sur notre planète était constituée exclusivement d'organismes unicellulaires (bactéries, algues unicellulaires...). Mais avec cette  découverte de Franceville, la vie complexe a fait un bond de 1,5 milliard d'années en arrière!

L'utilisation d'une sonde ionique destinée à mesurer les différents isotopes du soufre a confirmé l'origine organique des spécimens récoltés, tandis que leur analyse au microtomographe à rayons X a révélé leur structure et permis de caractériser leur morphotype.

La structure très organisée et les tailles variées des spécimens macroscopiques (jusqu'à 17 centimètres) montre un mode de croissance extrêmement sophistiqué pour la période. Cet écosystème marin complet est donc composé d'organismes micro et macroscopiques de formes et de tailles extrêmement variées qui vivaient dans un environnement marin peu profond.

L'apparition de cette surprenante biodiversié gabonaise correspond au premier pic d'oxygène observé entre - 2,3 et - 2 milliards d'années. Cette biodiversité se serait vraisemblablement éteinte après que ce taux d’oxygène ait brutalement rechuté. La diversité et la structure très organisée des spécimens étudiés suggèrent qu'ils sont déjà évolués et laisse entrevoir la possibilité  que d'autres formes de vie aussi anciennes soient découvertes dans d'autres régions du monde…

PLOS

Une cornée humaine régénérée à partir de cellules souches
Jeudi, 17/07/2014 - 11:54

Des chercheurs américains d'Harvard, du Boston Children’s Hospital, du Brigham and Women’s Hospital, et du VA Boston Healthcare System ont réussi à faire repousser, à partir de cellules souches, la cornée, cette membrane transparente qui constitue la partie antérieure de l’oeil. Elle transmet la lumière au cristallin et à la rétine et peut-être abîmée ou détruite du fait de maladies ou par des brûlures, ce qui entraîne la cécité.
Grâce aux nouvelles découvertes en matière de cellules souches, les chercheurs ont pu mettre en évidence un marqueur (la molécule ABCB5) de cellules souches limbiques (responsables de la régénerescence de la cornée), se trouvant dans le limbe de l’œil et difficiles à repérer.

Grâce à ce marqueur, les chercheurs ont pu détecter des cellules souches limbiques sur les tissus d’un donneur humain décédé et faire grandir avec ces cellules souches une cornée humaine anatomiquement correcte et complètement fonctionnelle sur une souris.

Cette découverte va pouvoir faciliter la restauration de la surface de la cornée; elle confirme également les potentialités de reconstruction d’un tissu à partir de cellules souches d’humains adultes

Harvard

Article rédigé par Georges Simmonds pour RT Flash

Trop de télévision réduirait l'espérance de vie !
Mercredi, 16/07/2014 - 18:33

Une  étude espagnole montre que le fait de regarder la télévision plus de 3 heures par jour doublerait le risque de mortalité prématurée. Pour parvenir à ces conclusions, le  Dr Miguel Martinez-Gonzalez et son équipe de l'Université de Navarre à Pampelune (Espagne) ont interrogé par questionnaire 13 330 adultes (âge moyen 37,5 ans). Ces derniers ont ensuite été suivis pendant plus de 8 ans.

Au cours de cett étude,  97 participants sont décédés : 19 d'une maladie cardiovasculaire, 46 d'un cancer et 32 « d'autres causes », précisent les auteurs. Selon cette étude, le risque de mortalité prématurée a été deux fois plus élevé chez ceux qui ont déclaré regarder la télévision au moins 3 heures par jour.

En revanche, les scientifiques n'ont pas découvert le même type d'association avec les deux autres facteurs de risque étudiés : à savoir le temps passé devant l'ordinateur et celui au volant.

science news

Article rédigé par Georges Simmonds pour RT Flash

Une découverte pour lutter contre la douleur chronique
Mercredi, 16/07/2014 - 18:28

Des chercheurs de l'Université de Laval au Québec, ont découvert qu'il serait possible de traiter l'hypersensibilité reliée à une douleur en « réveillant » cette douleur pour ensuite l'effacer en ayant recours à certaines substances. « On intervient avec une substance chimique qui va agir au moment où la connexion au niveau de la douleur  va se renforcer et on vient remettre la connexion à zéro », explique Yves De Konnick, directeur scientifique à l'Institut universitaire en santé mentale de Québec.

Ces scientifiques de l'université Laval se sont basés sur une technique étudiée il y a une quinzaine d'années. A l'époque, des chercheurs avaient découvert que lorsqu'un souvenir est activé, son encodage neurochimique est temporairement déverrouillé. En utilisant un produit qui empêche la reconsolidation neurochimique du souvenir, ils avaient réussi à l'effacer de la mémoire.

Les chercheurs québécois ont voulu savoir s'il existait un mécanisme similaire pour la douleur. Ils ont donc injecté la molécule du piment fort dans la patte de 24 souris, déclenchant une réaction d'hypersensibilité à la douleur et de synthèse de protéines dans la moelle épinière. La pression que les souris pouvaient tolérer sur leur patte était réduite à un tiers de celle qu'elles pouvaient supporter en temps normal.

Trois heures plus tard, une deuxième injection, à base de piment fort ainsi qu'un produit qui inhibe la synthèse protéique, leur a été administrée. L'hypersensibilité a rapidement diminué et deux heures plus tard, la pression tolérée sur la patte était à 70% de celle au départ. Les chercheurs vont à présent essayer de trouver un inhibiteur protéique non toxique et qui cause peu d'effets secondaires chez l'home.

LM

Article rédigé par Georges Simmonds pour RT Flash

Cancer du sein: la supériorité de la mammographie 3D démontrée…
Mercredi, 16/07/2014 - 18:21

Une vaste étude réalisée sur près d'un demi-million de femmes dans treize centres hospitaliers aux Etats-Unis et conduite par Donna Plecha, directrice du service d'imagerie du sein à l'hôpital universitaire du Case Medical Center à Cleveland (Ohio), a montré que la mammographie en 3D permet de dépister beaucoup plus de cancers du sein et de réduire le nombre de mauvais diagnostics que la radiographie conventionnelle.

Comparativement à une mammographie en 2D, la mammographie numérique 3D par tomosynthèse accroît de 41% le taux de détection des tumeurs mammaires invasives et de 29% le dépistage de tous les cancers du sein. Cette technique d'imagerie tridimensionnelle permet également une réduction de 15% des mauvais diagnostics.

La mammographie 3D est un système qui combine une mammographie numérique et une imagerie par tomosynthèse permet d'obtenir des images beaucoup plus détaillées et très ciblées du sein.  

Ce dépistage très précoce du cancer du sein augmente directement les chances de guérison des patientes puisque le taux de survie à cinq ans est dans ce cas de 97%, selon ces travaux.

SWR

Article rédigé par Elisa Tabord pour RT Flash

Un gène commun favoriserait la schizophrénie et la prédisposition à fumer du cannabis
Mercredi, 16/07/2014 - 18:04

En analysant les données médicales de 2082 personnes en bonne santé dont 1.011 avaient fumé du cannabis, une équipe de recherche anglo-australienne du King College de Londres, a  montré que la présence d'une prédisposition génétique à la schizophrénie augmenterait la propension à fumer du cannabis. Les fumeurs de cannabis auraient un gène commun avec les malades atteints de schizophrénie.

Les chercheurs ont constaté que les individus génétiquement prédisposées à la schizophrénie sont plus susceptibles de consommer du cannabis, et d'en fumer plus que ceux qui ne présentent pas de gènes de prédisposition à ce trouble psychiatrique.

L'étude rappelle que le cannabis est la drogue la plus largement consommée dans le monde mais que son usage est plus fréquent chez les personnes atteintes de schizophrénie. Les personnes qui consomment du cannabis ont par ailleurs 2 fois plus de risque de développer ce trouble.

Nature

Article rédigé par Georges Simmonds pour RT Flash

Découverte d'un gène-clé dans la motricité
Vendredi, 11/07/2014 - 15:17

Des chercheurs canadiens de l’Université d’Ottawa dirigés par David Picketts ont découvert un gène, Snf2h, essentiel pour le développement du centre moteur du cerveau. Ces scientifiques ont montré que sans ce gène-clé, le développement du cervelet (qui contient environ la moitié des neurones du cerveau) devenait impossible, ce qui empêchait le contrôle de la motricité fine et des mouvements physiques complexes.

Ces travaux ont montré que ce gène-maître était présent dans les cellules souches neurales du cerveau et décidait quels gènes doivent être activés et quels gènes doivent être éteints lors de la division des cellules souches en cellules cérébrales spécialisées. Ces scientifiques ont également constaté que, privé de ce gène, le cervelet de jeunes souris encore en développement n’atteint qu’un tiers environ de la taille normale. Les souris montrent ensuite des difficultés dans la marche, l'équilibre et la coordination des mouvements, comme dans le cas de maladies neurodégénératives.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top