  |  
				
					
						
						
							  |  
							
								
								
      								
      										
      											
      											       												
      												
      												 
      												
      												
	Edito 
	Cellules-souches : ne fermons aucune voie de recherche !
  
 
  
Marc Peschanski, directeur de recherche Inserm et de l'Institut des cellules souches pour le traitement et l'étude des maladies monogéniques (Istem), a annoncé le 31 mars les résultats remarquables obtenus par son équipe dans une forme de myopathie, la maladie de Steinert, grâce à l'emploi de cellules souches embryonnaires humaines (Voir communiqué de l’INSERM). 
La dystrophie de Steinert est la plus fréquente des myopathies de l'adulte. Elle touche quelques milliers de personnes en France. Elle est caractérisée par une fonte ainsi qu'une lenteur anormale de la décontraction des muscles, ce qui désorganise les mouvements, et par une atteinte de très nombreux autres organes. Les patients souffrent de troubles du rythme cardiaque, de cataracte, d'anomalies endocriniennes, de troubles cognitifs et du sommeil... À ce jour, il n'existe pas de traitement. 
"En comparant tous les gènes qui s'exprimaient dans ces cellules et en les comparant aux gènes de cellules identiques mais non atteintes, nous avons réussi à identifier 15 gènes anormaux", explique le chercheur. "Puis nous en avons sélectionné un qui intervenait particulièrement dans la croissance des prolongements des neurones moteurs en direction des muscles. C'est ainsi que nous avons découvert que les cellules malades faisaient pousser à profusion et de façon anarchique des prolongements alors que ceux des cellules saines étaient beaucoup moins nombreux, bien organisés et donc capables d'établir des connexions fonctionnelles avec les muscles." 
Au niveau moléculaire, les chercheurs ont identifié deux gènes de la même famille, SLITRK 2 et 4, dont l’expression était très faible du fait de la maladie. La correction de ces défauts moléculaires jusqu’alors inconnus mais, depuis, confirmés chez les patients, induisait celle des anomalies neuro-musculaires, et démontrant le lien direct entre les deux phénomènes. 
Aucune autre approche expérimentale n’aurait permis aujourd’hui d’élucider ces mécanismes, en particulier parce qu’il n’existait pas de moyen d’accéder à des neurones moteurs humains porteurs de la maladie, explique Cécile Martinat, chargée de recherche à l’Inserm. Il n’existait pas a fortiori de moyen de produire de telles cellules en quantité, alors que cela est essentiel aux approches qui ont permis ici de déchiffrer les mécanismes en jeu." 
Aujourd’hui, ces travaux ouvrent un champ d’exploration considérable. Des dizaines de lignées cellulaires issues d’embryons porteurs d’autres maladies génétiques diverses sont disponibles dans les banques de cellules des laboratoires. Parmi ces maladies, les équipes d’I-Stem sont déjà lancées, par exemple, sur la maladie de Huntington ou la neurofibromatose de type 1… Ces multiples lignées sont autant de programmes de modélisation pathologique à venir. 
Les équipes d’I-Stem ont déjà entrepris d’utiliser les cellules porteuses de la dystrophie myotonique de Steinert qu’elles ont caractérisées pour chercher des médicaments susceptibles de corriger les anomalies en laboratoire, premier pas vers la découverte éventuelle de traitements applicables chez les patients. Cette étape, dite de "criblage de médicaments", ouvre sur l’analyse parallèle de plusieurs dizaines de milliers de composés pharmacologiques par semaine. 
S'appuyant sur cette avancée majeure qui aurait été impossible dans l'utilisation de cellules-souches embryonnaires, Marc Peschanski a souligné avec force la nécessité de légaliser, dans la future loi de bioéthique actuellement examinée par le Parlement, l'usage des cellules souches embryonnaires humaines lorsqu'il est établi, et c'est ici le cas, que seule l'utilisation de ces cellules souches embryonnaires peut permettre des percées majeures en matière de nouveaux traitements. Ce chercheur de renommée mondiale a rappelé à juste titre que trois essais avec des cellules souches embryonnaires ont déjà commencé chez l'homme aux États-Unis (le premier concerne les victimes de traumatismes de la moelle épinière, les deux autres des maladies de la rétine). "Il serait vraiment dommage de se priver, en France, d'un outil scientifique et potentiellement thérapeutique si prometteur pour des raisons purement idéologiques", a conclu Marc Peschanski. 
Les réticences de nature éthique liées à l'utilisation des cellules-souches embryonnaires sont tout à fait respectables et compréhensibles et il faut souhaiter que les progrès de la biologie permettent, comme cela est déjà le cas pour certaines recherches, de se passer de plus en plus de ce type de cellules issus d'embryons humains. Mais aujourd'hui, l'honnêteté intellectuelle et scientifique doit nous conduire à admettre le fait qu'il est impossible, pour l'instant, de se passer totalement des cellules-souches embryonnaires si nous voulons opérer de véritables ruptures thérapeutiques pour traiter certaines affections graves qui restent à ce jour incurables et souvent mortelles. En outre, rendre pratiquement impossible l'utilisation des cellules souches embryonnaires en maintenant un régime général d'interdiction, tout en restreignant de manière excessive les possibilités de dérogation permettant l'utilisation de ce type de cellules, aboutirait à pénaliser de manière dramatique et durable la recherche française dans des domaines tout à fait stratégiques où notre pays en en pointe. 
Comme l'ont rappelé dans un communiqué commun il y peu de temps plusieurs chercheurs de haut niveau, ne confondons pas rigueur éthique et aveuglement idéologique et espérons que cette remarquable avancée scientifique et biologique, saluée par l'ensemble de la communauté scientifique internationale, permettra d'infléchir la réflexion et d'éclairer le débat en cours et débouchera sur la définition d'un cadre légal et éthique largement consensuel qui ne ferme a priori aucune voie de recherche et permette de nouvelles avancées rapides et décisives en matière de thérapie cellulaire. 
René Trégouët 
Sénateur Honoraire 
Fondateur du Groupe de Prospective du Sénat 
 
      											 | 
      										 
      										  |  
      									 
								 | 
							 
							
								
								                  						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								TIC | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Information et Communication
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Des  scientifiques belges et espagnols ont démontré pour la première fois que les  nouveaux systèmes de cryptologie quantiques sont plus sûrs que les systèmes de  sécurité actuels. Le soutien de l'UE provient du projet Q-ESSENCE («Quantum  interfaces, sensors and communication based on entanglement»), qui a reçu près  de 5 millions d'euros au titre du thème Technologies de l'information et de la  communication (TIC) du septième programme-cadre (7e PC), et du projet PERCENT  («Percolating entanglement and quantum information resources through quantum  networks»), soutenu à hauteur de 700 000 euros dans le cadre d'une subvention de  démarrage du CER (Conseil européen de la recherche) au titre du 7e PC également.  L'étude a été récemment publiée dans la revue scientifique Nature  Communications. 
En utilisant des clés générées par des particules  quantiques, la transmission de données est garantie par les lois de la physique,  selon les chercheurs de l'Université libre de Bruxelles (ULB) en Belgique et  l'Institut de sciences photoniques de Barcelona, en Espagne. Les lois de  mécanique quantique établissent que l'observation d'une particule dans son état  quantique modifie cet état, ce qui signifie que dans les cas où les particules  quantiques sont utilisées en tant que clés de transmission de données, toute  forme d'espionnage peut être facilement et immédiatement détectée. 
Comme  les chercheurs l'ont fait remarquer dans leur article, un «problème central en  cryptographie est la distribution entre utilisateurs distants de clés secrètes  pouvant être utilisées, par exemple, pour le cryptage de messages». Ils  expliquent que «cette tâche est impossible en cryptographie classique à moins  d'émettre des hypothèses sur la puissance informatique des espions. La  distribution quantique de clés (ou cryptographie quantique), offre une sécurité  contre les adversaires disposant d'une puissance informatique illimitée». 
C'est le principe à l'origine de tous les systèmes de cryptographie  quantique sur le marché, mais les failles dans la mise en oeuvre de ces systèmes  constatées dans le passé les laissent vulnérables aux attaques des pirates  quantiques, forçant les chercheurs à découvrir de meilleurs moyens de sécuriser  les données. Selon les travaux menés par le post-doctorant Jonathan Barrett, des  chercheurs de l'ULB ont développé une méthodologie qui n'était pas basée sur  l'identification des changements de l'état quantique des particules. 
Au  contraire, les appareils quantiques étaient utilisés comme des boîtes noires  pour recevoir et transmettre des données ; si l'émetteur et le récepteur  pouvaient détecter certaines corrélations entre les données produites par leurs  boîtes respectives, la sécurité des clés quantiques était garantie. Ainsi, toute  tentative d'espionnage de données devient complètement inutile et la sécurité de  la transmission de données se place aux limites de notre compréhension actuelle  des lois de physique. 
Ce qui restait à prouver, néanmoins, était la  fiabilité de cette nouvelle approche étant donné que les tests s'étaient  concentrés sur quelques attaques limitées. Stefano Pironio de la faculté de  sciences de l'ULB et Lluis Masanes et Antonio Acín de l'Institut de sciences  photoniques à Barcelone ont démontré que cette nouvelle approche permettait de  générer des clés à une vitesse raisonnable, comparables à celles utilisées dans  les systèmes actuels, assurant ainsi la sécurité complète du système. 
Les chercheurs ont écrit dans Nature Communications que leurs travaux  offrent «un formalisme général de confirmation de sécurité» des protocoles de  cryptographie quantique. «Cela est possible en termes de forte notion de  sécurité, de sécurité universelle de composabilité, selon laquelle la clé  secrète générée par le protocole est impossible à distinguer de la clé secrète  idéale», expliquent-ils. 
Bien que leurs preuves se basent sur une  supposition mineure sur le fonctionnement des appareils quantiques, les  résultats de cette recherche montrent clairement que cette nouvelle approche est  possible en principe, ouvrant ainsi la voie à des formes plus sûres de  cryptographie quantique. Les auteurs concluent: «Nos travaux contribuent à  combler l'écart entre les preuves de sécurité théoriques et les réalisations  pratique de cryptographie  quantique». 
Cordis 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Le Nexus S sera-t-il transformé bientôt en portefeuille  électronique ? Le Wall Street Journal en est convaincu. D’après ses  informations, Google a conclu un partenariat avec le spécialiste de la carte  Mastercard et le géant de la finance Citigroup, afin d’intégrer des solutions de  paiement mobile à Android. Une fois concrétisé, cet accord permettrait aux  clients de Citigroup d’effectuer des paiements avec leur smartphone, à  l'aide d'une application spécifique. 
Le journal précise que cette application, en développement,  ne fonctionne que pour un seul modèle en vente actuellement – sans doute le  Nexus S-, doté d’un module NFC, mais qu’elle serait disponible par la suite sur  de nombreux téléphones Android. 
Selon le WSJ, ce projet serait aussi un moyen pour  Google de proposer une nouvelle forme de publicité ciblée locale : en obtenant  des informations plus précises sur leurs clients – grâce à leur téléphone -, les  commerçants seraient à même de leur proposer des publicités et des bons de  réduction adaptés à leurs désirs... En revanche, Google ne prendrait pas de  commission sur les transactions. Le système de paiement de Google et ses  partenaires devrait être dévoilé cette année, mais rien n’indique qu’il sera  disponible en Europe… En France, rappelons que plusieurs opérateurs de  téléphonie mobile et banques testent déjà le paiement par mobile, notamment  à Nice. 
01Net 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Avenir | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Nanotechnologies et Robotique
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Décidément,  les chirurgiens doivent beaucoup aux militaires. On sait que, jadis, ils ont  forgé leur art sur les champs de bataille. On sait moins qu’aujourd’hui cette  tradition demeure. Ainsi, si l’armée américaine n’avait pas ressenti le besoin  d’une meilleure protection pour ses chirurgiens et si les marins de la même  nation n’avaient pas travaillé sur le problème des interventions chirurgicales à  distance, le robot chirurgical n’aurait, sans doute, pas été si rapidement mis  au point. Et l’on ignorerait encore les progrès qu’il nous offre, autant en ce  qui concerne les performances des chirurgiens que le confort des  patients. 
Après  l’hôpital Lyon Sud, c’est au tour de la clinique du Tonkin (Villeurbanne - Rhône) de s’être équipée d’un  de ces appareils. Entré en service au mois de septembre dernier, il a déjà été  utilisé à 150 reprises pour traiter des patients dans pas moins de six  spécialités (chirurgies urologique, digestive, vasculaire, gynécologique,  cardiaque et de la main). Ce qui fait la fierté du directeur de la clinique,  Eric Calderon : « Nous sommes le seul établissement au monde à opérer de la  sorte dans six spécialités ». 
Formés à  Strasbourg au maniement du robot chirurgical Da  Vinci, les chirurgiens du Tonkin, ils sont douze à être  concernés, en ont vite maîtrisé la technique. Aujourd’hui, ils sont d’ardents  militants de cette technologie, à l’image du docteur Marwan Dawarha, urologue :  « Nous sommes là dans le domaine de la chirurgie peu invasive. D’où un avantage  pour le patient qui souffre moins et voit réduire le temps de sa  convalescence ». Et l’homme de l’art de rajouter : « Pour le chirurgien aussi le  progrès est considérable. Il peut travailler dans d’excellentes conditions de  confort et donc plus longtemps. Sa vision est améliorée et, grâce à la machine,  son geste est beaucoup plus précis. Il s’agit là d’une véritable  révolution ». 
Une  révolution qui, de surcroît, ne coûte rien. Du moins au patient. Car si  l’investissement se chiffre à 1, 5 million d’euros pour l’établissement, tous  les médecins se sont mis d’accord pour payer une redevance en partant du  principe qu’une telle technologie devrait améliorer encore les résultats et  l’image de la clinique du Tonkin. Le surcoût est ainsi assuré, sans que la note  finale du patient soit augmentée. Les premiers robots chirurgicaux ont fait leur  apparition en 1999 aux États-Unis. Aujourd’hui, rien que dans ce seul pays, ils  sont 2 000 en activité. Pour sa part, la France en compte déjà quarante. Et ce  n’est qu’un début. Déjà, toujours aux États-Unis, 90 % des cancers de la  prostate sont opérés de la sorte. 
Le Progrès 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Matière | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Matière et Energie
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Des chercheurs de l’Institut  technologique d’Harbin (HIT) ont développé un procédé qui  permet, à une température inférieure à 25°C, de fabriquer de l’hydrogène à  partir de matériaux organiques et de bactéries. Habituellement, la production  d’hydrogène est diminuée à de basses températures en raison du ralentissement de  l’activité enzymatique qui catalyse les réactions. En utilisant une cellule  d’électrolyse microbienne (MEC), l’équipe de chercheurs de Defeng Xing du HIT a réussi à optimiser cette production entre 4 et 9°C. 
Cette MEC spécifique génère directement de l’hydrogène après application  d’un courant électrique sur les bactéries. Ces dernières vont alors consommer  l’acide acétique provenant de la fermentation des plantes et relâcher des  photons, des électrons et du CO2. L’addition d’un autre courant électrique  aidera ensuite le rapprochement des photons et électrons pour créer de  l’hydrogène sous forme gazeuse. Par ailleurs, plus l’intensité du courant est  forte, plus la production d’hydrogène sera importante. 
Présentant  plusieurs avantages, cette nouvelle méthode de production d’hydrogène élimine  ainsi le coût d’un éventuel chauffage et pourrait être mise en œuvre dans des  régions montagneuses où la température est inférieure à 10°C.  De plus, aucune  formation de méthane, résultant de la respiration anaérobique des bactéries,  n’est observée à ce niveau de température. Un problème fréquemment rencontré  dans les MEC traditionnels. 
Industrie&Technologies 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Vestas a révélé le 30 mars des détails sur sa nouvelle  génération d'éolienne offshore,  la V164-7.0 MW, d'une puisance de 7 MW avec  un rotor de 164 mètres de diamètre. Ce niveau d'envergure et de puissance permet  d'après le fabricant danois d'éoliennes d'assurer le coût de l'énergie le plus  faible possible. Baisser le coût de l'énergie de l'éolien offshore est essentiel  pour l'industrie. Pour atteindre cet objectif, il faut miser sur une éolienne de  plus grande taille permettant de capturer davantage d'énergie. Nous avons donc  besoin de développer des machines encore plus grandes, spécialement conçues pour  les enjeux propres à l'environnement offshore. Avec l'introduction de la  V164-7.0 MW, Vestas franchit une étape majeure pour répondre à ces besoins. 
Selon Anders Søe-Jensen, Président de Vestas Offshore, le marché  éolien offshore va considérablement se développer dans les années à  venir, mais davantage dans certaines parties du monde que d'autres  : « D'après nos prévisions, le développement du marché éolien offshore aura  surtout lieu en Europe du Nord où les conditions maritimes sont particulièrement  dures. Forts de notre vaste et réelle expérience offshore et de la longue  période durant laquelle Vestas a fait figure de pionnier dans l'industrie  éolienne offshore, nous avons spécialement conçu la V164-7.0 MW dans le but de  capturer la plus grande quantité d'énergie possible et d'offrir une fiabilité  hors pair dans un environnement rude et plein de défis. Cela fait de cette  nouvelle éolienne le choix idéal pour, et à titre d'exemple, les nombreux  projets du « Round 3 » au Royaume-Uni. » 
Compte tenu du rendement moyen d'une éolienne marine, plus élevé que sur  terre, chacune de ces machines pourra produire, en moyenne, 24 millions de kWh  par an, de quoi alimenter 9 600 foyers hors chauffage. Sur les bases de la  consommation électrique moyenne actuelle (2500kWh par foyer hors chauffage), 2  700 de ces éoliennes géantes pourraient produire, en association avec un réseau  en "grille" adapté à la gestion des énergies intermittentes et des moyens de  stockage suffisants de l'énergie (air comprimé, hydrogène, gaz), la totalité de  l'électricité consommée par les 26 millions de foyers français. 
Vestas 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				"Les parcs éoliens ont couvert 21 % de la demande et ont  atteint un record mensuel, avec la production de 4.738  gigawatts, 5 % de plus qu'en mars 2010", a indiqué récemment le gestionnaire du  réseau de transport d'électricité REE dans un communiqué. L'ensemble des  énergies renouvelables ont fourni 42,2 % de la demande d'électricité, un chiffre  toutefois en recul par rapport à mars 2010 (48,5 %), mois qui avait profité d'une  forte production hydraulique. 
Cette dernière a représenté 17,3 % de la  demande en mars 2011, tandis que le solaire en a apporté 2,6 %. Le nucléaire a  lui fourni 19 % de l'électricité et le charbon 12,9 %. Sur l'ensemble du premier  trimestre, les énergies renouvelables apportent 40,5 % de la demande, dont 21 %  via l'éolien. "Avec la production d'énergie éolienne de mars, on pourrait  couvrir la consommation électrique mensuelle d'un pays comme le Portugal", s'est  réjoui dans un communiqué l'Association des entreprises éoliennes (AEE). 
"Ce jalon historique atteint par l'éolien démontre que cette  énergie, en plus d'être autochtone, propre et de plus en plus compétitive, est  déjà capable d'approvisionner trois millions de foyers espagnols", a souligné  son président José Donoso. Selon l'AEE, cette forte progression de l'énergie  éolienne est "la principale raison pour laquelle 2010 a été la première année où  l'Espagne a été exportatrice (nette) d'électricité avec la France". L'Espagne  était en 2009 le quatrième producteur mondial d'énergie éolienne grâce à une  politique de soutien actif menée ces dernières années. Madrid vise une puissance  installée de 40.000 mégawatts en 2020, contre près de 21.000  actuellement. 
Red Eléctrica 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Les Led vont-elles bientôt entrer dans l’ère  du silicium pour devenir des composants aussi faciles à  fabriquer que les microprocesseurs, les circuits logiques programmables ou  encore les mémoires flash ? En tout cas, les chercheurs l’espèrent. 
Ainsi la société américaine Bridgelux vient de faire la  démonstration d’une technologie LED à base de nitrure de gallium (GaN) sur  silicium offrant un rendement lumineux de 135 lumens par watt. Elle est  présentée comme la première percée de ce type proche du marché puisque la  commercialisation est prévue dans les deux à trois années à venir. 
Aujourd’hui, les LED sont réalisées avec des semiconducteurs  exotiques comme le nitrure de gallium que l’on fait croitre par épitaxie sur un  substrat de saphir ou de carbure de silicium. En passant à un substrat de  silicium, il devient possible d’utiliser les procédés de fabrication banalisés  dans la production des puces électroniques.  A la clé une réduction des coûts de  75 % en comparaison avec les approches actuelles, selon Bridgelux. 
Le  rendement de 135 lumens par watt a été atteint à une température de couleur  corrélée de 4 730 K et pour un courant de 350 mA. Les tensions de service se  situent entre 2,90 V à 350 mA et 3,25 V à 1 A. Selon Bridgelux, cette  technologie est idéale pour des applications d’éclairage général. La société  espère utiliser des tranches de silicium de 200 mm (8 pouces), courantes dans la  fabrication de semi-conducteurs. 
Industrie&Technologies 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Des  chercheurs du Massachusetts Institute of Technology (MIT) dirigés par  Daniel NOCERA ont développé une feuille artificielle qui produit de l’énergie  dix fois plus vite que la photosynthèse naturelle, et qui pourrait créer assez  d’énergie pour chauffer une maison pendant un jour. Un scientifique avait déjà  créé la première feuille artificielle il y a plus d’une décennie, mais celle des  chercheurs du MIT est plus petite, plus puissante et moins chère que celle de  Turner. 
Le  professeur Daniel Nocera a récemment présenté son modèle en Californie. Il  s’agit d’un appareil solaire sophistiqué de la taille d’une carte à jouer que  l’on laisse flotter dans un récipient d’eau. Un peu à la manière de la  photosynthèse réalisée par une feuille naturelle, la feuille utilise la lumière  du soleil pour séparer les deux composants essentiels de l’eau, l’oxygène et  l’hydrogène, qui sont ensuite utilisés pour produire de l’électricité. 
La  conception de ce nouveau prototype, qui contient également de la silicone et des  circuits électroniques, a été possible grâce à la découverte de nouveaux  catalyseurs puissants et bon marché en nickel et en cobalt. La feuille a  fonctionné pendant au moins 45 heures d’affilée sans s’arrêter au cours des  tests préliminaires. Nocera estime qu’avec quatre litres d’eau, une feuille  pourrait produire assez d’électricité pour une maison dans un pays en  développement pendant un jour. Il n’en fallait pas plus pour que certains  tabloïds britanniques s’extasient : «Des scientifiques prétendent avoir  trouvé le “Saint Graal” de la science avec une feuille artificielle qui pourrait  transformer chaque maison britannique en sa propre  centrale». 
Cette  invention est sur le point d’être commercialisée par le géant indien Tata Group  qui a deja passé un accord avec le chercheur du MIT pour construire une centrale  électrique de la taille d’un réfrigérateur au cours des prochains 18 mois. Pour  le moment, Nocera vise principalement les pays en  développement. 
Daily Mail 
Free Energy Times 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Terre | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Sciences de la Terre, Environnement et Climat
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Mis en place par le cabinet de conseil en développement durable Green Inside et  Ipsos, l’Observatoire du Bilan Carbone des Ménages a analysé, du 26 mai au 3  juin 2010, l’impact carbone du quotidien de plus de 2000 Français. Publiées  courant mars 2011, les conclusions de cette étude ont ciblé les trois grands  postes d’émissions sur lesquels il est possible de recueillir des données  fiables, à savoir les transports, le logement et l’alimentation. 
L’impact  désormais important des voyages en avion sur le bilan carbone des  foyers 
Le bilan  carbone global moyen des ménages mesuré par l’Observatoire se situe aujourd’hui  à environ 7 388Kg Co2 par individu. Le poste transport constitue à lui seul plus  de la moitié des émissions des foyers (54 %, soit 3 972 Kg Co2 par individu),  loin devant le logement (30 %) et l’alimentation (16 %). L’usage des  véhicules personnels est à l’origine de la très grande majorité des émissions de  C02 au sein du poste transports (79 %). Les transports en commun ne comptent que  pour 1 % d’entre elles. La grande surprise réside dans l’importance des émissions  liées à l’avion : elles pèsent aujourd’hui 19 % des émissions totales du poste  transport. Elles sont cependant très inégalement réparties au sein de la  population. 
Les 18-24  ans et les plus de 65 ans ont les bilans carbones les plus élevés 
Le niveau  d’émission des plus jeunes est de 8373 Kg Co2. Le niveau  d’émission atteint son plus bas niveau sur la tranche d’âge 35-44 ans (6028 Kg  Co2). Entre la tranche d’âge des 45-54 ans et celle des 55-65 ans, le niveau  d’émission augmente en moyenne de 2171 Kg Co2. Auprès des  65 ans et plus, il augmente encore pour atteindre 9092 Kg Co2. L’usage du  véhicule individuel chez les plus jeunes et la dimension des logements et des  transports loisirs (avion) chez les plus âgés en sont les premières  causes. 
Une  personne vivant seule émet trois fois plus de Co2 qu’une famille  nombreuse 
Les foyers  d’une personne affichent aujourd’hui un bilan carbone très élevé de 10 685 Kg  Co2 par individu (contre 7388 Kg Co2 pour l’ensemble de la population) alors  qu’il est bien plus bas pour les foyers de 3 et 4 personnes (respectivement 5436  et 4612 Kg Co2 par individu), voire de 5 personnes et plus (3221 Kg Co2). Le fameux  troisième enfant n’entraîne ainsi pas une hausse sensible des émissions des  ménages.. A l’inverse, les personnes seules représentent 55 % des mauvais bilans  carbone (11849 Kg Co2 et plus). 
Le type  d’agglomération où le bilan carbone est le moins fort : entre 100 000 et 200 000  habitants 
Plus la  taille de l’agglomération est faible, plus le niveau des émissions de Co2 tend à  augmenter : L’impact des usages liés à l’automobile y est légèrement plus  important (84 % pour les individus habitant dans les agglomérations de moins de  20 000 habitants contre 82 % pour celles de 20 000 à 99 999, 81 % pour celles de  100 000 à 199 999 habitants et seulement 72 % pour les plus grosses, celles de  200 000 habitants et plus). Le bilan  carbone des foyers habitant dans les plus petites catégories d’agglomérations  (moins de 20 000 habitants) est le plus élevé : 4352 Kg Co2 contre 3495 Kg Co2  pour celles comprises entre 100 000 et 199 999 habitants. Malgré un impact  moindre des usages liés à l’automobile, les plus grosses catégories  d’agglomérations affichent aujourd’hui un bilan carbone très légèrement  supérieur à celui des agglomérations comprises entre 100 000 et 200 000  habitants, principalement dû à l’usage accru de l’avion dans les plus grosses  agglomérations. 
Les foyers  disposant des niveaux de revenus les plus élevés affichent en moyenne les bilans  carbones les plus mauvais 
La quantité  de CO2 est clairement croissante avec le niveau de vie et plus spécifiquement  avec la capacité à consommer des loisirs. Le bilan carbone par individu est  notablement plus élevé au sein des foyers des cadres supérieurs (8580 Kg Co2 par  individu contre 7388 Kg Co2 pour l’ensemble). Ils affichent notamment une nette  différence dans le domaine des transports avec des niveaux d’émissions  sensiblement plus élevés (5249 Kg Co2 par individu contre 3972 Kg Co2 pour  l’ensemble). Les cadres  supérieurs et les retraités alourdissent leur bilan carbone par l’usage fréquent  de l’avion pour leurs loisirs : 59 % des cadres supérieurs et 40 % des retraités  font au moins 1 voyage en avion au cours de l’année. L’avion pèse ainsi 38 % des  émissions transport des cadres supérieurs et 31 % de celui des 65 ans et  plus. 
Précarité  énergétique : les retraités et les cadres supérieurs à l’abri, les ouvriers et  les ménages modestes surexposés 
Les   ménages les plus modestes (moins de 1250 euros nets mensuels) ont les bilans  carbones les plus faibles par rapport aux autres catégories de revenu. Les  ouvriers sont aussi les plus exposés à la hausse du prix de l’énergie : leur  indice de précarité énergétique s’élève à 1089 KgCo2/K€ (ouvriers) contre 704  KgCo2/K€ pour les cadres supérieurs et 663 KgCo2/K€ pour les retraités. On peut  lire ici une source d’inégalité carbone majeure : les populations ayant les  bilans carbone les plus élevés sont aussi les moins sensibles à l’augmentation  du coût de l’énergie. 
La  sensibilité environnementale individuelle a aujourd’hui encore un impact modéré  sur le bilan carbone des foyers 
Sur les 16  affirmations qui leur étaient proposées afin de mesurer leur sensibilité aux  problématiques environnementales (portant sur l’état de la planète, le  réchauffement climatique, l’impact environnemental des produits de consommation,  le tri,..), 13 d’entre elles recueillent un assentiment majoritaire. Le lien  entre sensibilité environnementale et niveau d’émissions de CO2 est avéré mais  reste aujourd’hui encore très modéré. Il y a très peu de différences entre les  niveaux d’émissions des personnes ayant une sensibilité « médiocre » et celles  ayant une sensibilité « moyenne » (respectivement 7555 et 7479, soit seulement  76 KgCo2 de différences). Les personnes affichant un « bon » niveau de  sensibilité environnementale ont certes un meilleur bilan carbone que celles  ayant une sensibilité « moyenne » mais là encore, la différence est peu  importante (7066 Kg Co2 par individu). 
Les  actions dans lesquelles les ménages sont les plus prêts à s’investir pour  diminuer leur niveau d’émissions de Co2 : d’abord le poste logement 
D’abord des  gestes et des investissements au sein du poste logement (équipements et  énergie). Ils citent en priorité ceux permettant de réduire l’impact  environnemental des équipements comme par exemple éteindre les appareils  plutôt que de les laisser en veille (39 % pourraient s’engager à le faire  systématiquement ou presque) ou encore acheter des produits en fonction de leur  étiquette énergie (38 %). Le  potentiel des gestes permettant de diminuer la consommation d’énergie et  d’eau est aussi relativement important. Ils sont plutôt bien connus des  personnes interrogées. Ils citent en priorité le fait d’éteindre les lumières  dès qu’ils quittent une pièce (39 % pourraient s’engager à le faire  systématiquement ou presque – 56 % disent déjà le faire) et l’utilisation des  ampoules basse consommation (34 % - 46 % disent déjà le faire) ou de réducteurs de  débit pour l’eau ou encore la diminution de la taille de la chasse d’eau  (30 %). 
Ipsos 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Un  grand nombre de voies technologiques sont explorées pour tenter de capturer le  CO2 et diminuer ainsi la concentration de gaz à effet de serre. Parmi celles-ci,  l'une des plus prometteuses est celle des arbres synthétiques, conçue par Klaus  Lackner, géophysicien et professeur à l’université de Columbia (États-Unis).  Encore au stade de prototype, cet épurateur de CO2 devrait filtrer l’air à la  manière d’un arbre naturel, mais avec une capacité bien plus importante. « Un  épurateur de CO2 de la même taille qu’un moulin à vent peut retirer de l’air  beaucoup plus de CO2 qu’un moulin ne peut éviter d’en produire », explique  l’inventeur de la méthode. 
L’idée lui a  été inspirée par sa fille : « C’était en 1998. Claire avait travaillé à un projet  qui lui a permis de démontrer qu’on pouvait retirer le dioxyde de carbone de  l'atmosphère ». En effet, au cours d’une nuit, elle a réussi à récupérer la  moitié du CO2 contenu dans l’air. En prolongeant cette expérience, Klaus Lackner  a construit un « aspirateur » qui, placé dans des zones de vent, absorbe l’air  chargé en CO2 et le filtre, avant de le relâcher purifié. La soude caustique est  la clé du succès de cette méthode car c’est à son contact que le dioxyde de  carbone se transforme en solution liquide de bicarbonate de sodium. Ce liquide  est ensuite comprimé jusqu’à se transformer en gaz très concentré pouvant être  stocké dans la roche poreuse des fonds marins. Sa densité étant plus importante  que celle de l’eau, le gaz ne peut pas s’en échapper et y demeure séquestré  durant des millions d’années. Selon le professeur Lackner, cette approche  technologique devrait permettre progressivement d'extraire une quantité  croissante de CO2 de l’air pour un coût décroissant. 
Cet arbre  artificiel a une capacité de fixation du carbone 1000 fois plus grande que celle  d'un arbre naturel : il serait capable de capter 90 000 tonnes de CO2 par an  (soit l'équivalent des émissions de CO2 d'environ 20 000 voitures). Pour  l'instant, chaque tonne de CO2 fixée par cet arbre artificiel revient à environ  130 euros. Le procédé n'est pas encore compétitif si l'on se réfère au prix  moyen de tonne de CO2 sur le marché du carbone (autour de 13 Euros la tonne) mais il  pourrait le devenir d'ici une dizaine d'années avec la hausse prévisible du prix  de la tonne de CO2. Cette technique, combinée à d’autres technologies  semblables, pourrait contribuer à stabiliser puis à faire  décroître l’augmentation des taux de CO2 dans l'atmosphère. 
Les  géo-ingénieurs ne nient pas l'importance des mesures politiques visant à réduire  nos émissions de CO2 mais soulignent que ces efforts doivent être complétés par  ces nouvelles technologies de capture et de séquestration de CO2, si nous  voulons suffisamment réduire nos émissions de CO2 pour atteindre les  objectifs internationaux de limitation du réchauffement climatique définis lors  des sommet des Copenhague et Cancun. Rappelons que, selon l'AIE, les émissions  humaines de GES devraient passer de 50 à 60 Gtonnes d'ici 2030 et les émissions  anthropiques de CO2 liées à l'utilisation des énergies fossiles de 30 à 41  Gtonnes d'ici 2030, soit une augmentation de 37 %. 
La  plupart des spécialistes estiment que l'ensemble des technologies de capture et  de séquestration de CO2 pourraient permettre de piéger au moins 10 % des  émissions humaines de CO2 d'ici 2030 (soit environ 4 Gtonnes par an, ce qui  représente la totalité des émissions actuelles de CO2 de l'Union européenne), ce  qui fait de cette voie technologique un levier indispensable qui doit être  mobilisé en association avec les cinq autres grands leviers d'action contre le  changement climatique : réduction à la source de notre consommation  globale d'énergie en modifiant nos modes de vie et notre organisation  économique, amélioration de l'efficacité énergétique à tous les niveaux,  protection des forêts et réorientation de l'agriculture, redéfinition de  l'urbanisme et développement massif et synergique des énergies  renouvelables. 
Article  rédigé par Mark Furness pour RT  Flash 
Columbia Magazine 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Vivant | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Santé, Médecine et Sciences du Vivant
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Le cancer du sein est le  plus fréquent chez les femmes : il concerne environ une femme sur 1000 chaque  année. Tous les cancers n'évoluent pas de la même façon, selon les  caractéristiques propres à la tumeur et les facteurs de risque. On a récemment  montré que l'obésité était un facteur négatif, les femmes obèses ayant plus de  risques de dissémination des cellules cancéreuses. Quel est le lien entre  l'évolution d'un cancer et l'obésité ? Les équipes  de Catherine Muller et de Philippe Valet, à l'Université Paul Sabatier de  Toulouse, ont montré que les cellules graisseuses,  ou adipocytes, présentes autour des tumeurs dans le sein favorisent la  dissémination des cellules cancéreuses. 
Le cancer du sein  est une tumeur maligne de la glande mammaire. Celle-ci comprend 15 à 20 lobes  qui sécrètent le lait, séparés par du tissu adipeux. Le cancer naît dans ces  lobes entourés de cellules graisseuses. En mettant en culture, au laboratoire,  des cellules tumorales avec des adipocytes, les biologistes ont montré que les  cellules cancéreuses ont des caractéristiques invasives quand elles ont été en  présence des adipocytes. En d'autres termes, elles forment des métastases. En  outre, dans ces conditions, les adipocytes présentent des phénotypes (aspects)  particuliers et sécrètent notamment des facteurs pro-inflammatoires, telle  l'interleukine 6. D'ailleurs, in vitro, cette molécule  seule suffit à rendre métastatiques les cellules cancéreuses. 
Les biologistes ont  vérifié ces résultats chez l'être humain. Ils ont montré que les adipocytes au  phénotype particulier (différent de celui des autres cellules graisseuses du  sein) se retrouvent aussi chez les femmes autour de la tumeur. Chez les  patientes ayant les plus grosses tumeurs et des métastases (avec invasion des  ganglions), les quantités d'interleukine 6 exprimées par les adipocytes sont  aussi plus importantes. 
Ainsi, les  adipocytes acquièrent des caractéristiques spécifiques à proximité d'une tumeur  mammaire et favorisent sa dissémination. Or la quantité de cellules graisseuses  autour des lobes du sein dépend de facteurs génétiques et de la corpulence de la  femme… Bien que l'on ignore les déterminants du « dialogue » entre les  adipocytes péritumoraux et les cellules cancéreuses, il semble clair que la  masse graisseuse amplifie le risque de dissémination des cancers. 
Pour la Science 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Des chercheurs de l'Institut Max Planck de  recherche neurologique de Cologne et du cluster d'excellence CECAD de  l'Université de Cologne ont découvert un nouveau mécanisme entraînant  l'apparition de diabète de type 2  chez les personnes en surpoids. Celui-ci pourrait être le point de départ du  développement d'un nouveau médicament antidiabétique. 
L'hormone insuline joue un rôle clé dans la régulation du taux de sucre dans le sang. Si celui-ci  est trop élevé, l'insuline entraîne l'ouverture de canaux de transport du  glucose dans la membrane des cellules musculaires et adipeuses. Le glucose entre  alors dans ces cellules, ceci permettant la diminution du taux de sucre sanguin.  L'insuline inhibe de plus la glycogénolyse dans le foie. Chez les diabétiques de  type 2, même si l'insuline est produite en grande quantité, les cellules ne  répondent pas et l'hormone ne peut donc pas réaliser sa fonction. La maladie  peut conduire à des dommages au niveau des vaisseaux sanguins et ainsi à des  crises cardiaques ou des accidents vasculaires cérébraux. 
Les mécanismes moléculaires impliqués dans la relation entre  surpoids et diabète sont très peu connus. 80 à 90 % des patients atteints de  diabète de type 2 sont cependant en surpoids. Dans tous les tissus qui  réagissent à l'insuline, la présence de micro-acide ribonucléique  (miARN) est avérée. L'équipe de  chercheurs de Jens Brüning, directeur de l'Institut Max Planck de recherche  neurologique et du cluster d'excellence CECAD ("Cellular Stress Responses in  Aging-Associated Diseases") a donc soupçonné les micro-ARN d'être impliqués dans  ce type de diabète. Ces petites molécules d'ARN, peuvent en effet réguler  l'expression des gènes et ainsi  contrôler la production de protéine. 
Les  chercheurs ont ainsi découvert que le foie des souris en surpoids produisait le  miARN 143 de façon accrue. Celui-ci inhibe l'expression des gènes responsables  de l'activation de l'enzyme AKT, et empêche donc l'insuline d'activer AKT.  Ainsi, la protéine ORP8, permettant l'activation d'AKT par l'insuline, est  presque inexistante chez les souris en surpoids. Il est alors impossible pour  l'insuline de faire diminuer le taux de sucre dans le sang, d'où l'apparition de  diabète. "AKT est importante pour le transport du glucose dans les cellules et  pour le blocage de la synthèse de sucre dans le foie. Si l'enzyme est inhibée,  l'insuline ne peut intervenir. Le taux de sucre dans le sang reste donc élevé.",  explique Jens Brüning. 
Les chercheurs ne  savent pas encore pourquoi les souris en surpoids produisent plus de miARN-143  que les souris témoins. "Si nous parvenons à comprendre la voie de signalisation  cellulaire conduisant à la production de miARN-143, nous pourrons peut-être  développer un nouveau médicament contre le diabète de type 2.", conclut Jens  Brüning. 
BE 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				L’apoptose intervient dans de nombreux processus physiologiques comme le développement  embryonnaire, la prolifération / l’homéostasie, la différenciation, la  régulation et le fonctionnement du système immunitaire. L’apoptose est  l’orchestration précise à laquelle recourt l’organisme pour se débarrasser de  cellules inutilisables, indésirables ou potentiellement  nocives : «better dead than wrong». Les cellules endommagées ou indésirables sont  éliminées par les cellules voisines sans entraîner d’inflammation due à la fuite  du contenu cellulaire dans l’environnement cellulaire. Les anomalies dans la  régulation de l’apoptose contribuent à divers états pathologiques, parmi  lesquels le cancer. Le cancer apparaît lorsque l’équilibre entre la  prolifération et la mort cellulaires est perturbé, par une prolifération  cellulaire accrue ou par une apoptose moindre ou déficiente. L’objectif d’un  traitement anticancéreux est de déclencher l’apoptose dans les cellules  tumorales sans affecter les cellules saines. 
L’apoptose, ou mort  cellulaire programmée, joue un rôle crucial non seulement lors du développement  embryonnaire normal et dans l’homéostasie des organismes pluricellulaires, mais  également pendant le développement tumoral et dans la réaction des cellules  tumorales à un traitement anticancéreux. 
L’apoptose est un processus  génétique strictement régulé, contrôlé par l’équilibre entre protéines pro- et  anti-apoptotiques. Il apparaît également que la résistance à une chimiothérapie  standard est un processus lié à l’apoptose du fait de l’échec de l’activation de  l’apoptose dans ces cellules tumorales. Voilà pourquoi les voies moléculaires  (intrinsèques et extrinsèques) qui régulent l’apoptose sont des objectifs  intéressants pour une intervention thérapeutique potentielle. L’objectif d’un  traitement pro-apoptotique est de déclencher sélectivement l’apoptose dans les  cellules tumorales sans affecter les cellules saines. 
Plusieurs agonistes de  récepteurs pro-apoptotiques qui activent sélectivement la voie extrinsèque ont  déjà été développés. Parmi les nombreuses cibles potentielles pour la voie  intrinsèque, citons les protéines de la famille Bcl-2 et les protéines  inhibitrices de l’apoptose (IAP). Plusieurs études ont démontré qu’une  monothérapie sera probablement insuffisante pour sensibiliser les cellules  tumorales à l’apoptose ou pour déclencher l’apoptose. 
La meilleure compréhension  des voies apoptotiques a permis de découvrir de nouvelles thérapies  anticancéreuses fondées sur l’apoptose, dont l’unique objectif est la  destruction des cellules tumorales nocives sans affecter les cellules saines.  L’apoptose est contrôlée à différents niveaux moléculaires, chacun de ces  niveaux étant influencé par différentes protéines pro- et anti-apoptotiques.  Etant donné que l’apoptose peut être déclenchée dans les cellules tumorales et  les cellules normales, un déclenchement sélectif de l’apoptose peut s’avérer  complexe. 
Par ailleurs, une tumeur est  constituée d’un mélange de cellules hétérogènes, qui ont probablement acquis  divers mécanismes de résistance à l’apoptose au cours du développement de la  tumeur. La surexpression de plusieurs membres des IAP a déjà été observée. Une  monothérapie sera vraisemblablement insuffisante pour sensibiliser les cellules  tumorales ou pour déclencher l’apoptose, mais des combinaisons de différentes  stratégies thérapeutiques seront probablement plus efficaces. On a déjà observé  que des agonistes de récepteurs pro-apototiques comme le TRAIL ont un effet  synergique en combinaison avec d’autres thérapies  conventionnelles. 
Ce sont les combinaisons de  différentes stratégies thérapeutiques qui conduiront vraisemblablement aux  meilleurs résultats. Les nouveaux médicaments déjà en phase d’études cliniques  et la progression rapide de la compréhension du processus apoptotique au niveau  moléculaire nous donnent des raisons d’être  optimistes. 
JIM 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				L’Ecole d’informatique  Epitech, en partenariat avec l’Inria, a développé une interface qui permet de  commander un ordinateur par la simple pensée. L’interface IOT,  développée par l’école d’informatique Epitech en partenariat  avec l’Inria, en est un bel exemple. Elle est le résultat d’un  projet d’études dénommé " I Only Think " (IOT , je ne fais que penser).  Destiné principalement aux personnes à mobilité réduite, elle permet de  transformer à l’aide d’un casque spécial les impulsions électriques du cerveau  en instructions compréhensibles par un logiciel. Il suffit de regarder un menu  pour le voir s’ouvrir ou de se concentrer sur une application pour la lancer. 
Pas besoin d’une méthode intrusive pour fonctionner : le casque  OpenEEG se pose sur la tête et s’adapte à la tête de la  personne pour recueillir à l’aide d’électrodes les impulsions électriques créées  par la pensée. Le logiciel traite ensuite les signaux et les traduit en  commandes. Basée sur la technologie OpenViBE, cette interface  s’inscrit dans le cadre des logiciels libres. Elle est compatible avec les  multiplates-formes Windows, Linux et Mac OS. 
Industrie&Technologies 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Recherche | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Recherche & Innovation, Technologies, Transports
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				La Commission européenne a adopté le 28 mars 2011 une statégie globale («Transports 2050»)  visant à mettre en place un système de transport compétitif qui favorisera la  mobilité, éliminera les principaux obstacles qui subsistent dans des domaines  clés et alimentera la croissance et l'emploi. Par ailleurs, ces propositions  réduiront considérablement la dépendance de l'Europe à l'égard des importations  de pétrole et feront baisser de 60 % ses émissions de carbone liées aux  transports d'ici à 2050. 
Pour y parvenir, l'Europe devra transformer son  système de transport actuel. Les principaux objectifs à atteindre d'ici à 2050  sont les suivants : 
- Supprimer les véhicules à carburant traditionnel  dans les villes ; 
- Porter à 40 % la part des carburants durables à faible  teneur en carbone dans l'aviation et réduire d'au moins 40 % les émissions dues  au transport maritime ; 
- Faire en sorte que 50 % du transport routier de  passagers et de fret sur moyenne distance s'effectue par voir férrée et par voie  navigable ; 
- Obtenir, grâce à ces mesures notamment, une réduction de 60  % des émissions liées aux transports d'ici le milieu du siècle ; 
- D'ici à 2050,  la majeure partie du transport de passagers sur moyenne distance (plus de 300  km) devrait s'effectuer par le train ; 
- Une partie du transport routier  de fret sur plus de 300 km devrait se reporter sur d'autres modes de transport  (tels que le train ou le bateau), à hauteur de 30 % d'ici à 2030 et au-delà de  50 % d'ici à 2050 ; 
- L'UE prévoit de se doter d'ici à 2030 d'un réseau de  base parfaitement fonctionnel et d'envergure européenne qui permette de passer  de façon optimale d'un mode de transport à l'autre («réseau de base RTE-T»),  afin d'obtenir d'ici à 2050 un réseau de haute qualité et de grande capacité et  d'assurer la prestation des services d'information qui s'y rattachent ; 
- L'UE prévoit aussi de mettre en place d'ici à 2020 le cadre nécessaire à un  système européen d'information, de gestion et de paiement pour le transport  multimodal, tant pour les passagers que pour le fret ; 
- Il s'agit enfin  de progresser vers la pleine application des principes de «l'utilisateur payeur»  et du «pollueur payeur» et d'impliquer le secteur privé, afin d'éliminer les  distorsions, de générer des recettes et d'assurer le financement de futurs  investissements dans les transports ; 
- Il est prévu de  réduire de moitié le nombre de véhicules de transport urbain fonctionnant aux  carburants classiques d'ici à 2030, et de les faire progressivement disparaître  des villes d'ici à 2050 ; l'essentiel du transport urbain de marcahndises dans  les grands centres urbains devrait se faire sans émission de CO2 d'ici à  2030. 
l'UE souhaite également se rapprocher de l'objectif «zéro décès»  dans les transports routiers d'ici à 2050 ; dans cette perspective, elle s'est  donné pour but de réduire de moitié le nombre d'accidents mortels sur les routes  d'ici à 2020 ; plus généralement, elle s'attachera à montrer la voie au niveau  mondial en matière de sûreté et de sécurité des transports, aussi bien aériens  et ferroviaires que maritimes. 
European Commission 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	    								 | 
							 |  
						 
						
							
								 | 
								
									
										
											| VOTRE INSCRIPTION | 
										 
										  |  
										
											
												
												Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. 
												Désinscription Cliquez sur ce lien pour vous désinscrire. 
												
												
												Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. 
												
												
											 | 
										 
									 
								 | 
								 | 
								
									
								 | 
							 
						 
					 | 
				 
			 
		 |