  |  
				
					
						
							  |  
							
								 | 
								  | 
								  | 
								
									
										
											
												
													
														| NUMERO 623 | 
														  | 
													 
												 
											 | 
										 
										  |  
									 
								 | 
							 
							  |  
							  |  
							
							
								
									
										
											
												
													
														 | 
														
															Edition du 10 Novembre 2011
														 | 
													 
												 
											 | 
											
												
											 | 
										 
									 
								 | 
						
							 
						 
						
							  |  
							
								
								
      								
      										
      											
      											       												
      												
      												 
      												
      												
	Edito 
	Les cybersoldats vont faire entrer nos armées dans une ère nouvelle
  
 
  
A l'occasion du dernier salon Milipol de Paris, consacré à la sécurité, la DGA a fait sensation en présentant pour la première fois "Hercule", un prototype d’exosquelette destiné à équiper les fantassins de l’armée française à l'horizon 2020. Développé conjointement par le Laboratoire d’intégration des systèmes et des technologies du CEA, l'école d'ingénieurs Esme et Sudriaet Rb3d, une société spécialisée en mécatronique, cet exosquelette, digne de "Robocop", sera à terme capable de démultiplier les capacités physiques des soldats et donc leurs rayons d'action. 
Pour l'instant, Hercule, qui pèse 32  kg avec ses batteries, permet à son utilisateur de marcher plus de vingt kilomètres en portant une charge de 40 kilos. Mais l'objectif final consiste à permettre au soldat de porter 100 kg sur de très longues distances. Par rapport à tous ses concurrents, y compris américains, Hercule constitue un saut technologique en matière d’assistance robotisée. Il utilise des moteurs électriques très sophistiqués entraînant des actionneurs à câbles mécanisés. Grâce à cette innovation, Hercule a un rapport poids-puissance supérieur à tous ses rivaux. 
En outre, Hercule est un robot asservi et non commandé. Il est capable de "sentir" les mouvements de l’utilisateur et de fournir alors les efforts nécessaires à la place de l’homme. 
Outre-Atlantique, le développement d'exosquelettes militaires se poursuit également de manière active avec deux prototypes avancés : Sarcos de l'Américain Raytheon et le système HULC (Human Universal Load Carrier), développé par la firme aérospatiale Lockheed Martin. 
Reste que l'adoption généralisée de ces merveilles technologiques par les militaires se heurte à un défi de taille : l'approvisionnement en énergie. Pour l'instant, il n'existe aucune source portable d'énergie qui puisse assurer à ces exosquelettes une autonomie suffisante pour une utilisation prolongée en opération militaire.  
Mais les recherches se poursuivent et la dernière version de SARCOS, dénommée XOS 2 est à la fois plus légère, plus puissante, plus rapide et deux fois moins gourmande en énergie. Mais en matière d'autonomie, Hercule reste le champion avec cinq heures d'utilisation, une prouesse obtenue notamment par son système unique de récupération d'énergie. 
Dans une dizaine d'années, ces exosquelettes à assistance robotisée seront très probablement capables, grâce à des micropiles à combustible, d'être autonomes en énergie plusieurs jours et ils pourront alors décupler le rayon d'action et la puissance de feu d'un soldat. Mais pour pouvoir utiliser pleinement une telle puissance, il faudra également intégrer à l'équipement du fantassin une capacité de calcul informatique et de communication beaucoup plus grande qu'aujourd'hui. L'objectif est que ce soldat du futur dispose en temps réel, par la technologie de la réalité augmentée directement projetée sur sa visière de casque, d'une multitude d'informations utiles à ses missions. 
Outre son exosquelette et sa capacité de communication et d'analyse informatique de son environnement, ce soldat des années 2020 aura à sa disposition plusieurs auxiliaires précieux de renseignements et de combats : les robots militaires et microdrones. Semblables à de petits chariots montés sur chenilles, les robots militaires sont déjà une réalité et peuvent embarquer une puissance de feu redoutable mais ils restent pour l'instant télécommandés par leur "maîtres" humains et ne sont pas capables d'initiative autonomes. On peut imaginer que les soldats munis d'exosquelettes puissants emporteront avec eux au moins un robot de ce type qui augmentera encore leur potentiel d'action et de destruction. 
Mais ces soldats "high-tech" auront également à leur disposition toute une série de mini et microdrones portatifs qui leur permettront d'obtenir, dans un rayon de plusieurs dizaines de kilomètres, de nombreuses et précieuses informations sur leur environnement et d'adapter leurs missions en conséquences. 
On pourrait croire que ces prévisions relèvent de la science-fiction ; il n'en est rien. Ce type de drones existe déjà et est utilisé par les forces spéciales. Pesant à peine deux kilos, le minidrone Skylark 1 est ainsi capable de remplir des missions de surveillance et de reconnaissance, dans un rayon de 15 km ! Il s'assemble juste avant utilisation et se lance tout simplement à la main. 
Les mini drones Wasp sont encore plus petits et discrets. Pesant moins de 500 grammes, ils se lancent également manuellement. Ils peuvent voler à une altitude de 300 mètres pendant plus d'une heure. 
A ce type de drones déjà opérationnels s'ajouteront bientôt des microdrones encore plus furtifs et pratiquement indétectables. De la taille d'un petit oiseau ou même d'un insecte, ces minuscules engins volants pourront de faufiler partout et transmettre en temps réel images et sons. 
Le soldat du futur, doté de ces extraordinaires auxiliaires robotiques, deviendra donc un système d'armes et une redoutable unité combattante à lui tout seul. Cette évolution technologique aura bien entendu des conséquences considérables sur la tactique, la stratégie et l'organisation de nos systèmes de défense et d'intervention militaires. La nature même de la guerre et le concept de conflit armé s'en trouveront profondément modifiés. 
Cette mutation historique de nos armées et de notre défense pose toutefois de nombreuses questions politiques, démocratiques et éthiques. Il faudra notamment veiller à ce que ces technologies redoutables ne puissent pas être utilisées par les ennemis de la démocratie et les groupes terroristes, ce qui suppose que leur utilisation soit très étroitement contrôlée par des systèmes puissants d'identification biométrique. Il faudra sans doute aller encore plus loin et prévoir également des mécanismes d'autodestruction, dans les cas où de tels outils tomberaient dans des mains ennemies. 
Il faudra enfin définir clairement sur le plan politique et stratégique les buts et missions de ces armées qui disposeront, avec des effectifs très réduits, d'une rapidité d'intervention, d'un rayon d'action et d'une puissance de destruction considérables. 
René TRÉGOUËT 
Sénateur Honoraire 
Fondateur du Groupe de Prospective du Sénat 
 
      											 | 
      										 
      										  |  
      									 
								 | 
							 
							
								
								                  						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								TIC | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Information et Communication
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Après une expérimentation à Kansas City, Google a prévu de créer un réseau fibre  optique sur le marché européen. A l'occasion du colloque Nouveau Monde 2.0  organisé récemment par Eric Besson, le vice-président de Google, David  Drummond, à confié à Eric Besson que Google étudie attentivement la possibilité  d'expérimenter le projet Google Fiber en Europe, selon MarketWatch, sans  préciser quels pays pourraient être concernés. 
Arguant une vitesse de  connexion 100 fois plus rapide que les autres opérateurs américains, à 1  gigabit par seconde, le projet Google Fiber est déjà en cours d'étude à Kansas  City, où Google prévoit un déploiement pour le premier trimestre 2012, une fois  qu'il aura reçu l'accord du conseil municipal. L'appel à projet avait attiré  plus de 1 000 villes américaines en 2010. 
Et même si Google présente  Google Fiber comme un simple test, cette annonce fait malgré tout plâner sur les  opérateurs la crainte de voir un acteur aussi puissant marcher sur leurs plates-bandes. D'autant que ces derniers traînent des pieds pour investir dans le  déploiement du très haut débit. La Commission européenne évalue à 300 milliards  de dollars le montant nécessaire pour connecter ses 500 millions de citoyens à  plus de 30 mégabits par seconde d'ici à fin 2020. 
Journal du Net 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				YouProve permet de vérifier qu'une photographie publiée  sur Internet n'a pas été ni altérée ni retouchée. Un système intéressant à un  moment où l'image devient un mode de transmission important de l'information sur  le web. 
Alors que l'échange d'informations sur le web repose de plus  en plus sur l'image, il devient critique de pouvoir en vérifier la provenance  ainsi que l'authenticité. Dans cette optique, des chercheurs de l'université de Duke, de Microsoft Research et Technicolor Research ont créé YouProve,  un programme capable de confirmer ou non si les images ou sons fournis sont  dignes de confiance. "Avec les événements du Printemps Arabe ou les  manifestations en Iran en 2009, nous nous reposons de plus en plus sur le  journalisme citoyen pour nous informer", déclare Landon Cox,  co-développeur de YouProve. "Des images ou des sons falsifiés pourraient avoir  de graves conséquences. Il faut donc s'assurer que ce qui nous parvient est  authentique". 
- Repérer les altérations d'un fichier  multimédia
 
 
Une fois le logiciel installé sur le téléphone portable,  celui-ci fonctionne en parallèle de l'OS (ici Android) et garde en mémoire les  fichiers ouverts dans des applications tierces. Si l'un de ces programmes  modifie une partie de l'image ou du son, YouProve peut ainsi le comparer avec la  version d'origine grâce à des algorithmes d'analyse. Il délivre ensuite un  "certificat de fidélité" anonyme, résumant à quel point le média a été altéré et  à quels endroits. Le programme peut repérer entre autres, pour une image, le  redimensionnement, la compression, les zones de flou intentionnel ou les photos  tronquées volontairement. Pour les sons, les coupes et les rajouts d'éléments  sont également pris en compte. Avec l'approbation de l'utilisateur, le logiciel  peut ensuite poster sur Internet le fichier en question ainsi que son  certificat, permettant à des services comme CNN iReports ou Al Jazeera's Sharek de vérifier instantanément la validité de  l'information fournie. 
- Une grande précision mais soumise au bon vouloir des  utilisateurs
 
 
Les tests des scientifiques semblent concluants puisqu'ils  déclarent obtenir 99 % de réussite dans leurs analyses. La vérification ne  prendrait que 70 secondes pour un clip audio de 5 minutes et moins de 30  secondes pour une photo de 5-méga pixels. De plus, le logiciel, agissant en  tâche de fond, n'a qu'un impact minime sur les performances du portable, en  matière d'autonomie et de rapidité. Le processus possède toutefois ses limites  puisqu'il ne peut fonctionner que si l'on accepte d'installer YouProve. Les  chercheurs espèrent donc constituer une communauté de journalistes citoyens  certifiés, à même de fournir des informations cruciales aux médias ne pouvant se  rendre sur place. 
L'Atelier 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				La publicité comportementale est notamment visée par  l'obligation de recueillir l'accord préalable de l'internaute pour le  téléchargement de cookies. 
La Cnil rappelle les nouvelles obligations qui incombent aux  webmasters et autres responsables des traitements de données sur les sites web  qui installent des cookies (mouchards) sur les PC des internautes. « La  transposition en droit français des directives européennes paquet télécom  renforce notamment l'obligation d'information des internautes à l'égard des  cookies. Dans certains cas, la loi impose désormais aux responsables de sites  d'informer les internautes et de recueillir leur consentement avant l'insertion  de cookies. Auparavant, les sites devaient informer les internautes qu’un cookie  était installé sur leur ordinateur et leur permettre de s’y opposer. En  pratique, l’information était générale et se retrouvait, le plus souvent, perdue  dans les conditions générales d’utilisation », est-il précisé sur le site de la  Cnil. 
Cependant, tous les types de cookies ne sont pas concernés  par la règle du consentement préalable. 
- Les cookies concernés sont notamment ceux qui visent à  faciliter la publicité en ligne comportementale. Ces mouchards incluent un  identifiant numérique qui « piste » un internaute pour constituer un profil à  partir des pages qu’il a visitées sur internet. Ce profil permet de proposer à  l’utilisateur des publicités ciblées.
 
- A contrario, la nouvelle législation ne s'applique pas aux  cookies utilisés comme panier d'achat sur un site marchand, ni à ceux qui  permettent d'enregistrer la langue du surfeur, ou encore à ceux dits de  « session utilisateur », qui font le lien entre les actions d'un utilisateur et  les services qu'il demande.
 
 
Le paramétrage du navigateur web ne suffit  pas 
L'obligation d'informer et de recueillir l'approbation de  l'internaute peut aussi être déléguée à un tiers. Si le cookie est inséré par  une régie publicitaire, celle-ci peut avoir à gérer l'obligation d'informer et  de recueillir le consentement de l'utilisateur, déchargeant le gestionnaire du  site de cette exigence. 
Enfin, la CNIL rappelle que la notion de consentement et de  son recueil par le site est bien précise : « Un navigateur web qui accepterait,  par principe, tous les cookies sans distinguer leur finalité ne pourra pas être  considéré comme permettant de donner un accord valable puisqu’il ne serait pas  spécifique ». Elle préconise notamment (sans que cela soit limitatif), que les  moyens techniques utilisés pour requérir l'approbation de l'utilisateur passent  par une bannière en haut d'une page web, une zone de demande de consentement en  surimpression de page, ou des cases à cocher lors de l'inscription à un service  en ligne. 
Les manquements à cette obligation sont passibles d'une  amende pouvant atteindre 300 000 euros. La Commission précise qu'elle tiendra  compte du délai de mise en conformité de certains sites vis à vis de cette  obligation. 
01net Entreprises 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Repéré il y a quelques semaines, Duqu, un cheval  de Troie qui se glisse dans un fichier Word, est comparé à Stuxnet et  pourrait préfigurer une attaque très ciblée contre des sites industriels.  Microsoft estime le risque faible et vient seulement de publier un  patch. 
Le 9 octobre dernier, l’éditeur Symantec publiait sa  découverte d’un virus nommé Duqu (car il génère deux fichiers dont le nom commence par  DQ), « qui semble le précurseur d’une attaque de type Stuxnet ». Il partage en effet une partie de son code avec ce  virus qui, en 2010, avait ciblé des équipements industriels, du type de ceux utilisés  en Iran dans des installations industrielles. 
Duqu exploite une faille de Windows jusque-là inconnue et se  glisse dans les routines du système d’exploitation chargées de l’affichage des  polices de caractères TrueType. Cet intrus peut alors « exécuter du code en mode  kernel », vient d’expliquer Microsoft dans un communiqué. Autrement dit, obtenir les  droits les plus élevés et pouvoir tout faire dans l’ordinateur et par exemple installer de nouveaux programmes ou ouvrir les comptes  utilisateurs. 
Ce serait là le travail de Duqu : explorer le poste de  travail, collecter des données, les envoyer sur des serveurs distants et télécharger des logiciels.  Deux de ces serveurs ont été repérés et débranchés, en Inde puis en Belgique. De  son côté, Microsoft, qui juge le risque faible, dit travailler à un correctif  et, en attendant qu'il soit publié, propose une méthode pour éviter l'intrusion  : désactiver la reconnaissance des  polices TrueType. 
- Un robot espion spécialisé dans le  renseignement
 
 
Ce cheval de Troie, cependant, ne se réplique pas. Il a été  volontairement envoyé par courrier électronique dans des documents Word « à  six organisations » et ce dans huit pays selon le dernier communiqué de Symantec : France, Hollande, Inde, Iran, Soudan,  Suisse, Ukraine et Vietnam. D’autres distributeurs l’ont signalé également en  Autriche, en Hongrie, en Indonésie, au Royaume-Uni ainsi que dans d’autres  entités en Iran. 
Futura Sciences 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Pour faciliter l'envoi sur son smartphone d'informations et de messages  commerciaux à propos des lieux environnants, Aladdin s'en remet aux ondes radio.  Cette infrastructure, développée par Tom Heath, chercheur chez Talis Systems,  tente de faire le lien entre des sources de renseignement physiques (panneaux  indicatifs dans la rue, affichages publicitaires, devantures des magasins et  commerces...) et des bases de données virtuelles sur Internet. Si des  applications créent déjà un pont entre ces deux catégories, ce sont les systèmes  de localisation qui posent problème, jugent les chercheurs : la triangulation  n'est efficace qu'en intérieur alors que le GPS l'est surtout à l'extérieur,  d'où l'idée de passer par les ondes radio pour permettre une localisation en  permanence. 
Aladdin se  présente sous la forme de petits transmetteurs radio envoyant en continu des  paquets de données, encodés en RDF. Ils seraient positionnés sur les murs des  immeubles, dans les lampadaires, ou même à l'intérieur de véhicules comme les  taxis. Le smartphone de l'utilisateur servirait de lecteur et de décodeur, pour  recevoir et analyser ces informations. Afin de ne pas surcharger le passant, la  portée des émetteurs serait réduite au minimum et les paquets devraient être  très simples. On pourrait ainsi se trouver à proximité d'un restaurant et  recevoir le menu de celui-ci ainsi que des commentaires de clients sur son  téléphone. Idem pour un cinéma avec le détail des séances et les critiques des  films à l'affiche. Ce dispositif trouverait aussi une fonction dans des musées  avec l'accès à des liens et des fichiers audio suivant la salle où l'on se  trouve. 
Selon le  chercheur, Aladdin pourrait désengorger les rues de la présence des panneaux de  signalisation ou éviter l'installation d'écrans digitaux indiquant les horaires  sur les abris bus. Les lieux culturels offriraient des éléments interactifs  supplémentaires, capables d'améliorer l'expérience du visiteur. Enfin, les  commerces pourraient toucher de nouveaux clients potentiels. Des efforts restent  néanmoins à faire pour rendre le procédé applicable pour améliorer sa diffusion,  la sécurité (même si le signal radio est uni-dimensionnel et préserve a priori  la confidentialité de l'utilisateur) mais également pour permettre de paramétrer  son téléphone pour faire le tri et éviter de recevoir une profusion de messages  Aladdin. 
L'Atelier 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Matière | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Matière et Energie
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				A partir d'herbe, de foin ou encore de  déchets biodégradables, des chercheurs de l'Ecole supérieure de la Ruhr  occidentale (HRW) - région connue pour son passé d'exploitation du charbon - ont  mis au point une méthode permettant de créer du charbon "bio", ou du biocharbon,  qui n'est autre que du charbon créé de manière artificielle. 
Avec un procédé breveté sous le nom de "carbonisation  vapo-thermale" (VPC), mettant en oeuvre de fortes variations de pression (entre  16 et 42 bar) et de température (180 - 250°C), l'équipe de l'Institut des  systèmes énergétiques et de l'économie de l'énergie de la HRW peut transformer  en moins de quatre heures de la biomasse en charbon. Il s'agit d'une réaction  exothermique permettant de convertir de la biomasse en un combustible dont la  composition est proche de celles de la houille ou du lignite. En principe, tous  les matériaux organiques peuvent être transformés en charbon : écorces d'arbre,  sciures et copeaux de bois, restes de fermentation, déchets organiques ménagers  ou industriels... l'idée étant de valoriser des substances n'ayant pour  l'instant aucune autre utilité. 
La fabrication  de charbon par un procédé de carbonisation hydro-thermale était connue depuis  1931 (prix Nobel de chimie attribué à Friedrich Bergius). Néanmoins, c'est la  première fois que la carbonisation dans une atmosphère de vapeur est réalisée.  Selon les chercheurs, les conditions de production sont plus facilement  maîtrisables avec cette méthode et, surtout, le processus est plus rapide et  donc plus économique. L'argument de l'efficience de ce procédé est par ailleurs  avancé, car le charbon obtenu possède d'une part une meilleure valorisation  thermique (une meilleure combustion) que les matières dont il est issu, et  d'autre part, il peut être utilisé comme fertilisant pour les sols agricoles en  tant qu'accélérateur de l'activité biologique. Ce charbon garantit en effet un  enrichissement en carbone qui permet à la terre d'être fertile à une profondeur  plus grande. 
L'institut a aussi démontré, en  collaboration avec l'entreprise Firma Revatec GmbH, que ce procédé serait  utilisable à l'échelle industrielle. Cependant, le bilan carbone doit encore  être évalué et les rendements améliorés. 
Bulletins Electroniques 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Le 1er novembre, le parc éolien offshore de Walney 2  composé de 51 turbines et basé en Mer d'Irlande a injecté ses premiers  kilowattheures (kWh) d'énergie renouvelable au réseau électrique national du  Royaume-Uni. 
Alors que le parc de Walney 1 est devenu pleinement  opérationnel en mai 2011, celui de Walney 2 le sera également d'ici la fin 2011,  faisant de l'ensemble le plus grand complexe éolien offshore au monde, avec une  capacité totale de 367,2 MW d'énergie renouvelable. D'après DONG Energy, cette quantité serait suffisante pour  satisfaire l'alimentation en électricité d'environ 320.000 foyers  britanniques. Ce titre honorifique sera toutefois très vite perdu en 2012,  avec l'achèvement des parcs éoliens Greater Gabbard (500MW) et London Array (630MW),  toujours situés sur le territoire britannique. 
Les deux parcs éoliens  sont composés chacun de 51 turbines délivrées par Siemens Wind Power, d'une  puissance unitaire de 3,6 MW, soit globalement 102 unités x 3,6  MW. 
"Walney 2 constitue un record mondial en terme de rapidité  d'implantation de parc éolien offshore et cet accomplissement met en lumière la  position de DONG Energy en tant que leader au sein du marché de l'énergie  éolienne en mer. Nous avons développé des techniques, ainsi que nos propres  méthodes d'installation pour être plus efficace malgré des conditions difficiles  en mer d'Irlande. Cela constitue aussi un jalon important dans notre volonté de  réduire le coût de la construction des parcs éoliens offshores" a déclaré  Anders Eldrup, PDG de DONG Energy. 
Les parcs éoliens soffshores de Walney sont situés à environ  15 km des côtes de l'île de "Walney" (nord-ouest de l'angleterre) et couvrent  une superficie d'environ 73 km2. Cependant, comme le complexe éolien offshore  demeure assez éloigné du littoral, les impacts visuels reste relativement  faible. La mer d'Irlande est réputée pour ses conditions d'accès et climatiques  difficiles. En effet, la différence entre la marée haute et la marée basse est  d'environ 8 mètres. La vitesse du vent est estimée à une moyenne de 9,3 m/s à  une altitude de 80 mètres. La mise en place des fondations et l'installation des  éoliennes a impliqué une logistique navale importante (barges-grues,  remorqueurs, navires ravitalleurs, etc.). Par ailleurs, chaque parc éolien est  raccordé à la rive par deux lignes sous-marines de transport  d'électricité. 
Fin octobre, l'institution de financement à long terme de  l'Union européenne (BEI) a annoncé l'octroi d'un prêt d'un montant de 52  millions de GBP (soit 60 millions d'euros) pour financer la ligne de transport  d'électricité destinée à raccorder au réseau, le parc éolien en mer de Walney  1. 
Ofgem E-Serve, l'unité opérationnelle de l'organisme  britannique de réglementation des marchés du gaz et de l'électricité, chargée  principalement de la mise en œuvre de programmes environnementaux et de la  réalisation de projets durables, a délivré une licence à Blue Transmission  Walney 1 Limited l'autorisant à posséder en propre et à exploiter la ligne en  question. 
Dans le cadre de la procédure d'attribution de licences, Blue  Transmission rachète la ligne à DONG, Scottish and Southern Energy et OPW pour  un montant de 105,4 millions de GBP (soit 122,5 millions d'euros), la BEI  contribuant par son prêt de 52 millions de GBP au financement par l'emprunt de  cette acquisition. La BEI prévoit de financer, pour un total de 300 millions de  GBP (soit 348,6 millions d'euros), six des neuf lignes de raccordement des parcs  éoliens en mer relevant du premier cycle d'appel d'offres mis en place dans le  cadre du régime transitoire des opérateurs de transport offshore  (OFTO). 
Blue Transmission pourra exploiter pendant 20 ans la ligne de  transport reliant au réseau ce parc de 51 éoliennes situé en mer  d'Irlande. 
« L'exploitation de la ligne de transport d'électricité  reliant le parc éolien de Walney au réseau contribuera à réduire le coût global  de la production d'énergie éolienne marine. Le soutien aux énergies  renouvelables dans toute l'Europe, y compris les raccordements au réseau et les  parcs éoliens, est essentiel pour garantir des investissements dans les  infrastructures qui aident l'action en faveur du climat » a indiqué Simon  Brooks, vice-président de la BEI responsable des opérations de financement au  Royaume-Uni. 
« Le régime OFTO a déjà attiré plus de 250 millions de GBP  d'investissements tant de la BEI que d'autres acteurs commerciaux et financiers,  dont de nouveaux entrants. La participation de la BEI est l'un des facteurs clés  qui ont fait du premier cycle d'appel d'offres une réussite. Elle témoigne de la  confiance dans la capacité du régime à offrir de bonnes possibilités  d'investissement tout en réduisant le coût du transport de l'électricité à terre  pour les promoteurs et les clients » a déclaré pour sa part le président de  l'Ofgem, Lord Mogg. 
Pour le deuxième cycle d'appel d'offres dans le cadre  du régime transitoire, quatre soumissionnaires ont été présélectionnés et sont  en concurrence pour les trois premiers projets, d'une valeur totale de 1  milliard de GBP (soit 1,16 milliard d'euros), destinés à relier au réseau des  parcs éoliens en mer représentant une capacité totale de 1,4 GW. 
Enerzine 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Le consortium Smart 4G Tablet, mené par Gemalto,  développe une tablette numérique utilisant un film solaire transparent pour son  alimentation en énergie. Les tablettes numériques, c’est aujourd’hui le domaine  de grandes firmes américaines ou asiatiques telles que Apple, Samsung ou HTC. La  France veut y prendre place en jouant la carte de l’innovation. C’est le sens du  projet Smart 4G Tablet. Labellisé par le Pôle de Compétitivité SCS (Solutions  Communicantes Sécurisées), il a été sélectionné l’été dernier par le  gouvernement dans le cadre du 12e appel à projets de R&D. 
Objectif :  développer les technologies nécessaires à la réalisation de tablettes  complètement autonomes en énergie et connectées aux réseaux mobiles de prochaine  génération 4G. Le projet est porté par Gemalto, le leader mondial de la sécurité  numérique, avec cinq partenaires, dont Archos, principal fabricant français de  tablettes numériques, l’institut de recherche Eurecom, basé à Sophia-Antipolis  (06) et spécialisé dans les télécoms, et la start-up française Wysips qui  développe un film solaire transparent. 
En se connectant aux réseaux  mobiles 4G, basés sur la technologie LTE (Long Term Evolution), cette tablette  offrira une connectivité sans fil avec la même performance que les liaisons  filaires à haut débit. Elle intégrera aussi la technologie de communication en  champ proche NFC et une carte SIM de nouvelle génération, pour donner accès à  une multitude de services sans contact (paiement, informations touristiques,  etc.). L’objectif d’autonomie énergétique sera obtenu en couvrant l’écran du  film solaire de Wysips. 
Industrie & Technologies 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Le processeur d’application ARM, au cœur des systèmes sur  puce qui motorisent la plus part des smartphones et tablettes du marché, s’offre  une sévère cure d’amaigrissement. Résultat : le Cortex-A7, le  dernier né d’ARM, divise par cinq à la fois la consommation électrique et la  taille par rapport au Cortex-A8, le modèle disponible jusqu’ici  pour les applications à faible consommation. Ceci signifie une autonomie plus  importante pour les produits protables. 
Le Cortex-A7 se destine tout  particulièrement aux smartphones d’entrée de gamme. Dans les applications  nécessitant des capacités de traitement plus élevées, il s’associe  avantageusement à un processeur plus gros d'ARM, le Cortex-A15, connu pour ses hautes performances. ARM a mis au point un algorithme de gestion  de traitement, baptisé Big.Little, qui affecte les tâches de  traitement au processeur le plus adapté en moins de 20 µs. Ainsi, selon la  société, l’économie d’énergie peut atteindre 70 %. 
Avec une finesse de  gravure de 28 nm, le Cortex-A7 occupe une surface de 0,5 mm2  sur la puce. Selon ARM, il sera au cœur de smatphones d’entrée de gamme vers  2013-2014, qui offriront alors la puissance des smartphones haut de gamme  actuels. 
Industrie & Technologies 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Alors que le  nombre d'activités réalisables sur un terminal tactile ne cesse d'augmenter, il  est nécessaire d'augmenter les interactions réalisables entre les doigts et  l'écran des smartphones ou des tablettes, juge une équipe de l'université de  Carnegie Mellon. Celle-ci a du coup développé TapSense, qui se base sur  l'acoustique. Partant du principe que les terminaux actuels ne prennent en  compte que les mouvements sur les axes de coordonnées X / Y, les scientifiques  ont décidé de tirer parti de toutes les capacités motrices du doigt. TapSense  pourra ainsi reconnaître si l'utilisateur a appuyé sur l'écran avec son ongle,  l'articulation entre deux phalanges, le bout du doigt ou encore la pulpe afin  d'attribuer à chaque partie une fonction précise sur des écrans généralement de  petites tailles et manquant d'options directement  accessibles. 
TapSense rajoute à  la détection tactile classique une étude acoustique grâce au microphone intégré  dans les smartphones par exemple, ou accéléromètres. Lorsqu'un élément touche  l'écran, un ensemble de vibrations uniques se propage sur la surface en  question. La fréquence acoustique en hertz d'un impact entre l'écran et un ongle  ou le bout d'un doigt est différente. TapSense peut ainsi déterminer quelle  partie a effectivement touché l'écran. 
En théorie, les  microphones des portables ou des tablettes sont déjà suffisamment sophistiqués  pour permettre au programme de fonctionner sans ajout matériel  supplémentaire. 
Les scientifiques proposent plusieurs exemples concrets.  L'ongle servirait de touche "Echap" pour revenir en arrière, l'articulation de  "Clic Droit" afin de dérouler des menus contextuels, la pointe du doigt  permettrait d'accéder directement aux chiffres et caractères spéciaux sur les  claviers virtuels. 
L'Atelier 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Espace | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Espace et Cosmologie
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Le rover Curiosity de la mission MSL (Mars Science  Laboratory) devrait être largué sur Mars en 2012 par le module de croisière de  la mission. Objectif : étudier l’habitabilité de la planète rouge à  distance. 
- Un robot extrêmement sophistiqué
 
 
Nous avons jusqu’à présent des indices de la présence d’eau  sur Mars, il nous faut maintenant des preuves. Après un lancement prévu le 25  novembre par une fusée Atlas V depuis la Floride et à l’issue d’un voyage  d’environ 9 mois, l’objectif de la mission MSL est de poser le rover Curiosity  sur la planète rouge. C’est le cratère Gale qui a été choisi pour ses  caractéristiques géologiques et la présence d’argile, preuve que de l’eau  liquide a coulé sur place dans un passé lointain. 
Durant une année martienne, soit 2 années terrestres, le laboratoire mobile  extrêmement sophistiqué parcourra et analysera le sol de Mars. Pendant cette  période, il devra déterminer si les conditions propices au développement de la  vie sur la planète rouge ont un jour été réunies. Il devrait approfondir la  connaissance du climat et de la géologie de Mars grâce à des analyses chimiques  précises. Son but plus lointain est de préparer une future exploration humaine.  Avec MSL, l’exploration martienne entre dans une nouvelle ère. D’abord à cause  des dimensions du rover qui impliques des techniques d’atterrissage encore  inédite. 
- Un centre de mission au CNES à Toulouse
 
 
Curiosity emporte, en effet, avec lui 10 instruments  scientifiques, ce qui représente 80 kg de matériel. Parmi eux ChemCam et SAM,  font l’objet d’une forte contribution française.  ChemCam (Chemistry Camera)  réalisera des analyses sélectives de la composition des sols et des roches  situés entre 1 et 9 m autour du rover, à vue. SAM (Sample Analysis at Mars)  analysera, sur place, le sol et le proche sous-sol de Mars et son atmosphère. Il  recherchera les composés chimiques liés au carbone, y compris le méthane,  associés à la vie. 
MSL est une mission du programme d’exploration de la planète  Mars de la NASA. C’est le Jet Propulsion Laboratory (JPL), un centre NASA basé à  Pasadena, aux Etats-Unis, qui pilote la mission. A la demande de l’agence  spatiale américaine, la France est impliquée dans les opérations sur les  instruments, une fois sur Mars, grâce à un centre de mission, le FIMOC, mis en  place au CNES, à Toulouse. 
CNES 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				L'observation de l'occultation d'une étoile d'arrière-plan par la planète  naine Éris, trois fois plus lointaine que Pluton, conduit à revoir la taille  d'Éris à la baisse. 
Aux marges du Système solaire, au-delà de l'orbite de Neptune, réside une  vaste population de petits corps glacés. Pluton, le plus célèbre de ces objets  transneptuniens, doit en grande partie son déclassement du rang de neuvième  planète du Système solaire à celui de planète naine à la découverte, en 2005,  d'un astre quatre pour cent plus grand et trois fois plus lointain (à 97 unités  astronomiques du Soleil) : Éris. 
Pluton tient aujourd'hui sa revanche. L'observation en novembre 2010 par  Bruno Sicardy, de l'Observatoire de Paris, et une équipe d'une soixantaine  d'astronomes amateurs et professionnels, de l'occultation par Éris d'une étoile  d'arrière-plan, a permis de mieux caractériser la planète naine. Elle apparaît  ainsi plus petite que prévu, avec 2 326 kilomètres de diamètre, une taille  similaire à celle de Pluton. 
En éclairant l'objet par derrière pendant un bref instant, les occultations  stellaires sont la méthode la plus efficace pour discerner des détails  topographiques et étudier l'atmosphère des lointains objets transneptuniens.  L'étoile cible, de la constellation de la Baleine, avait ici été identifiée en  2007, et il avait été calculé que l'occultation serait visible depuis l'Amérique  du Sud. De fait, le 6 novembre 2010, trois télescopes basés au Chili, à San  Pedro de Atacama et à l'Observatoire de La Silla, ont enregistré la disparition  de l'étoile durant respectivement 80 et 30 secondes : le temps durant lequel  Éris est passée devant l'étoile et a masqué sa lumière. 
L'analyse des données recueillies à cette occasion a conduit les chercheurs à  réestimer le diamètre d'Éris à 2 326 kilomètres (à 12 kilomètres près), contre  2 397 (à 100 kilomètres près) auparavant. Son diamètre est ainsi mieux connu que  celui de Pluton, estimé entre 2 300 et 2 400 kilomètres, mais impossible à  mesurer précisément par occultation en raison de la présence d'une  atmosphère. 
La masse d'Éris étant connue via le mouvement de son satellite  Dysnomia, sa densité est en conséquence réévaluée à la hausse, à 2,52 grammes  par centimètre cube. Cette densité suggère, d'après les modèles, un corps  rocheux à 85 pour cent, couvert d'un manteau de glace d'une centaine de  kilomètres d'épaisseur, composée essentiellement d'azote. 
Éris apparaît en outre extrêmement brillant : il réfléchit 96 pour cent de la  lumière solaire (albédo de 0,96), ce qui en fait l'objet le plus réfléchissant  du Système solaire avec les anneaux de Saturne ! Par comparaison, la neige a un  albédo de 0,8, et la Lune, 0,07. 
Pour Bruno Sicardy, cet albédo pourrait être la marque d'une glace fraîche.  La planète naine se trouve actuellement près du point de son orbite le plus  éloigné du Soleil (l'aphélie). Or à mesure qu'Éris s'éloigne du Soleil, sa mince  atmosphère d'azote se condense en une pellicule gelée d'environ un millimètre  d'épaisseur. Lorsque la planète se rapprochera du Soleil, cette mince couche se  volatilisera de nouveau, formant une infime atmosphère, 100 000 fois plus ténue  que celle de la Terre. Au plus proche du Soleil (ou périhélie, à 37 unités  astronomiques), la température à sa surface montera à –238 °C. Mais pour  l'heure, la jumelle lointaine de Pluton est plongée dans un sommeil  glacé... 
Pour La Science 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Terre | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Sciences de la Terre, Environnement et Climat
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Appel à candidatures pour le Grand prix européen de  l'urbanisme, remise du Prix de thèse sur la ville, exposition « D'un siècle à  l'autre » retraçant 100 ans d'urbanisme en France... Les Journées mondiales de  l'urbanisme 2011, qui se sont clôturées le 5 novembre au Conseil économique,  social et environnemental à Paris, ont été jalonnées par plusieurs temps  forts. 
Grand rendez-vous annuel, les Journées mondiales de l'urbanisme (JMU) s'étaient donné pour  thème de réflexion cette année « Le défi des transitions urbaines », en  référence au mouvement de Transition né en Grande-Bretagne en 2006, et qui  invite les populations locales à lancer des initiatives pour mettre fin à la  dépendance au pétrole et créer un avenir meilleur et moins vulnérable. « Notre  époque voit le temps s'accélérer, les distances disparaître, les démesures se  multiplier et de ce fait les transitions deviennent plus soudaines, brutales et  aux effets planétaires », a rappelé Christian Luyton, président de la Société française des  urbanistes (SFU) dans son allocution d'ouverture. 
Ces journées se sont conclues par la Déclaration de Paris et  ont été marquées par plusieurs événements, parmi lesquels : 
- La remise du Prix de thèse sur la ville, qui a pour  objectif de récompenser les meilleures thèses de doctorat soutenues en France ou  à l'étranger, rédigées en langue française, et traitant de la ville. Pour cette  sixième édition, le jury organisé par l'Aperau international, le Certu, le CFDU et le Puca ont  décerné le Grand prix à Athina Vitopoulou (EHESS) pour sa thèse « Mutations  foncières et urbaines pour la production des espaces et équipements publics dans  la ville grecque moderne. Les propriétés de l'armée et de l'université et la  formation de l'espace urbain de Thessalonique de 1912 jusqu'à nos jours ». Deux  prix spéciaux ont été attribués à Fanny Lopez (Université  Paris1-Panthéon-Sorbonne) et Elise Roche (EHESS). 
- Le lancement du Grand prix européen de l'urbanisme  2011/2012. Créé il y a dix ans, ce prix organisé par l'European Council of  Spatial Planners et le Conseil européen des urbanistes (ECTP-CEU) vise à promouvoir les politiques urbaines, les  opérations ou projets de développement qui contribuent à améliorer la qualité de  vie dans les régions urbaines et rurales en Europe. Chaque pays représenté par  les associations nationales d'urbanistes membres de l'ECTP-CEU (la SFU en  France) retiendra cinq projets qui seront soumis à un jury international. Les  candidatures (appel à télécharger ci-dessous) sont à adresser jusqu'au 31  janvier 2012, date de clôture des inscriptions, à la SFU (26, rue de  l'Echiquier, 75010 Paris). 
- La nomination à la présidence du Conseil européen des  urbanistes de l'architecte urbaniste OPQU Dominique Lancrenon (Paris, Lille, Rouen), qui succède au  Portugais João Manuel Pereira Teixeira. 
Pour la première fois, les Journées mondiales de l'urbanisme  se déclineront en région dès 2012, coordonnées par les délégations régionales de  la Société française des urbanistes. 
Le Moniteur 
  
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Une équipe de l'Institut national de  la recherche agronomique de Montpellier, en collaboration avec des  équipes du CNRS à Strasbourg et de l'Université de New-York, vient de  caractériser un gène impliqué dans un mécanisme moléculaire qui permet d'ajuster  le prélèvement du nitrate du sol par les racines en fonction du besoin  alimentaire en azote de la plante  entière. 
Pour assurer leur nutrition, les plantes  prélèvent le nitrate du sol par les racines. Un phénomène rendu  possible grâce à des transporteurs qui permettent le passage du nitrate à  travers les membranes des cellules de la racine. Toutefois comme la  disponibilité du nitrate du sol est fluctuante dans le temps et dans l'espace,  les plantes modulent cette capacité d'absorption afin de maintenir une entrée de  nitrate conforme aux besoins de la plante. Ceci est rendu possible grâce un  mécanisme, qualifié de « satiété » par analogie aux animaux, qui permet à la  plante de réduire son absorption quand ses besoins en azote sont  satisfaits. 
L'Inra a donc identifié un gène (HNI9/IWS1)  qui participe à ce mécanisme chez la plante modèle Arabidopsis  thaliana. Ce gène code une protéine du noyau des cellules végétales dont la  fonction était mal connue jusqu'à présent. Ils ont montré que lorsque la plante  est à satiété, cette protéine est responsable du dépôt de marques au niveau du  gène du principal transporteur membranaire de nitrate de la racine. Ces marques  sont une sorte de modulateur de l'expression de ce gène et répriment la synthèse  du transporteur. L'absorption racinaire de nitrate se trouve donc  réduite. 
Ces recherches ouvrent des pistes pour  améliorer l'utilisation des engrais en agriculture et faciliteraient la  sélection de variétés ayant une meilleure utilisation des engrais azotés pour  des cultures plus respectueuses de l'environnement. 
 Campagnes et Environnement 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				La forte hausse des températures, imputée partiellement au réchauffement  climatique observé sur la planète, provoque la fonte des glaciers chinois dans  la chaîne de l'Himalaya, un impact néfaste pour les habitats, le tourisme et  l'économie, affirme une étude publiée mardi 24 octobre. Quelque 77 % des 111  stations météorologiques installées dans le sud-ouest de la Chine ont affiché un  accroissement important des températures entre 1961 et 2008, selon cette étude  publiée par le journal britannique Environmental Research  Letters. 
Dans les  quatorze stations de surveillance situées à plus de 4 000 mètres d'altitude, la  hausse de la température a été de 1,73°C, soit environ deux fois la hausse  moyenne enregistrée lors du siècle passé. Les chercheurs dirigés par Li  Zhongxing, de l'Académie chinoise des sciences, ont identifié trois  modifications intervenues sur les glaciers qui pourraient avoir partiellement  pour origine ce réchauffement. 
De nombreux  glaciers examinés ont montré des signes "de recul drastique" ainsi qu'une  importante diminution de leur masse, selon l'étude. Les 999 glaciers du bassin  de la rivière Pengqu, par exemple, ont perdu ensemble une surface de 131 km2  entre 1980 et 2001. L'étude a également montré l'extension de l'étendue des lacs  de glaciers alimentés par la fonte des glaciers. "Les glaciers sont une part  intégrante de milliers d'écosystèmes et jouent un rôle crucial pour les  populations humaines", ont indiqué les chercheurs. 
La zone  sud-ouest de la Chine compte 23 488 glaciers, couvrant une superficie de 29 523  km2 dans la chaîne de l'Himalaya ainsi que les monts Nyainqentanglha, Tanggula  et Hengduan. Les modifications en termes de pluies et chutes de neige étaient  moins marquées, selon les chercheurs, mais conformes aux prédictions des  modélisations de changements climatiques prévus. 
Le Monde 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Vivant | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Santé, Médecine et Sciences du Vivant
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Actuellement, 20 à 40 % des patients traités  pour un cancer de la prostate ne devraient pas l’être car leur cancer a peu de  risque d’évoluer. Ces surtraitements, aux conséquences parfois lourdes  (incontinence, impuissance) sont dus aux limites des tests de diagnostics - un  dosage élevé de PSA (Antigène spécifique de la prostate) ne signifie pas  forcément la présence d’un cancer - et au manque de connaissances sur les  réponses aux traitements. 
La mise au point de nouveaux biomarqueurs  améliorerait le diagnostic en indiquant s’il y a un cancer ou non - car une  tumeur peut être présente même si le dosage en PSA est normal - et si ce cancer  a peu de risque d’évoluer ou s’il est au contraire agressif. Les médecins  auraient ainsi des indications précises pour mettre en place la stratégie  thérapeutique la mieux adaptée (radiothérapie, chimiothérapie, thérapies  ciblées) et pourraient suivre son efficacité. C’est le but des recherches menées  au sein du laboratoire commun de recherche (LCR) Hospices civils de  Lyon/BioMérieux Cancer installé au centre hospitalier Lyon sud  (CHLS). 
Créé en décembre 2008 et opérationnel depuis  septembre 2010, il rassemble aujourd’hui les échantillons biologiques (sang,  urine, biopsies prostatiques) de 650 patients volontaires suivis au sein du  service d’urologie du CHLS car ils ont eu un PSA supérieur à 4, un toucher  rectal anormal où qu’ils ont des antécédents familiaux. Cette unité, basée dans  l’enceinte du Centre Hospitalier Lyon-Sud, rassemble 13 chercheurs issus des HCL  et bioMérieux. Leur mission : identifier de nouveaux biomarqueurs dans le  domaine du cancer, utiles au clinicien à chaque stade de la prise en charge du  patient. 
Ces prélèvements sont décortiqués, dans des  salles blanches de haute sécurité, à l’aide d’appareils très performants  (spectrométrie de masse, laser, ordinateurs…) afin d’analyser d’une part des ARN  (Acide ribonucléique), d’autre part des protéines. Le LCR cherche actuellement à  identifier des « candidats biomarqueurs ». Il faudra ensuite les valider lors  d’études cliniques prospectives multicentriques. « Personne ne peut prédire quel  va être le bon marqueur. Dans les approches sans a priori, comme nous  travaillons ici, on peut toujours trouver des résultats mais ils ne sont pas  toujours intéressants », explique le Docteur François Mallet. Pour le co-directeur  (BioMérieux), le LCR est « au milieu du gué » et le laboratoire pourrait «  sortir quelque chose à l’échelle industrielle » d’ici cinq  ans. 
60 000 à 70 000 nouveaux cas de cancers de la  prostate sont diagnostiqués chaque année en France et 10 000 patients en  meurent. C’est la 4e cause de mortalité par cancer. Le taux de survie avoisine  les 80 % grâce notamment à l’amélioration de la prise en  charge. 
Biomérieux 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				La société biopharmaceutique française InnaVirVax a  reçu le feu vert de  l'autorité de santé (Afssaps) pour démarrer une étude clinique de phase I/IIa  sur son vaccin thérapeutique VAC-3S dans le traitement des infections par le  virus du sida VIH-1. Le vaccin thérapeutique VAC-3S vise à préserver le système  immunitaire des patients infectés par le VIH-1, explique InnaVirVax dans un  communiqué. 
L'étude clinique sera menée dans deux hôpitaux parisiens sur  24 patients sous thérapie antirétrovirale, et son objectif primaire porte sur  l'innocuité du vaccin, selon le communiqué. Les patients seront vaccinés, puis  suivis pendant une année. Le critère principal de l'étude sera étudié trois mois  après la première vaccination de chaque patient, détaille  InnaVirVax. 
Pour Patrice Debré, professeur à l'Université Pierre et Marie  Curie, à l'origine des recherches ayant conduit au développement du vaccin,  l'autorisation de l'Afssaps représente une étape majeure et va permettre  d'évaluer chez l'homme un nouveau vaccin avec un potentiel thérapeutique  important pour le traitement des infections par le VIH. 
Si ce vaccin que  nous allons évaluer apporte, comme il l'a fait chez l'animal, un bénéfice en  freinant la destruction des lymphocytes T CD4 et en diminuant l'activation  néfaste du système immunitaire, un pas important aura été franchi, a estimé de  son côté le Professeur Christine Katklama, de l'Hôpital Pitié Salpêtrière, investigateur  principal de l'étude clinique. L'autorisation de l'Afssaps intervient un peu plus  de deux ans après le démarrage des activités d'InnaVirVax, qui est basée au  Genopole d'Evry. 
InnaVirVax 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				L'activité physique contribue  au développement intellectuel –et pas seulement physique– des enfants. C'est  la conclusion d'une étude de chercheurs de l'université de Saint-Gallen en  Suisse, relayée par Vox. Avoir une activité sportive régulière leur permet  d'entretenir leur mémoire et d'avoir une meilleure  concentration. 
La pratique d'un sport «présente un effet très positif sur  les fonctions cognitives et non-cognitives» des enfants ; les fonctions  cognitives étant mesurées par les résultats scolaires et celles non-cognitives  déterminées par leur état émotionnel ou leur sociabilité. 
Pour l'instant, la majorité des études se concentrait sur une  population adolescente en pleine croissance, où une corrélation était établie  entre la pratique du sport au lycée et les résultats scolaires. Cette nouvelle  étude prend appui sur l'observation de jeunes Allemands âgés de 3 à 10 ans  inscrits ou non à des clubs sportifs. Les deux groupes d'observation ont été  constitués en fonction de divers critères comme le sexe, l'âge, le niveau  d'éducation et de salaires des parents, le style d'éducation ou encore le  quartier dans lequel vit l'enfant. 
L'environnement socio-économique et familial dans lequel  l'enfant évolue est un point important sur lequel les chercheurs n'arrivent  toutefois pas à se prononcer définitivement : est-ce que l'enfant qui va avoir  une activité sportive régulière est inscrit dans un club sportif en fonction de  ses aptitudes ou parce que ses parents l'ont voulu ? L'étude souligne également  l'importance de l'installation d'infrastructures sportives dans les villes qui  sont souvent l'unique endroit où le jeune citadin va pouvoir pratiquer un  sport. 
Comme nous le relayions il y a quelques semaines, une étude  de l'université de Caroline du Sud avait apporté la preuve d'une corrélation entre  l'intellect et l'activité sportive, grâce à l'observation du cerveau de  souris. Quand l'organisme produit un effort sportif, la libération de mitochondries par les  muscles agit comme un «stimulant biologique» sur l'activité cellulaire et il  semblerait que le sport n'ait pas qu'un effet sur les tissus cérébraux qui  contrôlent les muscles et les rendent plus robustes au fur et à mesure des  exercices sportifs, mais sur l'ensemble des tissus cérébraux des souris qui  avaient couru une heure tous les jours pendant deux mois. 
Slate 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Nicolas Dobigeon, maître de conférences à l'INP-ENSEEIHT  de Toulouse et co-auteur d’une récente étude apporte une réponse à  l’interrogation commune : pourquoi certaines personnes sont systématiquement  malades de la grippe quand d’autres n’en souffrent jamais ? Quand les  mathématiques se mettent au service de la santé pour en découvrir la clé ! 
Mais pourquoi donc certaines personnes, qui prennent toutes  les précautions utiles, attrapent-elles encore la grippe, tandis que d'autres,  sans même obéir à ces mêmes précautions, n'ont jamais le nez qui coule ? La clé  de ce problème réside dans la réponse du système immunitaire au virus de la  grippe, selon Nicolas Dobigeon, maître de conférences à l'INP-ENSEEIHT et  chercheur à l'IRIT de Toulouse. 
Une étude, la première de cette  envergure, a été menée conjointement entre plusieurs universités américaines et  des chercheurs français, pour tenter d'identifier ce qui, dans nos gènes,  explique que certaines personnes, en contact avec le virus grippal, tombent  malades tandis que d'autres non. 
- Gènes et réponse immunitaire : une  étroite relation
 
 
Les chercheurs ont inoculé à dix-sept volontaires  initialement en bonne santé une souche de la grippe saisonnière H3/N2. A la fin  de l'expérience, neuf volontaires sont tombés malades, les autres ne souffrant  d'aucun symptôme clinique. 
Pour expliquer cette différence de réponse du  système immunitaire (tout au long de l'expérience qui a duré 132 heures), un  échantillon de sang a été prélevé à seize reprises sur chacun des patients.  Chaque échantillon de sang a été analysé pour extraire les expressions  génétiques de plus de 22.000 gènes, fournissant une évolution de ces expressions  au cours du temps pour un même volontaire. « Les données recueillies, les  premières de ce genre, permettent d'obtenir une carte détaillée de la réponse  immunitaire des patients infectés », selon Nicolas Dobigeon. 
Le groupe de  recherche a ensuite utilisé plusieurs méthodes de traitement de données pour  analyser ces données génétiques. Ce travail a permis de découvrir les signatures  génomiques associées aux symptômes de la grippe. A l'aide de ces signatures, les  chercheurs ont comparé les expressions génétiques des différents patients. Ces  données, après analyse, ont fourni une image claire de l'évolution au cours du  temps de l'expression des gènes, distinguant les personnes qui ont développé des  symptômes de la grippe de celles qui ne sont pas tombées malades. 
Ainsi,  il apparaît que les données d'expression génétique expliquent en profondeur la  façon dont le système immunitaire réagit et orchestre sa réponse au virus de la  grippe, ce qui détermine si les gens tombent malades. « Les méthodes  mathématiques pour trouver des corrélations cachées au sein des grandes  quantités de données recueillies ont été un élément clé de l'analyse effectuée  par les chercheurs » assure le communiqué. 
- Pour le développement de  thérapies préventives des maladies virales
 
 
Nicolas Dobigeon a proposé l’une des principales méthodes  d'analyse, appelée « démélange linéaire bayésien ». Initialement développée en  vue de l'analyse d'images satellitaires de la Terre, cette technique a permis  d'identifier les groupes de gènes qui sont associés aux symptômes de la grippe  et qui sont communs à toute personne en contact avec le virus. Cette méthode a  alors mis en évidence que ces groupes de gènes s'expriment différemment pour des  personnes qui déclarent la maladie et des personnes qui restent en bonne santé.  
  « Cette étude montre que les différences observées entre les volontaires  déclenchant des symptômes et ceux restant sains sont dues aux différences de  réponses immunitaires, guidées par des expressions génétiques respectives. Sans  expliquer précisément les processus sous-jacents, les résultats permettent  d'affirmer que les individus sains bénéficient d'un mécanisme actif de défense  favorisant la résistance à l'infection » déclare Nicolas Dobigeon. 
Finalement, si les scientifiques peuvent comprendre au niveau du génome  ce qui rend les gens plus ou moins sensibles à la maladie virale, ils pourraient  développer des thérapies pour prévenir la maladie. La signature génomique  inflammatoire qui différencie le groupe sain du groupe malade est mesurable  jusqu'à environ 36 heures avant que les symptômes aigus de la grippe  n'apparaissent. Il serait donc possible de détecter une maladie précocement,  permettant aux gens de prendre des précautions et peut-être même de prévenir les  pires symptômes. 
Senior Actu 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Le syndrome de Rett est la seconde cause de retard mental  grave chez les jeunes filles. Une recherche interdisciplinaire menée par les  équipes du Cnr fait la lumière sur les anomalies neuronales apparaissant avant  les premiers symptômes. Cette étude montre la possibilité de rétablir la  plasticité des cellules cérébrales. 
Le Conseil National des Recherches  (Cnr) a fait un pas en avant dans la compréhension du syndrome de Rett, maladie  neurologique grave encore sans traitement. L'étude publiée sur Scientific  Reports du groupe Nature est le résultat d'un travail mené par Gian Michele  Ratto de l'Institut des Nanosciences de Pise (Cnr-Nano), Silvia Landi et Elena  Putignano de l'Ecole Normale Supérieure, et avec la collaboration d'Elena Mario  Boggio de l'Institut des Neurosciences de Pise (In-Cnr), Maurizio Giustetto de  l'université de Turin et Tommasso Pizzorusso de l'université de  Florence. 
Grâce à une technique d'image innovante, les chercheurs ont  découvert que l'altération des synapses des cellules cérébrales est présente  bien avant que les premiers symptômes n'apparaissent. L'étude suggère donc qu'en  intervenant avec une thérapie pharmaceutique ciblée, dans une phase très précoce  de la maladie, on pourrait en diminuer les effets. Le syndrome de Rett touche  principalement les petites filles, pour lesquelles il représente la seconde  cause de retard mental grave. Il se manifeste entre le neuvième et le vingtième  mois et entraîne un rallongement progressif du développement, la diminution des  capacités psychophysiques et la perte irréversible du langage. Il est également  associé à l'autisme et à l'épilepsie. 
"Bien que nous connaissions les  causes génétiques, dues à 90 % à une mutation du gène Mecp2, nous avons cherché à  comprendre quelles sont les altérations cellulaires qui amènent à une  complication de la maladie, et sur lesquelles nos connaissances sont limitées",  a commenté Gian Michele Ratto du laboratoire NEST. "En étudiant le modèle  animale du syndrome de Rett, nous avons examiné une particularité des cellules  cérébrales, les épines dendritiques, sièges de la connexion entre les dendrites  et les neurones, et qui permettent aux neurones de "dialoguer". Quand une épine  dendritique change de forme ou de position, la synapse associée change  également. A la base des processus d'apprentissage et de la mémoire, il y a  d'une certaine façon la capacité de ces structures à répondre et à s'adapter aux  simulations extérieures ". 
Dans les cellules adultes, où les épines  dendritiques sont stables, il n'a pas été relevé de différence entre les  cellules malades et les cellules saines. "Inversement, à l'état précoce, quand  les circuits nerveux se modèlent, il semble exister une grande différence de  comportement" poursuit Gian Michel Ratto. "Dans les cellules saines, on assiste  à un perpétuel changement de forme et de taille, associé à l'apprentissage, et  au développement correct du cerveau. Les épines des cellules malades  apparaissent en revanche peu mobiles, indiquant un défaut de  plasticité." 
Les chercheurs ont découvert avec surprise qu'il était  possible de rétablir la plasticité des cellules animales. "Une seule injection  du facteur de croissance IGF-1 (insulin-like growth factor) semble capable de  prévenir la faible mobilité des épines malades dans les phases précoces",  explique Silvia Landi de l'Ecole Normale Supérieure qui a menée l'expérience.  "Ceci suggère que le traitement médical pour favoriser le développement normal  des synapses doit commencer avant l'observation des premiers symptômes cliniques  de la maladie". 
Pour réaliser ces mesures, la technique d' "images à deux  photons" a été utilisée. Cette technique complexe et avant-gardiste permet de  voir l'évolution des cellules cérébrales au cours des jours. "En Italie il y a  très peu d'instruments qui permettent ces études in vivo". L'image à deux  photons demande des compétences dans des disciplines très diverses, et la nature  interdisciplinaire du laboratoire Nest de Pise est à la base de ce résultat"  conclut Ratto. 
  
Bulletins Electroniques 
Le Scienze 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Une collaboration internationale impliquant l’Inserm  (Unité Inserm 891 "Centre de recherche en cancérologie de Marseille") a permis  de comprendre comment le virus de la rougeole quitte un organisme infecté pour  contaminer un nouvel individu. Les chercheurs ont identifié un récepteur clé,  localisé au niveau de la trachée, permettant au virus de propager très  rapidement l’infection d’un organisme à l’autre et ce par voie aérienne. Ce  récepteur appelé nectine-4 est également connu pour être un biomarqueur de  certains cancers. Ces travaux ont fait l’objet d’une lettre dans la revue Nature  datée du 2 novembre 2011. 
Le virus de la rougeole est un des pathogènes humains les  plus contagieux et peut entraîner de graves complications, parfois mortelles. Il  est transmis d’hôte à hôte principalement par voie aérienne (postillons,  éternuements…). Ce phénomène est à l’origine de la propagation rapide de ce  virus dans les populations à risque (non ou mal vaccinées) et interfère avec les  programmes mondiaux de vaccination visant à l’éradiquer. Ainsi, on dénombre plus  de 10 millions d’enfants malades et 120 000 décès par an dans le monde. La  France est également confrontée à une épidémie de rougeole préoccupante. Alors  qu’une quarantaine de cas seulement étaient déclarés chaque année en 2006 et  2007, on assiste, depuis 2008 à une nette augmentation (déjà 14 600 cas recensés  depuis le début de l’année 2011). 
La découverte rapportée dans la revue Nature explique  pourquoi ce virus se propage si rapidement. Les virus se servent généralement de  récepteurs cellulaires pour initier et propager l’infection dans l’organisme.  C’est le cas pour le virus de la rougeole qui infecte les cellules immunitaires  présentes au niveau des poumons pour entrer et se propager dans l’organisme.  L’étude montre, pour la première fois, comment le virus de la rougeole « sort »  de son hôte en utilisant un autre récepteur (la nectine-4). La nectine-4 est  spécifiquement localisée au niveau de la trachée, un site anatomique «  privilégié » pour faciliter la contagion par voies aériennes. 
- Des perspectives  intéressantes dans le domaine du traitement des cancers
 
 
La nectine-4 est un biomarqueur dans certains cancers comme  le sein, l’ovaire et le poumon. Des thérapies utilisant une souche vaccinale  modifiée du virus de la rougeole sont actuellement en cours de développement  pour le traitement de certains cancers. En effet, ce virus se réplique  préférentiellement dans les cellules cancéreuses et induit leur destruction.  Ainsi, la prise en compte de la présence de ce biomarqueur dans les tumeurs est  essentielle à l’amélioration de l’efficacité de ces thérapies innovantes. 
INSERM 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				La musique est la langue des émotions", a déjà dit le  philosophe Emmanuel Kant, mettant du coup le doigt sur une énigme qui fascine  bien des scientifiques. Pourquoi la musique arrive-t-elle à nous faire pleurer,  rire, frémir ? Pourquoi les émotions qu'elle véhicule sont-elles reconnaissables par tous les êtres humains, quelles que soient leur  langue et leur culture ? 
Une hypothèse veut que la musique fasse vibrer les mêmes cordes  sensibles que la voix, outil essentiel à la communication humaine. Toutes deux seraient traitées par les mêmes circuits neuronaux. La  musique serait en fait une "voix superexpressive", c'est-à-dire une amplification de l'expression vocale comme le sont les masques pour les  visages. 
Difficile à prouver. Mais pas impossible, comme l'a démontré  William Aubé, doctorant en neuropsychologie au Laboratoire international de recherche sur le cerveau, la musique et le son (BRAMS) de l'Université de Montréal. "La  musique est un moyen d'expression très puissant pour réveiller des souvenirs.  Les expressions vocales comme les cris, les pleurs et les rires suscitent tout  autant de profondes réactions. J'ai donc testé la mémoire de participants pour  ces deux stimulus qui évoquaient tour à tour différentes émotions", explique le  jeune chercheur. 
Résultat :  une étroite corrélation existe entre la mémoire des expressions vocales et la  mémoire des expressions musicales chez les mêmes sujets. C'est particulièrement  le cas de celles traduisant la peur et la joie. "Cela nous amène à croire qu'il  y a une très forte possibilité que la voix et la musique soient traitées de  façon similaire par le cerveau", conclut William Aubé. 
Il en est encore plus convaincu depuis une étude  effectuée en imagerie par résonance magnétique fonctionnelle (IRMf) chez 50 participants qui lui a permis de découvrir un chevauchement entre  la région du cerveau activée par la musique et celle qui est vouée aux  expressions vocales. "Les sujets ont écouté des extraits musicaux, diverses  langues, des bruits de klaxon et de claquements de porte, des cris, des pleurs,  etc., raconte-t-il. Au terme de l'exercice, on a aussi remarqué que la musique  animait un endroit précis du cerveau situé bilatéralement sur le planum temporal. Cette zone est légèrement devant celle consacrée à la voix. C'est la  première fois qu'on repère de la sorte une région musicale dans le cerveau." 
- De la musique semblable au rire
 
 
"La majorité des études explorant les liens entre la musique  et la mémoire utilisent de longs extraits musicaux, souvent familiers aux  participants, remarque William Aubé. Ces stimulus sont généralement divisés en  deux catégories : plaisants et déplaisants. On ne s'intéresse pas à la variété  d'émotions que peut évoquer la musique, ce qui rend difficile la comparaison  avec la voix." 
Il s'est donc appliqué à réunir des stimulus comparables.  Il a employé des compositions originales d'environ 1,5 seconde et des  expressions vocales non linguistiques, comme des rires, des pleurs, des cris et  des bâillements. La teneur émotionnelle, les rythmes et la durée des musiques se  voulaient semblables à ces sons humains. "La musique joyeuse est syncopée,  rapide, comme quelqu'un qui rit. La comparaison n'est pas parfaite, mais les  indices acoustiques se ressemblent beaucoup", donne en exemple celui qui est  supervisé par Isabelle Peretz, cofondatrice du BRAMS, et Jorge L. Armony,  chercheur à l'Institut universitaire en santé mentale Douglas. 
Quelque  120 personnes se sont soumises à cette étude comportementale. Les sujets qui se  rappelaient les extraits musicaux de peur avaient aussi bien mémorisé les  productions non linguistiques liées à cette émotion. Même chose pour la joie.  "Les expressions émotionnelles musicales parviennent à moduler certains  processus cognitifs comme la mémoire, en dépit du fait qu'elles ne sont pas  associées à un épisode autobiographique, au même titre que des expressions  vocales et des visages émotionnels", fait observer le chercheur. 
Grâce à  l'IRMf, il a confirmé un phénomène connu, soit l'activation de l'amygdale par la  peur. Cette zone en forme d'amande située dans chaque hémisphère du cerveau agit  comme un système d'alarme naturel chez l'homme et l'animal. William Aubé  souligne toutefois que la joie excitait presque autant cette structure cérébrale  que la peur. "Des études proposent que l'amygdale est un détecteur de pertinence  excité par l'intensité des émotions, indépendamment de leur caractère plaisant  ou déplaisant." 
Le doctorant poursuit ses recherches. Il souhaite entre  autres raffiner son étude en IRMf. "Nous avons récemment enregistré des stimulus  musicaux interprétés au violon, au saxophone et au piano. Des versions chantées  le seront aussi. Nous nous assurerons que l'effet obtenu est lié à l'émotion  inhérente au stimulus plutôt qu'à d'autres variables tel que le timbre. En  utilisant un large éventail de stimulus, nous nous rapprochons également de la  réalité." 
Ces travaux ont été menés en collaboration avec Luis Concha et  Arafat Angulo Perkins, de l'Université nationale autonome du  Mexique. 
Techno-Science 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Les chirurgiens de la transplantation se plaignent  depuis des années de la pénurie chronique d'organes. En 2010, près de 70 % des  15.613 patients qui attendaient un rein, un foie ou un cœur n'ont pu être  satisfaits. Pour remédier à cette situation et faciliter la logistique  transplantatoire, la piste des organes animaux semblait prometteuse. A  l'occasion du Congrès international de la xénogreffe (du latin xénos, étranger)  qui s'est déroulé récemment à Miami, la revue The Lancet publie un article  faisant le point sur ce domaine de recherche. Conclusion : si des avancées  notables sont à signaler, la révolution médicale promise dans les années 1990  n'est pas pour demain. 
L'idée de transplanter des  organes animaux chez l'homme est finalement assez ancienne. La première greffe  bien documentée date de 1905. Elle est l'œuvre d'un chirurgien lyonnais qui  tente d'implanter un rein de chèvre à une jeune femme. A l'époque, les médecins  ne connaissent pas les mécanismes de rejet et ne peuvent que constater l'échec  de l'opération. 
C'est en connaissance de cause  que la recherche sur les organes animaux a été relancée dans les années 90. La  découverte des nombreuses similitudes entre les séquences génétiques des hommes,  des primates et des porcs laissaient alors penser que les obstacles ne seraient  pas insurmontables. Dans un premier temps, les scientifiques parviennent à  fabriquer des porcs clonés, dits KO, dont un gène impliqué dans le rejet a été  inhibé. Les animaux sont viables et peuvent se reproduire, ce qui constitue déjà  une première victoire des biologistes. Les greffes de ces cœurs et de ces reins  porcins sur des primates n'obtiennent toutefois pas vraiment le succès escompté.  Les durées de survie montent à seulement plusieurs mois contre quelques jours  auparavant. Les résultats pour les foies et les poumons sont encore plus  décevants : toujours pas plus de quelques jours de  survie. 
Depuis 2005, ces porcs ont  ensuite été «humanisés» par l'ajout d'un ou deux gènes-clés humains du processus  de reconnaissance du soi. Les chercheurs plaçaient de grands espoirs dans cette  nouvelle manipulation. «Cela n'a malheureusement pas permis d'améliorer les taux  de survie», déplore Gilles Blancho, directeur de l'institut de transplantation  du CHU de Nantes. 
Des années de recherche restent  donc nécessaires avant de pouvoir seulement considérer le passage aux tests  cliniques. Heureusement, une autre piste est plus prometteuse : l'utilisation de  cellules isolées. Les cellules ne sont alors utilisées que pour la substance  qu'elles sécrètent : des neurotransmetteurs (cellules nerveuses) ou de l'insuline  (cellules pancréatiques). En ligne de mire, le traitement de maladies  neuro-dégénératives et des diabètes de type 1 et 2. Les manipulations  transgéniques ont cette fois-ci permis aux cellules greffées de tenir plusieurs  années. Mieux encore, les ilots pancréatiques porcins greffés sur des singes ont  été efficaces jusqu'à un an dans la régulation du taux de sucres. Un essai de  phase II, visant à prouver l'efficacité de la procédure sur l'homme, est en  cours depuis 2010 en Nouvelle-Zélande. C'est vraisemblablement dans cette voie  que réside l'avenir clinique de la xénogreffe. 
Le Figaro 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Des  chercheurs français ont expérimenté un vaccin thérapeutique contre le cancer du  poumon appelé TG4010. Administré en association avec la chimiothérapie, il a  entraîné une augmentation sensible de la survie chez 148 patients atteints de  cancer avancé du poumon, par rapport à ceux soignés uniquement avec une  chimiothérapie. 
Les  chercheurs de l'Université de Strasbourg ont utilisé pour ce vaccin un virus  modifié de la variole qui a été génétiquement modifié pour produire une protéine  "cancéreuse" de surface. 
A l'issue d'un essai de six mois en double  aveugle, le taux de survie sans progression de la maladie était de 43 % pour les  patients vaccinés et de 35 % pour ceux uniquement soignés à l'aide  d'une chimiothérapie. 
Néanmoins, des recherches supplémentaires sont  nécessaires pour voir si le vaccin est susceptible d'améliorer plus  sensiblement la survie des patients atteints d'un cancer du poumon. Le cancer du  poumon est la principale cause de cancer dans le monde entier avec des  non-petites cellules-cancer du poumon (NSCLC) représentant environ 80 % des cas  de cancer du poumon … 
BBC 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				L’OMS alertait récemment sur les risques potentiels de cancer  liés à l’usage du téléphone portable. La controverse ne semble pas pour autant  terminée. Une étude publiée, il y a quelques jours, par le British Medical  Journal, vient en effet relancer le sujet. L’étude compare l’incidence des  tumeurs du cerveau chez les utilisateurs et non utilisateurs de téléphone  portable, ou plus précisément chez les abonnés et les non abonnés. Au total 358  403 abonnés à un réseau de téléphonie mobile ont été inclus et suivis entre 1990  et 2007, période pendant laquelle ont été répertoriés 10 729 cas de tumeurs du  système nerveux central. 
Aucune relation significative ne peut être établie entre  l’incidence de ces tumeurs et l’utilisation du portable, même quand l’analyse  porte exclusivement sur les personnes abonnées depuis plus de 13 ans (ratio de  taux d’incidence 1,03 ; intervalle de confiance à 95 % : 0,83 à 1,27 pour les  hommes et 0,91 ; 0,41 à 2,04 pour les femmes). Les auteurs ne parviennent pas  non plus à mettre en évidence une augmentation de l’incidence des tumeurs les  plus fréquentes du système nerveux central, les méningiomes et les gliomes. 
Il a été dit que le lobe temporal était le plus exposé  aux ondes émises par les téléphones portables, mais l’étude ne montre pas de  localisation préférentielle des gliomes chez les plus anciens abonnés. 
Au  Danemark où cette étude a été réalisée, une première analyse qui avait inclus  les 420 095 personnes qui avaient souscrit un contrat de téléphonie mobile en  1982 (date d’introduction du portable dans ce pays) et les avait suivies  jusqu’en 1995, concluait déjà que le risque de cancer du cerveau était le même  chez ces utilisateurs que dans la population générale. Quant à l’étude  Interphone, la plus grande étude de cohorte réalisée sur ce thème, elle  suggérait l’existence d’un risque plus élevé de gliome chez les sujets ayant  plus de 1 640 heures cumulées d’utilisation de leur portable, mais ce résultat  ne portait que sur 364 personnes. 
JIM 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	                    						   	    
                                    	
                                    		
                                    			
                                    				  |  
                                    				
                                    					 | 
                                    					
                                    						
                                    							
                                    								  | 
                                    								 | 
                                    							 
                                    							
                                    								 | 
                                    								Recherche | 
                                    								 | 
                                    							 
                                    							  |  
                                    						 
															Recherche & Innovation, Technologies, Transports
                                    					 | 
                                    					 | 
                                    				 
                                    				  |  
                                    			 
                                    		 | 
                                    	 
                                    	  |  
                                    	
                                    		
                                    			
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				D'après une étude menée en 2008 par  l'Université technique de Dresde (Saxe), les véhicules individuels à Berlin sont  occupés en moyenne par 1,3 passager, pour un trajet de 6,9km à chaque  utilisation. Partant de ce constat, des chercheurs de l'Université technique de  Berlin (TU Berlin) ont développé un concept de véhicule électrique répondant aux  enjeux du transport individuel dans les grandes villes. 
Le prototype de ce véhicule à quatre roues peut ainsi être occupé  par une ou deux personnes, à raison d'une charge utile totale de plus de 200kg.  Long de 120cm pour une largeur de 85cm, il ne pèse que 20kg. Son plancher  possède une structure en sandwich où sont fixés tous les composants  électroniques. Une couche de mousse synthétique, limitée en haut et en bas par  une plaque d'aluminium, permet d'assurer la stabilité tout en garantissant une  masse minimale. Le prototype possède une autonomie de 35km et une vitesse  maximale de 12km/h. Les chercheurs prévoient d'améliorer ces performances pour  une utilisation effective en milieu urbain. 
En  se basant sur le prototype actuel, d'autres versions de ce véhicule sont en  cours de développement pour des applications destinées par exemple à faciliter  le déplacement des personnes âgées au quotidien. "Les dimensions du prototype  ont été choisies de façon à pouvoir emmener le véhicule sans problèmes sur un  escalator et dans un ascenseur", souligne Sebastian Adolphy, de l'Institut des  méthodes pour le développement de produits et mécatronique à l'Université  technique de Berlin. 
Bulletins Electroniques 
			
		 | 
	 
			  |  
		  |  
		  |  
		
 
	
		| 
			
		 | 
	 
	
		
			
				  |  
				
					  | 
					 | 
				 
			 
			
				Spie a annoncé mercredi 2 novembre l'acquisition de plus de 700  véhicules électriques. Avec 10 % de sa flotte équipée en véhicules électriques  d'ici à 2015, Spie se mobilise pour le lancement d'une véritable filière de  construction de véhicules électriques en France. 
Dans le cadre de l'appel d'offres initié par la Poste et  conduit par l'UGAP, Spie a annoncé mercredi 2 novembre l'acquisition de plus de  700 véhicules électriques. La première commande ferme sera effectuée fin 2011,  les premières livraisons sont attendues au 1er trimestre 2012. Présent dès l'origine dans le groupement d'achats initié par  La Poste, Spie fait partie des 19 grandes entreprises souhaitant intégrer  massivement l'utilisation de véhicules électriques dans leurs activités. D'ici à  2015, le Groupe va acquérir 330 véhicules utilitaires 3 m3 et 400 véhicules de  sociétés (2 places). A terme, 10 % de la flotte totale du Groupe sera équipée en  véhicules électriques. Pour la catégorie « utilitaires », ce taux s'élèvera à 17  %. 
- 3000 tonnes de CO2 en moins
 
 
Cette commande importante, en cohérence avec les activités de  Spie, représente une étape importante dans l'engagement du Groupe dans le  développement durable : l'acquisition de 730 véhicules électriques équivaut à  une réduction potentielle de ses émissions de CO2 de 3000  tonnes/an. 
La participation de Spie à cet appel d'offres contribue à  donner l'impulsion au lancement d'une véritable filière industrielle et  commerciale « véhicules électriques » en France (constructeurs automobiles et  fournisseurs de batterie, loueurs, fabricants et installateurs des  infrastructures de recharge). Lui-même acteur de la filière, le Groupe commence  à déployer sur tout le territoire les infrastructures de recharges nécessaires.  En juillet dernier, Spie Ile-de-France Nord-Ouest a d'ailleurs obtenu une  première commande significative pour l'installation d'une centaine de bornes de  recharge pour des sites Renault implantés en Ile-de-France et en Normandie,  notamment au Technocentre de Guyancourt. 
« Même si nous possédions déjà des véhicules entièrement  électriques ou hybrides rechargeables sur certains sites (Talence, Cléon,  Feyzin, La Mède, Strasbourg...), cette commande représente un bond significatif  dans notre politique pour une mobilité durable », a déclaré Jean-Christian  Lucas, directeur du développement durable de Spie. « L'ensemble du Groupe s'est  mobilisé pour ce projet : le management comme les salariés témoignent d'une  grande motivation pour le mettre en œuvre le plus efficacement possible »,  ajoute Gauthier Louette, président-directeur général de Spie. 
Le Moniteur 
			
		 | 
	 
			  |  
		
			| ^ Haut | 
		 
		  |  
		
                                     		 | 
                                    	 
                                     
              						   	    
              						   	    								 | 
							 |  
						 
						
							
								 | 
								
									
										
											| VOTRE INSCRIPTION | 
										 
										  |  
										
											
												
												Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. 
												Désinscription Cliquez sur ce lien pour vous désinscrire. 
												
												
												Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. 
												
												
											 | 
										 
									 
								 | 
								 | 
								
									
								 | 
							 
						 
					 | 
				 
			 
		 |