|
|
Edito
Neutralité de l'Internet : un enjeu démocratique majeur
Les députées Corinne Erhel (PS) et Laure de La Raudière (UMP) ont présenté, mercredi 13 avril, leur rapport sur la neutralité de l'Internet. L'enjeu est d'importance puisqu'il s'agit de respecter l'esprit de la Déclaration des droits de l'homme et du citoyen qui énonce la libre communication des pensées et des opinions. Ce rapport très intéressant recommande d'établir de nouvelles règles pour préserver "l'Internet universel, immense bien collectif, qui ne doit pas être transformé au gré des intérêts de ses différents acteurs".
Depuis la naissance du Web, en 1990, plus d'un quart de la population mondiale s'est connectée à la toile et l'Internet structure et intègre à présent l'ensemble des échanges numériques et constitue l'un des principaux moteurs de l'innovation et de la croissance économique. Dans ce nouveau cadre dominé par une économie dématérialisée, les principaux acteurs du Web, qu'ils soient publics ou privés, font assaut d'imagination pour défendre leurs intérêts et contrôler le Web.
Il est donc essentiel de garantir la neutralité du réseau, qui "ne devrait pas discriminer les données" selon leur origine, leur contenu ou leur destination.
Quatre axes sont définis par le rapport, qui a nécessité l'audition de centaines de représentants du secteur et, fait rare, de techniciens du réseau.
Premièrement, Corinne Erhel et Laure de La Raudière préconisent de "consacrer la neutralité de l'Internet comme objectif politique".
Deuxièmement, le rapport préconise d' "encadrer strictement les obligations de blocage de l'Internet", avec l'intervention d'un juge dans toutes les procédures, ce qui va à l'encontre du choix politique fait avec Hadopi.
Le troisième axe concerne les opérateurs télécoms et vise à "garantir la qualité de l'Internet" en réservant l'appellation Internet aux seules offres respectant le principe de neutralité". Afin de garantir une qualité "suffisante" pour le réseau, le rapport suggère par ailleurs de confier à l'Arcep, gendarme des télécoms, un observatoire de la qualité de l'Internet.
Enfin, le dernier volet mais non le moindre a trait à la question centrale du financement du réseau. Avec l'explosion du "peer to peer" et des échanges de données vidéo, les opérateurs veulent trouver un modèle économique qui leur permette de compenser financièrement les interconnexions. Pour régler ce problème complexe, le rapport n'apporte pas de solution-miracle mais évoque "la mise en oeuvre d'une terminaison d'appels data au niveau européen".
Ce système, en obligeant les opérateurs à se facturer réciproquement les échanges de données lorsque le client de l'un utilise le réseau de l'autre pourrait permettre de résoudre les conflits qui opposent les géants du numérique et éviterait aux fournisseurs d'accès de revenir à un modèle quantitatif, où les abonnés sont limités à un volume maximal de données et ne disposent plus d'un accès illimité. Encore faut-il trouver le modèle économique qui empêche une augmentation insupportable des abonnements et là, le rapport reste flou et reconnaît qu'on ne sait pas comment se partage la valeur ajoutée sur le Net.
Contrairement aux précédents rapports sur le même sujet qui n'avaient pas emporté l'adhésion, ce rapport a été salué pour sa qualité par la plupart des acteurs et des associations qui y voient une bonne base de travail pour définir un nouveau cadre législatif et réglementaire qui assure au niveau européen, comme au niveau national, une neutralité du Net suffisamment préservée des intérêts économiques et des pressions politiques.
Cette réflexion est d'autant plus opportune qu'elle survient alors que le cadre réglementaire et les conditions économiques sont enfin réunis pour le développement du très haut débit optique qui va donner au Web un nouveau souffle et l'ouvrir à de nouveaux champs d'utilisation, comme la réalité virtuelle, la télésanté ou l'enseignement à distance qui constituent de puissants moteurs de croissance économique.
Dans cette perspective, il est indispensable que le Web reste un véritable espace d'échange et d'expression démocratiques mais aussi d'innovation sociale et de création culturelle, ce qui ne veut pas dire une zone de non-droit mais un réseau ouvert à tous, qu'aucune puissance publique ou privée ne peut s'approprier ou utiliser à son seul profit. Définir les règles qui permettront la protection et l'essor de cet agora numérique planétaire : tel est l'enjeu considérable de ce débat de société sur la neutralité du Net.
René Trégouët
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Imaginez une autoroute qui répartirait dynamiquement le nombre de voies dans un sens et dans l’autre, suivant le trafic observé. Cette autoroute passerait de deux à trois voies quand le trafic serait dense avec des limitations de vitesse adaptées aux types de véhicule. Pour fluidifier le trafic, elle signalerait aussi aux conducteurs des changements de direction en accord avec leurs besoins. Par exemple, elle coordonnerait les feux de circulation avec d’autres autoroutes pour rediriger les voitures convenablement. Elle pourrait également adapter la texture de la chaussée (de lisse à rugueuse) pour forcer les utilisateurs à réduire leur vitesse suivant les conditions météorologiques, pour des raisons de sécurité. En d’autres termes, elle s’adapterait de manière flexible aux circonstances extérieures, afin d’absorber le trafic sans avoir recours à d’onéreuses infrastructures supplémentaires. Maintenant, remplacez l’autoroute par un réseau de télécommunications auto organisant et les voitures par des terminaux mobiles : vous obtenez ce que l’on appelle un réseau mobile flexible.
Les réseaux mobiles flexibles représentent une rupture technologique visant de très hautes efficacités spectrales au-delà des limites actuellement connues et font l'objet de travaux intenses au sein de la chaire Alcatel-Lucent en radio flexible à Supélec, dirigée par le Professeur Mérouane Debbah. L'équipe développe des algorithmes intelligents de radio cognitive utilisant la théorie des jeux pour préparer les standards de l’après 4G. Les Réseaux Mobiles Flexibles sont des réseaux denses auto-organisants, exploitant la dimension spatiale pour former des antennes coopératives reconfigurables. Les antennes distribuées du réseau deviennent ainsi un réseau multi-antenne par lequel transite l'information. Ceci accroit le débit global et réduit la consommation énergétique et le rayonnement électromagnétique en focalisant les ondes vers le destinateur localisé. Le réseau devient ainsi transparent pour l'utilisateur.
Avec la multitude de standards qui apparaissent (UMTS, WiFi, WiMAX, LTE), les Réseaux Mobiles Flexibles deviendront de plus en plus nécessaires. Ils possèderont des fonctionnalités supplémentaires permettant de détecter les différentes technologies, de réduire la consommation énergétique des terminaux et de se reconfigurer (une station de base passerait du mode LTE au mode UMTS si des terminaux UMTS sont présents) pour s’adapter aux standards ou services à fournir à un instant donné.
Professeur Mérouane Debbah,
Directeur de la chaire Alcatel-Lucent en Radio Flexible
Supélec
Plus d'information sur: Supelec
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
De plus en plus d'interventions sont pratiquées avec des robots chirurgicaux, des outils qui permettent d'améliorer le confort du chirurgien et du patient et de simplifier les suites opératoires. Depuis cinq ou six ans, le nombre de ces assistants high-tech croît de façon exponentielle. Plus de 1 750 robots baptisés Da Vinci sont désormais en service sur la planète, dont les trois quarts aux États-Unis, indique leur fabricant américain Intuitive Surgical, qui a un quasi-monopole sur ce marché. La France s'y met aussi. «Aujourd'hui, 42 établissements de santé, CHU et cliniques, sont équipés, contre 5 en 2006», précise le Dr Alain Hérard, urologue à la polyclinique de Courlancy (Reims), qui organisait récemment un colloque sur la chirurgie robotique.
Concrètement, la plate-forme se compose de deux éléments. Au contact du patient, le robot proprement dit est une grosse machine avec quatre longs bras mobiles, télécommandés. L'un porte une caméra endoscopique, les trois autres de fins instruments chirurgicaux adaptés à une chirurgie cœlioscopique (qui se pratique à travers une incision de quelques millimètres). L'autre partie, positionnée à quelques mètres, est une console devant laquelle s'assied le chirurgien. De là, confortablement installé, il visionne la zone opératoire agrandie et en 3D, et pilote à distance les instruments via des joysticks et des pédales. De fait, en dépit du fantasme populaire, ce n'est pas le robot qui opère mais l'opérateur humain. «Un robot n'est ni autonome ni programmable, ce n'est qu'un outil» insistent les chirurgiens de la clinique de Courlancy, qui a acquis un robot Da Vinci fin 2006.
Il y a une vingtaine d'années, l'arrivée des techniques de cœlioscopie avait bouleversé la chirurgie en diminuant la taille des incisions et donc le traumatisme opératoire. L'utilisation de robots prolonge ces progrès. «Ils permettent de cumuler les avantages de la cœlioscopie et de la chirurgie ouverte» synthétise le Dr Hérard. Derrière sa console, le chirurgien a une vision binoculaire en 3D, comme en chirurgie traditionnelle, alors que les caméras de cœlioscopie classique n'offrent qu'une vue en 2D. Ensuite, la technique est plus «facile» à acquérir que celle de la cœlioscopie, et les gestes sont plus sûrs. En cœlioscopie, le chirurgien est de côté et tient ses instruments à bout de bras, au risque d'amplifier les imperfections de ses gestes et notamment les tremblements. En chirurgie robotisée, «il travaille dans l'axe, et les mouvements brusques sont filtrés, comme avec un ABS», insiste le Dr Hérard. Par ailleurs, la dextérité des bras du robot (mobile sur six axes) permet de réaliser des gestes - certaines sutures par exemple - quasi infaisables pour la main humaine. Principal bémol signalé par les opérateurs, l'absence de «retour de force», c'est-à-dire de ressenti du toucher des organes.
En pratique, dans le monde, l'urologie représente 70 % des interventions avec assistance robotique, principalement pour des prostatectomies mais aussi pour certaines ablations du rein ou la correction de malformations urinaires. Aux États-Unis, environ 80 % des prostatectomies pour cancer de la prostate sont effectuées avec l'aide d'un robot, soit plus de 73 000 interventions par an. La proportion est de 18 % en France, et devrait atteindre 25 % fin 2011 selon le Dr Alain Hérard. Dans cette indication, les atouts de la chirurgie mini-invasive robotisée sont multiples, comme l'ont confirmé plusieurs études : réduction des douleurs postopératoires, moindres saignements, cicatrices limitées et, au final, hospitalisation plus courte et reprise des activités plus précoce. La récupération fonctionnelle (pour la continence urinaire et les érections) est aussi plus rapide que lors d'une intervention classique. D'autres innovations se dessinent pour l'avenir. Un nouveau modèle de robot, doté d'un bras unique portant des instruments hyperminiaturisés et très flexibles commence ainsi à être testé dans plusieurs centres européens. Intérêt : permettre des interventions par les voies naturelles, ombilic par exemple. Sans aucune cicatrice.
Le Figaro
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Comment mieux protéger des attentats les passagers des avions ? Une équipe d’ingénieurs européens propose d’emballer les bagages en soute dans un textile anti-explosion, baptisé Fly-bag. Ce dernier montre une résistance inédite : il est capable de contenir l’explosion d’un pain de plastic équivalent à celui qui a provoqué la destruction d'un Boeing 747 le 21 décembre 1988.
A l’époque, un pain de 450 grammes de plastic avait été caché dans un bagage placé dans la soute. Il avait provoqué la mort de 243 passagers, 16 membres d’équipage et 11 personnes au sol. Pour prévenir la répétition de drames de cette ampleur, les procédures de sécurité dans les aéroports sont sans cesse affinées. Mais l’éventualité qu’un terroriste parvienne à déjouer cette surveillance ne peut pas être exclue.
Une équipe d’ingénieurs de cinq pays européens vient de trouver une parade. Dans le cadre du programme européen Fly-Bag, qui sera bientôt mis à l’honneur à l’occasion du salon Techtextil, ils ont mis au point un revêtement constitué de couches superposées de textile. Au centre, une partie rigide garantit la robustesse du matériau. Autour, une partie souple s’étire sans se rompre en cas d’explosion d’ampleur moyenne. Il évite ainsi toute projection dans l’habitacle sous le souffle de l’explosion. Les fibres de chaque couche de textile sont orientées différemment, afin de garantir l’absorption de forces d’impact dans toutes les directions.
Les ingénieurs ont soumis leur container à de véritables déflagrations pour mesurer sa résistance. Bilan : la structure protège d’une explosion d’ampleur moyenne, comme celle de l’attentat de 1988. Ce dispositif pourrait séduire les industriels alors que les systèmes de coffrages rigides, plus lourds, plus coûteux et donc réservés aux appareils de grande taille, peinaient à s’imposer.
La Recherche
|
|
|
|
|
|
|
|
Les algues pourraient se substituer à 17 % des importations de pétrole aux Etats-Unis, mais il faudrait pour cela utiliser de grandes quantités d’eau, selon une étude publiée le 13 avril dans revue Water Resources Research. Produire du carburant à partir d’algues n’est pas une idée nouvelle. L’algocarburant permet de produire moins d’émissions de CO2 que les énergies fossiles et possède également l’avantage, pour les Etats-Unis, d’être produit sur place et donc d’éviter le recours à des importations.
La dernière étude en date réalisée par des hydrologues du laboratoire national du Pacific Northwest estime qu’il faudra 350 litres d’eau pour produire un litre de carburant avec des algues cultivées en bassin. Cette quantité est nécessaire pour lutter contre l’évaporation des bassins. «Des économies d’eau peuvent être réalisées si les algues sont cultivées dans les régions américaines qui ont le climat le plus ensoleillé et le plus humide, comme la côte du Golfe, le Southeastern Seaboard, la région des grands lacs», précise Mark Wigmosta, principal auteur de l’étude. Selon les chercheurs, les algues restent une solution intéressante par rapport à la culture du maïs, encore plus gourmande en eau. Toutefois, il faudrait accroître le rendement des cultures en les regroupant, et utiliser au total un quart de ce qu'utilise actuellement l'agriculture américaine en irrigation.
JDE
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Fruit d’une coopération entre l’agence spatiale chinoise (CNSA) et le CNES, le projet CFOSAT entre dans sa phase de définition détaillée. L’objectif principal du futur satellite sera de mesurer le vent de surface et les propriétés spectrales des vagues.
Mieux prévoir la mer
« Après Topex-Poséidon, Altika et les satellites Jason, ce projet s’inscrit dans la continuité d’un des domaines d’excellence du CNES : l’océanographie», souligne Patrick Castillan, chef de projet CFOSAT au CNES à Toulouse. Toutefois, à la différence de ses aînés, CFOSAT (China France Oceanography SATellite) n’aura pas pour mission de mesurer la hauteur des mers, mais de déterminer la direction, l’amplitude et la longueur d’onde des vagues afin de caractériser ce que les océanographes appellent l’« état de mer ». Pour cela il embarquera SWIM, un instrument de mesure totalement innovant développé par Thales Alenia Space à Toulouse. « Il s’agit d’un radar à 6 faisceaux rotatifs qui viendront taper dans la vague avec une incidence donnée, afin de déterminer sa fréquence et d’en déduire ses propriétés physiques », explique Patrick Castillan. Cet instrument français sera associé à l’instrument chinois SCAT, un diffusiomètre à balayage conique chargé de mesurer la vitesse du vent.
Une mission pré-opérationnelle
Pourquoi mesurer le vent et les vagues ? Parce que les 2 phénomènes sont couplés : les vagues naissent de l’énergie transmise par le vent. Le vent est donc une des principales variables météorologiques qui influent sur les modèles de prévision de l’état de mer. Or, savoir quelle mer il fera demain est essentiel pour de nombreuses activités : transport maritime, activité off-shore, construction des navires, sécurité en mer et en zone côtière ou encore transport des pollutions marines.
L’équipe scientifique dirigée par Danièle Hauser (LATMOS), ainsi que Météo France et Ifremer attendent beaucoup des données que fournira CFOSAT. Elles permettront d’améliorer la compréhension des processus de surface, éléments essentiels de la modélisation. La météorologie marine et notre connaissance de la variabilité du climat en seront à terme les grands bénéficiaires.
Mission de recherche développée pour le compte du LATMOS en France et de la NSOAS en Chine, CFOSAT est aussi une mission pré-opérationnelle pour Météo-France, le Centre européen de prévision météorologique à moyen terme (CEPMMT). A terme, les données fournies par les 2 instruments pourraient être intégrées dans le système GMES/MyOcean.
Le satellite, une fois mis en orbite par la fusée chinoise Longue Marche 2C, devrait être opérationnel en 2015. Les données seront reçues et traitées à partir de stations de réception chinoises et françaises.
CNES
|
|
|
|
|
|
|
|
La température à la surface du Soleil avoisine les 5 600°C, et celle des étoiles les plus froides, 3 000°C environ. Mais les naines brunes, des étoiles avortées, trop peu massives pour que la fusion nucléaire se maintienne dans leur cœur, peuvent être beaucoup plus froides : quelques centaines à quelques milliers de degrés seulement. Philippe Delorme et ses collègues, de l'Institut de planétologie et d'astrophysique de Grenoble et d'autres Universités, viennent de découvrir un objet encore plus froid : sa température est d'environ 100°C, ce qui en fait l'astre le plus froid hors du Système solaire (les rares planètes extrasolaires dont on connaît la température sont des fournaises).
L'astre, nommé CFBDSIR1458+10B, est sans doute une naine brune, peut-être une grosse planète. Il est en orbite autour d'une autre naine brune, CFBDSIR1458+10A, découverte en 2010 par la même équipe avec le télescope Canada-France-Hawaii (CFHT). Les astronomes ont aujourd'hui détecté un compagnon, CFBDSIR1458+10B, sur des images à haute résolution prises avec le télescope Keck, à Hawaï. La distance de la Terre du couple de naines brunes a été estimée à 75 années-lumière.
En combinant cette information avec des données du spectrographe X-shooter du Very Large Telescope de l'Observatoire européen austral, les chercheurs ont pu déterminer la température du système. La naine brune CFBDSIR1458+10A a une température de surface de 250 à 300°C, tandis que CFBDSIR1458B, dont la masse est comprise entre 5 et 20 fois celle de Jupiter, a une température de 100°C, à 40°C près.
À une température aussi basse, les propriétés de l'atmosphère de cet objet pourraient être inhabituelles. Cette température rapproche l'astre des planètes du Système solaire (de 170°C en moyenne pour Mercure, à –220°C pour Pluton), à la frontière entre les petites étoiles froides et les planètes géantes et chaudes.
Pour la Science
|
|
|
|
|
|
|
|
A l’heure où les applications professionnelles du GPS, système de géolocalisation par satellite, se multiplient, les ingénieurs du CNES s’efforcent sans relâche d’améliorer la lecture et la précision du positionnement.
- Des informations de positionnement affinées
Près de 800 km séparent la ville de Paris de celle d’Hanovre. Et pourtant, le salon international de l’agriculture en France en février dernier et le CeBIT, salon des technologies de l’information et de la bureautique, récemment clos en Allemagne, ont un point commun : la diversification des applications du GPS aux filières professionnelles, telle l’agriculture (autoguidage de tracteur, aide à l’épandage, à la gestion de l’ensemencement…).
C’est en cherchant à comprendre et améliorer des applications courantes du système GPS précis que Denis Laurichesse et Flavien Mercier, 2 ingénieurs du service d’orbitographie du CNES, ont réussi à perfectionner les informations de positionnement délivrées par le système. Leur méthode de résolution des ambiguïtés entières non différenciées, brevetée en 2007, fournit, en temps réel et sans station de référence à proximité, la position d’un utilisateur au cm près. « Avec les autres méthodes de calcul, il restait toujours 20 à 50 cm d’erreur. Là, après avoir identifié certains biais présents dans la charge utile des satellites, on les a appliqués à la mesure. Cela résout alors les incertitudes sur les ambigüités des mesures de phase et on atteint une précision centimétrique. » confirme Denis Laurichesse.
En récompense de leurs travaux et de leur article publié dans Navigation, ils reçoivent en 2009 le Burka Award, prix décerné par The Institute of Navigation aux Etats-Unis.
- Innovation et reconnaissance internationale
Loin de susciter au départ l’unanimité, les 2 ingénieurs ont dû faire preuve de persévérance pour imposer leur nouvelle méthode de calcul. « Comme les gens ont pendant des années tourné autour sans trouver la clé, on nous disait que la méthode ne pouvait pas fonctionner.», explique Denis Laurichesse.
Le prix a tout changé. Les 2 ingénieurs font désormais partie de groupes de travail internationaux, dont celui sur l’IGS, le service international de géodésie qui utilise les systèmes GPS, GLONASS et bientôt GALILEO. La méthode, appliquée à la géodésie et la géophysique, a été utilisée avec succès lors du suivi du glacier Mertz en Antarctique en 2010.
Les applications, encore réservées à la communauté scientifique et aux professionnels, devraient s’étoffer dans environ 10 ans. Les satellites du système GPS américain, alors tous renouvelés, seront compatibles avec la méthode de positionnement pour des applications grand public. Le CNES est également moteur auprès de la Commission Européenne et du service commercial de GALILEO pour son application au système de positionnement européen.
Article rédigé par Véronique Meder, CNES
CNES
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Cofely, filiale de GDF SUEZ, va construire, financer et exploiter un réseau de chaleur pour le futur éco-quartier de Vidailhan à Balma dans la banlieue de Toulouse. Ce réseau sera alimenté par une centrale de production énergétique combinant des capteurs solaires haute température et une chaudière à bois : une première en France. L'écoquartier de Vidailhan fait partie de La ZAC (Zone d'aménagement concerté) de Balma-Gramont, créée le 13 décembre 2004 par la Communauté d’Agglomération du Grand Toulouse, aujourd’hui Communauté Urbaine. La ZAC est née d’une volonté de développer un espace à vocation d’habitat et d’activité économique sur l’entrée de ville, le long de la route de Lavaur et à proximité de la ligne A du métro. Elle se développe sur 106 hectares, situés sur Balma et sur l’Union (16 ha). Elle sera composée de 4 quartiers, à vocation différente : le Campus tertiaire de la Garrigue ; la Zone d’activités de Montredon-la Tuilerie ; la colline de Thégra; et l’EcoQuartier Vidailhan, premier quartier à sortir de terre.
Le recours au bois-énergie, combiné aux capteurs solaires haute température, couvrira plus de 80 % des besoins en chauffage et eau chaude sanitaire de l’éco-quartier. Cette combinaison permettra par ailleurs d’éviter le rejet annuel de plus de 1 000 tonnes de CO2 dans l’atmosphère, par rapport à une énergie fossile, soit la consommation moyenne de 5 500 voitures effectuant l’aller-retour Toulouse-Paris. Le gaz sera utilisé en appoint des énergies renouvelables. Pour les futurs occupants de l’éco-quartier, cette chaleur produite de manière centralisée permet de garantir des tarifs stables dans le temps, ainsi que le bénéfice d’une TVA à taux réduit à 5,5 % sur la consommation de chaleur, grâce à une alimentation en énergies renouvelables supérieure à 50 %.
Le centre de recherche de Cofely a travaillé en partenariat avec le bureau d’études Holisud pour proposer une toute nouvelle génération de capteurs solaires tubulaires sous vide de grande puissance, développés par la société SAED. Ils amplifient le rayonnement solaire et permettent donc de produire une chaleur haute température. Contrairement aux capteurs solaires traditionnels qui assurent le chauffage de l’eau sanitaire, les capteurs solaires haute température de SAED vont produire une eau surchauffée à 130°C qui, via un échangeur, permettra de chauffer les bâtiments reliés au réseau urbain. Les capteurs seront installés dans l’enceinte du quartier, sur un « champ » solaire de 800 m2. Cette technologie assurera la production de chaleur nécessaire à l’éco-quartier de Balma, quelles que soient les conditions climatiques (y compris pendant les pics hivernaux). Les installations solaires haute température nécessitent très peu d’entretien, venant renforcer la compétitivité de l’énergie produite.
Les 1 700 tonnes de bois-énergie par an nécessaires au fonctionnement de la chaudière bois (1,1 MW) seront composées de plaquettes forestières issues de forêts durablement gérées. Grâce à son ancrage territorial fort, Cofely s’engage à s’approvisionner dans un rayon de 40 km. L’entreprise participera ainsi à l’essor de la filière bois en Midi-Pyrénées à travers des contrats à long terme (30 ans), apportant une visibilité économique importante à la filière et contribuant à la pérennisation d’emplois locaux. L’ensemble des travaux démarrera en mai 2011 pour s’achever à l’été 2012.
DD
|
|
|
|
|
|
|
|
Deux cents experts provenant des sphères scientifiques et politiques de 21 pays ont participé à l'étude ENA. Les données montrent qu'en moyenne, 4 % de l'azote réactif atmosphérique se transforme en N2O lorsqu'il est réabsorbé dans l'atmosphère. Comparé aux estimations du GIEC, un kilogramme de N2O a un pouvoir d'effet de serre 300 fois plus fort que la même quantité de dioxyde de carbone (CO2). Les experts expliquent que les composés azotés sont pour la majorité d'origine anthropogénique. Ils sont partiellement convertis en N2O, le troisième gaz responsable de l'effet de serre. Les chercheurs ont découvert que pour 188 millions d'hectares de forêts, le dépôt d'azote réactif a augmenté de 1,5 million de tonnes par annnée de 1860 à l'an 2000, représentant une augmentation de 8 kg d'azote réactif par hectare de forêt chaque année.
La fertilisation agricole contribue à l'augmentation de l'apport atmosphérique d'azote réactif. La volatilisation associée de l'ammonium et des émissions de N2O découlant de la combustion de biomasse et des combustibles fossiles contribue également à cette augmentation. En plus de renforcer les émissions de N2O en provenance des sols forestiers ayant un impact négatif sur le climat, le dépôt d'azote réactif des forêts mène également à une perte de diversité des espèces animales et végétales. L'eau est également affectée car les émissions de nitrate connaissent également une augmentation.
Première étude à mettre en lumière les multiples menaces de la pollution d'azote, la recherche ENA prête une attention particulière aux impacts de l'azote sur le changement climatique et la perte de biodiversité en Europe et identifie les régions européennes les plus sujettes à ce risque. En commentant l'importance d'une réduction des émissions d'azote, le Docteur Sutton du Centre d'écologie et d'hydrologie au Royaume-Uni explique : «Il s'agit d'une découverte extrêmement importante. Elle signifie que l'émission d'azote dans l'atmosphère en provenance de l'industrie et de l'agriculture joue un rôle plus important sur les émissions de gaz azotés provenant des sols que ce que l'on pensait. Elle apporte un argument supplémentaire sur l'importance de réduire les émissions d'oxyde d'azote et d'ammonium, ce qui constituerait un véritable bénéfice pour le climat, la qualité de l'air et la biodiversité.»
Pour sa part, le professeur Klaus Butterbach-Bahl du Karlsruhe Institute of Technology (KIT, Allemagne) commentait lors de la présentation de l'étude : «Le dépôt actuel d'azote atmosphérique réactif est trop élevé.» Le chercheur du KIT est le responsable de la division de recherche atmosphérique environnementale de l'Institut de recherche en météorologie et en climatologie (IMK-IFU) en Allemagne, et auteur principal du chapitre de l'ENA concernant le fait que l'azote réactif met en péril l'équilibre de l'effet de serre en Europe. Dans des travaux de recherches associés, le professeur Butterbach-Bahl et ses collègues ont indiqué que les concentrations atmosphériques de N2O ont augmenté «depuis la période pré-industrielle en raison des perturbations anthropogéniques du cycle d'azote mondial, la production animale constituant l'une des principales contributions».
Cordis
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une équipe de chercheurs conduite par le professeur Asano au Center for Allergy and Immunology de Yokohama du RIKEN vient de mettre en évidence le rôle joué par les cellules macrophages particuliers présentss dans les ganglions lymphatiques dans la forte réaction immunitaire parfois observée à la suite de traitements par chimiothérapie ou par hadronthérapie.
Les cellules macrophages font partie des acteurs de la réponse immunitaire. Elles sont capables de phagocyter de manière non spécifique des agents pathogènes et des cellules en apoptose. En outre, à la suite de la digestion d'un micro-organisme, les macrophages peuvent se comporter en "cellules présentatrices d'antigènes (APC)" et exprimer un fragment d'antigène à leur surface. Ce fragment permettra par l'intermédiaire d'une liaison à un récepteur cellulaire de solliciter les lymphocytes T qui déclencheront alors une réponse immunitaire spécifique très efficace contre l'organisme à qui ce fragment appartient.
Malgré les récentes découvertes mettant en évidence la tendance des lymphocytes T régulateurs à protéger les cellules cancéreuses au début de leur formation, de nombreux chercheurs ont tenté d'habituer le système immunitaire à les considérer comme du "non soi". De précédents travaux avaient démontré par exemple que l'injection de cellules tumorales mortes dans le système lymphatique était suffisante pour déclencher une très forte réponse immunitaire.
Le professeur Asano et son équipe sont parvenus à identifier des macrophages résidents CD 169 particuliers (présentant à leur surface la protéine CD169) stagnant dans les sinus des ganglions lymphatiques. Les cellules tumorales mortes injectées dans le système lymphatique sont rapidement interceptées à l'entrée des ganglions par ces CD 169 qui digèrent ces cellules tumorales et présentent à leur surface l'antigène permettant d'activer les lymphocytes T cytotoxiques. En supprimant spécifiquement les macrophages CD 169 grâce à une toxine diphtérique, la réponse immunitaire spécifique à la présence de cellules cancéreuses devient quasi inexistante, démontrant ainsi l'action décisive de ces phagocytes particuliers sur le déclenchement d'une réponse anti-tumorale.
Ces résultats expliquent également la raison pour laquelle à la suite d'un traitement par irradiation ou par chimiothérapie, les cellules tumorales mortes se détachant d'une tumeur solide sont parfois suffisantes pour entraîner une réponse immunitaire forte. La prochaine étape des recherches menées par le professeur Asano sera de fournir directement aux macrophages CD 169 des antigènes tumoraux dans le système lymphatique par le biais d'injections sous cutanées.
BE
|
|
|
|
|
|
|
|
Une découverte récente pourrait contribuer à la baisse du nombre d'attaques cardiaques dont 1,5 million d'américains sont victimes chaque année. Elle consiste en une méthode de fabrication de cellules cardiaques développée par le professeur Elias Zambidis et son équipe à l'université Johns Hopkins, à Baltimore. Ce nouveau procédé permet l'introduction d'ADN plasmidique dans les cellules souches du sang pour les transformer en cellules cardiaques. Environ 95 % de cellules cardiaques contractiles ont été comptabilisées grâce à cette méthode qui n'utilise aucun virus, contrairement à ce qui est pratiqué actuellement. Par ailleurs, cette étude est très prometteuse car elle dépasse les seuils de contractibilité de cellules cardiaques habituellement observés et évalués de 8 à 22 %. Elle surpasse également le taux de contraction exceptionnel atteint dans une autre étude et avoisinant 70 %.
Les cellules du muscle cardiaque, ou cardiomyocytes, sont des cellules qui font battre le coeur. De nos jours, les cardiomyocytes sont fabriqués à partir des cellules souches pluripotentes induites (cellules iPS), elles-mêmes fabriquées à partir de cellules souches de la peau ou du sang. Pour ceci, les cellules du sang ou de la peau sont reprogrammées en cellules iPS grâce à l'injection de virus modifié génétiquement favorisant la transformation des cellules.
Afin de développer le meilleur bouillon qui permettra aux cellules iPS de se transformer en cardiomyocytes, Paul Burridge, un post-doctorant à Johns Hopkins a travaillé pendant près de deux ans sur onze lignées de cellules iPS différentes. Une fois les cellules souches transformées en cellules iPS, elles ont été nourries grâce au milieu de croissance mis au point par P. Burridge afin de les transformer en cellules cardiaques. Le niveau d'oxygène a également été abaissé pour recréer les conditions de développement embryonnaire et de l'alcool polyvinyl a été ajouté afin de faciliter l'adhésion des cellules entre elles.
Neuf jours plus tard, les 11 lignées de cellules iPS non virales étaient devenues des cellules cardiaques et étaient fonctionnelles. Pour chacune des onze lignées cellulaires testées, les cellules battaient en moyenne à 95 % alors que la plupart des scientifiques obtiennent normalement 10 % d'efficacité pour les lignes de cellules iPS. De plus, des experts de bio-ingénierie ont appliqué un électrocardiographe aux cellules pour évaluer le fonctionnement des cellules cardiaques, l'utilisation du calcium et la transmission d'une tension. Le rythme des impulsions et les résultats étaient normaux, très proches de ceux observés pour un coeur humain ordinaire.
Ces résultats sont très encourageants et feront l'objet d'études cliniques dans un proche futur. De plus, le milieu de croissance utilisé est dix fois moins cher que les supports nécessaires à la méthode virale actuellement utilisée. Ces cellules cardiaques non virales pourraient alors être utilisées pour tester in vitro de nouveaux médicaments cardiaques ou des implants afin de remplacer les cardiomyocytes détruits lors d'une crise cardiaque.
BE
|
|
|
|
|
|
|
|
Des scientifiques britanniques ont en effet annoncé le lancement d'un nouvel essai clinique : celui d'un vaccin destiné à traiter la maladie. Une toute nouvelle approche en qui les chercheurs ont fondé beaucoup d'espoir. En effet, le cancer du pancréas reste encore aujourd'hui une des formes les plus meurtrières de cancer, principalement en raison de diagnostic tardif. Selon les derniers chiffres de l'Institut de veille sanitaire (Invs), 7.200 personnes mourraient chaque année du cancer du pancréas. Une mortalité qui ne tend pas à diminuer, d'où l'importance de l'essai clinique.
Baptisé TeloVac, l'essai inclut au total 53 hôpitaux britanniques et plus de 1.000 patients atteints de cancer du pancréas. Il va s'agir de comparer l'efficacité des chimiothérapies seules contre celle des chimiothérapies combinées à des doses régulières de vaccin. Si les vaccins sont habituellement utilisés pour prévenir des infections, ici c'est une approche différente qu'ont mise au point les chercheurs. Le but est de stimuler le système immunitaire à combattre le cancer, en injectant de la télomérase, une protéine sur-produite par les cellules cancéreuses.
"Le problème est que les tumeurs sont intelligentes et sont capables de changer les cellules immunitaires en traitres qui aident à protéger la tumeur. Le vaccin éloigne l'effet masquant de la tumeur" a expliqué à la BBC le Pr John Neoptolemos du Royal Liverpool University Hospital. Si le vaccin s'avère avoir quelques effets secondaires, il pourrait ainsi permettre à l'organisme de détruire les cellules cancéreuses. Si l'on peut programmer le système immunitaire à reconnaitre ces cellules et se débarrasser d'elles toutes ensemble ou les garder en échec, alors on peut empêcher le cancer de se redévelopper efficacement et pendant toute la vie" a expliqué le chercheur. Le fabricant coréen du vaccin, KAL-GemVax, utilisera prochainement la même technologie dans un second essai, cette fois-ci contre le cancer du poumon. Quant au TeloVac, les premiers résultats devraient arriver d'ici un an et révéler si le vaccin a un effet positif. Néanmoins, le Cancer research a tenu à souligner que le vaccin ne permettrait sûrement pas de guérir la maladie mais plutôt de prolonger la vie des patients.
Topnews
LCTU
|
|
|
|
|
|
|
|
Physiciens de formation, David Brutin et Benjamin Sobac, se sont intéressés un peu par hasard à l'étude du sang. A l'origine, les deux chercheurs espéraient étudier le mouvement du fluide dans une goutte de sang quand elle sèche sur une lamelle de verre. « Le sang est trop épais pour voir à travers dans le visible, explique David Brutin, et le rayonnement infrarouge ne passe pas à travers les milieux à base d’eau. » L'expérience n'a pas été vaine. Ils ont pu découvrir la façon étonnante dont les éléments en suspension dans ce dernier se déposent lors du séchage. « Dans un premier temps, nous avons observé le sang d'une douzaine d'individus sains de sexe et d'origine différents, explique Benjamin Sobac. Surprise.
Nous n'avons constaté aucune véritable différence majeure des structures à la fin de l'évaporation. On observe des motifs asymétriques (craquelures blanches dirigées vers le centre au cœur de la tache rougeâtre et formation de plaques trapézoïdales ». Suite à ces premiers résultats, les deux chercheurs ont contacté un hématologue du CHU de la Timone. Ce dernier leur a permis d'étudier le sang d'un patient anémique, et d'un autre ayant un taux élevé de cholestérol. Ces deux pathologies modifient la constitution sanguine. « Après séchage des deux goutes de sang, souligne Benjamin Sobac, nous avons pu remarquer des différences importantes de structure. Sur l'échantillon du patient anémique, nous n'avons pas retrouvé les craquelures blanches. Et sur celui de la personne hypercholestérolémique, on observe un cercle gras autour de la goutte de sang. »
Selon David Brutin on peut imaginer diagnostiquer toutes les pathologies affectant la composition du sang à l'aide d'un simple test. On éviterait ainsi les multiples analyses nécessaires à l'heure actuelle. » en effet, chaque pathologie possède sa batteries propres d'analyses. "Avant de chambouler l'univers des analyses sanguines," espère Benjamin Sobac, "notre méthode pourrait permettre la mise en place un kit de pré-diagnostic fiable pour les ONG, permettant d'orienter les malades plus facilement dans des pays démunis."
Information Hospitalière
|
|
|
|
|
|
|
|
Une avancée considérable dans l'étude des maladies mentales vient d'être accomplie par des chercheurs de l'Université de Californie et du laboratoire Spring Harbor de New York qui ont travaillé avec des outils totalement inédits : des cellules de la peau de malades schizophrènes transformées en neurones. Ils ont ainsi pu mettre en évidence sur ces cultures des troubles importants de la connexion neuronale, mettant le doigt sur les mécanismes biologiques de la maladie. Ils ont également testé des médicaments antipsychotiques sur ces cultures et montré que l'un d'entre eux améliorait les connexions entre neurones. Ces travaux ouvrent une nouvelle ère dans la recherche en psychiatrie qui devrait déboucher sur une meilleure compréhension de ces maladies complexes dans lesquelles interagissent de nombreux facteurs biolgiques, génétiques, sociaux et relationnels.
La schizophrénie, qui touche 1 % de la population, survient en général entre 15 et 25 ans par des symptômes variables selon les patients : délires, hallucinations, repli sur soi, désocialisation. Malgré sa fréquence, et le fait qu'elle frappe une population jeune, les recherches restent insuffisantes. Depuis plus d'une décennie, des travaux ont néanmoins permis de comprendre que cette maladie avait un support biologique très important avec des facteurs génétiques notables, associés à certains facteurs environnementaux (prise de cannabis, infections maternelles pendant la grossesse, traumatismes obstétricaux…). En l'absence de modèle animal, l'étude de cette maladie basée sur la génétique, l'imagerie et l'épidémiologie, restait assez limitée.
L'équipe de Fred Cage, connue pour ses travaux innovants sur les cellules souches, à mille lieues des maladies mentales, s'est intéressée à la schizophrénie selon une démarche totalement innovante. Les chercheurs ont d'abord prélevé des cellules de la peau de quatre malades schizophrènes. Grâce à certaines alchimies, ils les ont transformées en cellules souches pluripotentes, ces dernières étant transformées ensuite en neurones. Par le biais de cette magie biologique ultramoderne, des neurones spécifiques de chacun de ces malades ont pu être créés. Des neurones de personnes «témoins» en bonne santé ont été produits de la même manière.
Les chercheurs ont examiné ces cultures et découvert que les neurones produits à partir des malades étaient différents de ceux issus de personnes saines. En particulier, ils développent bien moins de connexions entre eux que les «normaux». Ils ont aussi mis en évidence des prolongements synaptiques moins développés chez les malades. Ils ont ensuite testé cinq différents médicaments utilisés dans la schizophrénie sur ces cultures et pu constater que l'un d'entre eux (la loxapine) améliorait les connexions neuronales. Par ailleurs, l'analyse génétique a permis d'identifier 600 gènes dérégulés dans ces neurones, dont 25 % avaient déjà été impliqués dans la schizophrénie antérieurement. Selon les auteurs, outre la compréhension de cette maladie, ces neurones fabriqués à partir de cellules souches issues de malades offrent un outil irremplaçable pour tester des médicaments et mettre en œuvre une «médecine personnalisée».
Nature
|
|
|
|
|
|
|
|
Des chercheurs montréalais ont identifié un gène lié à la fois à l'autisme et à l'épilepsie. Leurs recherches permettent de mieux comprendre les causes de l'autisme, ce qui pourrait mener à des médicaments pour cette maladie. «On savait que les autistes sont plus souvent épileptiques que la moyenne de la population, et aussi que les épileptiques sont plus souvent autistes», explique Patrick Cossette, de l'Université de Montréal et du centre de recherche du CHUM, qui est l'auteur principal de l'étude publiée dans la revue Human Molecular Genetics. «Nous venons de trouver un lien génétique entre les deux maladies.»
Selon le Dr Cossette, le tiers des autistes ont des crises d'épilepsie, alors que les troubles envahissants du développement (TED), une catégorie large qui inclut l'autisme, touche entre 20 % et 25 % des enfants autistes. Dans la population, les TED et l'épilepsie frappent moins de 1 % de la population. Les mutations génétiques du gène de la synapsine sont présentes chez 1 % des autistes et 3,5 % des épileptiques. Ce gène est impliqué dans les synapses qui communiquent l'information, sous forme d'électricité, entre les neurones du cerveau.
«On sait que l'épilepsie est un genre de court-circuit des synapses, dit le Dr Cossette. L'autisme pourrait être la forme comportementale de ces courts-circuits. Ça renforce l'idée que l'autisme a des origines génétiques. On a déjà trouvé une dizaine de gènes qui sont liés à cette maladie.» Les deux maladies sont liées au développement du cerveau, dans une phase où le cerveau procède à un «élagage des synapses», dans les premières années de vie, indique le Docteur Cossette. Des gènes liés à la formation et à l'élagage des synapses avaient été impliqués par le passé avec l'autisme, mais pas à l'épilepsie.
Cyberpresse
|
|
|
|
|
|
|
|
Le développement de nouveaux vaisseaux sanguins (angiogenèse) joue un rôle essentiel dans le développement de plusieurs maladies de l'oeil et dans la croissance des tumeurs dites solides (cancer touchant des organes).
Les chercheurs, qui ont identifié et caractérisé depuis plusieurs années un récepteur appelé CD160, ont découvert que celui-ci était exprimé sur les cellules endothéliales activées qui tapissent les vaisseaux sanguins nouvellement formés, présents dans certaines tumeurs chez l'homme et dans d'autres espèces notamment chez la souris. En revanche, ce récepteur n'est pas présent dans les vaisseaux des tissus sains. Ils ont aussi mis en évidence que ce récepteur, lorsqu'il fixait son ligand naturel (les molécules HLA-G solubles), entraînait la mort cellulaire. Ces observations les ont conduits à tester l'utilisation de ce récepteur comme cible thérapeutique pour bloquer la néovascularisation tumorale mais également celles associées à certaines pathologies oculaires entrainant des pertes de vision.
Suite à leurs observations, ils ont développé un anticorps monoclonal agoniste spécifiquement dirigé contre ce récepteur (anticorps monoclonal anti-CD160) comme agent biothérapeutique pour bloquer la formation de néovaisseaux.
Ils ont démontré, chez des souris ayant reçu des cellules cancéreuses hautement agressives (mélanome, fibroblastes tumoraux), que le traitement par l'anticorps monoclonal, associé à une chimiothérapie, faisait régresser la croissance tumorale de façon significative et prolongeait la survie des animaux. Ces effets bénéfiques sont associés à une diminution du nombre de vaisseaux néoangiogéniques intratumoraux et à une préservation des vaisseaux les plus mâtures, permettant ainsi un meilleur acheminement de la chimiothérapie. Ce type d'action a pour conséquence de diminuer la toxicité liée aux fortes concentrations utilisées lors du traitement conventionnel de chimiothérapie.
« Cette nouvelle thérapie est originale car elle induit directement la mort des cellules endothéliales en prolifération. Elle diffère des traitements anti-angiogéniques actuellement utilisés en clinique et qui ciblent le facteur pro-angiogénique VEGF » précise Philippe Le Bouteiller, directeur de recherche au Centre de physiopathologie de Toulouse-Purpan (Inserm U1043 / UPS / CNRS UMR5282). Cette thérapie par l'anticorps monoclonal anti-CD160 représente une alternative aux traitements anti-angiogéniques actuellement utilisés en clinique, pour les patients résistants. Cette nouvelle biothérapie pourrait être utilisée pour traiter des cancers associés à une forte angiogenèse ainsi que des pathologies ophtalmiques associées à une néoangiogenèse comme la dégénérescence maculaire liée à l'âge, qui touche de plus en plus de personnes âgées.
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Opel croit au moteur électrique et travaille de front à la fois sur le véhicule électrique pur, ne fonctionnant qu’avec une batterie (un concept de petit véhicule pourrait être présenté à Francfort) ; sur une technologie hybride originale avec l'Ampera qui sera commercialisée en fin d’année ; et sur le véhicule électrique à pile à combustible. Cette dernière technologie, Opel ambitionne de la produire en série dès 2015. Elle pourrait alors être commercialisée dans quelques régions favorables à cette énergie : Les Etats-Unis, l’Allemagne, le Japon et la Corée. Depuis l’automne 2008, la quatrième génération de concept-car à pile à combustible d’Opel, l’HydroGen4, est testée en condition réelle dans différents pays et notamment à Berlin, dans le cadre du programme Clean Energy Partnership (CEP), subventionné par le ministère allemand des transports à hauteur de 500 millions d’euros sur 10 ans.
Ce programme d’expérimentation, qui se poursuivra jusqu’en 2016, réunit les constructeurs automobiles allemands, des fournisseurs et distributeurs d’énergie et des organes publics qui développent et testent différents types de véhicules à hydrogène et différents modes de production et de distribution de l’hydrogène. 40 véhicules sont testés dans la ville, dont 10 HydroGen4, et des stations ont été ouvertes dans les 5 plus grandes villes d’Allemagne, dont 5 à Berlin même. La plupart de ces stations délivrent l’hydrogène sous forme gazeuse, à une pression de 700 bars, correspondant au choix technique d’Opel, et permettant un ravitaillement en seulement trois minutes. "Ce choix du gaz sous pression supprime le problème de l’évaporation associée à l’utilisation d’hydrogène cryogénique sous forme liquide et permet de créer des stations à un coût abordable", souligne Lars Peter Thiesen, directeur de la stratégie de déploiement de la pile à combustible d’Opel.
Le prix du véhicule doit également devenir compétitif d’ici 2015, dit-il, et sa fiabilité renforcée. "Entre la pile à combustible qui équipe l’HydroGen4 et la dernière génération sur laquelle nous travaillons, la taille et le poids ont été divisés par deux, indique-t-il. Nous tablons en outre sur une durabilité accrue du système, jusqu’à 200 000 km au lieu de 120 000 sur l’HydroGen4. Pour cela, nous avons notamment amélioré l’étanchéité du système et la distribution du gaz sur la membrane pour prévenir son assèchement et son usure prématurée. Enfin, l’élément crucial du coût devrait être résorbé par une réduction significative du contenu en platine : de 80 g aujourd’hui, nous pensons pouvoir passer à 30 g en utilisant un alliage platine-nickel d’ici 2015 et descendre sous les 10 g en 2020. Nous travaillons aussi sur de nouveaux matériaux pour les trois réservoirs aujourd’hui réalisés en fibres de carbone". "Le véritable challenge de ces prochaines années va être d’implanter à l’échelle de l’Europe une infrastructure de stations-service à hydrogène". Pour équiper 2000 stations, l’investissement serait d’environ trois milliards d’euros, estime-t-il.
Autoactu
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|