RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 393
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 13 Juillet 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Interopérabilité : Microsoft se convertit à OpenDocument
Le gouvernement veut démocratiser l'Internet et accélérer l'administration électronique
Des puces RFID pour suivre les bagages à la trace
Wimax : les licences accordées en majorité à Bolloré Telecom et Maxtel
La téléphonie sur IP bouleverse le paysage des télécoms
Un disque dur d'un téraoctet
Freescale commercialise les premières mémoires MRAM
Avenir
Le robot humanoïde HRP-2 va faire entrer la robotique dans une nouvelle ère
Matière
Chauffage : monter à 50 % la part des énergies renouvelables en 2025
Un nouveau type d'éolienne à l'étude
Vivant
Un "assassin moléculaire"
Reprogrammer directement les cellules adultes en cellules souches !
Vers un vaccin nasal contre la coqueluche
L'incroyable capacité de régénération du cerveau
Alzheimer et trisomie 21 : un même gène néfaste pour les neurones
Homme
En 2050, la France métropolitaine pourrait compter 70 millions d'habitants
Edito
Diviser par quatre nos émissions de gaz à effet de serre à l'horizon 2050 : un défi immense mais à notre portée



Le groupe « facteur 4 », travaillant sur la division par quatre des émissions de gaz à effet de serre de la France à l'horizon 2050, a rendu son rapport le 3 juillet 2006. (Voir le Rapport Facteur 4). Ce groupe a été installé le 8 septembre 2005. Il est présidé par Christian de Boissieu et composé de 31 personnalités choisies pour leurs compétences dans des milieux divers : élus professionnels, associations, syndicats, académiques, universitaires. Il a auditionné une vingtaine d'experts extérieurs, dont trois étrangers : un député européen « vert », un scientifique allemand et un économiste américain.

Ce groupe de travail s'est appuyé sur les travaux du GIEC (Groupe international sur le climat) qui montrent que, pour une stabilisation de la concentration atmosphérique en CO2 à 450 ppm, la croissance de la température s'établirait dans une fourchette comprise entre 1,5 et 3,9°C. Autrement dit, la probabilité pour qu'on reste en dessous de 2°C pour une concentration de 450 ppm est largement inférieure à 50 %. Cet objectif de 450 ppm est sans doute le plus bas qu'on puisse se fixer puisque nous sommes aujourd'hui à 382 ppm avec une croissance proche de 2 ppm par an qui ne s'atténuerait que progressivement, même si nous supprimions toute émission. Rappelons que les pays signataires du protocole de Kyoto se sont engagés à limiter leurs émissions de gaz à effet de serre provenant de l'usage des énergies fossiles comme le charbon ou le pétrole pour revenir d'ici 2012 à un niveau inférieur de 5,2 % à celui de 1990.

Selon le GIEC, pour stabiliser à 450 ppm, il faut donc avoir réduit les émissions annuelles en 2050 à 4 Gt de carbone, soit, pour une population actuelle de 6,5 milliards d'habitants, 0,6 t de carbone par habitant et par an. La France, avec 61 millions d'habitants, aurait droit, pour une répartition proportionnelle au nombre d'habitants, à 38 Mt de carbone, c'est-à-dire une division par quatre par rapport à ses émissions actuelles (140 Mt C).

Afin d'atteindre cet objectif ambitieux, le rapport présente une série de 29 recommandations relatives à la stratégie générale, à la cohérence des politiques publiques et à la mobilisation dans les secteurs d'activité concernés. Etant donné l'éloignement de l'échéance, le groupe de travail a centré ses réflexions sur une large étude prospective. Croissance économique, transports, industrie et mondialisation des émissions de gaz y figurent en bonne place mais le document fait aussi référence à l'agriculture et plus généralement au rôle central de la biomasse.

Une des recommandations souligne ainsi la nécessité d'avoir massivement recours d'ici 2020 aux ressources énergétiques, chimiques et en matériaux de la biomasse en substitution des énergies fossiles. Cette étude souligne également que l'agriculture et la sylviculture, à travers la biomasse qu'elles engendrent, prennent une part importante dans la fixation du carbone atmosphérique - notamment le CO2 - principal gaz à effet de serre.

Dans le domaine des productions animales, le rapport donne l'exemple des réseaux de chauffage collectif alimentés par la captation du méthane s'échappant des lisiers : un exemple d'action doublement bénéficiaire. L'étude évoque également l'utilisation au niveau local des biocarburants pour les transports et le développement de l'exploitation de la biomasse comme source de chaleur.

Par ces deux phénomènes de fixation du carbone atmosphérique et de substitution aux énergies fossiles émettant plus de GES, l'agriculture peut prendre une part importante au programme «facteur 4». Selon les estimations contenues dans le rapport, elle est même un des trois principaux acteurs potentiels de la réduction des émissions de gaz, faisant jeu égal avec les avancées technologiques et la réduction de la consommation d'énergie.

Le rapport propose notamment d'introduire un premier jalon en 2020 avec pour objectif une réduction de 25 % à 30 % des émissions de gaz à effet de serre de la France par rapport à 2004. Dans le bâtiment, les auteurs du rapport proposent un produit bancaire, «le livret climat», majoritairement dédié aux actions visant à améliorer l'efficacité énergétique dans le bâtiment.

Le constat et les conclusions de ce rapport du groupe « facteur 4 » rejoignent les recommandations contenues dans le rapport sénatorial publié le 5 juillet (Voir notre article "Chauffage : monter à 50 % la part des énergies renouvelables en 2025"). Dans cet excellent rapport il est démontré, comme nous le disions d'ailleurs récemment dans un éditorial prémonitoire) que la France peut se fixer un objectif de 50% de couverture de ses besoins en chauffage par énergies renouvelables "locales" (biomasse, déchets, géothermie) d'ici une génération. Intitulé "énergies renouvelables et développement local", ce rapport précise que les collectivités territoriales ont un "rôle essentiel" à jouer dans le développement des énergies renouvelables thermiques, qu'impose le double défi du changement climatique et de l'après-pétrole. Ce document souligne qu'avec 35 % de la consommation, le chauffage constitue "le premier poste énergétique en France".

Il est vrai que Le chauffage consomme dans notre pays 56 millions de tonnes d'équivalent pétrole (Mtep) contre 50 pour les transports, 40 pour la production industrielle et 18 pour l'électricité spécifique, c'est-à-dire celle qui ne peut être remplacée par aucune autre énergie.

Considérant que les besoins de chaleur sont couverts à 80 % par des énergies fossiles, les rapporteurs estiment qu'"avec une forte volonté politique, la France peut se fixer l'objectif de "50 % de ses besoins thermiques à partir d'énergies locales d'ici une génération". Leur principale recommandation porte sur la construction de "réseaux de chaleurs alimentés par des énergies locales (biomasse, déchets, géothermie)", ce qui relève essentiellement des pouvoirs publics locaux.

Le rapport insiste sur le "gisement considérable de chaleur d'origine renouvelable" que constitue la biomasse : ressources forestières, en constante progression, ou sous-produits de l'agriculture et de l'élevage. Il faut savoir qu'actuellement le bois représente déjà 8 % environ de l'énergie nécessaire au chauffage domestique. Ainsi, une famille avec deux enfants qui choisit une solution de chauffage central avec chaudière à bois va consommer une dizaine de stères de bois pour chauffer sa maison tout au long de l'année, soit une facture annuelle de 500 euros, environ 30 % de moins que pour un chauffage au fioul. La marge de progression du bois comme énergie reste en outre considérable en France puisque sur les 93 millions de tonnes de bois produits chaque année, notre pays n'en consomme que 65 millions de tonnes. Les 28 millions de tonnes de bois qui restent inutilisées représentent près de 10 millions de tonnes équivalent pétrole, soit plus de 20 % de la totalité de l'énergie consommée par le chauffage domestique.

Mais c'est incontestablement le secteur très énergivore des transports, qui représente à lui seul 26 % des émissions de gaz à effet de serre, qui représente le grand défi à relever. En ce qui concerne les Transports, le groupe propose de « porter l'effort financier en priorité sur les transports de masse », de réduire les vitesses maximales autorisées, de légaliser le péage urbain et de taxer le kérosène. Certes, on ne peut que souscrire à cet ensemble de recommandations mais je crois qu'elles ne sont pas à la hauteur du défi à relever car elles se situent dans un cadre prospectif qui exclut toute rupture technologique majeure en matière de nouveaux concepts innovants de transport, comme d'ailleurs en matière de scénarii énergétiques. Or, comme le dit fort justement Nelly Ollin, Ministre de l'Ecologie et du développement durable, « On peut avancer très vite sur le logement », mais en ce qui concerne les transports, « tant qu'on n'aura pas des transports qui partent à l'heure, qui arrivent à l'heure, qui soient confortables et sécurisés, vous ne pourrez pas obliger tout le monde à prendre les transports en commun ».

Ce rêve de Mme Ollin pourrait bien devenir réalité dans quelques années, grâce à un nouveau et remarquable concept de transports appelé le "Flexible Rapide Urbain".(RUF). Le FRU est un système électrique pour le trafic automobile développé au Danemark par Palle R. Jensen. Il s'agit d'un système dual, ce qui signifie que les véhicules (voitures ou bus) qui le composent peuvent être conduits de deux façons. Ces véhicules peuvent au choix utiliser les routes traditionnelles ou monter sur des guides triangulaires.

Ces guides fournissent au véhicule de l'énergie électrique pour recharger les batteries. Ainsi, des petites batteries sont utilisées pour conduire sur des distances de 2/3 kilomètres jusqu'au réseau de guides. Les voitures RUF sont électriques et sont collectées sur des guides en petits trains. De cette façon, on réduit considérablement la résistance à l'air et l'apport d'énergie est réduit d'un tiers comparé à celui d'une voiture normale. Les utilisateurs du FRU peuvent se relaxer sur un voyage rapide à une vitesse de 150 km/heure sur le monorail. Pendant le trajet sur le rail, ils peuvent se connecter à internet et travailler au lieu de perdre du temps dans les bouchons. En outre, le FRU permet d'offrir un système de transport "porte à porte" qui est plus rapide que la voiture d'aujourd'hui, avec le même niveau de confort.

Nous devons comprendre que pour parvenir à diviser par quatre nos émissions de gaz à effet de serre d'ici 2050, nous ne pouvons pas nous contenter d'envisager des économies d'énergie, ni tabler uniquement sur le développement des énergies renouvelables. Nous devons également modifier en profondeur tout le schéma d'organisation de la production et de la distribution d'énergie et, de manière corrélée, transformer radicalement nos concepts et nos modes de transports individuels et collectifs, comme le propose de manière audacieuse et novatrice le système RFU danois. Il nous faudra également modifier de manière très profonde l'organisation du travail de manière à maîtriser et à rationaliser cette augmentation croissante des déplacements quotidiens entre le domicile et le lieu de travail, source de plus en plus insupportable de gaspillage d'énergie, de temps et d'argent, tant sur le plan individuel que collectif.

Finalement, si nous voulons nous attaquer véritablement aux causes du réchauffement climatique et en limiter autant que possible les effets désastreux, nous allons devoir, en deux générations, transformer de fond en comble l'organisation, le fonctionnement et les finalités de notre société. Cette mutation ne se fera pas sans douleur tant le chemin qui nous reste à accomplir est immense et les difficultés à surmonter puissantes. Mais c'est à ce prix, et en osant imaginer et mettre en oeuvre les solutions les plus audacieuses , que nous pourrons peut-être éviter la catastrophe planétaire annoncée et transmettre aux générations futures une terre vivable.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Interopérabilité : Microsoft se convertit à OpenDocument
Vendredi, 14/07/2006 - 00:00

Dans notre éditorial de la semaine dernière, consacrée à la loi DADVSI, nous évoquions le débat capital qui se déroule actuellement autour de la généralisation du principe d'interopérabilité entre systèmes d'exploitation, logiciels ou terminaux numériques. Ce débat vient de prendre une dimension nouvelle puisque Microsoft a annoncé, le 6 juillet, qu'il allait mettre à la disposition de ses clients un traducteur qui pourra transcrire le format OpenXML vers le format OpenDocument.

Quoiqu'en dise le géant américain, cette annonce ressemble bien à un revirement à 180° car Microsoft n'avait cessé d'affirmer ces derniers mois qu'il ne souhaitait pas s'investir dans le support de l'ODF (OpenDocument Format). Il semble que la pression insistante de Bercy ait joué un rôle décisif dans cette volte-face. Il est vrai que pour le géant américain l'enjeu est de taille : se conformer à un cahier des charges, le Référentiel général d'interopérabilité (RGI) de la Direction générale de la modernisation de l'Etat (DGME). Microsoft France, laconique, s'est borné à préciser que « l'interopérabilité revêt un intérêt stratégique pour Microsoft ». Un doux euphémisme quand on sait que plusieurs pays ont clairement affiché leur préférence pour le format OpenDocument, ce qui a contraint Microsoft à réagir.

Microsoft prévoit de proposer cette fonction sous forme de module téléchargeable, module gratuit qui viendra compléter Office 2007. Le traducteur permettra ainsi d'ouvrir un fichier ODF à travers l'application Office qui lui correspond, comme il sera possible de sauvegarder à ce format. Attention toutefois, Microsoft indique que certains compromis ont été faits entre les deux formats de fichiers, ce qui signifie que certains contenus pourraient éventuellement ne pas être sauvegardés en ODF.

Le traducteur en question sera disponible sur SourceForge à l'adresse suivante, le module étant sous licence BSD et développé par la société française Clever Age, qui avait déjà développé un projet similaire sur SourceForge pour Office 2003. Microsoft espère que le traducteur sera disponible en version finale pour Word avant la fin de l'année. Les versions Excel et PowerPoint devraient arriver en début d'année 2007.

Article @RTFlash

Le gouvernement veut démocratiser l'Internet et accélérer l'administration électronique
Vendredi, 14/07/2006 - 00:00

A l'occasion du Comité interministériel pour la société de l'information (CISI), qui s'est tenu le 11 juillet, le gouvernement a annoncé le lancement au premier trimestre 2007 d'une offre internet à destination des foyers modestes incluant un micro-ordinateur, une connexion haut débit et une formation à domicile pour le prix d'un euro par jour pendant trois ans. Cette formule "tout compris", sera mise en oeuvre dans le cadre d'un partenariat public-privé.

Le plafond de ressources requis pour bénéficier de cette offre sera arrêté à la rentrée 2006, a-t-on indiqué à Matignon. Le critère de sélection pourrait s'aligner sur le "tarif de première nécessité" appliqué à la vente de l'électricité, soit environ 1,2 million de foyers. Ce programme s'inscrira dans le sillage de l'opération "Internet accompagné" lancée le 23 mars pour favoriser l'accès des "grands débutants" au multimédia et à internet.

Les familles qui le souhaitent pourront contracter un prêt pour s'équiper grâce à une garantie de l'Etat. Le gouvernement table sur un abonnement mensuel au haut débit de l'ordre de 15 euros maximum pour les bénéficiaires.

Un foyer français sur deux est aujourd'hui équipé d'un micro-ordinateur mais les seniors et les foyers modestes restent concernés par la "fracture numérique". En 2005, on recensait en France 13,3 millions d'abonnements à internet. Dans cet esprit, le gouvernement veut généraliser en 2007 l'accès à internet dans les zones d'éducation prioritaire afin d'aider les élèves à faire leurs devoirs et à bénéficier d'un soutien éducatif. Il compte encourager l'équipement des logements en accès à très haut débit par la création d'un label "logement multimédia". Un groupe de travail sera mis en place en septembre avec pour horizon mars 2007 en vue de la définition de nouvelles normes d'équipement.

Enfin, dernier volet de ce CISI, l'administration électronique : dans le prolongement du programme ADELE, lancé en 2004, l'objectif du gouvernement est la mise en ligne de l'ensemble des démarches administratives qui va amener l'administration à dématérialiser 600 formulaires d'ici fin 2006, la totalité (900) en 2007. Au total, 5,7 millions de contribuables ont déclaré leur impôt sur le revenu par internet en 2006, soit près d'un contribuable sur cinq !

Une "marque de confiance" sera en outre lancée en janvier 2007 pour distinguer les fournisseurs d'accès ou de services sur le Net oeuvrant pour la sécurisation d'internet. Soixante-dix engagements seront recensés dans une charte établie par le Forum des droits sur internet. Par ailleurs, le gouvernement veut renforcer la lutte contre les spams avec l'ouverture, le 11 juillet, du site "www.signal-spam.fr" qui contient notamment 97 fiches techniques sur les "pollupostages" et les moyens de s'en protéger.

La progression de l'accès à Internet est assez frappante. Un quart des foyers français disposaient d'une connexion à domicile en 2002. Ils sont 38 % en 2006. Si l'on ajoute ceux qui se connectent en dehors du foyer, on constate qu'aujourd'hui, un Français sur deux se connecte régulièrement à Internet. Les Français détiennent même le record d'Europe du nombre d'heures passées par semaine sur Internet, avec 12 heures et 30 minutes.

Avec 10 millions d'abonnés, les Français ont plébiscité le haut débit. Il concerne aujourd'hui les trois quarts des abonnements. 4,3 millions de foyers sont même équipés d'une "box" combinant télévision, ADSL et téléphonie. Mais la vraie surprise de ces dernières années réside sans doute dans le phénomène "blogs". Ainsi 2,5 millions de blogs actifs ont été recensés en mars 2006. Et 30% des internautes en ont consulté un au cours du mois dernier.

PM

Des puces RFID pour suivre les bagages à la trace
Vendredi, 14/07/2006 - 00:00

Air France teste dans les aéroports de Roissy Charles-de-Gaulle et Amsterdam-Schiphol un nouveau système de suivi des bagages, à l'aide d'une puce électronique. Le nouveau système intègre l'impression et la lecture d'étiquettes de bagages intégrant une puce d'identification par radiofréquence (RFID). Cette puce sera également testée cet été sur les vols Paris-Tokyo. Ce système "vise à long terme au remplacement du code à barres", précise Pascal de Izaguirre, directeur général exploitation d'Air France. Qui poursuit : la puce "est encodée dans l'étiquette bagages du passager ou sur les conteneurs à bagages", ce qui permet, grâce à des capteurs dans l'aéroport "d'en connaître la localisation en temps réel et de pouvoir apporter une meilleure information au passager."

"L'objectif sera de fournir aux clients des services innovants et visibles, tels que l'affichage des délais de livraison bagages ou l'envoi à des clients en correspondance, dont le bagage est manquant, des informations sur son acheminement, ou encore la sécurisation des bagages", conclut Pascal de Izaguirre. Or, la rédaction d'Emballages Magazine peut en témoigner : la perte de bagages dans un aéroport européen est toujours d'actualité en 2006.

EM

Wimax : les licences accordées en majorité à Bolloré Telecom et Maxtel
Vendredi, 14/07/2006 - 00:00

L'internet haut débit est au coeur de toutes les préoccupations. Après le plan pour Paris de Bertrand Delanoë, l'Autorité de régulation des télécoms (ARCEP) a publié le 7 juillet les résultats de son appel à candidature. Les participants ont été sélectionnés en fonction de la couverture des territoires ne disposant d'aucune offre d'accès Internet haut débit, du développement de la concurrence et du montant de la redevance que le candidat est prêt à payer.

Parmi ces candidatures, Bolloré Telecom, Maxtel et HDRR ont remporté la majorité des licences régionales Wimax. Deux licences étaient en jeu par région métropolitaine, ainsi que pour la Guyane et Mayotte. France Télécom, qui était candidat pour toutes les régions, n'a remporté que les licences pour la Guyane et Mayotte.

Bolloré Télécom, consortium qui regroupe Bolloré, Hub Telecom (filiale d'Aéroports de Paris) et le télédiffuseur Antalis, a remporté douze des 49 licences régionales. Le consortium Maxtel, qui regroupe les Autoroutes Paris-Rhin-Rhône et l'opérateur Altitude Telecom, a remporté treize licences régionales. Le consortium HDRR, (Haut Débit Radio Régional), qui est constitué de TDF, d'Axione, filiale de Bouygues, LD Collectivités et Naxos, filiale de la RATP, a remporté onze licences régionales.

Six des quatorze conseils régionaux candidats ont également obtenu des licences. En revanche, la SHD (Société du Haut Débit), consortium qui regroupe SFR, Neuf Cegetel et Canal+, n'a obtenu que deux licences, alors qu'elle était candidate dans toutes les régions métropolitaines.

Le 7 février dernier, 35 candidats avaient déposé un dossier, dont 14 Conseils Régionaux, 4 regroupements d'acteurs privés et 6 opérateurs sur la métropole. Alors que 67 collectivités locales avaient manifesté leur intérêt en octobre, la majeure partie des Communautés d'agglomération, les communes et les Conseils généraux se sont regroupés avec les 14 Régions candidates.

Le Wimax (Worldwide Interoperability for Microwave Access), qui ne fonctionne qu'en extérieur, est une technologie sans fil utilisant les ondes radio et permettant un accès à l'internet haut débit, de l'ordre de 10 à 20 Mégabits par seconde, sur une zone de couverture de 20 kilomètres environ. Les groupes retenus verseront globalement 125 millions à l'Etat cette année puis une redevance annuelle de 1,6 million.

Dans un communiqué, les ministres délégués à l'Industrie, François Loos, et à l'Aménagement du territoire, Christian Estrosi, ont souligné que le WiMax permettrait d'apporter le haut débit aux 2 à 3 % de foyers non éligibles à l'ADSL dans les mêmes conditions que le reste de la population. Toutefois, selon l'Arcep, si le WiMax autorise le "double play" associant l'accès à l'internet jusqu'à 20 Mbits et la téléphonie via la VoIP sur une zone de 20 kilomètres environ, elle ne permet pas la télévision.

Pour des spécialistes du secteur, il s'agit d'un complément. SFR et Neuf Cegetel expliquent dans un communiqué que cela leur permettra de compléter les offres de l'opérateur mobile (3G, 3G+ et WiFi) et les technologies ADSL et WiFi de Neuf Cegetel.

France Télécom s'est dit satisfait de la décision de l'Arcep, assurant que cela se traduira par la couverture générale du territoire sans qu'il soit "obligé d'investir à nouveau et compte-tenu des investissements considérables d'un milliard d'euros réalisés qui ont permis de couvrir 98 % des foyers français en ADSL". Il a ajouté qu'il aurait "accès au marché de gros à des conditions concurrentielles favorables" pour compléter sa couverture et qu'il continuerait de travailler avec les collectivités territoriales.

Arcep

La téléphonie sur IP bouleverse le paysage des télécoms
Vendredi, 14/07/2006 - 00:00

Téléphoner depuis son ordinateur ne relève plus du défi technique. Aujourd'hui, plus de 3,3 millions de Français passent tout ou partie de leurs communications téléphoniques via le Web, en recourant pour l'essentiel aux diverses "boxes" des fournisseurs d'accès à Internet utilisant l'ADSL. En parallèle, les logiciels qui permettent de téléphoner sans téléphone - grâce à un microphone - sont devenus plus simples d'utilisation et surtout beaucoup plus riches en fonctionnalités. C'est le cas de Skype, le logiciel édité par la société américaine du même nom, pionnière sur le marché et tombée dans l'escarcelle du cybermarchand eBay en 2005.

Aujourd'hui, Skype revendique pas moins de 100 millions d'utilisateurs dans le monde, dont 4 millions en France. A l'origine, il s'agit d'un petit logiciel de messagerie vocale instantanée à installer gratuitement sur son ordinateur, un peu à l'image de MSN Messenger (Microsoft).

Skype permet de converser à distance, mais aussi d'échanger des fichiers et de faire de la visiophonie, si l'ordinateur est équipé d'une webcam. Avantage essentiel : tout cela est gratuit. De quoi compenser ce qui, à l'inverse, représente le principal inconvénient de ces messageries instantanées : impossible, en effet, d'entrer en contact avec son interlocuteur si celui-ci ne se trouve pas devant son ordinateur, qui plus est connecté à Internet.

De cette lourde contrainte, les logiciels sont justement en passe de s'affranchir. Dans sa version 2.5, Skype permet de téléphoner vers des mobiles (0,169 euro la minute) ou vers des téléphones fixes (0,017 euro la minute) avec un système de cartes prépayées (10 euros pièce). Les communications entre ordinateurs, elles, restent gratuites. En phase de développement, le service Skype in permettra de disposer d'un numéro de téléphone (commençant par 0870) permettant d'être joint par n'importe quel correspondant (30 euros par an) à tout moment, même lorsque l'ordinateur est éteint.

"Nous avons passé un accord avec Nokia pour intégrer Skype sur leurs téléphones mobiles", précise Jérôme Archambeaud, directeur de Skype France. Les opérateurs téléphoniques classiques ont des inquiétudes à nourrir.

LM

Un disque dur d'un téraoctet
Vendredi, 14/07/2006 - 00:00

Seagate vient de breveter une technologie qui pourrait prochainement porter la capacité des disques durs pour ordinateurs portables à une capacité record d'un téraoctet. Pour augmenter la capacité de stockage, il faut pouvoir, entre autres, écrire les données dans des zones plus réduites. Problème, pour pouvoir le faire, la tête de lecture/écriture doit se rapprocher du plateau. Pour ne pas causer d'incidents, il faut obligatoirement une couche de lubrifiant. Mais là encore, plus la tête se rapproche, plus la chaleur est importante, et plus la couche de lubrification doit être importante alors qu'elle-même est dégradée par la chaleur.

Pour résoudre ce problème, Seagate a eu l'idée d'utiliser des nanotubes de carbone. Chaque disque dur contiendrait une sorte de réservoir contenant un lubrifiant à base de nanotubes. À intervalles périodiques (non précisés), le lubrifiant serait vaporisé pour déposer une très fine pellicule sur la surface des plateaux. Ce procédé est utilisé dans la production des CD et DVD. Grâce à cette technologie, Seagate prévoit la production de disques de 600Go en 1.8 pouce et de1,46 To en 2.5 pouces.

Seagate

Freescale commercialise les premières mémoires MRAM
Vendredi, 14/07/2006 - 00:00

Freescale a commencé à commercialiser sa nouvelle génération de mémoire pour ordinateurs. C'est en collaboration avec plusieurs laboratoires de R&D que la technologie a été développée. Au bout de 10 ans de recherche, Freescale aboutit enfin et sort la mémoire MRAM (Magnetoresistive Random Access Memory) de 4 mégabits qui fonctionne sur une tension de 3,3 volts. Elle présente donc une avancée majeure dans l'industrie du semi-conducteur, dans la mesure où elle allie les avantages de la mémoire flash à ceux de la mémoire vive (DRAM).

Le MRAM est une mémoire non-volatile qui est appelée à remplacer les mémoires flash des périphériques portables actuels, en offrant un nombre presque illimité de cycles d'écriture. Freescale espère toucher des secteurs plus lucratifs avec ce nouveau type de mémoire. La principale qualité de cette mémoire étant d'égaler la très rapide SDRAM, avec un cycle de lecture/écriture de seulement 35 nanosecondes, tout en étant non-volatile.

La capacité de cette première puce MRAM, vendue 25 dollars pièce, peut paraître limitée. Avec ses quatre mégaoctets, elle est en effet très loin des gigaoctets que peuvent atteindre les mémoires traditionnelles. Mais cette modeste capacité suffit pour être embarquée dans de nombreux appareils qui profiteront de sa grande vitesse d'écriture et du stockage permanent des données. C'est le cas des serveurs, des périphériques de réseaux ou des imprimantes, auxquels Freescale destine dans un premier temps sa puce. Aujourd'hui, ces appareils utilisent des mémoires de type SRAM, très rapide mais gourmande en énergie.

Avec la MRAM, Freescale espère prendre une bonne part dans le marché de la mémoire, qui représente 48 milliards de dollars, et entrer en vigueur pour les PC, et autres ordinateurs portables en tous genres.

Cette nouvelle technologie permet également le stockage des données sans alimentation d'énergie, et revendique une exécution beaucoup plus rapide que le flash. Elle peut également effacer et réécrire sur une durée illimitée dans le temps. Nul doute que cette technologie fasse le bonheur des prochaines versions de baladeurs numériques et d'assistants numériques personnels.

Freesscale

Freescale

^ Haut
Avenir
Nanotechnologies et Robotique
Le robot humanoïde HRP-2 va faire entrer la robotique dans une nouvelle ère
Vendredi, 14/07/2006 - 00:00

Le 30 juin à Toulouse, un évènement scientifique majeur a eu lieu dans notre pays : Il s'agit de la présentation du robot humanoïde HRP-2 ( Voir le dossier CNRS de présentation du HRP 2). Soulignons au passage qu'on ne peut que déplorer l'indifférence que cet événement a suscité dans la presse et les médias qui accordent, dans notre pays, une place dramatiquement insuffisante à la culture scientifique et technique, surtout lorsqu'on compare le traitement de cette information scientifique et technique par les médias en France et chez nos principaux voisins européens.

Cette plate-forme technologique est au coeur des recherches du laboratoire franco-japonais, le Joint Robotics Laboratory (CNRS, AIST), implanté sur le site du Laboratoire d'analyse et d'architecture des systèmes (LAAS/CNRS, Toulouse). Elle offre un formidable potentiel pour la recherche en robotique. Grâce à elle, les chercheurs vont pouvoir doter HRP-2 d'une véritable capacité de raisonnement lui conférant toujours plus d'autonomie dans la maîtrise de ses fonctions sensori-motrices. HRP-2 est pour cela équipé de caméras pour la vision et de capteurs d'effort et d'attitude pour la gestion de son équilibre, la planification et le contrôle de ses actions.

HRP-2 est né au Japon en 2003. C'est un robot de forme humaine qui pèse 58 kg et mesure 1.54 m. Il doit son nom au projet « Humanoid Robotics Project »,un grand programme de recherche en robotique conduit à l'initiative du ministère japonais de l'économie, du commerce et de l'industrie (METI).

HRP-2 a été conçu par le groupe de recherche en robotique de l'AIST (Institut national de la science et des technologies industrielles avancées) et est fabriqué par la société Kawada Industries. Il existe actuellement 14 plates-formes de robotique humanoïde de type HRP-2 dans le monde dont 13 sont au Japon. Celle-ci est au coeur des recherches du laboratoire franco-japonais Joint Robotics Laboratory (JRL, CNRS/AIST).

Un robot humanoïde est un système mécanique anthropomorphe muni de bras permettant la manipulation d'objets, de jambes pour la locomotion sur diverses formes de surfaces, et d'une tête munie de caméras pour la perception de l'environnement. Il se caractérise par sa complexité physique qui s'inspire de celle du corps humain.

Un robot humanoïde a la capacité d'effectuer des tâches dont la diversification est sans équivalent comparée aux possibilités offertes par d'autres plates-formes. Il pose ainsi un défi pour l'étude de l'autonomie des systèmes dans ses trois composantes : la perception, la décision et l'action. Enfin, par sa forme même et ses capacités d'interaction avec l'environnement, le robot humanoïde constitue une plate-forme unique pour approfondir les voies de recherches récemment engagées en robotique cognitive et en ouvrir de nouvelles en synergie avec les neurosciences.

Le robot humanoïde constitue un nouvel objet de recherche qui permet d'élargir les grandes thématiques de la robotique et d'en ouvrir de nouvelles aux interfaces de la robotique et des sciences de l'homme. Ainsi, la robotique humanoïde permet-elle :

? l'approfondissement des thématiques propres à la robotique, en particulier la maîtrise des systèmes mécaniques complexes

? des avancées dans les recherches en robotique personnelle et robotique d'assistance

? des avancées dans l'étude de la relation homme-machine

? des avancées en bio-mécanique et dans ses applications en médecine

? des avancées, par une approche originale des sciences et techniques de l'ingénieur en synergie avec les neurosciences, dans la compréhension des mécanismes calculatoires qui préludent au comportement humain

? l'élaboration de modèles d'artefacts virtuels humains qui constituent un enjeu de recherche en réalité virtuelle, particulièrement dans les secteurs du PLM (Product Lifecycle Management), de l'animation graphique et des jeux vidéo.

HRP-2 a été acquis par le CNRS dans le cadre du Laboratoire franco-japonais JRL (Joint Robotics Laboratory). Créé en 2003 par le CNRS et l'Institut national de la science et des technologies industrielles avancées (AIST), le JRL est spécialisé dans les recherches en robotique et plus particulièrement en robotique humanoïde. Depuis novembre 2005, le JRL est organisé autour de deux centres : le JRL-Japon localisé à l'AIST à Tsukuba et le JRL-France localisé au Laboratoire d'analyse et d'architecture des systèmes (LAAS/CNRS) à Toulouse. Chacun des deux centres réunit des chercheurs des deux nationalités.

Le JRL-France a pour vocation de renforcer le potentiel français de recherche en robotique par une collaboration étroite avec des équipes de l'AIST. Il est organisé autour d'un noyau de chercheurs issus de deux des plus importants laboratoires en robotique du CNRS, le LAAS et le Laboratoire d'informatique, de robotique et de microélectronique de Montpellier (LIRMM). Avec HRP-2, le JRL-France se dote de moyens uniques en Europe dont l'accès sera largement ouvert à l'ensemble de la communauté française en robotique.

Article @RTFlash

^ Haut
Matière
Matière et Energie
Chauffage : monter à 50 % la part des énergies renouvelables en 2025
Vendredi, 14/07/2006 - 00:00

La France peut se fixer un objectif de 50 % de couverture de ses besoins en chauffage par énergies renouvelables "locales" (biomasse, déchets, géothermie) d'ici une génération, préconise un rapport sénatorial publié le 5 juillet. Les collectivités territoriales ont un "rôle essentiel" à jouer dans le développement des énergies renouvelables thermiques, qu'impose le double défi du changement climatique et de l'après-pétrole, selon le rapport des sénateurs UMP Claude Belot et Jean-Marc Juilhard. Intitulé "énergies renouvelables et développement local", le document souligne qu'avec 35 % de la consommation, le chauffage constitue "le premier poste énergétique en France".

Le chauffage consomme dans notre pays 56 millions de tonnes d'équivalent pétrole (Mtep) contre 50 pour les transports, 40 pour la production industrielle et 18 pour l'électricité spécifique, c'est-à-dire celle qui ne peut être remplacée par aucune autre énergie.

Considérant que les besoins de chaleur sont couverts à 80 % par des énergies fossiles, les rapporteurs estiment qu'"avec une forte volonté politique, la France peut se fixer l'objectif de 50 % de ses besoins thermiques à partir d'énergies locales d'ici une génération". Leur principale recommandation porte sur la construction de "réseaux de chaleurs alimentés par des énergies locales (biomasse, déchets, géothermie)", ce qui relève essentiellement des pouvoirs publics locaux.

Le rapport insiste sur le "gisement considérable de chaleur d'origine renouvelable" que constitue la biomasse : ressources forestières, en constante progression, ou sous-produits de l'agriculture et de l'élevage. De même la géothermie, au "potentiel de développement immense", et dont "le gisement apparaît totalement sous-exploité", quelque 150.000 logements, dont la moitié en Ile-de-France y ayant recours.

En matière d'énergie solaire, la France "accuse un retard assez net par rapport à certains de ses voisins européens pourtant moins ensoleillés", alors que le solaire thermique "permet d'économiser annuellement jusqu'à 35 % sur le chauffage et 50 % sur l'eau chaude", écrivent les rapporteurs. Ils explorent aussi la piste des "énergies fatales" (chaleur libérée par l'incinération des déchets ménagers, ou valorisation du biogaz issu de la fermentation sur les décharges). Au total, ils font valoir que "l'énergie thermique est une énergie par nature locale, décentralisée, à la différence de l'énergie électrique, qui se transporte aisément dans un réseau".

En conclusion, les auteurs de ce rapport recommandent que la France affiche une forte et claire volonté politique et se fixe un objectif ambitieux mais réaliste : couvrir 50 % de ses besoins thermiques à partir d'énergies renouvelables d'ici une génération (contre seulement 20 % en 2006).

Cet objectif ambitieux ne pourra être atteint sans mener, en parallèle, des actions d'efficacité énergétique, portant en particulier sur les constructions neuves. En effet, le parc de logements se renouvelle relativement peu (1 % par an, soit 300.000 logements neufs) et les biens construits ont une espérance de vie statistique de 50 ans, à un horizon où l'énergie fossile sera nécessairement rare et chère. A cet égard, les rapporteurs regrettent que la réglementation thermique 2005, qui n'entrera du reste en vigueur que le 1er septembre 2006, fixe une consommation moyenne annuelle à 80 kWh par m² et par an, objectif qui ne paraît pas suffisamment ambitieux. Avec un objectif de 20 kWh par m² et par an, le surcoût à la construction serait certes de 10 % mais il serait amorti en seulement 18 mois par les économies d'énergie ainsi réalisées.

Rapport du Sénat

Un nouveau type d'éolienne à l'étude
Vendredi, 14/07/2006 - 00:00

La compagnie britannique Stormblade Turbine développe un nouveau type d'éolienne qui devrait être plus efficace, moins bruyante et nécessiter moins de maintenance que la formule standard à trois pales. L'un des problèmes les plus importants des éoliennes actuelles se produit lorsque la vitesse du vent est supérieure à 27 m/s (97 Km/h) : le rotor doit être arrêté, car un effet gyroscopique est alors créé dans l'arbre d'entraînement.

Cette précession gyroscopique (propriété d'un rotor par laquelle l'effet d'une force tendant à incliner l'axe du rotor est décalé de 90 degrés de son point d'application dans le sens de rotation) tend à tordre le rotor, ce qui augmente les contraintes sur les pales et les mécanismes, conduisant à des ruptures. Par ailleurs, si la vitesse du vent est inférieure à 7 m/s (24 km/h) la rotation du rotor est trop faible pour produire de l'électricité.

La Stormblade Turbine, créée par Victor Jovanovic, fondateur de la compagnie, a un design semblable à celui d'un réacteur d'avion : les pales sont protégées par un carénage qui dirige le flux d'air à l'intérieur de cette turbine comme une buse d'admission. Cependant, ce carénage est exposé au vent et aux vitesses de rotation élevées du flux d'air la traversant et peut développer ainsi un effet "parachute". Le mat de l'éolienne subit alors des contraintes extrêmes. Le mat doit alors être soutenu par un échafaudage renforcé, ce qui va nécessiter davantage de surface au sol et augmenter le coût du système.

L'innovation principale du système concerne donc la partie rotor qui est fondée sur la turbine d'un moteur à réaction. D'après M. Jovanovic : " les moteur à réaction ont évolué au cours des 50 dernières années afin de produire moins de traînées, permettant aux aubages de tourner plus rapidement". L'aérodynamique du système est donc améliorée ce qui permet de diminuer et d'augmenter la vitesse de rotation du rotor sans avoir à subir de phénomène de précession gyroscopique. L'efficacité de la Stormblade Turbine devrait être de 70 % contre 30-40 % pour les modèles actuels à trois pales, ce qui signifie que ce design dépasse la limite de Beltz (59 %) d'efficacité maximale pour les éoliennes. Jonanovic estime que son éolienne pourra produire de l'électricité pour une vitesse du vent comprise entre 3 m/s (11 Km/h) et 54 m/s (193 Km/h), doublant ainsi la plage de vitesse utilisable.

L'extension de la plage de vitesse offre deux avantages majeurs :

- la production d'électricité se fait de manière plus continue ;

- la puissance produite par ces éoliennes est très élevée : celle-ci est proportionnelle au cube de la vitesse du vent.

Comme les aubages sont à l'intérieur du carénage, le bruit provenant de la boite de vitesse devrait aussi être diminué. Cette configuration particulière permet, en outre, de diminuer les coûts de maintenance et de préserver la vie aviaire alentour. Au niveau de l'impact visuel, la surface de balayage de cette éolienne est inférieure à celle des éoliennes classiques. Les prototypes testés jusqu'à présent ont montré que l'efficacité du système est largement supérieure à celle des turbines existantes (jusqu'à 3 fois supérieure). La compagnie est actuellement à la recherche de fonds et de partenaires industriels. Ce système devrait être disponible sur le marché dans 18 mois à 2 ans.

BE GB

The Engineer

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un "assassin moléculaire"
Vendredi, 14/07/2006 - 00:00

Des chercheurs australiens ont indiqué qu'ils espéraient être bientôt en mesure de pratiquer des essais sur l'homme d'un nouveau type de médicament, agissant comme "un assassin moléculaire" des gènes pathogènes. Des chercheurs de l'Université de la Nouvelle-Galles du Sud, à Sydney, ont déclaré que ce médicament avait le potentiel de traiter toute une série de maladies dont le cancer, les maladies cardiaques ou inflammatoires comme l'arthrite ou les affections oculaires.

Le professeur Levon Khachigian a qualifié le médicament Dz13 de révolutionnaire, précisant qu'il avait été élaboré à partir d'ADN et d'ARN. Il a été conçu pour cibler et détruire les gènes, qui provoquent des maladies. L'ARN est une étape intermédiaire entre l'ADN et la protéine. "Notre assassin constitue une nouvelle catégorie potentielle de médicaments. Il agit comme une arme qui traque et détruit les gènes défaillants", a-t-il expliqué.

L'un des atouts de ce médicament est qu'il pourrait être utilisé à un stade très précoce du développement des maladies et concerner plusieurs types d'affections, a-t-il ajouté. Les chercheurs espèrent pouvoir commencer les essais humains en début d'année prochaine, les cancers de la peau faisant l'objet sans doute des premières expérimentations.

Le professeur Khachigian a indiqué que l'efficacité de ce médicament comportait encore de nombreuses inconnues, malgré des résultats encourageants sur les animaux. Ces travaux font l'objet d'une publication dans le journal américain Nature Biotechnology de juillet.

UNSW

Reprogrammer directement les cellules adultes en cellules souches !
Vendredi, 14/07/2006 - 00:00

Dans une étude publiée dans le journal Nature, une équipe de chercheurs basée à l'Université d'Edimbourg rapporte que le gène Nanog est capable de modifier l'information génétique de cellules adultes en cellules souches embryonnaires pluripotentes. C'est la première fois qu'une étude permet de démontrer le rôle direct d'un gène spécifique dans la reprogrammation de cellules matures en cellules " naïves ".

L'équipe, dirigée par le professeur Austin Smith, a utilisé la technique de fusion cellulaire dans le but d'identifier les gènes responsables de ce phénomène de reprogrammation (événement qui reste cependant très rare) et de pouvoir le rendre plus efficace. La fusion cellulaire est un processus biologique qui, tel le remplacement de noyau cellulaire (méthode de clonage utilisée par Ian Wilmut en 1986 pour créer la brebis Dolly), peut conduire à la reprogrammation de l'information génétique d'une cellule spécialisée en une cellule naïve. Ils ont choisi d'étudier la protéine Nanog en raison de son rôle déjà connu dans la formation précoce de l'embryon et des cellules souches.

Techniquement, les scientifiques ont fusionné des cellules souches embryonnaires de souris avec d'autres cellules souches nerveuses, avant d'ajouter Nanog dans le milieu de culture. Le nombre de cellules hybrides, se comportant comme des cellules souches embryonnaires, c'est-a-dire ayant acquis la capacité de se différencier en plusieurs types cellulaires, augmentait alors drastiquement. Selon le professeur Smith, cette caractéristique démontre que l'information génétique des cellules spécialisées a été remplacée par une information de cellule " naïve ", comme celle existant chez l'embryon à un stade précoce. Les mécanismes biochimiques et physiologiques par lesquels la protéine Nanog agit sur ces cellules ne sont pas connus à l'heure actuelle, mais les scientifiques espèrent qu'à l'avenir, il sera possible d'effectuer de la reprogrammation cellulaire sans passer par les techniques de fusion cellulaire ou de clonage. Selon eux, il s'agit toutefois d'une étape majeure qui permet d'envisager une régénération de tissus ou d'organes endommagés utilisant les cellules du patient.

BE GB

Institute of Stem Cell Research

Vers un vaccin nasal contre la coqueluche
Vendredi, 14/07/2006 - 00:00

A partir d'un modèle animal, une équipe française a démontré l'efficacité d'un nouveau candidat-vaccin contre la coqueluche. "Peu coûteux à fabriquer", il serait administrable en une seule dose et par voie nasale. Il a été réalisé par des chercheurs de l'INSERM à l'Institut Pasteur de Lille. "Après un développement clinique chez l'homme, ce vaccin qui mime une infection naturelle par la coqueluche pourrait protéger les nouveau-nés, notamment dans les pays en développement" expliquent-ils.

Chaque année dans le monde, cette maladie respiratoire très contagieuse tue encore 300 000 personnes ! Des nourrissons en majorité, trop jeunes pour être totalement immunisés par les vaccins. D'après l'INSERM, "ce candidat-vaccin destiné en priorité aux pays en développement serait facile à produire et d'un coût bien moindre que le vaccin actuel". Des collaborations internationales seraient d'ailleurs déjà engagées, au niveau du développement pré-clinique et même de la production du vaccin nasal.

Inserm

L'incroyable capacité de régénération du cerveau
Vendredi, 14/07/2006 - 00:00

Un homme plongé depuis près de 20 ans dans un coma léger après un accident de voiture a retrouvé la parole et la motricité grâce à la croissance de nouvelles petites connexions nerveuses de son cerveau, qui remplacent celles sectionnées lors du choc. Terry Wallis fait partie des rares personnes qui ont guéri de façon spectaculaire après une lésion cérébrale importante. Il a encore besoin d'aide pour manger et ne peut toujours pas marcher, mais son discours continue de s'améliorer et il peut compter jusqu'à 25 sans interruption.

Cet homme de 42 ans s'est soudainement rétabli il y a trois ans dans un centre de rééducation de Mountain View (Arkansas), mais les médecins ont averti qu'un tel phénomène ne pouvait être espéré chez toutes les personnes en état de coma végétatif chronique. "Pour l'heure, ces cas de guérison équivalent à gagner à la loterie", résume le Dr Ross Zafonte, chef du service de rééducation du centre médical de l'Université de Pittsburgh (Pennsylvanie), qui est extérieur à cette recherche. "Je ne voudrais pas faire de fausse joie aux familles ou aux proches qui croiraient à l'existence d'un remède."

Wallis n'a aucun souvenir de ces vingt années de coma, mais il se souvient de sa vie avant l'accident. "Il croit que Reagan est encore président des Etats-Unis", explique son père Jerry dans un communiqué, ajoutant que jusqu'à récemment, son fils disait avoir 20 ans. Victime d'un accident il y a 19 ans, Wallis est resté dans un coma léger, capable simplement de signes de tête et de grognements. "Les prolongements de ses cellules nerveuses cérébrales étaient lésés, mais pas les cellules elles-mêmes qui sont restées intactes", précise le Dr James Bernat, neurologue au centre médical Darmouth-Hitchcock (New Hampshire).

Selon cette nouvelle recherche, Wallis n'a probablement pas récupéré tout d'un coup, mais progressivement pendant 20 ans. Pour parvenir à cette constatation, les chercheurs ont utilisé un nouveau type d'appareil d'imagerie cérébrale, disponible uniquement pour les essais cliniques. Cet appareil permet de suivre à la trace des molécules d'eau dans et autour des cellules cérébrales, un indicateur de l'activité cérébrale. "C'est en quelque sorte une carte routière des connexions entre neurones", note le Dr Schiff. Les médecins ont comparé le cerveau de Wallis à ceux de 20 personnes en bonne santé et d'une personne en coma léger sans amélioration depuis six ans. Tous ont été radiographiés deux fois à 18 mois d'intervalle.

Dans le cerveau de Wallis, "ce que nous avons observé en premier, c'est combien la lésion était grave", avec de nombreuses anomalies comparé aux personnes indemnes, poursuit Nicholas Shiff. Chez lui, la deuxième série de clichés a montré des changements par rapport à la première, suggérant fortement la formation de nouvelles connexions entre les cellules cérébrales, en relation avec les centres de la parole et de la motricité.

L'autre patient en coma léger, un homme de 24 ans victime lui aussi d'une lésion cérébrale à la suite d'un accident de voiture survenu six ans plus tôt, a montré des modifications notables au niveau des connexions neuronales. Mais sans changement sur sa capacité à fonctionner.

TR

Alzheimer et trisomie 21 : un même gène néfaste pour les neurones
Vendredi, 14/07/2006 - 00:00

Une équipe de chercheurs américains a découvert qu'un mécanisme responsable de la dégénérescence des neurones chez les personnes atteintes de la trisomie 21 pourrait permettre de combattre l'apparition de la démence chez ces personnes mais aussi chez les patients qui souffrent de la maladie d'Alzheimer. Le fonctionnement anormal d'un gène est en effet responsable des mêmes effets délétères -la formation de plaques dans le cerveau- dans la maladie d'Alzheimer et dans la trisomie 21. Cette maladie se caractérise par la présence d'une copie supplémentaire du chromosome 21.

L'équipe de Ahmad Salehi et William Mobley (Stanford University) a étudié en détail le rôle de ce gène APP (Amyloide precursor protein) grâce à une souris porteuse de trois exemplaires du gène. Ces chercheurs constatent que l'expression excessive du gène APP provoque la mort des neurones cholinergiques en perturbant le transport d'un important facteur de croissance (NGF). Un mécanisme similaire pourrait être à l'oeuvre dans la maladie d'Alzheimer. Les chercheurs suggèrent qu'en réduisant l'expression du gène APP on pourrait freiner la mort neuronale.

Neuron

^ Haut
Homme
Anthropologie et Sciences de l'Homme
En 2050, la France métropolitaine pourrait compter 70 millions d'habitants
Vendredi, 14/07/2006 - 00:00

Si les tendances démographiques récentes ne subissaient pas d'évolution, la France métropolitaine compterait au 1er janvier 2050 70 millions d'habitants, soit 9,3 millions de plus qu'en 2005, selon de nouvelles projections de l'INSEE rendues publiques le 7 juillet. Sur l'ensemble de la période (1er janvier 2005/1er janvier 2050), la population continuerait de croître mais à un rythme de moins en moins soutenu (+0,56 % en 2005 à +0,11 % en 2049).

Un phénomène lié à la hausse du nombre des décès, conséquence du vieillissement qui connaîtrait une accélération à partir de 2030 (773.000 décès en 2049 contre 531.000 en 2005). Suivant le scénario central des projections -les précédentes établies en 2001 évoquaient 64 millions d'habitants au 1er janvier 2050-, l'indicateur conjoncturel de fécondité se maintiendrait à 1,9 enfant par femme sur toute la période projetée (niveau moyen des années 2000-2005) avec une augmentation de l'âge moyen à la maternité jusqu'à 30 ans en 2010 puis une stabilisation à ce niveau.

Le scénario de 2001 de l'Institut national de la statistique et des études démographiques pour une projection de la population entre 2000 et 2050 évoquait lui une fécondité à 1,8 enfant par femme (niveau moyen entre 1975 et 1999) et un âge moyen à la maternité progressant seulement jusqu'en 2005.

Pour ce qui est du solde migratoire, il est dorénavant supposé demeurer à + 100.000 personnes par an, niveau moyen des années 2004-2005, avec une répartition égale entre hommes et femmes, selon la structure par âge observée entre 2000 et 2003. Soit moitié plus que l'hypothèse de l'ancien scénario central, qui était de + 50.000 personnes par an, niveau moyen des années 90.

Son ralentissement progressif "est lié à l'augmentation du nombre de décès", qui est elle-même la conséquence du vieillissement de la population, avec l'arrivée aux "grands âges" des baby-boomers, à partir de 2030. On compterait ainsi 773.000 décès en 2049 contre 531.000 en 2005. Peu à peu, le solde naturel deviendrait même négatif : le nombre de décès en 2049 serait supérieur de 26.000 au nombre de naissances. Dès 2030, le solde naturel deviendrait inférieur au solde migratoire. C'est donc l'immigration qui permettrait à la population de continuer de croître à partir de 2045.

Quant à la mortalité, elle est supposée continuer à baisser, suivant la tendance estimée sur 15 ans (1988-2002) et non plus sur 30 ans (1967-1997). Dans ces conditions, les écarts d'espérance de vie à la naissance entre femmes et hommes se réduiraient de 7,1 ans en 2005 à 5,2 ans en 2050 (contre 6,7 ans selon les anciennes projections centrales). Pour les femmes, l'espérance de vie à la naissance serait de 89 ans (91 ans d'après les projections centrales de 2001).

En 2050, un habitant sur trois (31,9 %) serait âgé de 60 ans ou plus, contre un sur cinq en 2005. C'est entre 2006 et 2035 que l'accroissement de cette part de la population serait le plus élevé, avec l'arrivée à ces âges des générations issues du baby-boom, nées entre 1946 et 1975. La proportion des moins de 20 ans déclinerait (21,9 % en 2050 contre 24,9 % en 2005) comme celles des 20-59 ans (46,2 % de la population en 2050 contre 54,3 % en 2005). En 2050, la France métropolitaine compterait 69 habitants de 60 ans ou plus pour 100 habitants de 20-59 ans, soit deux fois plus qu'en 2005. Le vieillissement de la population française, inscrit dans la pyramide des âges, est "inéluctable", indique l'Insee. Et "l'allongement de la durée de vie dans les années futures ne fait qu'accentuer son ampleur".

Insee)

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top