|
|
|
|
|
NUMERO 315 |
|
|
|
|
|
|
|
Edition du 15 Décembre 2004
|
|
|
|
|
Edito
Le cinéma et les jeux vidéo vont fusionner dans une fascinante mais dangereuse réalité virtuelle
En équilibre sur le toit d'un train lancé à toute allure dans les rues de la ville, Spiderman repousse les attaques du savant fou qui essaie de le tuer avec des tentacules robotisés, tout en sauvant les passagers du train. Dans cette scène époustouflante de réalisme, le méchant Docteur Octopus et Spiderman ont des expressions très convaincantes. Pourtant, grâce à un montage astucieux, les spectateurs ne soupçonnent pas une seconde que les visages et les silhouettes des deux protagonistes qui apparaissent sur l'écran ne sont pas réels. Il s'agit en effet d'images de synthèse créées par ordinateur dans les bureaux de Sony Pictures Imageworks, à Culver City, en Californie. “Désormais, nous pouvons tout faire sur ordinateur, vraiment tout. Les bris de verre, les buildings, les rails et les gens”, explique Mark Sagar, responsable de l'infographie sur Spiderman 2 et spécialiste des visages humains chez Imageworks. Mais la véritable prouesse, ce sont surtout les visages en images de synthèse. Il y a encore quelques années, insérer des images de vrais acteurs dans une scène réalisée en images de synthèse nécessitait une prise de vues avec de vraies caméras, des effets spéciaux complexes et tout un savoir-faire artisanal pour faire coïncider les images de synthèse et celles du film. La possibilité de recréer absolument tout par ordinateur, même les visages humains, élargit à l'infini les possibilités de créations. Créer des visages au rendu proche d'une photographie - qui fassent illusion sur des images statiques ou sur grand écran - est l'un des derniers grands défis de l'infographie et il est en passe d'être gagné. Il y a peu, les visages de synthèse ne trompaient personne quand on les regardait de près car nous sommes extraordinairement pointilleux en matière de visage humain. Mais les progrès réalisés dans le rendu du grain de la peau et dans l'éclairage des scènes numériques, grâce à une analyse minutieuse de séquences tournées par de vrais acteurs, permettent désormais à des artistes et à des programmeurs de contrôler la texture et les mouvements de chaque minuscule morceau de surface dans un visage virtuel. Spiderman 2 n'est qu'un exemple parmi d'autres de la volonté de Hollywood de tirer parti des dernières recherches en effets spéciaux pour créer de meilleurs acteurs virtuels : de la multitude d'agents Smith dans les Matrix en passant par Gollum dans la série du Seigneur des Anneaux. Mais l'intérêt de ces acteurs virtuels n'est pas de remplacer les vrais : c'est plutôt de permettre d'emmener les spectateurs là où aucun acteur réel ou aucune caméra ne pourrait aller. Mieux, on peut vieillir ou rajeunir les acteurs grâce au numérique sans leur faire passer des heures au maquillage. Les stars de cinéma disparues pourraient même être ressuscitées grâce au numérique. Mais bien au-delà de l'univers cinématographique, ces prouesses techniques pourraient repousser encore plus loin les frontières du graphisme sur ordinateur. Tout est envisageable : simulations d'opérations chirurgicales des plus réalistes pour les étudiants, votre double virtuel pour les mails et les chats sur Internet et, bientôt, des personnages bien plus convaincants dans les jeux et les films interactifs. Ce même outil de simulation graphique, que les réalisateurs de films commencent à maîtriser, pourra également être appliqué à l'autre énorme marché pour les visages en images de synthèse : celui des jeux vidéo. Les jeux actuels ont beau nous présenter des créatures et des décors à couper le souffle, les personnages humains laissent encore à désirer en termes de réalisme. Il est tout simplement beaucoup trop compliqué de programmer tous les angles de vue et les expressions dont un personnage pourrait avoir besoin au cours d'un jeu interactif à multiples niveaux. Mais au train où évoluent les logiciels de réalité virtuelle et les capacités de calcul de nos ordinateurs, les experts sont convaincus que, d'ici cinq ans, un hybride à mi-chemin entre un jeu et un film pourrait permettre aux spectateurs-joueurs de concevoir et de mettre en scène leurs propres films et même d'y figurer. Il vous suffirait de faire le casting en scannant des photos de vraies personnes - vous et vos amis, par exemple - et de lancer le logiciel qui en créerait des modèles en 3D. Ensuite, en temps réel, vous pourrez mettre en scène le film via un joystick ou un clavier - et décider de tout : faire virevolter la caméra autour des différents personnages ou faire courir le personnage principal dans une certaine direction. On voit bien que ces fantastiques progrès de la réalité virtuelle, associés à la généralisation de l'internet à très haut débit, vont transformer la nature même des loisirs, distractions et programmes vidéo et TV, ainsi bien entendu que l'ensemble de l'industrie du cinéma et du jeu vidéo. En 2001, le marché mondial des jeux en ligne a atteint 16,5 milliards de dollars, devançant les 16 milliards de revenus du cinéma. Quant au marché mondial global des jeux vidéo, il dépasse à présent les 50 milliards de dollars par an, dont plus de la moitié représente des dépenses immatérielles. Au cours de ces dernières années la convergence entre cinéma et jeux vidéo n'a fait que s'accélérer avec un double mouvement de jeux vidéo dérivés de films à succès mais aussi de films dérivés de jeux vidéo populaires. Dans quelques courtes années, cinéma et jeux vidéo fusionneront sur l'internet à très large bande et chacun pourra alors évoluer dans les mondes virtuels qu'il aura imaginer et conçu en fonction de ses centres d'intérêts, de ses passions et de sa sensibilité. Le plus extraordinaire est que ces mondes deviendront si riches et complexes qu'ils finiront par évoluer selon leurs propres règles et par échapper à leurs créateurs, un peu à la manière de la vie qui, à partir de contraintes physico-chimiques strictes, n'a cessé d'innover et d'inventer pour s'adapter à l'évolution de son environnement. A cet égard, les travaux de Stephen Wolfram sur les automates cellulaires remettent en cause le dogme de la prévisibilité informatique et montrent qu'un processus itératif simple, reposant sur quelques règles élémentaires, peut aboutir à faire évoluer un système de manière extrêmement complexe et quasiment imprévisible. Mais si ces univers virtuels autotéliques constitueront de prodigieux outils d'innovation, de créativité et d'épanouissement personnel, ils deviendront également les drogues et les paradis artificiels les plus puissants et les plus dangereux que l'homme ait conçu, comme je l'écrivais déjà dans notre lettre n°71, le 11-11-99, "Les mondes virtuels seront la drogue du 21e siècle". (lettre 71->http://tregouet.org/lettre/1999/Lettre71-Au.html]). Seulement 5 ans après avoir écrit ce texte, la réalité est en passe de rejoindre la fiction et la réalité virtuelle est en train d'envahir notre vie personnelle et professionnelle. Déjà, dans certains jeux, les frontières entre monde réel et virtuel s'estompent, ce qui ne va pas sans conséquences inattendues : ainsi des étudiants de l'Institut fédéral de technologie de Zurich ont utilisé des ordinateurs de poche pour repérer une bombe imaginaire placée dans leur campus. Le jeu a mal tourné quand ils ont enfermé d'autres joueurs qui tentaient d'entraver leur progression. Steffen Walz, qui a conçu le jeu en question, est conscient du risque posé par trop de réalisme. "Je pense que les gens vont finir par jouer à des jeux sans plus savoir s'ils font partie du jeu ou non," dit-il. "Il faut réfléchir à des moyens d'empêcher cela". Un des grands défis de civilisation auquel nous allons être confrontés va donc être de fournir à tous, les outils cognitifs, pédagogiques et éthiques qui permettront à l'homme de distinguer monde réel et monde virtuel et d'utiliser cette nouvelle dimension virtuelle dans une finalité d'épanouissement personnel, intellectuel et culturel et non dans une mortelle spirale d'asservissement et d'avilissement qui le conduirait à perdre sa dignité et sa liberté. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Intervenant lors de la session introductive des journées internationales de l'Idate, les 25 et 26 novembre 2004, Gilles Khan, P-DG de l'INRIA et Krishna Nathan, directeur du laboratoire de recherche d'IBM à Zurich, ont développé des points de vue très similaires. Pour Krishna Nathan, "la révolution internet est loin d'être complète : le nombre et la diversité des utilisateurs, des appareils connectés, des applications et contenus... sont probablement très inférieurs à ce que nous connaîtrons demain. En 2012, on compterait 1000 milliards d'appareils communicants, dont la très grande majorité seront de simples capteurs. Et dans le même temps, le volume des données "non traditionnelles" (vidéo, mobiles) monte très vite." La "révolution pervasive" que décrit Krishna Nathan se fonde sur quatre exigences : capter des informations sur le terrain, en temps réel, et les traiter ; accéder aux données critiques depuis n'importe où ; connecter les hommes, les données et les processus dès que le besoin s'en fait sentir ("on demand") ; faire communiquer les machines et les laisser prendre des décisions sans intervention humaine (autonomic computing) et plus largement, permettre aux systèmes techniques de s'organiser, s'administrer et se protéger eux-mêmes. Gilles Kahn partage cette vision, mais signale un défi difficile à relever : "Comment gérer la communication entre les capteurs, et entre capteurs et systèmes centraux, comment aussi combiner de très grands nombres de données entre elles et avec des modèles, dans de bonnes conditions de performance ? Les deux chercheurs partagent la même vision de l'avenir des réseaux. Ce nouveau monde numérique "reposera sur de nouvelles architectures radios, mais aussi sur d'autres manières de communiquer", explique Krishna Nathan - qui signale en passant une caractéristique peu analysée des réseaux de capteurs : contrairement aux réseaux actuels sur lesquels les flux descendants (des serveurs vers l'utilisateurs) dominent les flux montants, les capteurs émettent beaucoup plus d'information qu'ils n'en reçoivent. Et Gilles Kahn précise : "Toutes les architectures de réseau ont évolué d'une organisation très contrôlée vers une organisation très décentralisée, "faiblement couplée", beaucoup plus capable de passer à l'échelle. Dans le sans-fil, les réseaux ad hoc vont dans ce sens. L'idée est de se passer complètement d'opérateur. Comment cela peut-il se passer ? On peut recourir à la théorie de la percolation : à partir d'un certain seuil de densité, tout le monde peut parler à tout le monde. La théorie est connue, mais il faut encore mettre au point des protocoles réseaux qui la mettent en oeuvre." Gilles Kahn ajoute que "l'on réfléchit aux mêmes questions dans d'autres contextes, depuis les grands serveurs jusqu'aux réseaux sociaux..." Du côté des applications, la coopération et la sémantique forment ensemble la clé. Gilles Kahn insiste sur les "grilles de calcul" et leur sens profond, qui consiste à "remplacer les serveurs par des services". Krishna Nathan met l'accent sur les web services, qui "complètent les protocoles internet : les protocoles IP servent aux premiers niveaux de la modélisation des réseaux, tandis que les web services servent au niveau des applications. On en vient à rendre l'ordinateur abstrait, virtuel. Les web services sont une sorte de système d'exploitation virtuel.." Mais Gilles Kahn insiste également sur la compréhension humaine, la langue naturelle et le traitement des données multimédia. Internet Actu
|
|
|
|
|
|
|
|
Le nombre d'ordinateurs personnels installés dans le monde devrait doubler d'ici 2010 pour atteindre 1,3 milliard, grâce à une explosion de la demande sur les marchés émergents comme la Chine, la Russie et l'Inde, selon une étude publiée par la société Forrester Research. La Chine tirera la croissance du secteur avec 179 millions de nouveaux utilisateurs de PC attendus d'ici 2010, a estimé la société d'études dans un communiqué. Environ 566 millions de nouveaux ordinateurs devraient être mis en service dans les 16 marchés identifiés comme émergents, qui viendront s'ajouter aux 575 millions déjà existants dans le monde, dont 75 millions dans ces mêmes pays émergents, mentionne l'étude. Les marchés déjà matures aux Etats-Unis, en Europe et en Asie-Pacifique devraient acquérir 150 millions de nouveaux PC d'ici 2010, selon Forrester. La croissance des marchés émergents profitera aux produits à bas prix fabriqués par des constructeurs locaux, selon l'étude. "Les produits d'aujourd'hui des marques occidentales de PC ne domineront pas ces marchés à long terme", a déclaré un analyste de Forrester, Simon Yates, dans un communiqué. Forrester prévoit que l'Inde comptera 80 millions de nouveaux utilisateurs de l'informatique d'ici 2010, avec un taux de croissance annuelle de 37 %. L'Indonésie devrait atteindre 40 % de croissance annuelle, pour atteindre 40 millions de nouveaux utilisateurs. Parmi les 16 marchés émergents examinés dans l'étude, le Mexique est annoncé comme celui qui verra la plus forte pénétration du PC, avec une prévision de 46 % de Mexicains possédant un ordinateur d'ici 2010. Reuters:
|
|
|
|
|
|
|
|
Deux programmes, pour la sécurisation des cartes bancaires et pour la création d'un espace unique de paiement en euros, se proposent de répondre aux attentes du secteur du commerce en ligne en matière de sécurité des paiements électroniques. La norme internationale EMV (Europay Mastercard Visa), proposée par les deux réseaux prestataires de services de paiement par carte Eurocard-Mastercard et Visa, doit établir à partir du 1er janvier 2005 un standard unique pour toute l'Europe d'interopérabilité bancaire sécurisée. De son côté, le projet SEPA (pour "Single Euro Payment Area"), lancé par la Banque centrale européenne avec 42 banques et organismes de crédit, veut permettre d'ici 2010 aux Européens d'effectuer des paiements dans toute la zone euro à partir d'un seul compte bancaire avec la même facilité et la même sécurité que s'il s'agissait de paiements domestiques. Les premiers instruments paneuropéens seront proposés aux particuliers et aux entreprises dès 2008. Les deux initiatives, associées à la norme 3D-Secure d'authentification des cyber-acheteurs attendue pour 2007 au plus tôt, permettent d'envisager d'ici quatre ans une meilleure sécurisation des paiements par carte bancaire, qui représentent actuellement plus de 80 % des transactions à distance, tout au moins dans l'Union européenne. "La mauvaise image de l'achat en ligne auprès d'une partie de la population est due bien plus à des problèmes de litiges commerciaux qu'au détournement de données bancaires", a déclaré David Botvinik, PDG de FIA-Net, un assureur des sites marchands, lors d'un entretien avec Reuters. Les cas de paiement frauduleux par carte bancaire n'ont représenté que 0,086 % des transactions réalisées en France en 2003, selon l'Observatoire de la sécurité des cartes de paiement. Mais ils ont constitué 0,21 % des impayés enregistrés par les commerçants sur internet cette même année, d'après une étude réalisée par FIA-Net (contre respectivement 0,082 % et 0,46 % en 2002). Dans le paysage en constante évolution du commerce électronique, le niveau de sécurité des paiements à distance est le seul domaine à n'avoir enregistré aucun progrès depuis la fin des années 1990. La protection des données lors de l'acte de paiement se fait par l'utilisation du protocole SSL (Secure Sockets Layer), une norme de cryptage existant depuis 1996. Or, la fraude sur les sites de commerce en ligne prend sa source dans le piratage dans le monde physique, avec la perte ou le vol d'une carte à son propriétaire, par la génération d'un faux numéro de carte bancaire, ou par l'usurpation d'un numéro valide. A l'heure actuelle, le seul moyen de lutter contre les deux derniers types de fraude consiste à requérir les trois chiffres du cryptogramme visuel (CVV) figurant au dos de la carte. En l'absence de solution d'authentification certaine des clients, la quasi-totalité des sites marchands recourent à la mutualisation de leurs bases de données des transactions pour se protéger de la fraude sur les paiements qui a représenté un montant de 273,7 millions d'euros en 2003, selon FIA-Net, sur un chiffre d'affaires du secteur de 3,6 milliards d'euros, selon la Fevad. La lutte contre la fraude repose sur le "scoring" (notation) des acheteurs issu du recoupement de toutes les transactions pour détecter les fraudeurs potentiels. "Tous les grands sites marchands utilisent des systèmes de scoring, internes ou externes", a assuré David Botvinik. Certains cyber-commerçants ont choisi d'inciter leurs clients à s'identifier eux-mêmes, avec vérification de leurs coordonnées électroniques, postales et bancaires, afin d'instaurer une relation de confiance récompensée par des offres spéciales et des réductions. Le français Firstream propose ce type de solutions, fondée sur un système de paiement proche de celui de l'américain PayPal et qui comptait en décembre 1,5 million d'utilisateurs dans cinq pays européens. La société se fixe un objectif de 20 millions de clients en 2008, selon son PDG Jean-Christophe Chopin. La seule alternative à ces solutions de substitution consiste à créer un équivalent virtuel du code secret à quatre chiffres entré sur le terminal de paiement d'un commerçant "réel", une authentification dite "forte" qui assure que l'acheteur est bien le détenteur légal de la carte bancaire à puce. La norme 3D Secure, à l'étude depuis 2001 par Visa et Mastercard, vise à permettre cette authentification en ligne au moment de l'acte de paiement de façon logicielle. Salué par l'ensemble des commercants et des banques, ce système ne devrait pas s'imposer avant au moins trois à cinq ans, selon certains professionnels. Reuters
|
|
|
|
|
|
|
|
Le téléphone portable a vraisemblablement dépassé le téléphone fixe cette année en termes de chiffre d'affaires mondial, largement du fait de la croissance de ce secteur dans les pays en développement, selon un rapport publié le 9 décembre. Le secteur des télécoms (voix, vidéo et texte) a dégagé en 2003 un chiffre d'affaires de 1.100 milliards de dollars (825 milliards d'euros), et ce chiffre s'est accru cette année, a souligné l'Union internationale des télécommunications, un organisme onusien. "Il est probable que le revenu mondial des réseaux de téléphonie mobile a dépassé celui des réseaux fixes cette année pour la première fois", écrit l'UIT dans un rapport intitulé "Trends in Telecommunications Reform 2004/2005". Vers le milieu de l'année, la planète comptait 1,5 milliard d'abonnés au téléphone cellulaire, contre 1,2 milliard d'utilisateurs de ligne fixe. "Trois pays tirent la croissance du téléphone portable : la Chine, l'Inde et la Russie", a déclaré à la presse, Susan Schorr, une responsable de l'UIT. "Même si en valeur les pays développés représentent toujours la plus grosse part du secteur, l'essentiel de la croissance et du potentiel de croissance du nombre d'utilisateurs se trouve dans les pays en développement", a-t-elle ajouté. En juin dernier, les pays en développement rassemblaient 56 % des abonnés au téléphone portable. Et entre 2000 et 2004, ces pays ont assuré 79 % de la croissance du secteur, selon le rapport. L'utilisation de l'internet est aussi en pleine croissance, en particulier dans les pays pauvres : le nombre d'abonnés aux services internet à haut débit est passé à 102 millions à la fin de 2003, répartis dans une centaine de pays où ces services sont disponibles, contre 65 millions un an auparavant. "Les Etats-Unis représentaient le premier marché pour ces services au début de 2004, avec plus de 25 millions d'abonnés mais cela ne sera peut-être pas le cas très longtemps", a souligné l'UIT. Ainsi, le nombre d'abonnés en Chine s'est accru de 11 millions au cours de la seule année 2003 pour atteindre 13,5 millions. "Si ce rythme se maintient, la Chine dépassera les Etats-Unis à la fin de 2004", prédit l'UIT dans son rapport. IUT
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Le robot américain Spirit a découvert un minéral, la goéthite, qui est un nouvel indicateur de la présence passée d'eau sur la planète Mars, a annoncé la Nasa. "Les scientifiques ont identifié un minéral appelé goéthite dans l'affleurement rocheux examiné par Spirit" nommé "Columbia Hills", a déclaré le Jet Propulsion Laboratory (JPL) de la Nasa dans un communiqué lundi. "La goéthite, comme la jarosite trouvée par Opportunity, est une preuve significative de la présence passée d'eau" sur Mars, affirme le Dr Goestar Klingelhoefer de l'Université de Mainz en Allemagne, cité dans le communiqué. Ce minéral "ne se forme qu'en présence d'eau, que celle-ci soit sous forme liquide, glacée ou gazeuse", a précisé la Nasa. Le robot jumeau Opportunity, qui se trouve aux antipodes de Spirit dans une région appelée Meridiani Planum, a été le premier à établir il y a quelques mois la présence passée d'eau salée sur la planète rouge. Les deux robots s'étaient posés sur Mars il y a près d'un an. Ils ont achevé leur mission initiale fin avril au terme de trois mois d'exploration mais ils continuent à fonctionner normalement bien au-delà de leur durée prévisible de vie. Trouver des preuves de la présence d'eau passée sur la planète rouge, ayant pu permettre l'existence de formes de vie, est le principal objectif de cette mission. NASA
|
|
|
|
|
|
|
|
De l'eau sous forme cristalline, et aussi de l'hydroxyde d'ammonium, ont été observés à la surface de Quaoar, gros corps de la ceinture d'astéroïdes située au-delà de Neptune, annoncent jeudi deux astronomes américains dans la revue Nature. Découvert il y a deux ans par deux astronomes américains, à quelque 6,5 milliards de kilomètres de la Terre, Quaoar appartient à la ceinture de Kuiper. Cette structure en forme de disque, qui s'étendrait entre une trentaine et une centaine d'unités astronomiques (entre trente et cent fois la distance moyenne Terre-Soleil, de quelque 150 millions de kilomètres), rassemblerait des centaines de milliers de petits corps glacés, astéroïdes ou comètes, et est considérée comme le lieu d'origine des comètes de courte période, de certains objets en orbite entre Jupiter et Neptune, tels Chiron ou Pholus, et de Pluton et de son satellite, Charon. Avec un diamètre de quelque 1.300 km, Quaoar (ou 2002 LM60) est actuellement le plus gros astéroïde connu de cette structure. Il se trouve sur une orbite quasi circulaire et très peu inclinée (de sept degrés). En l'observant dans l'infrarouge avec le télescope japonais Subaru et son spectromètre CISCO, au Mauna Kea (Hawaï), David Jewitt et Jane Luu, de l'Institut de Technologie du Massachusetts (MIT) à Lexington, ont découvert la présence d'eau sous sa forme cristalline ainsi que de l'hydroxyde d'ammonium. Cette observation est surprenante : ces cristaux de glace se forment en effet à partir de moins 173 degrés Celsius. Or, la température de surface des astéroïdes de cette ceinture est bien inférieure (moins 223 degrés C au plus). Ce n'est donc pas de l'eau sous cette forme qui aurait dû être trouvée. Par ailleurs, les cristaux de glace et l'hydroxyde d'ammonium sont détruits (par irridiation) par les particules énergétiques de l'espace en une dizaine de millions d'années. Le sol de Quaoar, estiment les deux chercheurs, a donc connu des changements de composition relativement récents. Soit des impacts d'astéroïdes ont permis à des cristaux de glace du sol de Quaoar d'apparaître à sa surface, ou bien, ces cristaux sont issus d'un dégazage volcanique ou bien encore, ils sont les produits de ces deux processus. AFP
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Alors que s'ouvre à Buenos Aires la dixième conférence des Nations-Unies sur le climat, Météo France confirme l'impact considérable pour la France du changement climatique si la concentration de gaz émis par les activités humaines continue d'augmenter dans l'atmosphère. Selon les derniers résultats du centre de recherche de Météo France, le thermomètre pourrait afficher 4 à 7 degrés de plus en moyenne l'été en France sur la période 2070-2100, faisant apparaître la canicule de 2003 comme "un été froid". La France risque de se réchauffer davantage que la fourchette moyenne retenue par les experts de l'ONU pour la surface du globe (1,4 à 5,8 degrés d'ici à la fin du siècle). Le thermomètre pourrait gagner 4 à 7 degrés l'été à l'aube (minimales diurnes) et 2 à 4 degrés l'hiver dans l'après-midi (maximales diurnes). "4 à 7 degrés, c'est considérable", souligne Michel Dequé, chercheur à Météo France. A titre de comparaison, pendant l'été caniculaire de 2003, les températures moyennes étaient supérieures de 4,3 degrés aux normales saisonnières en France. La canicule a fait 15 000 morts dans l'Hexagone. "A la fin du siècle, si un été caniculaire comme celui de 2003 arrivait, on appellerait ça un été froid", estime Michel Dequé. "On aura dix fois plus de chances, un jour d'été quelconque, pris au hasard, de dépasser le seuil de 35 degrés". Les hivers seront plus doux et pluvieux, surtout au Nord. "Le régime des pluies pourrait être changé", relève M. Dequé. "Il ne pleuvra pas forcément plus souvent, mais à chaque fois qu'il pleuvra, cela pourrait être plus intense", entraînant un risque d'inondation accru de certains fleuves. En revanche, les précipitations augmenteraient faiblement l'hiver sur le sud de la France, ce qui ne suffira pas à compenser la sécheresse accrue l'été. Cette sécheresse concerne la France, mais aussi la Grèce, la Turquie, le Maroc, "tous les pays du bassin méditerranéen". Pour dresser la carte météo des années 2070-2100 en France, les chercheurs ont croisé les données de dix modèles informatiques européens dans le projet "prudence". Les résultats sont "robustes", estime Michel Dequé, du fait de la diversité des modèles utilisés. Les experts français, britanniques, espagnols, suédois, etc. ont fait tourner leurs supercalculateurs sur le scénario de réchauffement climatique le plus couramment utilisé en Europe, A2. Ce scénario prévoit un triplement des concentrations de CO2 par rapport à l'ère préindustrielle, du fait des rejets polluants des activités humaines. La température moyenne de la France a gagné environ 1 degré depuis 1860 (+ 0,6 degré pour la planète), du fait de l'augmentation des gaz à effet de serre. Ceux-ci ont déjà grimpé de 280 ppm (parties par million) à 360 ppm en l'espace de cent cinquante ans (entre 1850 et 2000), alors que leur concentration était restée inférieure à 300 ppm pendant au moins cinq cent mille ans. Le scénario ne tient pas compte d'éventuelles mesures efficaces de lutte contre le réchauffement climatique, objet de conférences comme celle de Buenos Aires. Selon les experts, il faudrait diminuer de 50 % les émissions mondiales d'ici à 2050 pour stabiliser le climat. Le protocole de Kyoto prévoit seulement une diminution de 5,2 % des émissions des pays industrialisés en 2008-2012. Le Monde
|
|
|
|
|
|
|
|
Une nouvelle étude, réalisée par le Dr David Parker au "Hadley Centre for Climate Prediction and Research", s'oppose aux théories niant le phénomène de réchauffement de la planète. Les sceptiques s'appuient sur la théorie des îlots de chaleur urbains, en maintenant que la majorité des relevés climatiques sont réalisés à proximité de villes, celles-ci produisant leur propre chaleur. Pour eux le réchauffement planétaire enregistré ces dernières années ne serait donc que la réflexion de l'urbanisation. Cependant une étude commanditée par le centre météorologique britannique (Met Office) et publiée dans Nature, semble invalider la théorie des îlots thermiques urbains. Le Dr David Parker a utilisé des données climatiques sur ces cinquante dernières années pour créer deux graphiques : l'un traçant les températures des nuits calmes et l'autre des nuits venteuses. Selon lui, admettre la validité de la théorie des îlots de chaleur revient à trouver des traces de températures nettement plus élevées lors de nuits calmes que de nuits venteuses, puisque le vent souffle les excès de chaleur hors des villes. Cependant, les courbes sont identiques et montrent une augmentation moyenne des températures de nuit de 0,19.C par décade entre 1950 et 2000. Le Dr Parker ajoute que le réchauffement des océans est un autre témoin du réchauffement global de la planète. D'éminents spécialistes tel que Myles Allen, membre du département de physique atmosphérique de l'université d'Oxford, se disent convaincus par l'argument du Met Office. Be Royaume Uni
|
|
|
|
|
|
|
|
Le transport aérien mondial de passagers émet davantage de gaz à effet de serre que l'ensemble des activités d'un pays comme la France, et l'augmentation prévue du trafic risque d'avoir un impact significatif sur le climat, estime l'Institut français de l'environnement (IFEN) dans une étude publiée vendredi. En 2000, l'aviation commerciale a représenté 2,5 % des émissions totales de CO2 dues aux activités humaines. Pourtant, seuls les vols intérieurs sont pris en compte dans le protocole de Kyoto, note l'IFEN, alors qu'une conférence se déroule depuis cinq jours à Buenos Aires sur le réchauffement climatique. Un passager en avion consomme 140 grammes de CO2 au km, contre en moyenne 100 grammes en voiture (sur la base d'1,8 passager par véhicule, en France). Même en tenant compte des émissions polluantes dues à la fabrication des véhicules et au transport du carburant, qui alourdissent le bilan de la voiture, le passager aérien "consomme" 16 % de CO2 en plus qu'en voiture. Plus la distance est courte, plus l'avion est émetteur par rapport à la voiture, sans même parler du train dont le bilan est de loin le meilleur. Lors d'un vol métropolitain (Paris-Nice par exemple), les émissions au passager-km sont supérieures de 66 % en moyenne à un vol à destination de la France d'Outre mer, constate l'IFEN. L'avion charter bien rempli, sans classe affaire, est peut-être douloureux pour les jambes, mais il est plus sobre pour le climat, par rapport aux nombres de passagers transportés. Même dans ces conditions, l'aller-retour Paris/New-York équivaut à un quart des émissions liées à la consommation annuelle d'un français. La vogue du tourisme lointain, qui porte la croissance des transports aériens, augure mal de l'avenir climatique : selon l'IFEN, une croissance de 5 % par an du transport aérien se traduirait par une multiplication par 2,4 de ses émissions de CO2 dans 30 ans. De plus en plus, l'avion se banalise. Ainsi, la proportion de Français (plus de 15 ans) qui a pris l'avion une fois dans l'année est passée de 9 % en 1980 à 26 % en 2001. L'envolée des courts séjours en avion est favorisée par l'émergence des compagnies aériennes à bas tarifs (low cost) et l'usage d'internet. Ainsi, les Français vont de plus en plus loin rechercher l'exotisme lorsqu'ils quittent l'hexagone. Leurs déplacements de courte durée à l'étranger sont en hausse de 5 % depuis 2002. Au niveau mondial, l'accès aux modes de consommation occidentaux de pays en voie de développement comme la Chine et l'Inde notamment va stimuler le transport aérien, alors que les marges de progrès techniques semblent plus limitées que pour l'automobile, note l'IFEN. Deux leviers peuvent freiner l'envolée des émissions du trafic aérien : la hausse des prix du pétrole, et l'introduction d'une "taxe climat" sur les voyages en avion. AFP
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les tumeurs qui frappent les moins de 20 ans restent rares. Mais d'après une étude centrée sur 19 pays européens, leur fréquence ne cesse d'augmenter depuis trois décennies. De 1 % par an chez les enfants, et de 1,5 % chez les adolescents. Ces chiffres émanent d'une vaste étude réalisée par le Dr Eva Steliarova-Foucher et son équipe, du Centre international de Recherche sur le Cancer (CIRC) de l'OMS à Lyon. A la fin des années 90, l'incidence des cancers était de 140 pour un million chez les enfants. Et de 157 pour un million chez les adolescents. "Notre travail montre clairement que l'incidence des cancers chez les moins de 20 ans augmente, avec une accélération au cours des dernières années" explique Eva Steliarova-Foucher. Le taux de survie à 5 ans toutefois, progresse. En Europe occidentale, il atteint 75 % contre 64 % dans la partie orientale. Rappelons qu'en France, ce taux de survie à 5 ans s'élève à... 72 % ! Un résultat guère brillant, mis en lumière par l'étude Eurocare publiée en janvier 2004. Notre pays se situe en effet bien loin derrière l'Islande, qui enregistre un taux record de 90 %... La nature des tumeurs diffère de celles des adultes. Les leucémies prédominent entre 1 et 4 ans, les cancers du système nerveux central entre 5 et 9 ans, et après 10 ans, ce sont les lymphomes et les tumeurs de l'os. Selon l'étude, les leucémies sont plus fréquentes en Europe de l'Ouest qu'à l'Est (incidence chez l'enfant respectivement de 47,7 par million contre 39,3). L'analyse, à partir de 63 registres du cancer, porte sur 113.000 tumeurs de l'enfant (de la naissance à 14 ans) et 18.243 de l'adolescent (15-19 ans) diagnostiquées entre 1970 et 1999 dans 19 pays. Diverses pistes sont explorées pour tenter d'interpréter cet accroissement. Le rôle potentiel des pesticides (dans la leucémie ou les tumeurs du cerveau) ou du benzène (dans les cas de leucémie) dans l'environnement a été pointé. Autres hypothèses évoquées, un poids élevé à la naissance qui serait associé à un risque accru de leucémie ou de tumeur cérébrale ou une diminution de certaines infections de la petite enfance qui auraient à l'inverse un effet protecteur (pour ce qui concerne les leucémies). Lancet
|
|
|
|
|
De nouvelles recherches canadiennes tentent à démontrer que les personnes qui souffrent de migraine risquent plus de subir un accident vasculaire cérébral. Les chercheurs affirment que le risque est particulièrement grand chez les femmes qui prennent en plus la pilule anticonceptionnelle. L'étude est une compilation de 14 analyses qui ont été publiées récemment sur le sujet. Le chercheur en chef, Mahyar Etminan, de l'Hôpital Royal Victoria, à Montréal, affirme cependant que ce ne sont pas toutes les personnes qui souffrent de migraine qui risquent nécessairement de subir un AVC. L'étude ne précise toutefois pas pourquoi la migraine augmente les risques. Une migraine est un sérieux mal de tête qui dure généralement plus de quatre heures, accompagné parfois d'une extrême sensibilité au bruit ou à la lumière. Cyberpresse
|
|
|
|
|
|
|
|
En dépit de l'efficacité des moyens de prévention et de celle des traitements, la paludisme tue annuellement plus d'un million de personnes dans les pays les plus pauvres, les enfants de moins de cinq ans étant particulièrement exposés. Mobiliser toutes les énergies et débloquer les fonds nécessaires à la lutte contre ce fléau c'est ce que s'emploie à faire le partenariat "Faire reculer le paludisme" fondé en 1998 notamment par l'Organisation mondiale de la santé (OMS). "Le paludisme ne fait pas l'objet de beaucoup d'échos au plan international", regrettait cette semaine devant la presse à Paris la Pr Awa Marie Coll-Seck, secrétaire exécutive du partenariat. "40 % de la population mondiale est menacée. Nous souhaitons que cette maladie banalisée et négligée pour laquelle les moyens de prévention et les traitements existent devienne une maladie prioritaire". Le paludisme est une maladie parasitaire transmise par des moustiques potentiellement mortelle dans les cas les plus graves. Elle touche les régions tropicales et subtropicales et est responsable chaque année de plus de 300 millions de cas de maladies aiguës. Plus de 90 % des décès liés au paludisme concernent l'Afrique subsaharienne. Dans les pays à forte endémie, le paludisme maternel est un facteur important de faible poids de naissance, l'une des principales causes de mortalité néonatale. Dans le domaine de la prévention, le paludisme bénéficie de moustiquaires imprégnées de longue durée (quatre à cinq ans d'efficacité) et de pulvérisations d'insecticides dans les logements. Des traitements ont par ailleurs prouvé leur efficacité, notamment l'artémisine, une plante médicinale donnée en association avec d'autres molécules. Mais ces traitements coûtent dix fois plus cher que les traitements standard. Actuellement, aucun médicament générique n'existe dans ce secteur et les vaccins en sont au stade de l'expérimentation. Au Mozambique, un essai clinique a montré une efficacité dans 30 % des cas. "D'ici cinq à neuf ans, nous devrions être en possession d'un vaccin efficace dans la grande majorité des cas", estime le Dr Schapira. Des chercheurs de l'université de Heidelberg ont testé avec succès sur des souris une nouvelle sorte de vaccin candidat contre la malaria. Ce dernier est constitué du pathogène de la malaria sous forme génétiquement modifiée, de façon qu'il perde son potentiel infectieux. Chez les souris, l'injection du pathogène diminue a mené à la production d'anticorps. L'organisme a été capable, par la suite, de se défendre face au pathogène normal. Si ces résultats peuvent également être obtenus chez l'homme, on aura enfin trouvé un vaccin efficace contre la malaria. Les chercheurs de l'équipe de Ann-Kristin Muller ont publié un article dans la revue "Nature". Die Welt BioMed Central
|
|
|
|
|
|
|
|
Un nouvel antibiotique testé sur des souris atteintes de tuberculose a permis de traiter les rongeurs en moitié moins de temps que les traitements actuels, annoncent des chercheurs dans la revue Science. La tuberculose tue encore deux millions de personnes par an dans le monde. Pour être efficace et éviter l'émergence de bactéries résistantes, le traitement DOTS recommandé par l'OMS doit être pris pendant 6 à 9 mois. Dans de nombreux pays cette observance est difficile à respecter. L'équipe de Koen Andries, du laboratoire de recherche de Johnson & Johnson basé en Belgique, a identifié un nouvel antibiotique très efficace contre l'agent de la tuberculose, Mycobacterium tuberculosis, y compris des souches résistantes aux médicaments. L'antibiotique, appelé R207910, a été testé sur un modèle de souris atteinte de tuberculose développé par une équipe française (Inserm/Salpêtrière). Ces chercheurs ont obtenu des résultats prometteurs : les poumons des rongeurs étaient débarrassés de la bactérie au bout de deux mois de traitement contre quatre pour les autres thérapies. R207910 appartient à la famille des diarylquinolines ou DARQ. Il agirait en privant la bactérie d'énergie, explique Andries. L'antibiotique bloquerait la machinerie cellulaire qui permet la production d'ATP, l'énergie de la cellule. Testé sur 80 volontaires humains, le nouvel antibiotique n'a pas déclenché d'effets secondaires indésirables. D'autres essais cliniques doivent maintenant être programmés pour vérifier son efficacité chez l'homme. BBC
|
|
|
|
|
|
|
|
Une équipe internationale de scientifiques a décodé le génome du riz, ce qui pourrait permettre de développer de nouvelles variétés plus résistantes aux maladies et aux variations climatiques, a annoncé lundi un chercheur japonais. Takuji Sasaki a déclaré que cette équipe avait décodé 370 millions de lettres ou paires de base sur 390 millions, soit 95 % du génome du riz, avec une exactitude de 99,99 %. La ratio de 95 % est la limite supérieure techniquement possible actuellement, a-t-il dit. M. Sasaki dirige le groupe de recherche de l'Institut national de science agrobiologique, qui comprend des chercheurs des Etats-Unis, Taiwan, Thaïlande, Chine, Corée du Sud, Inde, France, Royaume-Uni, Brésil et Japon. Ils ont travaillé pendant six ans pour décrypter le génome du riz. En décembre 2002, cette équipe avait déjà annoncé le séquençage de 92 % du génome du riz, ce qui avait alors été qualifié d'"historique" par le Premier ministre japonais Junichiro Koizumi. Les résultats du projet devraient permettre d'identifier les gènes programmant des fonctions comme la résistance au froid ou aux maladies et des qualités gustatives, et donc de développer de nouvelles espèces. Ces résultats pourraient aussi s'appliquer au maïs et au blé qui sont de la famille du riz. AFP
|
|
|
|
|
|
|
|
Le premier génome d'un oiseau, celui de la poule, a été décodé par une équipe internationale, ce qui pourrait renforcer les connaissances sur l'homme et améliorer les races de poulet élevées pour l'alimentation, selon un article de la revue Nature. Le séquençage des 20.000 à 23.000 gènes (contre 20.000 à 25.000 chez l'homme) a été réalisé sur Gallus gallus par le Consortium international de séquençage de la poule. Il est formé de 170 chercheurs appartenant à 49 instituts dans le monde. Les hommes et les oiseaux ayant eu un ancêtre commun il y a quelque 310 millions d'années, le décodage du milliard de lettres ou paires de bases de la poule - 98 % de son génome complet - pourrait permettre d'identifier des séquences communes à ces deux espèces et de toute première importance pour l'homme, estiment les chercheurs. "Nous avons séquencé la poule pour comprendre notre génome humain, voila notre principale motivation", a déclaré l'un des auteurs de l'étude, Ewan Birney, du European Bioinformatics Institute (EMBL-EBI) à Cambridge (Grande-Bretagne). "Environ 60 % des gènes de la poule produisant des protéines ont des homologues chez l'homme", a souligné pour sa part Peer Bork, membre du EMBL-EBI à Heidelberg (Allemagne). Dans un autre article, des chercheurs chinois appartenant au Consortium ont comparé les génomes de trois variétés de Gallus gallus, ce qui devrait fournir une base essentielle pour les recherches sur l'élevage des poulets, estime Alain Vignal, membre d'une équipe de l'Inra (Institut national de la recherche agronomique) ayant travaillé sur le génome. Le séquençage, a-t-il déclaré, permettra d'accélérer les travaux pour sélectionner des poulets résistants à certaines maladies, non porteurs de salmonelle, engraissant plus rapidement ou moins sensibles au stress de l'élevage en batterie. Sur le plan scientifique, a-t-il ajouté, après les génomes de mammifères, de poissons ou de primates, le monde scientifique dispose désormais de celui d'un oiseau, représentant d'une classe comprenant quelque 9.000 espèces. La poule est depuis longtemps utilisée par les biologistes travaillant sur le développement comme un modèle pour l'évolution de l'embryon. Les auteurs d'un commentaire également à paraître dans Nature, Jeremy Schmutz et Jane Grimwood, du Centre pour le génome humain de Stanford (Californie), notent que "les poules ont été un organisme modèle inestimable pendant des décennies". "Leur utilité pour la recherche, de la génomique à l'élevage, va s'accroître encore" avec ce décodage, soulignent-ils. "Posséder le séquençage du génome de la poule, c'est comme avoir un guide des antiquités dans un marché aux puces : soudain, vous avez un outil qui vous permet de reconnaître quelles pièces ont de la valeur", a résumé Ewan Birney. Le génome du poulet pourrait fournir un outil utile pour mieux comprendre le génome humain, soulignent les chercheurs. Les génomes du poulet et de l'homme ont commencé à évoluer séparément il y a 310 millions d'années et se prêtent bien à des comparaisons, souligne Richard Wilson, de l'université Washington à Saint-Louis, principal auteur de l'étude. Il souligne que de telles analyses pourraient aider à identifier des "interrupteurs" chimiques qui activent et désactivent des gènes. L'étude révèle que l'homme possède des gènes liés à ceux qui, chez le poulet, produisent les protéines des coquilles d'oeuf. Ils joueraient chez l'homme un rôle dans la formation des os. Richard Wilson souligne que le génome du poulet pourrait aider les scientifiques à mieux comprendre la grippe aviaire, maladie du poulet qui pourrait un jour déclencher une épidémie mondiale meurtrière chez l'homme. Il devrait également aider les chercheurs à améliorer les races de poulets d'élevage, selon des experts. New Scientist
|
|
|
|
|
Mémoire, raisonnement, attention... Les facultés cognitives diminueraient plus rapidement chez les fumeurs, hommes et femmes. C'est en effet le constat relativement inattendu de deux équipes écossaises. Les auteurs, qui travaillent dans les Universités d'Aberdeen et d'Edimbourg, ont soumis 500 personnes de 64 ans à des tests de mesure du quotient intellectuel (QI) et de psychomotricité. Une cohorte qui n'a pas été choisie au hasard. Tous les participants avaient déjà passé ces épreuves à l'âge de 11 ans. "Après avoir ajusté les données, nous montrons que le fait de fumer accélère le déclin des capacités cognitives" expliquent les auteurs. "Contrairement à ce que pensent de nombreux fumeurs, le tabagisme n'améliore ni leur attention ni leur mémoire. Bien au contraire". Ce n'est pas tout. Les fumeurs ont également été moins performants aux tests psychomoteurs que les non-fumeurs. British Medical Journal
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|