|
|
Edito
Edito : La maison du futur sera communicante et conviviale
Conscient de l'énorme enjeu industriel de la domotique à l'horizon 2020, les grands groupes japonais, qu'ils fabriquent des appareils électroniques comme Matsushita ou des toilettes comme Toto, investissent actuellement de manière massive dans le développement de produits domotiques pour la maison du futur, où chaque appareil serait connecté, accessible depuis n'importe où et en permanence. Les acteurs industriels de la domotique cherchent comment relier en réseau toutes les fonctions de la maison sans attenter à la vie privée de ses habitants et comment améliorer les conditions de vie des personnes âgées et des handicapés qui restent à leur domicile, tout en rendant leur logement plus écologique et plus ouvert sur l'extérieur. Le groupe Matsushita Electric Industrial et sa filiale Matsushita Electric Works (MEW) présentent leur vision de l'avenir domotique dans un appartement-témoin à Tokyo où l'on s'identifie par scanner de l'iris pour pouvoir entrer et être accueilli par un robot parlant. Le bureau ressemble à un poste de pilotage de navette spatiale et la salle à manger comprend une table dotée d'un écran tactile qui diffuse des images projetées depuis le dessous, tandis qu'un écran géant et des enceintes en verre vibrant envahissent un des murs. Quand un convive s'assoit autour de la table, un petit poisson, avatar d'un "agent", nage vers lui. Chaque membre de la famille a son "agent", un logiciel qui recense des informations personnelles. Une famille peut par exemple planifier ses vacances autour de la table, chaque personne utilisant son agent pour lui demander de rechercher sur Internet la destination de ses rêves. Dans cet appartement-prototype, la communication passe par des appareils plus simples d'emploi, commandés par le toucher, la voix ou une souris à un seul bouton. "L'agent connaît les goûts et les centres d'intérêt de chaque membre de la famille ; vous n'avez pas à utiliser directement l'ordinateur", explique Nao Kurosawa, une guide du Panasonic Center qui abrite le "showroom" de Matsushita. "Beaucoup de personnes âgées ou d'enfants ont du mal à utiliser un ordinateur (commandé par un clavier)." La maison totalement connectée, telle qu'elle est présentée par Matsushita, n'existera cependant pas avant de longues années car, outre les problèmes posés par le manque de bande passante sur le réseau Internet et la pénurie d'adresses Internet, les consommateurs ne sont pas encore prêts à payer des équipements qui restent coûteux. Matsushita propose aujourd'hui à l'essai dans la région japonaise du Kansai un service baptisé "Kurashi Net", "kurashi" signifiant "vie à la maison" en japonais. Ce service permet de contrôler à distance des appareils électroménagers grâce à une commande centrale ou un téléphone mobile. L'utilisateur peut par exemple déclencher la climatisation avant son arrivée à la maison ou lancer la cuisson d'un plat dans le four à micro-ondes pendant son trajet de retour au domicile. Kurashi Net propose également une fonction de sécurité qui envoie une alerte sur un téléphone mobile quand une fenêtre ou une porte reste ouverte. Les plus importants progrès réalisés par les groupes japonais se sont faits dans un domaine où le génie nippon a déjà déployé des trésors d'inventivité : les toilettes. Alors que les toilettes des pays occidentaux ne présentent bien souvent qu'une seule fonction, la chasse d'eau, celles des Japonais proposent le siège chauffant, un capteur de déclenchement de la chasse d'eau et un bidet télécommandé. La société Toto commercialise des toilettes qui prélèvent et testent un échantillon d'urine de l'utilisateur afin de surveiller sa santé. Le numéro un japonais des toilettes travaille sur une version connectée de cette machine, ce qui prendra d'après lui au moins trois ans et pose des problèmes de confidentialité dans la transmission des données si elles sont envoyées sur le réseau Internet tel qu'il existe actuellement. "Nous opérons des recherches conjointes avec une société de communication sur la meilleure façon de collecter et de stocker des données avant de les envoyer au médecin", a expliqué Kaoru Nogami, directeur général de la recherche et développement de Toto. Ces nouveaux concepts de recherche montrent que le modèle de la maison domotique à commande centralisée, telle qu'on l'imaginait il y a 20 ans, ne correspond plus aux nouvelles attentes des utilisateurs. En effet, avec la montée en puissance de l'Internet, le concept de spécificité de la maison connectée doit être revu car l'utilisateur ne cherche plus à tout contrôler depuis sa maison. Il souhaite plutôt évoluer dans un environnement convivial capable de lui délivrer à chaque moment de la journée et à chaque endroit où il se trouve une information personnalisée et utile via un réseau d'objets connectés. Ce type de communication pourra prendre la forme d'un téléphone qui permet d'ouvrir les volets et de mettre en marche la climatisation à distance en rentrant de week-end ou encore d'un téléviseur qui signale discrètement l'arrivée de courriels et permet leur lecture. Il reste que la généralisation de ce concept de système interconnectés d'objets personnalisés, qui dépasse largement l'approche domotique traditionnelle "pyramidale", suppose au moins deux transitions technologiques : le déploiement de réseaux sans fils à très haut débit sécurisés -qui combineront Wi-Fi et UWB- et le passage à l'IPv6, absolument indispensable pour attribuer à chaque objet de notre environnement une adresse IP. Les réseaux domestiques supposent en effet que chaque équipement qu'ils relient ait une adresse IP. Aujourd'hui, l'IPv4 autorise le déploiement de plus de 4 milliards de combinaisons d'adresses. C'est peu, lorsqu'on veut faire un réseau mondial et construire un réseau de communication sur IP. Deux tiers des adresses de ce protocole sont aujourd'hui attribuées. L'IPv6 offre des capacités d'adressage bien plus étendues, en augmentant la taille des adresses IP de 32 à 128 bits. A l'heure actuelle, la meilleure application pour IPv6 réside dans les caméras de sécurité connectées à Internet, selon Matsushita. IPv6, codé en 128 bits au lieu de 32 pour l'IPv4 actuel, permet un nombre virtuellement illimité d'adresses Internet car celles-ci ne sont plus restreintes à 12 chiffres, mais peuvent dépasser les 39 chiffres. Le passage en 128 bits permettra également d'augmenter la bande passante maximale entre deux machines. Malgré les limitations du protocole actuel en matière de nombre d'adresses et de fonctions de sécurité, les constructeurs proposent déjà des produits qui donnent une idée de ce que sera la société connectée de demain. Le géant nippon Matsushita commercialise déjà un service baptisé T-Navi qui permet de naviguer sur le web avec un téléviseur numérique ou encore un lecteur-enregistreur de DVD programmable à distance avec un téléphone mobile. On le voit, la maison de demain, loin des fantasmes de science-fiction imaginant un ordinateur central omnipotent, contrôlant l'ensemble de la maison, fonctionnera de manière intuitive et conviviale en utilisant l'intelligence de manière souple et répartie pour faciliter notre vie quotidienne tout en se faisant oublier. Dans une telle maison, la commande vocale et tactile sera reine et, compte tenu du vieillissement inexorable de notre population, un grand nombre de nos objets usuels intégreront des fonctionnalités de télédiagnostic et de télésurveillance médicale aussi discrètes qu'efficaces. Autre aspect très novateur de cet habitat du futur : la mise en réseaux de nos habitations et le recours à des matériaux intelligents seront mis au service de l'environnement et du développement durable. Ces nouvelles technologies peuvent en effet concilier de manière très féconde confort d'utilisation, sécurité et respect de l'environnement. On peut par exemple imaginer des maisons et bâtiments conçus comme des systèmes écologiques intelligents et utilisant beaucoup moins d'énergie pour le chauffage comme pour la climatisation, qui pourraient dans de nombreux cas être assurée au moindre coût énergétique par une meilleure combinaison de solutions techniques et architecturales naturelles. Pour être acceptée et utilisée dans nos maisons, cette nouvelle domotique sera conviviale, adaptative et personnalisée. Elle devra se faire oublier tout en "apprenant" à s'adapter aux goûts, aux habitudes et aux besoins -médicaux notamment- des utilisateurs. Cet habitat intelligent sera non seulement plus sur, plus performant pour le travail, et plus confortable mais aussi plus respectueux de l'environnement et finalement plus chaleureux et plus humain. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Sony prévoit de lancer cette année un lecteur numérique portable vidéo capable de transférer du contenu à un téléviseur, a déclaré un responsable du géant des produits de divertissement. Keiji Kimura, directeur des produits Vaio pour ordinateurs et pour mobiles chez Sony, a par ailleurs précisé que son lecteur audio numérique 'Vaio pocket' dévoilé mardi et prévu pour concurrencer l'iPod d'Apple serait lancé en Europe avant la fin de l'année après des débuts sur le seul marché du Japon le mois prochain. "Le Vaio pocket sera lancé en Europe dans le courant de l'année", a dit Kimura à Reuters à l'occasion d'une tournée de présentation de la gamme étendue des produits Vaio que Sony destine au rapprochement des ordinateurs et des appareils domestiques dédiés au divertissement, TV, chaînes Hi-Fi, lecteur-enregistreurs DVD, etc. "Pour ce qui est de la version video, nous comptons la produire dès que possible. Je parle de futur proche. Ce sera avant (2005)." Avec ses lecteurs portables, Sony compte bien s'arroger une part du marché du divertissement numérique détenu par Apple grâce au succès de son disquaire en ligne iTunes Music Store et de son jukebox portable iPod. Quelque 70 millions de chansons ont été vendues par téléchargement sur iTunes Music Store en un an d'exploitation. Sony a lancé son propre disquaire en ligne, Connect, la semaine dernière aux Etats-Unis avec en prévision une ouverture aux consommateurs allemands, français et britanniques le mois prochain. Mais Connect est sous le feu des critiques qui regrettent que les titres téléchargés ne soient lisibles que sur des appareils Sony pour des raisons de droits d'auteur et de cryptage, tandis qu'Apple fait appel à des technologies standard. Kimura a indiqué qu'il espérait que Sony et ses concurrents puissent s'entendre sur un partage des technologies. Le groupe japonais fait appel à la technologie Wi-Fi sans fil 802.11G pour l'envoi de vidéo entre son lecteur et un téléviseur. Reuters : http://fr.news.yahoo.com/040514/85/3suea.html
|
|
|
|
|
|
|
|
Jeudi, 20/05/2004 - 00:00 |
|
|
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
IBM, en collaboration avec l'université de Stanford, vient d'annoncer la création d'un groupe de réflexion, " the IBM-Stanford Spintronic Science and Applications Center " (SpinApps), consacre au développement des nouvelles générations de processeurs utilisant une technologie originale, appelée spintronique. Dans ces prototypes, les données binaires ne circulent plus sous la forme de charges électriques mais via des flux magnétiques. En effet, dans les processeurs actuels, les informations sont transmises via des charges électriques positives ou négatives, qui passent de transistor en transistor. Or, dans les puces utilisant la technologie spintronique, on agit directement sur le spin (ou orientation magnétique) de l'électron qui peut désormais se trouver dans deux états : haut ou bas. La spintronique offre l'énorme avantage de repousser encore un peu plus loin les limites de puissance des processeurs imposées par la loi de Moore. En effet, avec des puces traditionnelles, le seul moyen d'accroître la vitesse consiste a réduire la distance entre les transistors. Or, les industriels se heurtent aujourd'hui a des limites physiques (si la distance entre deux transistors est trop faible, la charge electrique ne circule plus correctement). Dans les processeurs spintroniques , on utilise directement la ,structure atomique des matériaux, d'ou un gain de puissance appréciable. Selon Stuart Parkin, membre du SpinApps, les fabricants peuvent encore (toujours selon la loi de Moore) améliorer la vitesse des processeurs " électriques " actuels pendant encore cinq a dix ans. Apres, il faudra envisager d'autres technologies. La spintronique constitue une des alternatives les plus crédibles. Selon Robert Morris, président du Almaden Research Center d'IBM, " la spintronique pourrait révolutionner le monde de l'informatique comme l'invention du transistor a révolutionné l'électronique dans les années 50 ". Flash TIC USA : http://www.france-science.org IBM : http://www.ibm.com/news/us/2004/04/261.html
|
|
|
|
|
|
|
|
Jeudi, 20/05/2004 - 00:00 |
|
|
|
|
|
|
|
|
|
|
"On ne peut pas tergiverser. Il faut décider et décider maintenant": venu présenter mardi aux députés le projet de loi d'orientation sur l'énergie, Nicolas Sarkozy a vigoureusement défendu le choix du réacteur EPR pour renouveler le parc nucléaire français vieillissant. Malgré la grogne des écologistes, un premier site sera proposé "avant l'été" pour accueillir le prototype."Le choix de l'EPR est un choix incontournable", a-t-il affirmé à l'ouverture des débats. J'ai "demandé à EDF de réunir dès le lendemain de l'examen de cette loi un conseil d'administration pour préparer le dossier qui sera soumis à la concertation au second semestre" et "pour proposer au gouvernement avant l'été un premier site" pour accueillir le futur démonstrateur. Ce prototype du réacteur européen à eau pressurisée de troisième génération (EPR), proposé par Areva et Siemens, serait opérationnel en 2010. Une série industrielle pourrait être lancée en 2015, en vue d'une mise en service à partir de 2020. La majeure partie des 58 centrales françaises sera alors arrivée en fin de vie. Or, les réacteurs de quatrième génération ne sont pas attendus avant 2045.Ce maintien de l'option nucléaire est fortement contesté par les écologistes, partisans d'un développement des énergies renouvelables et des économies d'énergie. Evoquant de "graves incidents", le réseau Sortir du nucléaire invite à rompre avec l'atome "avant que l'irréparable ne se produise". Le ministre de l'Economie a préféré insister sur la nécessité de garantir l'indépendance énergétique de la France sans nuire à l'environnement, alors que le prix du baril de pétrole flambe. L'EPR "est dix fois plus sûr", "10% moins cher" et "30% plus propre", a-t-il souligné. Vouloir sortir du nucléaire est donc "irresponsable", a-t-il dit, "c'est augmenter nos émissions de CO2 de 30% et notre facture énergétique de 50%". "Ce ne sont quand même pas les éoliennes qui vont remplacer les 58 centrales!"Conscient des réticences, Nicolas Sarkozy a toutefois jugé "capital" d'imposer des obligations de transparence à la filière nucléaire. A cette fin, un projet de loi doit être examiné au Sénat avant l'été. AP : http://fr.news.yahoo.com/040518/5/3t2kt.html
|
|
|
|
|
|
|
|
Jeudi, 20/05/2004 - 00:00 |
|
|
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
L'Univers est en expansion à un rythme toujours plus rapide, ont annoncé des chercheurs britanniques, confirmant ainsi par observation directe à l'aide d'un télescope de la Nasa des théories aux implications fondamentales pour l'avenir du cosmos.Ces conclusions se fondent sur l'observation de "l'énergie sombre" (dark energy) à l'aide du télescope spatial à rayons-X Chandra, ont expliqué les auteurs des travaux réunis à Washington pour une conférence de presse au siège de la Nasa. "L'Univers accélère vraiment, c'est une confirmation directe qui a d'importantes implications pour l'avenir de notre Univers", a estimé Steve Allen, astrophysicien de l'Institut d'astronomie de Cambrigde (Grande-Bretagne) qui a dirigé les travaux. "L'énergie sombre pousse (l'Univers) vers l'extérieur et accélère son expansion", a-t-il ajouté. Les chercheurs ignorent la composition cette énergie. Mais ils estiment que sa densité détermine le rythme de l'expansion de l'Univers. "L'expansion de l'Univers s'accélère et la question est maintenant de comprendre pourquoi", a commenté Paul Hertz, chercheur de la Nasa. "Jusqu'à ce que nous ayons compris ce qui compose l'énergie sombre, toutes les options sont possibles" pour l'avenir de l'Univers, a-t-il dit. Trois scénarios existent en fonction de la densité de l'énergie sombre. Si sa densité demeure constante, l'accélération de l'expansion va se poursuivre et "dans seulement 100 milliards d'années, le ciel au lieu d'être peuplé de milliards de galaxies observables au télescope n'en comportera plus que quelques centaines, ce sera un endroit bien solitaire", a estimé M. Hertz. En revanche, si la densité se réduit, "l'expansion va ralentir jusqu'à un point où l'Univers va s'écrouler de nouveau avant un effondrement" général et à une disparition de l'Univers, avant peut-être un nouveau Big Bang. La troisième option serait une augmentation de la densité de l'énergie sombre, dont l'effet ultime serait "une destruction des atomes composant toute la matière", a-t-il poursuivi. "L'énergie sombre domine l'Univers et pourrait le dominer encore plus" à l'avenir", a encore noté le professeur Allen pour qui la théorie formulée par (Albert) "Einstein d'une densité constante de l'énergie sombre paraît être un bon modèle" de travail pour les chercheurs. Mais "tant que nous n'aurons pas une meilleure compréhension de l'accélération cosmique et de la nature de l'énergie sombre, nous ne pourrons pas comprendre le destin de l'Univers", a résumé Michel Turner, chercheur indépendant de l'Université de Chicago et de la Fondation nationale des sciences américaine. Les chercheurs ayant mené l'étude estiment que l'univers est composé à 75% d'énergie sombre, à 21% de matière sombre (dark matter) et de 4% seulement de matière normale telle que celle composant la Terre. Pour leurs travaux, les scientifiques ont étudié 26 amas de galaxies à des distances situées de un à huit milliards d'années lumière, une échelle de temps comprenant l'époque où l'expansion de l'Univers a connu un ralentissement après le Big Bang, avant d'accélérer sous l'effet de répulsion exercé par l'énergie sombre. NS : http://www.newscientist.com/news/news.jsp?id=ns99995007
|
|
|
|
|
|
|
|
Alors qu'une menace pèse sur les vols habités depuis l'accident de la navette Columbia, paradoxalement, l'accès à l'espace à un public de plus en plus large semble se rapprocher.SpaceShipOne, cet étrange vaisseau spatial, mi-avion mi-fusée, dont la vocation est d'emmener des touristes en vol suborbital, a ainsi effectué jeudi son troisième vol habité. Au départ de l'aéroport de Mojave, en Californie, l'engin, lancé par un avion porteur baptisé White Knight (chevalier blanc) et piloté par Mike Melvill, a atteint cette fois une altitude de 64 kilomètres, battant un nouveau record. Voici un mois, au cours de son deuxième vol propulsé, SpaceShipOne avait dépassé Mach 2, soit deux fois la vitesse du son, à 32 kilomètres d'altitude. Son concepteur, l'ingénieur Burt Rutan, a pour ambition de faire vivre à ses futurs clients commerciaux les sensations de l'état d'apesanteur au-delà de l'atmosphère et leur permettre d'admirer la courbure de la Terre. Et ce pour quelques milliers de dollars, soit moins qu'un vol en Concorde. Qu'est-ce comparé aux 20 millions de dollars déboursés par les deux premiers touristes de l'espace qui se sont envolés en capsule russe Soyouz à destination de la station spatiale internationale ? Il s'agit de la première initiative privée de vols habités. Prise par la société américaine Scaled Composites de Burt Rutan, réputée pour son sérieux, son coût, estimé 20 à 30 millions de dollars, est financé par un des cofondateurs de Microsoft, Paul Allen. Aussi hardie qu'étonnante, cette extraordinaire aventure qui rappelle l'ère des pionniers de l'espace s'inscrit dans le cadre du «X-Prize», un trophée de 10 millions de dollars lancé en 1996 qui récompensera la première entreprise privée à réaliser deux vols suborbitaux à plus de 100 kilomètres d'altitude en deux semaines avec trois hommes à bord. Scaled Composites, qui a obtenu de l'Administration aérienne fédérale américaine le 1er avril dernier la première autorisation de vol pour une fusée privée, apparaît aujourd'hui comme le grand favori. Mais 23 équipes, comme le Canadien Da Vinci qui tente de réaliser cet exploit avec un ballon, sont engagés dans cette compétition. Figaro : http://www.lefigaro.fr/sciences/20040515.FIG0134.html
|
|
|
|
|
|
|
|
Deux agents en combinaison antistatique s'activent précautionneusement autour de Calipso, collant là un ruban adhésif, connectant ici un fil électrique. Le satellite de 600 kg est encore en phase d'essai dans les laboratoires d'Alcatel Space à Cannes (Alpes-Maritimes). Sa "charge utile" - ses instruments d'observation -, débarquée à Nice au début de l'année sur un camion américain sorti directement d'un gros-porteur de l'US Air Force, a été rattachée à la plate-forme Proteus développée par l'industriel. Après moult tests, l'ensemble repartira aux Etats-Unis, pour être lancé en tandem, le 15 avril 2004, en compagnie de son cousin Cloudsat par une fusée Delta 2 depuis la base de Vandenberg (Californie). Ces engins figurèrent parmi les wagons de ce que la NASA a baptisé le "A-Train", une constellation qui comprendra à terme six satellites suivant la même trajectoire à quelques secondes d'intervalle. "Un tel vol en formation de satellites observant une même scène avec toute une panoplie d'instruments constitue une première", assure Vincent Cassé, responsable de programmes Atmosphérique, Météorologique et Climat au Centre national d'études spatiales (CNES). Ce convoi, bardé de radars, de radiomètres, de spectromètres, de lidars et de caméras infrarouges, aura notamment en ligne de mire les aérosols, ces poussières d'origine naturelle et artificielle, et les nuages, deux des composantes les plus méconnues de la machine climatique. Selon leur altitude et leur épaisseur, les nuages peuvent avoir un effet totalement différent. Fins et situés en altitude, les cirrus piègent le rayonnement infrarouge réfléchi par la Terre - c'est l'effet de serre, dont la vapeur d'eau est le contributeur le plus important. Plus près du sol, les stratocumulus, leurs cousins plus épais, aux moutonnements d'albâtre, réfléchissent beaucoup plus les rayons du Soleil vers l'espace. On parle alors d'effet parasol. Les satellites déjà existants ne permettent pas de faire le bilan de ces mécanismes antagonistes, car ils ne sont pas en mesure d'évaluer la distribution verticale et l'épaisseur des nuages. La mesure des aérosols souffre de lacunes similaires. Ces fines particules peuvent masquer en partie la lumière solaire - cette pollution contrant dans ce cas l'influence des rejets de gaz à effet de serre. Mais ces fines poussières modifient aussi les propriétés des nuages qu'elles assombrissent. Elles servent en outre de noyau aux gouttelettes, elles aussi plus fines, ce qui diminue leur chance de précipiter en pluie et allonge la durée de vie des nuages (Le Monde du 19 avril). Ce sont ces différents phénomènes que le A-train va tenter de quantifier. Le satellite Aqua de la NASA, en orbite depuis le 4 mai 2002, fait figure de locomotive avec ses presque trois tonnes. Son quasi jumeau, Aura, devrait sonder l'atmosphère à partir de juin. Puis Parasol, un satellite du CNES de 120 kg, devrait les rejoindre en orbite fin 2004, avant l'arrivée de Calipso (NASA-CNES) et Cloudsat (NASA-Agence spatiale canadienne). OCO (NASA), chargé de mesurer les émissions de CO2, n'arrivera pas avant 2007. Chaque satellite sera affecté à une "boîte" spatio-temporelle à l'intérieur de laquelle il ne pourra dévier que très légèrement. Cloudsat devra ainsi se maintenir 12,5 secondes en avance sur Calipso, avec une tolérance de plus ou moins 2,5 secondes de dérive. Durant ses trois années en orbite, le "A-Train" devrait moissonner suffisamment de données, espèrent ses concepteurs, pour permettre aux climatologues d'affiner leurs modèles. Le Monde : http://www.lemonde.fr/web/article/0,1-0@2-3238,36-365016,0.html
|
|
|
|
|
|
|
|
Jeudi, 20/05/2004 - 00:00 |
|
|
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
L'équipe de Christopher Simons et de James Quinn, de l'université McMaster (Ontario-Canada), s'était déjà fait connaître en décembre 2002 . Ils avaient mis en évidence des mutations génétiques chez des souris exposées à une forte pollution. Ils avaient enfermé ces animaux pendant dix semaines dans une cage, à côté d'une autoroute et de deux grosses aciéries de la région de Hamilton Harbour. Cette région, située à l'extrémité ouest du lac Ontario, est l'une des plus polluées du Canada. Les taux de mutations repérées chez ces souris étaient deux fois plus élevés que chez leurs soeurs qui se trouvaient durant la même période dans une zone rurale assez reculée. Les Canadiens avaient découvert à cette occasion que les mutations génétiques des pères «contaminés» se retrouvaient chez leurs souriceaux. Dans le cadre de l'étude publiée aujourd'hui, les biologistes canadiens ont voulu montrer de manière plus directe l'impact des microparticules sur l'ADN. C'est pourquoi ils ont modifié les conditions d'élevage de leurs deux lots de souris : si le premier était toujours exposé directement à la pollution, le second était abrité dans une niche munie de filtres à particules à haute efficacité (Hepa). Une manière simple et directe de savoir si les mutations peuvent être imputées ou non aux poussières d'hydrocarbures aromatiques polycycliques (HAP), des substances connues depuis plus d'une vingtaine d'années pour être mutagènes et cancérigènes. «Les chercheurs canadiens allument un clignotant qu'il faut prendre très au sérieux», commente Bernard Jegou, spécialiste de la reproduction à l'Inserm (3). Il n'y a pas que le tabac. Même si les biologistes de l'université McMaster ne savent pas quelles anomalies peuvent transmettre les mutations génétiques qu'ils ont identifiées (elles se trouvent sur une partie de génome non codant), leur travail démontre bel et bien que les HAP provoquent des mutations chez les mâles. Et pas seulement chez la femelle gestante et le foetus, comme on l'a longtemps cru. «Il est difficile de croire que l'ADN non codant qui correspond à près de 90% du génome humain ne sert à rien», souligne Bernard Jegou. Beaucoup d'incertitudes demeurent encore sur le lien entre la santé humaine et l'environnement. Une problématique émergente dans notre pays, alors qu'elle est étudiée depuis longtemps dans les pays anglo-saxons et en Europe du Nord. Les rongeurs ont un cycle de vie très rapide. Pour se rassurer, on est donc en droit de penser qu'ils sont plus fragiles que l'homme. Certes. Faute de pouvoir extrapoler ces résultats à notre espèce, ce type d'études menées sur des animaux sentinelles invite néanmoins à la vigilance. C'est la conviction du biologiste de l'Inserm. L'étude canadienne ouvre d'ailleurs quantité de perspectives intéressantes. Elle pourrait permettre, par exemple, de savoir si les mutations disparaissent si les animaux sont soumis à d'autres conditions environnementales. Figaro : http://www.lefigaro.fr/sciences/20040514.FIG0338.html
|
|
|
|
|
|
|
|
Jeudi, 20/05/2004 - 00:00 |
|
|
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Le diabète entraînerait un risque accru de 65% d'être frappé par la maladie d'Alzheimer, selon une étude américaine réalisée auprès de 824 religieuses, prêtres et moines catholiques qui renforce la thèse sur un lien entre les deux pathologies.Dirigée par les Dr Zoe Arvanitakis et David Bennett du Centre médical universitaire Rush à Chicago, cette recherche est publiée dans l'édition du mois de mai des Archives de Neurologie.Les 824 sujets, âgés de 55 ans et plus au début de l'étude, ont été suivis pendant six ans en moyenne. La maladie d'Alzheimer a touché 151 d'entre eux, dont 31 souffraient de diabète, une carence ou un défaut d'utilisation de l'insuline provoquant un excès de sucre dans le sang. Les chercheurs ont estimé que le risque d'être atteint par Alzheimer, une maladie dégénérative du cerveau, était à 65% plus important pour les diabétiques.Le lien reste fort même lorsque les chercheurs font entrer en ligne de compte la prévalence des attaques cérébrales, une complication courante du diabète, qui sont considérées comme un facteur de risque pour la maladie d'Alzheimer. De précédentes recherches avaient déjà établi un lien entre le diabète et les problèmes de mémoire, alors que la maladie est connue pour endommager les vaisseaux irriguant le cerveau. Mais jusqu'à présent les études s'attachant spécifiquement aux relations entre le diabète et la maladie d'Alzheimer avaient donné des résultats contradictoires."C'est l'une des premières études à long terme qui suive des sujets ne présentant pas de symptômes d'Alzheimer et qui recherche de quelle manière le diabète affecte leur risque de développer cette maladie", estime William Thies, vice-président chargé des affaires médicales et scientifique de l'Association Alzheimer. "C'est un argument puissant pour faire tout ce que l'on pouvait pour contrôler son taux de sucre dans le sang", la glycémie. Le diabète de type 2, forme la plus courante chez les plus de 40 ans, peut souvent être contrôlé ou même guéri par une alimentation saine et de l'exercice.Le Dr George King du Centre du diabète Joslin à Boston, considère la nouvelle étude comme "très importante à la lumière de l'explosion du diabète" aux Etats-Unis, qui touche quelque 18 millions d'Américains. Ce chiffre devrait doubler avant 2050. Si le lien est confirmé, dit-il, il entraînerait une augmentation proportionnelle des cas de la maladie d'Alzheimer.La prochaine étape pour les chercheurs consistera à identifier de quelle façon le diabète pourrait favoriser la maladie d'Alzheimer. Certains chercheurs pensent que le diabète pourrait causer une surabondance de glucose dans le cerveau, ce qui endommagerait les neurones. AP : http://fr.news.yahoo.com/040518/5/3t1wv.html
|
|
|
|
|
|
|
|
Les chercheurs de l'Unité Inserm " Carcinogenèse hépatique et virologique moléculaire " ont utilisé la technique d'isolation selon la taille des cellules tumorales ou ISET (pour Isolation by Size of Epithelial Tumor Cells) sur 44 patients atteints de cancer primitif du foie. En parallèle, ils ont également appliqué cette approche à 3 autres groupes de patients : des patients-témoins (en bonne santé), des patients présentant une hépatite chronique, et des patients avec cirrhose du foie. Les tumeurs primitives du foie, ont la particularité de rarement donner lieu à la formation de métastases. Le décès des patients est finalement causé par la diffusion de la tumeur au niveau du foie. L'application de cette technique (brevetée en 2000 par l'équipe de Patrizia Paterlini-Bréchot) aux cellules tumorales, est rendue possible par les caractéristiques morphologiques de ces cellules. De tailles remarquablement élevées (diamètre supérieur à 25 microns, soit 25 millième de millimètre) comparées aux autres cellules du sang, elles présentent également un noyau volumineux et de forme irrégulière. Leur isolement s'effectue grâce à un filtre comprenant des pores de faibles dimensions (8 microns) qui retiennent uniquement les cellules de taille supérieure. La méthode est très sensible et plus spécifique que celles basées sur les interactions anticorps-antigène qui ont montré leurs limites : elle peut détecter jusqu'à une cellule tumorale par millilitre de sang. Une fois collectées sur le filtre, les cellules larges sont analysées pour identifier celles avec caractéristiques franchement tumorales. ISET permet également, et de façon unique, de détecter les agrégats de cellules tumorales (appelés microemboles) qui exposent le patient à un risque accru de développer des métastases. Les résultats, obtenus par l'analyse de seulement 3 millilitres de sang, montrent que la circulation des cellules tumorales dans le sang est bien un signe de progression de la tumeur chez les patients atteints de cancer primitif du foie. Les chercheurs de l'Inserm mettent en évidence que la présence et le nombre de ces cellules tumorales circulantes sont bien associés de manière significative à une survie écourtée. Aucune cellule tumorale n'a par ailleurs été détectée dans le sang des 38 sujets sains, des 30 patients avec hépatites chroniques et des 39 patients avec cirrhose. Les données préliminaires présentées aujourd'hui suggèrent que l'identification et le comptage des cellules tumorales dans le sang chez des patients avec cancer pourrait constituer un outil pronostique cliniquement important, susceptible d'orienter les choix thérapeutiques de façon précoce et ciblée chez les patients dont la tumeur est à plus fort risque d'évoluer vers une forme invasive. Le faible coût de cette technique, applicable à toutes les tumeurs solides, simple d'utilisation et ne nécessitant, pour le patient, qu'une prise de sang, sont des atouts supplémentaires pour un plus large développement. Pour l'heure, " cette étude, concluent les auteurs - portant sur un nombre limité de patients -, doit être établie à plus large échelle et sur des patients avec différents types de cancer solide pour valider la valeur prédictive de l' approche ISET".A plus long terme, la possibilité de détecter, par ISET, des mutations de gènes spécifiquement associés aux premières étapes d'invasion tumorale représente une voie de recherche prometteuse. Inserm : http://www.inserm.fr/servcom/servcom.nsf/(Web+Startup+Page)?ReadForm&actualite
|
|
|
|
|
|
|
|
Les biotechnologies offrent un grand potentiel pour l'agriculture des pays en développement même s'il ne s'agit pasd'unepanacée,a affirmé lundi l'Organisation pour l'Agriculture et l'Alimentation (FAO), en déplorant que peu d'agriculteurs de ces pays en aient profité jusqu'ici. Dans son rapport annuel sur la sécurité alimentaire 2003-2004, la FAO affirme que "les cultures vivrières de base des laissés pour compte (manioc, pomme de terre, riz et blé) reçoivent peu d'attention de la part des scientifiques". "Ni le secteur privé, ni le secteur public n'ont investi des sommes importantes dans les nouvelles technologies génétiques en faveur des +cultures orphelines+ comme la dolique, le millet, le sorgho et le teff", souligne Jacques Diouf, Directeur général de la FAO. "Les scientifiques conviennent généralement que les cultures transgéniques produites actuellement et les aliments qui en sont dérivés peuvent être consommés", a déclaré M. Diouf, en ajoutant toutefois qu'ils "connaissent mal leurs effets à long terme". "Les doutes légitimes concernant la sécurité sanitaire de chaque produit transgénique doivent être levés avant leur dissémination", a mis en garde M. Diouf, soulignant qu'une surveillance permanente s'impose. La FAO fait dans le même temps valoir dans son rapport que "les biotechnologies sont un des outils de la révolution génétique". "La controverse sur les cultures transgéniques ne devrait pas détourner l'attention du potentiel offert par d'autres applications des biotechnologies, notamment la génomique, la sélection assistée par des marqueurs et les vaccins vétérinaires", poursuit-elle. La FAO souligne en effet que dans les 30 années à venir, l'agriculture devra nourrir 2 milliards de personnes de plus. En outre, plus de 70% des pauvres du monde vivent en milieu rural. Les nouvelles technologies permettent notamment d'accroître les rendements et d'améliorer la qualité nutritionnelle des aliments. Ces biotechnologies peuvent en outre fournir aux agriculteurs du matériel végétal exempt de maladies, permettre d'élaborer des variétés résistantes aux ravageurs et aux maladies. Les études montrent que beaucoup de cultures intéressantes pour les agriculteurs des pays pauvres sont négligées par la recherche, note l'organisation. La FAO souligne l'absence de programmes publics ou privés ciblant les variétés végétales ou animales dont ces agriculteurs tirent leur subsistance. Le rapport note ainsi que le gros des investissements du secteur privé concerne seulement quatre cultures : coton, maïs, colza et soja. Six pays (Argentine, Brésil, Canada, Chine, Afrique du Sud et Etats-Unis), quatre cultures (maïs, soja, colza "canola" et coton) ainsi que deux caractéristiques (résistance aux insectes et tolérance aux herbicides) représentaient 99% de la superficie mondiale des cultures transgéniques en 2003. Mais beaucoup de pays en développement ont peu de chance de tirer profit de la révolution génétique en raison de la faiblesse de leurs capacités nationales de recherche agricole. Dans le contexte de la mondialisation, la recherche biotechnologique est maintenant dominée par le secteur privé. Les dix premières compagnies transnationales spécialisées dans le domaine dépensent près de 3 milliards de dollars par an sur la recherche-développement, relève le rapport. Par comparaison, le Brésil, la Chine et l'Inde, qui sont les pays en développement ayant les meilleurs programmes de recherche agricole publics, dépensent chacun moins d'un demi milliard de dollars par an. Dans les rares pays en développement où des cultures transgéniques ont été introduites, les petits paysans en ont largement profité. En Chine, plus de 4 millions de petits paysans font pousser du coton résistant aux insectes sur environ 30% de la superficie nationale plantée de coton. Les rendements de cette variété ont été 20 fois plus élevés et le coût des pesticides inférieur d'environ 70%. FAO : http://www.fao.org/newsroom/en/news/2004/41714/index.html
|
|
|
|
|
|
|
|
Une équipe de l'Institut national de la santé et de la recherche médicale (Inserm) annonce lundi avoir localisé chez la souris plusieurs gènes impliqués dans la sévérité de l'hémochromatose, une maladie génétique caractérisée par une absorption excessive de fer au niveau de l'intestin.L'étude menée par l'équipe coordonnée par Marie-Paule Roth (Inserm, Toulouse) est publiée dans la revue scientifique "Gastroenterology". Une découverte importante car les régions chromosomiques homologues chez l'homme pourraient être impliquées dans la variabilité de l'hémochromatose. Dans un communiqué, les chercheurs soulignent que l'hémochromatose est une maladie génétique caractérisée par une absorption excessive de fer au niveau duodénal. Le fer s'accumule principalement dans le foie et peut conduire à l'apparition de complications sévères, parfois fatales: cirrhose, cancer hépatocellulaire...Le seul traitement existant consiste à diminuer les stocks de fer de l'organisme par "saignées". Ce traitement est efficace s'il est débuté avant l'apparition des complications, ce qui souvent n'est pas le cas, le diagnostic précoce étant difficile à établir. Chez l'homme, la mutation responsable de l'hémochromatose a été identifiée en 1996 dans le gène HFE. Elle est extrêmement fréquente dans les populations originaires du Nord de l'Europe. Suivant les pays, entre 3 et 10% des individus possèdent deux exemplaires du gène HFE muté.Paradoxalement, seule une partie de ces individus va développer une hémochromatose. En effet le gène HFE n'est pas suffisant à lui seul pour provoquer une surcharge en fer sévère. D'autres gènes, dits gènes modificateurs, encore non identifiés, sont également impliqués dans cette maladie. Leur identification est essentielle car elle permettra de limiter le suivi médical et la mise en place du traitement aux seuls individus qui risquent de développer des complications. Pour localiser ces gènes modificateurs, les chercheurs de l'Inserm ont utilisé un modèle d'hémochromatose, constitué par des souris chez lesquelles le gène HFE a été rendu non fonctionnel. En fonction de leur fond génétique, ces souris développent une surcharge en fer d'intensité variable. L'étude a permis de localiser quatre régions sur les chromosomes 7, 8, 11 et 12, contribuant de façon très significative à la modulation de la surcharge en fer de l'organisme.Les gènes modificateurs responsables de la sévérité de l'hémochromatose sont vraisemblablement situés dans des régions homologues chez l'homme. Leur localisation conduira à une meilleure compréhension des mécanismes contrôlant l'homéostasie du fer et au développement de nouvelles voies thérapeutiques moins contraignantes pour les patients. AP : http://fr.news.yahoo.com/040517/5/3szh5.html
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
C'est un combat juste, car c'est un combat pour les artistes, pour la création, pour la diversité culturelle. » Le message de Jacques Chirac a de quoi réconforter les producteurs de films et de musique. Le Président de la République les a assurés de son soutien dans leur lutte contre le piratage des oeuvres culturelles, « qu'il s'agisse du trafic des cassettes vidéo, de la copie sauvage de disques ou de l'échange de fichiers protégés sur Internet. » C'est le ministre de la Culture, Renaud Donnedieu de Vabres, qui a délivré le message du Président, hier dimanche 16 mai, lors d'une table ronde réunissant à Cannes des patrons de studios de cinéma, des diffuseurs et des réalisateurs du monde entier. Jacques Chirac a fustigé les citoyens peu scrupuleux, « tentés de considérer, au nom de la liberté, parfois de l'insouciance, parfois même de la démagogie, que les films, les musiques, et, d'une façon générale, toutes les oeuvres doivent être accessibles à tous, immédiatement et gratuitement. » Le message du Président constitue sans aucun doute un signal fort de sa volonté de combattre le piratage, dont les premières victimes seraient les artistes eux-mêmes. Le plan du Gouvernement, dévoilé par le ministre de la Culture, passera par une campagne d'informations et de sensibilisation à destination des jeunes, conformément aux voeux du Président pour qui « le système légitime de rémunération des artistes et des créateurs doit être expliqué pour être mieux compris et mieux défendu. » Le Gouvernement en appelle aussi à un meilleur dialogue entre les fournisseurs de contenus et les fournisseurs d'accès à Internet afin de favoriser l'émergence d'une offre de musique légale payante, capable de dissuader les échanges illicites de fichiers sur Internet. La lutte contre le piratage passera également par la répression. Un véritable arsenal juridique sera bientôt à la disposition des titulaires de droits. D'ici à quelques mois, la réforme de la loi informatique et liberté autorisera à constituer de véritables fichiers d'infractions, afin de traquer plus efficacement les contrevenants. L'évolution de la loi sur les droits d'auteur éxaminée le mois prochain au Parlement, permettra de mieux protéger les contenus (CD, DVD) en punissant toute tentative de contourner les dispositifs de protection anti-copie. Enfin,la loi sur l'économie numérique adoptée la semaine dernière, clarifie la responsabilité des fournisseurs d'accès dans la lutte contre le piratage. Jacques Chirac annonçait hier sa volonté que « la France renforce ses moyens et son action pour lutter contre les graves atteintes à la propriété artistique. » Visiblement, c'est chose faite. OINet : http://www.01net.com/article/242827.html Recherche&Innovation Colloques & Manifestations
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|