RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 264
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 07 Novembre 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La France, 7e du palmarès de l'Onu sur le e-gouvernement
L'impact économique du haut débit sur une petite ville... et sur un grand pays
Microsoft lance la reconnaissance vocale pour appareils mobiles
Avenir
Des nanoparticules pour rendre les empreintes digitales plus précises
Matière
Isolation électrique des transistors : Intel franchit un pas décisif
Espace
Découverte de la galaxie la plus grande et la plus chaude de l'univers
La NASA mise sur le moteur aérobie
Terre
Le fond des océans, dernière frontière à explorer
Les satellites GPS détectent les tremblements de terre
Vivant
Des nanobombes antitumeurs
Le thé vert et la tomate réduisent sensiblement les risques de cancer de la prostate
Maladie cardiaque : traitement prometteur à base de "bon" cholestérol
Maladie cardiaque : Des chercheurs recommandent le suivi dès l'adolescence
Maladies à prion: des souris infectées se rétablissent pour la première fois
La maladie de Creutzfeldt-Jakob est peut-être transmissible aussi par la viande
Des chercheurs trouvent un gène inversant la progression du cancer du sein
Découverte d'un gène impliqué dans la régulation de l'appétit
Cancer de la prostate : un gène responsable identifié ?
Toucher les lettres améliore l'apprentissage de la lecture
Edito
L'ascenseur spatial, un rêve qui pourrait devenir réalité



Développé il y a 25 ans dans le fameux roman de science-fiction Arthur C. Clarke "Les fontaines du Paradis", le concept d'ascenseur spatial, montant le long d'un câble de 100.000 km s jusqu'à une station située en orbite géostationnaire fait désormais l'objet d'un véritable intérêt scientifique et n' apparaît plus comme un rêve inaccessible. Une conférence scientifique de haut niveau consacré à cet extraordinaire projet vient d'ailleurs de se tenir à Santa Fe (Nouveau Mexique) avec la participation, en vidéoconférence, depuis son domicile de Ceylan, d' Arthur C. Clarke qui a réaffirmé pour l'occasion sa foi dans l'utilité et la faisabilité de ce projet avant la moitié de ce siècle. Il est vrai que depuis le roman de Clarke la technologie a considérablement progressée avec notamment la découverte, en 1991, des nanotubes de carbones (découverte pressentie de manière géniale par Clarke qui avaient imaginé dans son roman des "hyperfilaments" aux propriétés physiques proches des nanotubes de carbones).

A la lumière de ces progrès technologiques, le projet initial qui semblait un peu fou et pour beaucoup irréalisable, a fait depuis plusieurs années l'objet d'études de faisabilité scientifique rigoureuse qui ont débouché, en mars 2003, sur le rapport final du NIAC (Agence Nationale des Concepts Avancés), qui conclut à l'intérêt économique et scientifique de ce projet et sa faisabilité pour un coût raisonnable (voir le dossier du NIAC www.niac.usra.edu/files/studies/final_report/pdf/521Edwards.pdf, la présentation de la NASA http://flightprojects.msfc.nasa.gov/fd02_elev.html, et l' article de Space.com Business

http://www.space.com/businesstechnology/technology/space_elevator_020327-1.html). S'appuyant sur ce rapport, la réunion organisée par Bryan Laubscher, chercheur du Los Alamos National Laboratory, a permis d'entendre plus de 20 présentations sur tous les aspects de cet ascenseur de l'espace, de ses méthodes de construction à son coût, en passant par les dangers qu'il peut présenter pour l'environnement. La faisabilité d'un tel projet est devenu une réalité avec la mise au point au début des années 1990 des nanotubes, ces tubes microscopiques d'un diamètre de l'ordre du nanomètre, formés d'une ou de plusieurs feuilles de carbone d'une résistance largement supérieure à tous les matériaux de construction actuels. "Le premier qui construira un ascenseur spatial sera propriétaire de l'espace", a estimé M. Laubscher en expliquant qu'un tel ascenseur pourrait se déplacer le long d'un câble "long de 100.000 Km qui permettrait de transporter une charge utile au-delà de la ceinture d'astéroïdes", du système solaire. Pour lui, "de nombreux projets d'exploration spatiale déjà élaborés peuvent être repensés dans le contexte de l'existence d'un ascenseur spatial". Le chercheur David Smitherman, du centre spatial Marshall de la Nasa, a décrit la technologie de l'ascenseur spatial "dont la structure s'étendrait de la surface de la Terre jusqu'à une orbite géostationnaire, donnant à l'ensemble de la structure une rotation synchrone avec la Terre et maintenant sa position au-dessus de sa base située à l'équateur". Il a estimé qu'"une telle structure pourrait être utilisé comme système de transport de masse dans la dernière partie du XXIe siècle, pour le transport des personnes, de charges utiles, de carburant et d'électricité entre la Terre et l'Espace". Pour cet expert de la Nasa, la construction de l'ascenseur est rendue possible par les nanotechnologies qui ont permis la mise au point de nanotubes "dont la résistance est plusieurs centaines de fois supérieure à l'acier". Il a également cité les recherches en propulsion électromagnétique pour le transport à grande vitesse, une technologie qui servira selon lui le véhicule électromagnétique devant voyager dans l'Espace. La Nasa finance déjà des projets privés de recherche pour un tel ascenseur, parmi lesquels HighLift Systems, une société de Seattle (état de Washington, ouest) qui a créé en mars 2003 une première filiale LiftPort Inc, destinée à "transformer les recherches déjà menées en applications commerciales", a expliqué le président de l'entreprise, Michael Laine. Même la société américaine Otis a exprimé son soutien au projet dès 2000 en informant la Nasa que le numéro un mondial des ascenseurs avait "ce qu'il faut" pour aider l'agence spatiale américaine à réaliser son rêve. L'ascenseur spatial repose sur une idée simple, géniale et révolutionnaire : remplacer les fusées -au coût exorbitant, gourmandes en énergie et polluantes- par un câble reliant une station spatiale à la terre, le long duquel on pourrait hisser sur orbite, pour un coût 10000 fois plus faible, des véhicules de transport de passagers ou de fret. Selon les études, l'énergie requise pour hisser une charge utile de 6 tonnes sur orbite ne reviendrait qu'à 17700 dollars, soit 1,48 dollar/kg, contre 22000 dollars/kg aujourd'hui avec une navette spatiale. L'envoi d'un passager avec bagage (de l'ordre de 150 kg) ne coûterait que 222 dollars. Quant au coût de la construction de cet ascenseur, il est estimé à quelque 40 milliards de dollars, un coût tout à fait raisonnable, compte tenu de l'utilité et de la longévité de cet ascenseur spatial, et bien moindre que la construction de l'actuelle Station spatiale internationale qui devrait revenir à 60 milliards de dollars. Concrètement, l'ascenseur serait constitué d'un ensemble de câbles d'une longueur de 91000 km. Ce filin serait mis en orbite à l'aide d'une navette spatiale aidée de quelques propulseurs supplémentaires, qui, une fois en orbite géostationnaire, serviraient de contrepoids. Les forces centripètes repousseraient alors la partie haute du filin vers l'espace tandis que la partie basse serait attirée par la Terre, mettant le tout en tension. Ce premier lien serait capable d'envoyer plus d'une tonne en orbite. Il suffira ensuite d'utiliser ce premier câble pour en mettre en orbite de nouveaux. Ces filins seront constitués de nanotubes de carbone. Ces molécules composées de plusieurs milliers d'atomes de carbone sont 50000 fois moins épaisses qu'un cheveu et 600 fois supérieure à celle de l'acier à poids égal! Mais le plus gros défi technologique serait de construire 91000 Km de nanotubes car aujourd'hui la technologie ne permet d'en construire seulement quelques centimètres. Pourtant en seulement 4 ans les progrès dans ce domaine ont été considérables : en 1999, le plus long nanotube réalisé mesurait 100 nm. Aujourd'hui, certains laboratoires sont capables de faire croître des nanotubes jusqu'à ce qu'ils atteignent une longueur de 200 millions de nanomètres c'est-à-dire 20 cm. Autre défi, le ratio actuel nanotube/résine époxy est de 60/40. Il faudra réussir à descendre à 98/2. Une fois construit, l' ascenseur spatial pourrait permettre d'acheminer en orbite géostationnaire, à un coût mille fois moindre qu'aujourd'hui, des hommes et du matériel. Cette possibilité ouvrirait naturellement des perspectives immenses en matière de conquête, d'exploration et d'exploitation de l'espace, tant sur la plan scientifique qu'industriel. Il serait notamment possible de construire de grandes centrales solaires orbitales à un coût accessible aux pays en voie de développement, mais aussi de vastes unités de production de médicaments ou de matériaux nécessitant une fabrication en apesanteur. On pourrait également construire en orbite les vaisseaux d'exploration du système solaire, vaisseaux qui partiraient directement de bases orbitales, et non plus de la terre, ce qui permettrait d'énormes économies de poids et d'énergie. Ce projet d'ascenseur spatial pourra sembler à beaucoup utopique, irréalisable ou même fantaisiste. Je crois qu'il n'en n'est rien et que ce fantastique projet deviendra une réalité plus tôt que nous pouvons le penser. Rappelons-nous qu'il y a bientôt 100 ans, le vol historique des frères Wright ouvrait l'ère de l'aviation. Les enfants qui avaient été témoins de cet évènement pouvaient-ils un instant imaginer qu'ils verraient, seulement 66 ans plus tard, l'homme marcher sur la lune ! Avec l'ascenseur spatial, la conquête de l'espace entrera dans une nouvelle dimension et l'Humanité, après l'exploration de notre système solaire et la colonisation de Mars, pourra préparer, à l'aube du XXIIe siècle, son grand saut vers les étoiles.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
La France, 7e du palmarès de l'Onu sur le e-gouvernement
Samedi, 08/11/2003 - 00:00

La Grande-Bretagne et les Etats-Unis occupent les deux premières places du classement mondial des "e-gouvernements" établi par l'Onu, qui a publié une étude sur les efforts des Etats pour expliquer leur action en ligne et associer les citoyens aux prises de décision grâce à internet. La France occupe la septième position de ce classement sur la "e-participation" des citoyens à l'action gouvernementale, à égalité avec les Pays-Bas, selon l'étude des Nations unies intitulée "Rapport mondial 2003 sur le secteur public - Le e-gouvernement à la croisée des chemins". Un deuxième palmarès, dominé par les Etats-Unis et la Suède, distingue les pays les plus actifs en matière de "e-administration", c'est-à-dire l'accès en ligne aux services publics et aux procédures administratives. Alors que de nombreux pays en développement ont peu de réalisations à leur actif dans chacun des deux domaines, certains autres, comme le Chili, les Philippines, le Mexique et l'Argentine, font mieux que nombre de pays riches en matière de consultation des citoyens via internet. "De nombreux gouvernements se tournent vers les services en ligne pour diminuer la paperasserie ou pour développer leur infrastructure numérique", a déclaré dans un communiqué Jose Antonio Ocampo, sous-secrétaire général de l'Onu pour les affaires économiques et sociales. "Mais nous voyons aussi l'internet commence un moyen de faire progresser et de consolider les valeurs de transparence et de démocratie dans la pratique générale des administrations publiques." Dans cette catégorie, définie par l'Onu comme la "e-participation", les chercheurs de l'Onu n'ont trouvé que 15 gouvernements ayant lancé des services en ligne via leurs sites web pour demander aux citoyens leur avis sur les décisions en cours. Les Etats-Unis arrivent en tête en matière de e-participation, suivis par la Grande-Bretagne. Le Chili et le Canada sont troisième ex aequo, devant l'Estonie, la Nouvelle Zélande, les Philippines, puis la France et les Pays-Bas, à égalité en septième position. Parmi les autres pays figurant dans les 20 premières places, on trouve également l'Australie, le Mexique, l'Argentine, l'Irlande, la Suède, la Corée du Sud, l'Italie, Singapour, la Suisse et le Danemark.

ONU : http://www.un.org/News/fr-press/docs/2003/PI1519.doc.htm

L'impact économique du haut débit sur une petite ville... et sur un grand pays
Samedi, 08/11/2003 - 00:00

Le Département du commerce et de l'industrie (DTI) britannique publie une étude très positive, réalisée par le Strategic Networks Group, sur les conséquences économiques du réseau métropolitain de fibre optique de South Dundas, une agglomération de 10 800 habitants de l'Ontario (Canada). Selon l'étude les conséquences de l'existence du réseau sur l'économie de l'agglomération seraient un accroissement du Produit intérieur brut (PIB) de 25 millions de dollars sur deux à quatre ans (pour un coût complet de l'ordre de 1,5 million de dollars) et un gain de 207 emplois. L'impact pour la province de l'Ontario serait également significatif. L'étude montre qu'il existe une étroite corrélation entre la connexion d'une entreprise aux hauts débits et sa capacité à créer des emplois - mais il reste difficile de déterminer s'il existe un lien direct de cause à effet entre les deux. Aux Etats-Unis, le New Millenium Research Council (Nmrc), un think tank privé, publie une étude du cabinet Criterion Economics sur "L'effet de l'adoption généralisée des hauts débits sur l'investissement, l'emploi et l'économie américaine". L'étude évalue successivement le "surplus" créé pour les consommateurs, l'impact sur la demande d'ordinateurs et d'appareils électroniques et l'investissement généré chez les acteurs du marché pour répondre à la demande. Elle glisse en revanche rapidement sur l'impact économique des nouveaux services et usages, faute de données tangibles, et conclut que la généralisation des hauts débits pourrait créer de l'ordre de 140 000 emplois par an d'ici 2021 et ajouter 10 à 15 milliards de dollars au PIB annuel. Un travail méthodologiquement assez fragile, malgré l'abondance de chiffres, mais qui présente l'intérêt de fixer des ordres de grandeur.

Futura : http://www.futura-sciences.com/sinformer/n/news2679.php

Les effets de la généralisation des réseaux haut débit sur l'économie américaine :

http://www.newmillenniumresearch.org/archive/bbstudyreport_091703.pdf

Microsoft lance la reconnaissance vocale pour appareils mobiles
Samedi, 08/11/2003 - 00:00

Microsoft a lancé ses logiciels de reconnaissance vocale permettant d'utiliser la plupart des fonctions des téléphones mobiles et d'ordinateurs de poche sans passer par leurs claviers, parfois difficiles d'utilisation à cause de la petite taille de leurs touches. Microsoft Voice Command sera vendu pour 40 dollars supplémentaires avec le logiciel Windows Mobile Pocket PC pour les assistants personnels et la version Pocket PC pour les téléphones mobiles, a précisé le premier fabricant mondial de logiciels, qui tente d'étendre ses parts de marché au-delà des seuls ordinateurs de bureau. La commande vocale, mise au point par l'unité de Microsoft chargée de créer les logiciels utilisés dans l'électronique automobile, permet d'appeler quelqu'un simplement en prononçant son nom, de lancer des applications, de contrôler les fonctions du téléphone et de prendre connaissance de son agenda. "Un environnement mobile dans lequel la distraction est dangereuse et l'utilisation des claviers impossible est un des moments où la commande vocale est la plus utile", a déclaré Dick Brass, vice-président des technologies utilisées pour les automobiles.

Reuters : http://fr.news.yahoo.com/031103/85/3h868.html

^ Haut
Avenir
Nanotechnologies et Robotique
Des nanoparticules pour rendre les empreintes digitales plus précises
Samedi, 08/11/2003 - 00:00

L'utilisation de nanoparticules s'attachant avidement aux moindres traces grasses laissées par les doigts pourrait permettre à la police d'obtenir des empreintes digitales plus précises qu'avec les techniques actuelles. La poudre fluorescente utilisée actuellement adhère déjà aux empreintes grasses que font les extrémités des doigts, parce que ces traces elles-mêmes sont collantes. Mais les empreintes relevées ne sont pas toujours assez précises pour confondre un suspect. Les nanoparticules que tente de mettre au point l'université du Sunderland, en Grande-Bretagne, rechercheraient activement toute molécule grasse. Ces minuscules billes de verres, de 200 à 600 nanomètres (milliardième de mètre) de diamètre, sont en effet enduites de molécules hydrophobes, repoussées par l'eau et attirées par tout lipide. Egalement rendues fluorescentes, ces nanoparticules feraient ressortir le plus infime détail des embranchements et terminaisons des arcs et tourbillons des empreintes digitales, selon le professeur Fred Rowell (Sunderland University). Pour y intéresser la police, il a présenté ce projet lors de la conférence sur les nanotechnologies pour la prévention et la détection de la criminalité (Nanotechnology in Crime Prevention and Detection) la semaine dernière à Londres.

New Scientist : http://www.newscientist.com/news

^ Haut
Matière
Matière et Energie
Isolation électrique des transistors : Intel franchit un pas décisif
Samedi, 08/11/2003 - 00:00

Le fabricant américain de puces électroniques Intel vient de présenter des avancées dans la maîtrise d'une technologie d'isolation des circuits électriques qui pourrait lever le principal obstacle vers des microprocesseurs toujours plus puissants. Le premier fondeur mondial a dévoilé lors de l'International Gate Insulator Workshop, à Tokyo, ses découvertes sur un matériau hautement isolant, appelé "high-k dielectric", au pouvoir isolant supérieur au dioxyde de silicium traditionnellement utilisé par l'industrie électronique depuis environ 30 ans. A mesure que les fondeurs de microprocesseurs augmentent la densité de transistors afin d'accroître la puissance des puces, les circuits électriques de plus en plus fins tendent à devenir victimes de déperdition électrique, ce qui diminue l'autonomie des ordinateurs portables et augmente le dégagement de chaleur, contraignant les constructeurs à utiliser de coûteux systèmes de refroidissement. Intel et ses concurrents ont jusqu'ici respecté la "loi de Moore", du nom d'un des cofondateurs d'Intel, Gordon Moore, qui a prédit en 1965 que le nombre de transistors présents sur les processeurs doublerait tous les 18 mois. En augmentant sans cesse le nombre de ces petits interrupteurs qui s'ouvrent et se ferment des millions de fois par seconde et en les faisant tenir sur des surfaces de plus en plus réduites, les fondeurs ont pu augmenter sans grande innovation technologique la puissance des processeurs. Alors que le premier processeur Pentium d'Intel contenait 3,1 millions de transistors en 1993, le Pentium 4 actuel avoisine les 55 millions, et on devrait atteindre en 2007 le milliard de transistors embarqués sur un seul processeur d'une taille inférieure à celle d'un timbre-poste. En février dernier, Moore lui-même avait estimé que sa loi resterait valable pendant encore une décennie environ. Mais il a averti que le problème de déperdition d'énergie devait être résolu pour réduire la chaleur dégagée par des microprocesseurs, tellement chargés en transistors que leur état devient "proche de la densité électrique d'un réacteur nucléaire". "Le problème électrique est le plus important pour l'industrie à l'heure actuelle", a renchéri Rob Willoner, un analyste d'Intel. Comme le nouveau matériau isolant exploité par Intel n'est pas compatible avec les électrodes en silicium oxydé actuelles qui déterminent si un transistor est ouvert ou fermé, Intel devra utiliser du métal pour de nouvelles électrodes, a-t-il précisé, sans révéler la composition de ces nouveaux matériaux. Intel a affirmé être en mesure d'utiliser ces nouveaux concepts pour une production industrielle à partir de 2007, soit à peu près en même temps que la technologie de gravure des circuits électriques d'une finesse de 45 nanomètres, contre 130 actuellement.

Intel : http://www.intel.com/pressroom/archive/releases/20031105tech.htm

^ Haut
Espace
Espace et Cosmologie
Découverte de la galaxie la plus grande et la plus chaude de l'univers
Samedi, 08/11/2003 - 00:00

Une équipe internationale d'astronomes utilisant de puissants télescopes à Hawaï affirme avoir découvert la galaxie la plus grande, la plus brillante et la plus chaude jamais observée dans l'univers. Située à 12 millions d'années-lumière, la galaxie "Arc du Lynx" contiendrait plus d'un million d'étoiles brûlantes. Sa découverte a été annoncée jeudi par les observatoires W.M. Keck à Hawaï et rapportée dans le dernier numéro de l'"Astrophysical Journal". En temps normal, la galaxie ne peut être observée car ses étoiles sont apparues il y a très longtemps et sont très éloignées de la Terre. Mais l'utilisation de puissants télescopes et surtout un phénomène naturel dit de "lentille gravitationnelle", qui améliore la vision de l'objet céleste depuis la Terre, ont permis de changer la donne. Le super-amas d'étoiles serait apparu seulement 2 milliards d'années après la création de l'univers. S'il n'est pas unique, la vue qu'en ont obtenu les chercheurs l'est, souligne l'astronome Bradford Holden, de l'Université de Californie. L'attraction gravitationnelle de la lumière venant d'une galaxie proche a étiré et amplifié naturellement l'image de l'amas. Ce phénomène a rendu Arc du Lynx plus brillant et visible que d'autres amas similaires. Auparavant, la galaxie apparaissait aux astronomes comme un "arc rouge curieux" derrière la galaxie la plus proche, précise Bradford Holden. Il ajoute que l'observation de l'amas, favorisée par l'effet de lentille gravitationnelle, est une "coïncidence heureuse". La découverte a été réalisée par une équipe internationale d'astronomes et de chercheurs, dont Bradford Holden, dirigée par Bob Fosbury, de l'Agence spatiale européenne (ESA). Dans un communiqué, ce dernier souligne que cette percée marque une nouvelle étape dans les recherches qui pourraient permettre un jour d'observer les premières étoiles apparues après la création de l'univers. "Cet objet remarquable est le plus proche de ce à quoi les objets primordiaux pourraient ressembler lorsque nous aurons des télescopes assez puissants pour les observer", a-t-il expliqué. Arc du Lynx contient plus d'un million d'étoiles qui sont deux fois plus chaudes que les étoiles de notre galaxie, la Voie lactée, a souligné Bob Fosbury. Les chercheurs ont utilisé des télescopes optiques par rayons-X et infrarouges pour réaliser la découverte.

AP : http://fr.news.yahoo.com/031031/5/3h2tf.html

La NASA mise sur le moteur aérobie
Samedi, 08/11/2003 - 00:00

Allied Aerospace a été sélectionné par la NASA et l'US Air Force pour construire et tester le démonstrateur supersonique X-43C. Ce programme de 149 M$ s'étalera sur 5 ans et demi. L'équipe, composée de Boeing Phantom Works et de Pratt & Whittney, utilisera un moteur aérobie de type scramjet pour accélérer le démonstrateur de Mach 5 à Mach 7. Le X-43C aura une vitesse de croisière de 7700 km/h à une altitude de 30 km. 3 démonstrateurs sont prévus dont le premier dès 2007. Allied Aerospace avait déjà construit le démonstrateur X-43A. L'utilisation de moteurs aérobies permettrait d'alléger le poids des futures navettes spatiales. Elles n'auraient plus à emporter leur propre comburant (oxygène liquide) qui représente actuellement 25% de la masse totale du système navette spatiale (600 tonnes). La NASA travaille aussi au développement de moteurs à turbine pouvant accélérer une navette de 0 à Mach 5. La NASA espère construire un lanceur à propulsion aérobie réutilisable dès 2025. L'USAF est pour sa part intéressée par des missiles à propulsion aérobie. Les recherches actuelles ont été effectuées pour la plupart en soufflerie ou grâce à des modèles numériques. Le premier démonstrateur, Hyper-X, s'était écrasé en juin 2001. Le démonstrateur suivant, le X-43D, sera destiné à atteindre Mach 15. L'Air Force Research Laboratory a obtenu un contrat de 49 M$ de l'USAF allant jusqu'en 2010, dénommé Robust Scramjet, pour continuer les recherches sur les technologies de propulsion aérobie. L'AFRL n'envisage pas pour l'instant de construire un démonstrateur. Les recherches de l'AFRL resteront centrées sur la réusabilité (50 à 500 fois), le développement de nouveaux matériaux composites et l'amélioration des technologies de refroidissement.

Etats Unis Espace : http://www.france-science.org/usa-espace

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le fond des océans, dernière frontière à explorer
Samedi, 08/11/2003 - 00:00

Le fond des océans est la dernière frontière à explorer, au potentiel énorme, où moins d'hommes se sont aventurés que sur la Lune, selon un rapport des Académies nationales américaines présenté mardi, qui appelle au lancement d'un programme doté de 100 millions de dollars par an."Le fond de l'océan est la frontière la moins explorée sur Terre, les sous-marins existants, pilotés par l'homme ou automatisés, ne peuvent atteindre les parties les plus profondes de la mer", a estimé Shirley Pomponi, vice-président du comité chargé par le Congrès américain d'un rapport sur le potentiel scientifique des grands fonds. Ce rapport, réalisé par le conseil de recherche des Académies nationales, au rôle de conseil en matière scientifique, préconise le lancement d'un programme multidisciplinaire d'exploration des océans qui "augmenterait le rythme des découvertes de nouvelles espèces, écosystèmes, sources d'énergie, caractéristiques des fonds marins, produits pharmaceutiques". "Cela améliorerait aussi notre compréhension du rôle des océans dans les changements climatiques", écrivent encore les auteurs. "De vastes portions de l'océan restent inexplorées. Alors qu'une dizaine d'hommes ont marché sur la Lune, deux seulement ont voyagé vers les plus grandes profondeurs de l'océan, et seulement 30 minutes à chaque fois", notent-ils encore avant de détailler le potentiel de cette recherche pour la découverte de nouvelles sources d'énergie notamment. Le rapport préconise de confier l'organisation de cette recherche à une entité non gouvernementale, plus créative et moins coûteuse, qui pourrait tirer son financement de plusieurs sources publiques américaines, ainsi que de pays étrangers. Les auteurs de l'étude fixent le budget de recherche à environ 270 millions de dollars la première année puis à environ 100 millions chaque année, avec une option basse à 70 millions par an.

Ocean Explorer : http://oceanexplorer.noaa.gov/

Les satellites GPS détectent les tremblements de terre
Samedi, 08/11/2003 - 00:00

Les travaux réalisés par l'institut de Physique du Globe de Paris et le California Institute of Technologie, à l'occasion du tremblement de terre de magnitude 7,9 de Denali, en Alaska le 3 novembre 2002, ont permis de repérer les perturbations de la ionosphère. Ces perturbations ont pu être détectées dans la ionosphère par la constellation des satellites GPS (destinés à la géolocalisation). La ionosphère est cette région de notre atmosphère chargée en particules et située entre 75 et 1000 kilomètres d'altitude. Ces fluctuations, nommées 'scintillations ionosphériques', peuvent entraîner des délais dans la transmission des informations, des erreurs de navigation, et même parfois un isolement complet de certaines localisations. Ces interférences ne présentent pas d'inconvénient particulier en usage habituel du GPS, mais leur interprétation pourrait représenter une avancée dans les travaux des scientifiques. D'autant que les variations locales de densité des électrons permettent d'établir en temps réel une carte des fluctuations de la ionosphère. Ainsi, dans le cas des tremblements de terre, des vagues sismiques parcourent le sol, à l'image des vagues de l'océan. Les plus importantes se nomment les 'Rayleigh Waves'. Ce sont elles qui entraîneraient les perturbation de la ionosphère par la propagation d'ondes acoustiques. Les scientifiques cherchent donc à séparer les petites vagues de perturbation des électrons des variations plus importantes. Le réseau européen Galileo, en doublant la couverture satellitaire du GPS, va permettre au projet français DEMETER (Detection of Electro-Magnetic Emissions Transmitted from Earthquake Regions) du CNES, lancé dès 2004, d'affiner la détection des signaux sismiques, volcaniques ou humains dans la ionosphère. Les travaux conjoints des deux instituts ont été publiés dans la revue scientifique 'Geophysical Research Letters'. Ils vont sans nul doute permettre de justifier un peu plus le projet européen Galileo, concurrent du GPS américain.

Silicon,.fr : http://www.silicon.fr/click.asp?id=2910

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des nanobombes antitumeurs
Samedi, 08/11/2003 - 00:00

Des chercheurs de Houston (Rice University) développent actuellement une nouvelle méthode d'ablation thermique des tumeurs solides. Leur stratégie se fonde sur l'utilisation de deux entités, les « nanoshells » (une catégorie de nanoparticules) et la lumière proche infrarouge, totalement bénignes si elles sont utilisés indépendamment l'une de l'autre, mais qui acquièrent un fort pouvoir cytotoxique lorsqu'elles sont combinées. Des résultats préliminaires démontrent l'efficacité de la méthode aussi bien in vitro sur des cellules tumorales humaines en culture que in vivo sur des tumeurs greffées à des souris. Les nanoshells sont des nanoparticules composées d'un noyau sphérique de silice recouvert d'une fine couche de métal, généralement de l'or. En contrôlant le diamètre de leur noyau et l'épaisseur de la « coquille » métallique, il est possible de modifier les propriétés physiques et, en particulier, le pic d'absorption optique de ces particules. Les chercheurs ont fabriqué des nanoshells dont le diamètre du noyau est d'environ 110 nm et l'épaisseur de la couche d'or de 10 nm. en injectant ces particules dans des tumeurs et en éclairant les tissus avec de la lumière proche infrarouge, les nanoshells absorbent les ondes optiques et provoquer un échauffement des tissus suffisant pour conduire à la mort des cellules tumorales. L'utilisation d'ondes proches infrarouges est particulièrement intéressante pour ce type d'application car ces radiations ne sont pas absorbées par la majorité des tissus vivants. Ainsi, seul les tissus ciblés par les nanoshells seront échauffés par cette longueur d'onde. En outre, les proches infrarouges pénètrent relativement profondément dans les tissus. La faisabilité de cette stratégie thérapeutique étant démontrée, les auteurs souhaitent maintenant l'améliorer en testant l'effet de nanoshells couplées à des anticorps dirigés contre des oncoprotéines. Cette astuce permettrait l'administration systémique de nanoparticules capables de cibler et de s'accumuler au niveau des tumeurs et des métastases présentes dans un organisme.

BBC : http://news.bbc.co.uk/2/hi/health/3238373.stm

Le thé vert et la tomate réduisent sensiblement les risques de cancer de la prostate
Samedi, 08/11/2003 - 00:00

Des chercheurs américains des universités de l'Illinois et de l'Ohio viennent de confirmer le rôle protecteur du lycopène. Leur étude publiée dans le Journal de l'Institut National du Cancer montre que le lycopène ingéré sous forme de plats cuisinés (pizzas, sauce tomate, tomate cuites ect..) réduit de 32% chez le rat le risque de mortalité par cancer de la prostate. Fait intéressant, c'est l'ensemble des constituants de la tomate qui apportent une réduction du risque de cancer de la prostate et non le seul lycopène. Dans les tomates on trouve notamment d'autres caroténoïdes (comme le bêta-carotène), des composés polyphénoliques (comme la quercitine), d'autres composés phénoliques, de la vitamine C, de la vitamine E et des folates. Comme une bonne nouvelle n'arrive jamais seule, une autre étude menée par des chercheurs australiens et chinois montre que la consommation quotidienne de thé vert réduit les risques de cancer de la prostate des deux tiers. L'étude menée conjointement par l'Université de Curtin à Perth (ouest de l'Australie) et l'Hôpital de Hangzhou (est de la Chine), spécialisé dans le traitement des cancers, a également révélé que chez les hommes qui buvaient du thé en grande quantité et depuis de nombreuses années, la réduction des risques pouvait être encore supérieure, a rapporté le journal West Australian. Le professeur Colin Binns de Perth a indiqué que deux chercheurs chinois avaient comparé 130 Chinois atteints du cancer de la prostate à 274 autres qui ne souffraient pas de cette maladie. Le principal résultat est que les hommes qui boivent du thé tous les jours ont trois fois moins de chances de contracter le cancer de la prostate que ceux qui n'en boivent pas. Les chercheurs ont précisé qu'ils avaient eu recours à des Chinois pour cette étude parce qu'il y a en Chine un bien plus grand nombre de personnes qui ne boivent que du thé. "L'étude a démontré que les effets bénéfiques du thé (contre le cancer) augmentaient avec la quantité et la durée de consommation, mais même les personnes qui boivent peu de thé en tirent bénéfice", a indiqué M. Binns. L'an dernier, les mêmes chercheurs avaient découvert que la consommation de thé pouvait également réduire les risques de cancer des ovaires.

BBC : http://news.bbc.co.uk/2/hi/health/3239483.stm

AFP : http://fr.news.yahoo.com/031105/202/3heqq.html

Maladie cardiaque : traitement prometteur à base de "bon" cholestérol
Samedi, 08/11/2003 - 00:00

Une substance de synthèse à base de "bon" cholestérol a permis d'améliorer l'état de santé de patients atteints de maladie coronarienne, selon une étude menée sur un groupe limité de patients, à paraître mercredi aux Etats-Unis. L'injection en intraveineuse de cette substance de synthèse "peut se traduire par la régression de l'athérosclérose chez des patients" présentant des cas aigus de maladie coronarienne, selon les résultats préliminaires de cette étude publiée dans le Journal of the American Medical Association. La substance utilisée est la version synthétique d'un type de cholestérol présent à un niveau plus élevé au sein d'une petite population du nord de l'Italie, qui bénéficie d'une plus grande longévité et de taux plus bas que la moyenne d'athérosclérose. Cette substance injectée (Apolipoprotéine-A-I Milan/phospholipides) a pris pour cibles des dépôts de lipides dans les artères chez des patients affectés d'athérosclérose, selon les travaux menés par le Dr Steven Nissen, de la Cleveland Clinic Foundation. L'étude n'a porté sur 47 patients entre novembre 2001 et mars 2003. 11 patients ont reçu un placébo, 21 une faible dose de la substance de synthèse et 15 une forte dose de cette substance. Les chercheurs, tout en rappelant le caractère limité de l'étude, concluent que cet essai a "fait la preuve d'une régression rapide de l'athérosclérose", estimant que "le potentiel de cette nouvelle approche devait être exploré sur un groupe de patients plus important, avec un suivi plus long". Pour la première fois en effet, cette étude montre que la maladie coronarienne peut être combattue par un médicament aux effets notables en quelques semaines, soulignent les chercheurs. Le cholestérol est composé de lipoprotéines du sérum sanguin à faible densité, le "mauvais" cholestérol auquel on attribue la formation de dépôts de dans les parois des artères, et de lipoprotéines de haute densité, le bon cholestérol contenant de fortes concentrations de protéines et de faibles concentrations de triglycérides. L'athérosclérose se caractérise par des lésions qui touchent la paroi interne de l'aorte et des artères de gros calibre, entraînant des rétrécissements en plaque qui réduisent le calibre des artères jusqu'à l'obstruction.

JAMA : http://jama.ama-assn.org/cgi/content/abstract/290/17/2292

Maladie cardiaque : Des chercheurs recommandent le suivi dès l'adolescence
Samedi, 08/11/2003 - 00:00

Des chercheurs recommandent de pratiquer des tests sur certains adolescents pour prédire leurs risques d'être frappés de maladie cardiovasculaire à l'âge adulte, un dépistage dont la fiabilité est décrite dans deux études à paraître mercredi aux Etats-Unis. "Nos résultats montrent que les enfants et adolescents présentant plusieurs facteurs (de la maladie) ont un risque accru d'être frappés d'athérosclérose à l'âge adulte", écrivent les auteurs finlandais d'une étude menée sur 2.200 enfants et adolescents de 3 à 18 ans, et sur ces personnes 21 ans plus tard. La seconde étude, menée sur 486 personnes par des chercheurs de Tulane University en Louisiane arrive à la même conclusion, en mettant en avant le niveau de cholestérol comme le meilleur outil pour prédire la survenance de maladie à un jeune âge, selon les travaux publiés dans le Journal of the American Medical Association. Dans un éditorial accompagnant les études, deux chercheurs, Henry Mc Gill et Alex McMahan, recommandent de mesurer le taux de cholestérol dès l'adolescence. Ils sont également en faveur de tests cliniques utilisant des techniques d'imagerie pour examiner les artères d'adolescents à risque d'athérosclérose. "Ces résultats suggèrent que nousdevrions mesurer le cholestérol entre l'âge de 12 et 20 ans", a estimé le Dr McGill, de l'université du Texas à San Antonio, dans le but de "retarder les crises cardiaques que nous voyons chez les personnes de 40, 50 et 60 ans, étant donné qu'un tiers des crises cardiaques sont fatales". En outre "l'émergence de techniques d'imagerie non-effractives pourrait offrir la possibilité d'essais cliniques chez de jeunes personnes", écrivent les chercheurs en espérant "identifier des personnes ayant des lésions avancées précoces" et suivre la réactions de ces lésions aux traitements donnés. L'athérosclérose se caractérise par des lésions qui touchent la paroi interne de l'aorte et des artères de gros calibre, entraînant des rétrécissements en plaque qui réduisent le calibre des artères jusqu'à l'obstruction.

Caducée : http://www.caducee.net/afp/edit.asp?id_depeche=18066

Maladies à prion: des souris infectées se rétablissent pour la première fois
Samedi, 08/11/2003 - 00:00

Pour la première fois, des animaux de laboratoire ont pu se rétablir d'une maladie neurologique contagieuse à prion, telles la maladie de la vache folle et sa forme humaine, le nouveau variant du Creutzfeldt-Jakob, selon des chercheurs britanniques. Leurs travaux, publiés dans la revue américaine Science, apportent une lueur d'espoir en montrant qu'on peut se rétablir - au moins chez la souris - de ces maladies qui sont actuellement de véritables sentences de mort. Aucun traitement ne guérit ces maladies (Creutzfeldt-Jakob classique ou son nouveau variant, la forme humaine de la maladie de la vache folle, tremblante du mouton, dépérissement chronique du cerf), qui donnent à la cervelle des allures d'éponge. Toutes sont caractérisées par la transformation d'une protéine prion naturellement présente dans le cerveau en une forme anormale. Les auteurs avancent qu'un intermédiaire toxique pendant la conversion des prions à l'intérieur des neurones pourrait être la cause ultime des maladies à prion. "Sur le plan de la recherche thérapeutique, ces travaux suggèrent qu'on se tromperait de cible et qu'il faudrait non pas s'attaquer à la forme anormale mais à la forme normale de la protéine prion" pour tenter d'enrayer la maladie, indique le Pr Jean-Philippe Deslys, expert de ces maladies à prion (France). John Collinge et Giovanna Mallucci (Institut de neurologie de Londres) ont créé des souris mutantes pour débarrasser leurs neurones des prions normaux, afin de vérifier si cela pouvait influer sur le cours de la maladie, qui leur est inoculée. La diminution de prions normaux dans les neurones de ces souris modifiées "a empêché la progression de la maladie et permis aux rongeurs infectés une longue survie", affirment-ils. Elle s'est accompagnée, alors que leur cervelle se trouvait envahie par le prion pathologique (mais pas encore dans les neurones), d'une disparition des premières lésions de spongiose qu'on croyait irréversible, "tout en prévenant la perte des neurones et la progression de la maladie clinique", notent les auteurs. Pour parvenir à ce résultat, l'astuce a consisté à neutraliser l'action d'une enzyme (la "Cre recombinase"), mais de façon à ce que ses effets n'interviennent qu'après la 12e semaine de vie des animaux. Avant cet âge, la protéine normale est présente dans les neurones des souris transgéniques. Peu après leur naissance, les chercheurs ont contaminé (avec une souche de tremblante) les souriceaux permettant ainsi au prion anormal de se propager dans le système nerveux central. Vers l'âge de douze semaines, alors que les souris ne manifestaient pas de symptômes de la maladie, leur cervelle présentait déjà des trous d'éponge, mais le prion pathologique ne s'était pas encore infiltré dans les neurones, selon Science. Ce stade pourrait correspondre au tout début de la maladie chez l'homme, marqué par de subtiles modifications intellectuelles et motrices qui ne peuvent être mises en évidence chez des souris. A ce moment, intervient la modification génétique apportée par les chercheurs: la commande (le gène) de la fabrique de la protéine normale dans les neurones est éteinte. Les neurones ont beau être cernés par des hordes de prions neurotoxiques continuant à s'accumuler dans d'autres cellules du cerveau, ils n'en sont pas affectés. Plus d'un an après - ce qui est très long rapporté à la vie humaine - ces souris "vivent une vie normale", selon Science. Les souris ayant servi de comparaison ont toutes succombé après avoir été contaminées.

Science : http://sciencenow.sciencemag.org/

La maladie de Creutzfeldt-Jakob est peut-être transmissible aussi par la viande
Samedi, 08/11/2003 - 00:00

Il n'est pas exclu que la maladie classique de Creutzfeldt-Jakob (MCJ) puisse être provoquée aussi par de la viande contaminée. C'est à cette conclusion qu'est parvenue une équipe de l'Hôpital universitaire de Zurich en Suisse qui a pu mettre au point une méthode de détection ultrasensible qui a révélé la présence de prions de la MCJ dans les tissus musculaire et la rate de personnes décédées. L'étude est publiée dans le "New England Journal of Medicine". La MCJ classique est une maladie au cours de laquelle le cerveau est envahi par des prions, protéines dont la structure s'est modifiée de manière anormale. Jusqu'ici, les prions de la MCJ classique étaient mis en évidence dans le système nerveux central. Avec la nouvelle variante de la MCJ (nvMCJ), des prions ont aussi été découverts dans des organes périphériques. Or la nvMCJ, selon les chercheurs zurichois, est très vraisemblablement la conséquence d'une contamination par des produits provenant de bovins souffrant de la maladie dite de la vache folle (ou encéphalopathie spongiforme bovine, ESB). Il en résulte, selon l'équipe d'Adriano Aguzzi et Markus Glatzel, que la MCJ pourrait aussi être transmise par des tissus musculaires et lymphatiques contaminés. Les auteurs soulignent toutefois que les quantités de prions découvertes dans les muscles et la rate des victimes sont environ mille fois moindres que dans le cerveau. Cette découverte devrait désormais permettre de diagnostiquer la maladie à partir de biopsies des muscles ou des ganglions. Car, jusqu'à présent, à l'exception de la biopsie cérébrale - seule façon d'établir le diagnostic avec certitude -, les médecins n'étaient en mesure de confirmer la maladie qu'après la mort du patient, par autopsie. L'observation des médecins suisses signifie aussi que tous les chirurgiens - et pas seulement les neuro-chirurgiens - vont devoir redoubler de prudence lors de leurs interventions pour éviter des transmissions accidentelles de la maladie par le biais de leurs instruments. La forme sporadique de la MCJ, aussi appelée forme classique, est caractérisée par une démence. Elle touche des individus des deux sexes de 60 à 65 ans, de façon sporadique. Elle affecte environ une personne par million d'habitants et par an. Elle ne doit pas être confondue avec la nouvelle forme de la maladie due, elle, à un nouveau variant qui frappe des patients sans aucun antécédent pouvant laisser soupçonner une origine familiale ou iatrogénique, c'est-à-dire provoquée par le médecin ou le traitement suivi. Aucune des formes de la maladie de Creutzfeldt-Jakob n'est curable : au fil des mois ou des années, des "trous" apparaissent dans le cerveau des malades qui prend des allures d'éponge (spongiforme). Toutes les formes de MCJ sont caractérisées par la transformation d'une protéine prion naturellement présente dans le cerveau en une forme anormale.

NEJM : http://content.nejm.org/cgi/content/short/349/19/1812

Des chercheurs trouvent un gène inversant la progression du cancer du sein
Samedi, 08/11/2003 - 00:00

Des spécialistes du cancer du sein ont pu démontrer la possibilité de bloquer et même d'inverser la progression de ce cancer sur des souris en agissant sur un gène qui s'apparente à un interrupteur pour cette maladie, selon des travaux présentés durant une conférence à Sacramento (Californie).Cette découverte identifie de nouvelles cibles moléculaires pour des médicaments visant à prévenir ou à éradiquer le cancer du sein chez la femme, selon l'équipe de chercheurs américains, canadiens et suisses ayant mené ces travaux. "C'est très encourageant, nos résultats suggèrent une façon de modifier la progression biologique du cancer du sein pour traiter plus efficacement et même potentiellement prévenir ce cancer", a estimé Robert Cardiff, professeur à l'école de médecine de l'Université de Californie à Davis, qui a dirigé l'étude. Les scientifiques ont pu démontrer que la désactivation d'un seul gène appelé beta-1 intégrine était suffisante pour prévenir ou arrêter la croissance du cancer du sein chez des souris. Ce gène régule la croissance normale des tissus cellulaires du sein et leur survie. Si son fonctionnement est perturbé, il peut provoquer la formation de tumeurs. Les chercheurs ont pu désactiver ce gène, empêchant le développement du cancer du sein chez des souris sujettes à la maladie et arrêtant la croissance des tumeurs chez les souris déjà affectées. "Cette étude montre que la présence du gène beta-1 intégrine est absolument essentielle au développement des tumeurs de la glande mammaire. Nous disposons maintenant d'une bonne cible et le défi est de mettre au point le médicament qui peut bloquer son activité", a expliqué William Muller, professeur de biochimie à l'université McGill de Montréal, qui a co-dirigé l'étude. Les travaux ont été présentés dimanche lors de la 24e conférence de l'International Association for Breast Cancer Research.

AFP : http://fr.news.yahoo.com/031103/202/3hc1a.html

Découverte d'un gène impliqué dans la régulation de l'appétit
Samedi, 08/11/2003 - 00:00

Une étude franco-anglaise dirigée par le professeur Philippe Froguel (CNRS, Institut de biologie de Lille, Institut Pasteur de Lille) révèle que les personnes obèses ayant un appétit excessif présente sans doute une anomalie génétique touchant le gène GAD 2 qui augmente le risque d'obésité sévère, en agissant à la fois sur le comportement alimentaire et sur la production d'insuline. Problème de santé publique aux dimensions d'épidémie internationale, l'obésité touche plus de 300 millions de personnes dans le monde, dont 5,3 millions en France, où elle progresse de 6 % par an. Ses causes sont multiples, mêlant des facteurs de risque environnementaux (accès illimité à la nourriture et sédentarité), des prédispositions génétiques au surpoids et de faibles dépenses énergétiques. Certains gènes, tous exprimés dans la région du cerveau qui contrôle l'appétit - l'hypothalamus -, peuvent être par simple mutation responsables de formes rares d'obésité. La plupart des formes d'obésité sévère relèveraient plutôt de variations de plusieurs gènes de susceptibilité, comme le confirme cette étude franco-anglaise. En étudiant 575 sujets sévèrement obèses et 646 sujets non obèses, l'équipe franco-anglaise a identifié un groupe de variations génétiques agissant comme un facteur protecteur vis-à-vis de l'obésité et une variation accroissant ce risque. Il est apparu que la forme "à risque" du gène GAD 2 multipliait par six son activité. Cette surexpression du gène accroît notablement la quantité du neurotransmetteur GABA au niveau de l'hypothalamus et son effet stimulateur de la prise alimentaire. "Les sujets possédant cette forme particulière du gène GAD 2 sont moins restreints dans leur comportement alimentaire, explique Philippe Froguel. Il s'agit d'un trait génétique qui l'emporte nettement sur des facteurs culturels de comportement." Cet effet d'une variation génétique particulière du gène GAD 2 est renforcé par un autre mécanisme se déroulant, cette fois, non pas au niveau cérébral mais dans le pancréas. Le gène GAD 2 est, en effet, fortement présent dans les cellules de cette glande qui fabrique deux hormones décisives dans la régulation du taux de sucre dans le sang : l'insuline - qui le fait diminuer - et le glucagon - qui l'augmente. Le même polymorphisme génétique responsable de la production excessive du GABA dans le cerveau entraîne une importante modification de la sécrétion d'insuline. Lorsqu'un sujet normal commence à s'alimenter, la sécrétion d'insuline qui va suivre donnera un signal de satiété et le sujet s'arrêtera de manger. Chez des sujets obèses ayant la variation génétique "à risque" de GAD 2, le premier pic de sécrétion d'insuline après le repas, qui est le plus important, est diminué. Ce second mécanisme pourrait donc concourir au développement de l'obésité sévère. Ce neurotransmetteur GABA semble donc bien impliqué de manière déterminante dans la régulation de l'appétit.

Library of Science Biology : http://www.plosbiology.org

Cancer de la prostate : un gène responsable identifié ?
Samedi, 08/11/2003 - 00:00

Avec 10 000 morts chaque année dans un pays comme la France, le cancer de la prostate est la seconde cause de mortalité masculine par cancers. D'après une équipe américaine, cette affection pourrait avoir une origine génétique. Aux Etats-Unis, le Dr Jianfeng Xu et ses collaborateurs, de la Wake Forest University School of Medicine, ont découvert une mutation génétique susceptible d'être liée au développement du cancer de la prostate. Celle-ci porterait sur le gène CYPIBI. Pour les auteurs, cette découverte représente une avancée importante. « Elle devrait également permettre de mieux identifier les sujets à risques et les aider ainsi, à prévenir la maladie » expliquent-ils. Des études complémentaires sont toutefois au programme afin d'en savoir davantage, notamment pour déterminer dans quelle mesure ce gène interagit avec d'autres agents cancérogènes.

British Medical Journal : http://bmj.bmjjournals.com/

Toucher les lettres améliore l'apprentissage de la lecture
Samedi, 08/11/2003 - 00:00

Toucher des lettres en relief, au moment de l'acquisition de la lecture, facilite son apprentissage par les jeunes enfants de grande section d'école maternelle, selon une nouvelle étude. Ces résultats, publiés jeudi dans l'Année Psychologique sont issus des recherches menées par Edouard Gentaz, chargé de recherche au CNRS (Laboratoire cognition et développement, CNRS - Université Paris 5), Pascale Colé et Florence Bara, du laboratoire de psychologie et neurocognition (CNRS - Université Grenoble 2 - Université de Savoie). Les chercheurs expliquent avoir étudié deux types d'apprentissage de la lecture, différentes par les sens qu'ils mettent en jeu. Au total, 26 enfants âgés de cinq ans ont suivi un entraînement, le premier, classique, sollicitant uniquement la vision et l'audition. Le second entraînement, "multisensoriel", faisait appel, en plus de la vision et de l'audition, au toucher. Les enfants touchaient les lettres, suivant de l'index les contours d'une lettre cursive en relief avec, puis sans l'aide de la vision. Les chercheurs expliquent que chaque programme était composé de six séances (une par semaine) où les enfants travaillaient une lettre (a, i, r, t, p, b) et le son correspondant pendant 30 minutes. Les deux programmes proposaient par ailleurs des jeux destinés à développer les capacités à manipuler les syllabes, les rimes et les phonèmes des mots parlés, la connaissance des lettres et des associations lettres-sons. Les chercheurs ont mesuré les performances de chaque enfant avant et après les programmes à l'aide, notamment, de tests de lecture de pseudo-mots comme "ti, ita, ari". Or, un enfant ne peut lire un pseudo-mot que s'il a compris le principe de représentation des sons par les lettres de notre système alphabétique. Les résultats montrent que les enfants lisent deux fois plus de pseudo-mots après l'apprentissage multisensoriel qu'après l'apprentissage classique. Les chercheurs expliquent ces résultats par les spécificités du fonctionnement de chaque sens à l'âge de cinq ans. Selon eux, l'ajout du toucher obligerait l'enfant à traiter les lettres étudiées de manière plus analytique, ce qu'il ne fait pas implicitement lorsque les lettres sont présentées uniquement visuellement. De ce fait, l'association avec le son de la lettre, traité auditivement, en serait favorisée.

AP : http://fr.news.yahoo.com/031106/5/3hi3t.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top