|
|
Edito
2010 : l'Odyssée de l'esprit
Nous sommes en Mars 2010. En ce premier jour du Printemps, tous les internautes mondiaux, reprenant une habitude déjà ancienne des internautes français de la préhistoire se sont donné Rendez-Vous sur la Toile pour se souhaiter une belle Fête de l'Internet. Dans quelques mois sera célébré le vingtième anniversaire de l'ouverture du premier site Web qui, comme une petite flamme, fut allumé en décembre 1990. Le nombre d'internautes vient officiellement de franchir la barre du milliard selon la dernière estimation de la très puissante WWO (World Web Organization), la nouvelle et puissante instance mondiale indépendante chargée depuis quelques mois de veiller au respect des standards et normes universels sur le net et de faire respecter la “ néthic ”, le nouveau code de bonne conduite régissant l'ensemble des activités et échanges sur le Web, adopté sur la base d'une résolution de l'ONU prise en 2005 et d'une convention internationale de 2007. Au cours de la première décennie du 21e siècle, l'Internet a complètement absorbé les 3 secteurs, informatique, multimédia et télécommunications, qui, à la fin du XXe siècle, se livraient encore une guerre sans merci pour dominer toute la chaîne de valeur de l'information, du contenu au contenant. Mais l'Internet ne s'est pas contenté d'intégrer l'ensemble des outils de l'information et de la communication, il est également devenu un extraordinaire catalyseur en matière de productivité et de compétitivité. l'Internet a permis une véritable explosion de la sphère économique immatérielle qui représente à présent 25 000 milliards d'euros, soit pratiquement la moitié du produit mondial brut en cette année 2010. A l'instar du nombre d'utilisateurs, la quantité d'informations disponibles sur le net a augmenté de manière presque géométrique depuis 10 ans, et l'on estime que le nombre de pages disponibles sur le Web est à présent supérieur au nombre d'êtres humains et approche des 10 milliards (contre 1 milliard en l'an 2000). Jamais dans l'histoire de l'humanité une innovation techno-économique et culturelle n'avait aussi profondément et aussi rapidement transformé l'ensemble des activités et des connaissances humaines. Il avait fallu 4 siècles au livre pour qu'il devienne réellement un objet de grande consommation, à la portée financière du plus grand nombre. Un siècle avait été nécessaire pour que la majorité des foyers, dans les seuls pays développés, aient accès au téléphone et à l'électricité. La radio et la télévision avaient mis plus de 40 ans avant de faire partie de la vie quotidienne. Mais l'Internet, si l'on prend comme point de départ l'ouverture du premier site Web en décembre 1990, avait en moins de 20 ans, de la maison à la voiture, de l'entreprise aux vêtements, complètement bouleversé tous les aspects de notre vie. Depuis 2005 et la généralisation des communications numériques à haut débit (UMTS, boucle radio, voie descendante satellitaire, numérique hertzien), le principal moyen d'accès à l'Internet n'est plus le P.C. fixe, ni même le portable, mais le “ webmob ”, un terminal hybride de la taille d'un livre de poche qui a su combiner les meilleures fonctionnalités de 3 types d'appareils, le téléphone mobile, l'assistant personnel et l'ordinateur de poche. Les webmobs doivent leur phénoménal succès à 3 progrès déterminants qui leur a permis de s'imposer dans la poche de plus d'un milliard d'êtres humains. En premier lieu, des interfaces intuitives, commande vocale et tactile et reconnaissance d'écriture. En second lieu, le problème récurrent de l'autonomie a été définitivement réglé grâce à l'avènement des micro-piles à combustible au méthanol qui, combinées aux microprocesseurs à puissance ajustable pouvant descendre jusqu'à 1 watt de consommation, a permis d'atteindre une autonomie de plus d'un mois en utilisation continue. Mais la principale raison de l'extraordinaire succès de ces “ webmobs ” a été l'adoption d'une norme universelle de communication qui permet leur couplage en toute transparence avec le livre électronique. Ce dernier est devenu une extension naturelle et un complément idéal du webmob grâce à ses pages souples et réinscriptibles à volonté qui sont autant d'écrans portables. Mais au-delà de ces prouesses technologiques, si l'Internet s'est imposé dans tous les domaines de la vie professionnelle et privée, c'est parce qu'il offre au consommateur ce dont il rêvait, à la fois le branchement sur un continuum informationnel planétaire et l'accès à l'offre d'information de culture et de divertissement la plus personnalisée qui soit. Plus qu'un simple système technologique ou un nouveau médium, Internet est devenu une nouvelle organisation du monde de l'information et in fine de la réalité elle-même. Internet est à présent le support d'une sphère virtuelle planétaire largement autonome et d'une certaine façon vivante. Cet univers virtuel est devenu si riche, si grand et si complexe qu'aucun être humain, ni d'ailleurs aucune puissance économique ou politique isolée, n'est plus en mesure de le connaître totalement, et encore moins de le contrôler. Pour autant l'Internet n'est pas devenu une jungle sans foi ni loi ou règne la loi du plus fort car une conscience collective morale a émergé et a été relayée par l'avènement d'un niveau de contrôle politique planétaire dont chacun pressentait la nécessité depuis déjà plusieurs années. Pour la première fois dans l'histoire humaine, nous entrevoyons le jour où chaque homme sur cette terre pourra créer, explorer et façonner ce nouveau monde en s'affranchissant des contraintes spatio-temporelles qui ont toujours été celles de la condition humaine. René TREGOUET Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Selon Andrei Broder, vice président chez Altavista, un lien sur cinq mène à l'irritant message "Error 404, page not found" (page inaccessible). L'essence même du Web repose sur les liens hypertextes, c'est-à-dire ceux sur lesquels on clique pour passer d'une page à une autre. Quand ça marche, le procédé est quasiment magique. En revanche, lorsque l'on tombe sur un lien mort, qui ne mène donc nulle part, cela devient particulièrement frustrant. Deux chercheurs de l'université de Berkeley, en Californie, viennent de proposer une méthode qui pourrait éviter un grand nombre de ces liens sans issue. Leur réflexion repose sur un postulat de base très simple qui veut qu'en règle générale, le document vers lequel pointait le lien n'a pas disparu. C'est plutôt l'adresse du document qui a changé. L'idée est donc d'adjoindre à l'adresse d'une page Web, autrement appelée URL pour Uniform Resource Locator, un certain nombre de mots décrivant de façon précise et quasi unique le contenu du document que l'on souhaite atteindre. Une des découvertes majeures des deux scientifiques, Robert Wilensky et Thomas Phelps, est qu'un maximum de cinq mots suffirait pour désigner à coup sûr un document de façon unique. Le principe repose sur la sélection des mots qui sont les plus fréquemment utilisés dans le document tout en étant les moins utilisés dans tous les autres documents du Web. Un état désigné par les termes anglais "term frequency and inverse document frequency value". Selon les auteurs de la recherche, le calcul d'une telle valeur est très facilement automatisable. Il suffit de compter le nombre d'occurrences de chaque mot dans un document, de classer les résultats par ordre décroissant, et d'interroger un moteur de recherche pour chacun d'eux afin d'en connaître la fréquence d'utilisation sur le Web. On obtient en fin de course une signature "lexicale" unique. Selon les chercheurs Wilensky et Phelps, 5 mots sont un maximum et un plus petit nombre devrait suffire. Une fois déterminée cette signature unique, il suffit de l'ajouter à l'adresse URL classique. Selon les deux chercheurs, cette méthode dite de "liens robustes" répond à tous les impératifs de la navigation sur Internet. Une grande efficacité tout d'abord, sans pour autant trop influer sur les performances si le lien fonctionne normalement, ce qui est vrai dans 80 % des cas tout de même. Le seul problème, finalement, est la nécessité de modifier, même de façon minime, les butineurs pour qu'ils soient capables de lancer une recherche sur un moteur avec les mots clés accolés à l'URL. Et il faudra également créer les liens incluant les mots clés. Ce qui demanderait certainement une certaine discipline de la part des créateurs de pages. Andrei Broder, qui a également travaillé dans ce domaine, pense pour sa part qu'un document peut être identifié de façon unique à l'aide de 8 mots. VUnet : http://www.vnunet.fr/VNU2/actualites/page_article.htm?id=0
|
|
|
|
|
|
|
|
Vyou, start-up californienne basée à San Jose, affirme avoir développé une technologie permettant aux éditeurs de contenu de protéger leurs informations accessibles sur le Web. Installé sur le serveur, VyouFirst permet à l'éditeur de contenu de choisir le niveau de protection qu'il désire attribuer à chaque page de son site, et ce quel que soit le type de contenu de la page en question. Il peut même choisir de limiter la protection à certains éléments comme une image ou un tableau de données, par exemple : affichage uniquement, affichage et impression, téléchargement, couper-coller... Pour lire les documents protégés par VyouFirst, l'utilisateur télécharge une seule fois un module d'extension gratuit de 20 Ko qui fonctionne en permanence sur son PC ou son Mac. Un utilisateur qui a reçu par e-mail un document téléchargé sur un site devra obligatoirement retourner sur le site original pour lire, imprimer ou télécharger ce document, selon le niveau de protection qui lui a été attribué. Pour Peter Levy, fondateur et PDG, " la technologie VyouFirst va faciliter le développement du commerce électronique, car elle permet aux sites de mieux contrôler l'utilisation de leurs documents, tout en augmentant leur intérêt et donc leur audience. " Internet Professionnel : http://www.internet-professionnel.com/ip/actus/0/2078.html Vyou : http://www.vyou.com/pubsecure.asp?sect=publishers
|
|
|
|
|
|
|
|
Les Sénateurs invitent les internautes à dialoguer en ligne et en direct à l'occasion de la fête de l'Internet. 15 d'entre eux (nombre de Sénateurs inscrits au 2 mars), représentant différents territoires, différentes sensibilités politiques du Sénat se relaieront sur Internet, heure après heure, durant deux jours, les 17 et 18 mars, pour discuter avec les citoyens de leurs propositions et de leurs actions. Le Président du Sénat, Christian Poncelet, interviendra, lui, le 17 mars après-midi depuis l'exposition MédiaSénat inaugurée le même jour à Bordeaux. Monsieur Trégouët dialoguera en direct avec les internautes et répondra à toutes leurs questions le vendredi 17 Mars de 19 à 20 heures. En partenariat avec Canal Chat, cette manifestation constituera une grande première en France à travers l'émergence d'un espace de dialogue en direct entre élus et citoyens. Il suffit de disposer d'un PC ou d'un MacIntosh datant de moins de 3 ans, doté d'une connexion à Internet avec un modem supérieur à 28,8 kbps pour participer dans de bonnes conditions. L'organisation des cyberdébats de la République permettra d'utiliser les technologies les plus récentes et les plus interactives dans ses relations avec le citoyen. Ces nouvelles technologies sont donc un nouveau moyen pour renforcer le dialogue avec les internautes. Elles permettent de converser en direct de tous les points du territoire et constituent ainsi un vecteur de décentralisation . Le Sénat organise les cyberdébats de la République en partenariat avec Canal Chat, site consacré au dialogue en direct sur Internet. Sénat : http://www.senat.fr/fete/ Canal Chat : http://www.canalchat.com/ Dossier du Monde : http://www.lemonde.fr/sequence/0,2319,2397,00.html
|
|
|
|
|
|
|
|
En matière de production et de diffusion des technologies de l'information et de la communication (TIC), l'Union européenne est à la traîne des Etats-Unis, a souligné la Commission européenne dans un rapport. En moyenne, il existe 42 noms de domaines pour mille habitants dans l'UE. La Finlande vient en tête avec 123,2 noms par 1000 habitants, suivie par la Suède (96,5), le Danemark (73,9), les Pays-Bas (57,2), le Royaume-Uni (44,1), le Luxembourg (39,0), la Belgique (36,6), l'Autriche (35,5), l'Allemagne (25,6) et la France (22,8). Le Portugal et la Grèce ferment la marche avec 8,1 noms de domaines par 1000 habitants, mais l'Italie fait à peine mieux (12,7), assez loin derrière l'Espagne (16,2). Deux pays, l'Allemagne et le Royaume-Uni, assurent près de la moitié de toute la production communautaire de biens TIC. La formation ne suit pas non plus le mouvement, puisqu'il existe un lourd déficit de compétence des experts. Les Quinze se sont toutefois fixé des objectifs ambitieux dans ce domaine, puisqu'ils se sont engagés à fournir un accès gratuit à Internet pour les écoles d'ici à la fin 2002. Les tarifs des communications téléphoniques dans l'UE ont en outre considérablement baissé de 1997 à 1999 : moins 27 % en moyenne pour les appels longue distance (record pour l'Irlande avec moins 54 %) et moins 38 % pour les appels internationaux vers les Etats-Unis (record pour les Pays- Bas avec moins 89 %). La capacité d'innovation, qui est le moteur de la compétitivité et de l'emploi, est un autre point noir de l'Union européenne, qui risque d'être distancée par les Etats-Unis. "L'Europe est à la traîne des Etats-Unis pour ce qui est de sa capacité d'innovation et l'écart ne cesse de grandir depuis le milieu des années 1990", peut-on lire dans le rapport. En 1998, les dépenses de recherche et développement ont représenté 1,8% du PIB dans l'UE, contre 2,8 % aux Etats-Unis. Reuters : http://fr.news.yahoo.com/000314/32/9vv3.html
|
|
|
|
|
Le robot Bip 2000, conçu par le service de moyens robotiques de l'INRIA, est capable de marcher de façon anthropomorphe sur un plan horizontal et de monter et descendre des escaliers. A terme, il sera équipé d'un capteur à ultrasons pour se repérer dans l'espace et pourra effectuer de vrais mouvements tridimensionnels. L'objectif de ces robots est de pouvoir accompagner l'homme dans ses activités personnelles ou professionnelles. Le but recherché est la conception mécanique des jambes couplée avec l'étude de techniques nouvelles de contrôle / commande. Bip 2000 fera sa première apparition en public à l'occasion de l'exposition universelle de Hanovre de mai à septembre 2000. Besok : http://www.besok.com/besok/besok01
|
|
|
|
|
|
|
|
Elle tient en 96 chiffres. C'est la formule secrète des Cartes bleues, révélée sur l'Internet, anonymement, le 4 mars. 96 chiffres qui permettraient à n'importe quel hacker (pirate informatique) peu scrupuleux de pirater l'une des 34 millions de cartes bancaires circulant en France, et même de fabriquer de fausses cartes. La menace, longtemps ignorée par le groupement cartes bancaires (GIE-CB, qui réunit plus de 170 banques), a été officiellement confirmée mercredi, au plus haut niveau de l'Etat, par le général Jean-Louis Desvignes, chef du Service central de la sécurité des systèmes d'information (SCSSI), qui dépend du secrétariat général de la Défense nationale: "Les banques doivent lancer rapidement une action d'envergure pour améliorer la sécurité des cartes à puce, ce qui impliquera le remplacement de millions de cartes et de lecteurs." La Banque de France avait déjà sonné l'alarme dans un courrier du 11 janvier 2000, qui enjoignait le groupement à changer son système de cryptage au plus vite . Car, cette fois-ci, le code est à la portée de chacun (ou presque) et c'est le bon code: selon le porte-parole du groupement, "les formules publiées [sur l'Internet] sont bien celles de l'une des clés de la Carte bleue. Un verrou a sauté". Ainsi, quinze jours après le jugement du tribunal correctionnel de Paris, qui l'a condamné à dix mois de prison avec sursis pour avoir percé ce fameux code secret, l'informaticien Serge Humpich voit ses recherches validées et même dépassées. Par le biais de l'Internet. C'est sur la Toile que cet ingénieur de 36 ans avait commencé, en 1995, à acheter logiciels de décryptage et puces dernier modèle, et c'est sur la Toile qu'un internaute anonyme a balancé une série de calculs dévoilant la clé de cryptage des cartes bancaires . Ça semble un jeu d'enfant: muni du code de 96 chiffres, le premier hacker venu se procure (toujours via l'Internet) le kit de fabrication auprès de la société Eléacard (lecteur-encodeur et cartes vierges), ainsi que les puces, via la boîte américaine Microchips. Le tout pour 2 500 francs. Reste à fabriquer, et utiliser, la yescard. Pour l'instant, aucune infraction de ce type n'a été constatée . Ce ne serait qu'une question de "semaines", selon Serge Humpich: "A l'époque, je n'avais pas plus d'éléments que ce code de 96 chiffres et j'ai quand même réussi à fabriquer des fausses cartes." Nous sommes au printemps 1998. L'informaticien contacte, via un avocat, le groupement cartes bancaires. Son objectif: négocier son "savoir-faire" technique et aider le GIE, par sa connaissance des failles du système, à colmater les brèches. Devant la méfiance de ses interlocuteurs, Humpich achète 11 carnets de tickets de métro dans une station du XVe arrondissement de Paris. Aux vraies-fausses cartes, les distributeurs automatiques délivrent d'authentiques facturettes. Ça ne suffit pas à ébranler la conviction du groupement, qui dépose plainte contre le farfelu Humpich. Il est arrêté en septembre 1998 . Malgré sa bonne foi proclamée dans de nombreux médias, Humpich est jugé et déclaré coupable de "contrefaçon". Alors qu'il n'a jamais, affirme-t-il encore aujourd'hui, dévoilé le code secret ni exploité sa trouvaille. D'autres s'en chargeront-ils demain? (article résumé par @RTFlash)
|
|
|
|
|
|
|
|
A la fin du printemps, Casio, Compaq et Hewlett-Packard vont commercialiser les premiers Pocket PC. D'une taille d'environ 13 x 8 cm, d'une épaisseur d'un centimètre à peine, et munis d'un écran tactile de 40 x 320 points en milliers de couleurs, ils auront presque tout d'un PC traditionnel. Utilisant Windows CE 3.1, ils feront tourner une version allégée de Word et d'Excel, en plus des fonctions classiques d'agenda, de bloc-notes et de calendrier. Les Pocket PC pourront se connecter à Internet, par une carte modem. Un logiciel leur permettra de recevoir et d'envoyer des courriers électroniques. Une version adaptée d'Internet Explorer redimensionnera les images pour qu'elles puissent s'afficher sur l'écran. Les machines seront équipées du logiciel Media Player, d'un lecteur de cartes Compact Flash, d'un petit haut-parleur et d'une prise casque. Les limites du concept du Pocket PC tiennent bien sûr à la taille réduite des machines. La capacité de sauvegarde des informations, par exemple, est limitée. Ces machines ne seront pas équipées de disques durs, mais d'une mémoire vive de 32 Mo et d'un connecteur pour carte Compact Flash. Le Pocket PC trouvera sa pleine mesure en complément d'un PC classique, avec lequel il échangera des fichiers grâce au port série du socle livré avec l'appareil et qui sert aussi à recharger les batteries. Son prix est encore inconnu, mais on peut supposer qu'il sera au moins égal à celui des assistants personnels les plus chers, soit environ 4 000 francs. OI Informatique : http://www.01-informatique.com/actus/1/8699.html?
|
|
|
|
|
|
|
|
Le géant américain Microsoft vient de déclarer la guerre à Sony sur le marché en pleine explosion du jeu video en annonçant le lancement de sa toute première console appelée X-Box, qui espère détrôner les géants mondiaux du secteur Sony, Nintendo et Sega. Un prototype de la console que le numéro un mondial du logiciel concoctait dans le secret depuis des mois a été dévoilé en avant-première mondiale à Tokyo, dans le fief de Sony. "X-Box représente une étape énorme parce qu'elle offre le meilleur de ce qui se fait en matière d'ordinateurs personnels et de consoles", a déclaré M. Gates dans un message vidéo diffusé à Tokyo. La console, équipée d'une unité centrale de 600 MHZ, sera équipée d'un lecteur de vidéo-disques DVD, d'un disque dur de 9 gigaoctets et pourra se connecter à l'internet à travers des réseaux à large bande, comme le câble. Elle sera commercialisée à l'automne 2001. Selon Microsoft, la X-Box serait deux fois plus puissante que la PlayStation 2 de Sony(150 millions de polygones affichés par seconde contre 66 millions ) et proposera des performances graphiques plus de trois fois supérieures à celles des consoles de jeux actuellement sur le marché . Pour établir la notoriété de la X-Box, Microsoft promet de dépenser un montant supérieur aux milliards de dollars investis dans la massive campagne de lancement de Windows 95. La partie ne sera pas toutefois facile . L'industrie des jeux vidéo (consoles et logiciels de jeux) réalise un chiffre d'affaires annuel d'environ 10 milliards de dollars, croît de 15% par an et est actuellement largement dominé par les trois grands fabricants de consoles japonais et une armée d'éditeurs de logiciels nippons. Cette intrusion de Microsoft dans le monde totalement japonais de la console va provoquer une vaste réorganisation du secteur. En effet, comme sa grande rivale la PS2 lancée le 4 mars, la console de Microsoft sera une plate-forme multi-usages, d'où on pourra jouer, regarder des films, décharger des morceaux de musique ou se connecter à l'internet. Au delà de, l'implantation sur le marché très juteux du jeu video( 7 milliards de dollars aux USA), le véritable enjeu de cette bataille techno-économique impitoyable n'est rien d'autre que le contrôle du marché de la Télévision interactive sur l'internet. Brève rédigée par @RTflash San Jose Mercury News : _ http://www.sjmercury.com/svtech/news/indepth/docs/xbox031000.htm
|
|
|
|
|
|
|
|
Les possesseurs de PlayStation2 (environ 1 million de Japonais en deux jours si on en croit le raffut qui a suivi sa très récente sortie) "vont très bientôt pouvoir utiliser un téléphone cellulaire pour accéder à Internet via leur nouvelle console". Cette annonce de Ken Kutagari, boss chez Sony Computer Entertainment, a été suivie d'explications un peu plus poussées : les super-gamers se dégommant la rétine et les pouces à base de PS2 vont - aussi - pouvoir jouer et acheter en ligne, sans même avoir besoin d'un modem ou d'une ligne de téléphone fixe - mais simplement en reliant un téléphone mobile à leur console ! A cet effet, un logiciel et un câble propriétaires devraient sortir bientôt. Avantage du système : le téléphone mobile relié à la console n'a pas besoin d'être équipé d'un modem interne, la PS2 se chargeant d'interpréter les signaux reçus. Léger bémol (temporaire) de la chose : les connexions assistées par cellulaire n'assurent pas encore de débits très élevés. Ce qui va bientôt changer, cependant, suivez mon GPRS du regard... En somme, la console PS2 devient un appareil nomade d'un genre quelque peu nouveau. Mais comment porter sur soi la TV GEANTE 16/9, interface visuelle obligée de la PlayStation2 ? A moins qu'on n'utilise les Glasstron , espèce de lunettes-écran selon Sony... Ils ont pensé à tout, les bougres. Lettre de l'Internet : http://www.lalettre.com/todaynews.cfm?id=292&actions=view
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
"Ce doit être le seul instrument de précision au monde qui soit surplombé par une route", souligne Fred Raab, astrophysicien travaillant au Ligo( Etat de Washington). Le Ligo est un gigantesque observatoire qui pourrait bientôt permettre de démontrer l'existence des fameuses ondes gravitationnelles prévues par la théorie de la relativité générale d'Einstein. Le Ligo est un complexe monumental de 350 millions de dollars qui comprend deux tunnels de 4 kilomètres qui se rejoignent en L et sont équipés d'un dispositif optique ultra-sensible. Cette machine colossale va servir à mesurer de minuscules perturbations de l'espace dus aux ondes gravitationnelles. Si le Ligo (Laser Inferometer Gravitational Wave Observatory) parvient effectivement à détecter certaines de ces ondes insaisissables, on le devra à son extrême sensibilité, qui lui permet de capter des ondulations à l'échelle du milliardième de milliardième de mètre, soit un million de fois moins que le diamètre d'un atome. Selon la théorie d'Einstein, la gravitation agit au moyen d'ondes. Tout corps possédant une masse émet donc des ondes gravitationnelles. La plupart de ces ondes sont impossibles à détecter. Mais certains corps, dont la masse dépasse plusieurs fois celle du Soleil et qui se déplacent dans l'espace à la vitesse de la lumière, génèrent des ondes gravitationnelles si puissantes que celles-ci créent de légères distorsions dans l'espace-temps. Les instruments classiques permettent de déceler des traces du big bang à quelques centaines de milliers d'années de l'événement. En revanche, on devrait théoriquement pouvoir détecter les ondes gravitationnelles au moment précis de la Création - ou presque. Le Ligo, grâce à l'extraordinaire sensibilité de son dispositif optique devrait permettre de mettre enfin en évidence les ondes gravitationnelles prévues par Einstein et apporter ainsi une nouvelle et éclatante confirmation de la relativité générale. Brève rédigée par @RTFlash Dailly Telegraph : http://www.telegraph.co.uk/et?ac=002550124263240&rtmo=LbNNLGhd&atmo=tttttttd&pg=...
|
|
|
|
|
|
|
|
On connaissait la valse à trois temps ou bien le moteur à quatre temps, voici maintenant l'Univers à deux temps. Plus exactement, un univers assez curieux qui possède deux flèches du temps, l'une étant la nôtre, et la seconde lui étant opposée. Autrement dit, un monde dans lequel des particules suivraient le sens commun du temps alors que d'autres le remonteraient. Mais où sont donc ces particules qui marchent à l'envers? Et que se passerait-il si nous en rencontrions? Les effets précéderaient-ils les causes? Autant de questions auxquelles s'est attelé Lawrence Schulman, un physicien de l'université Clarkson de New York particulièrement imaginatif. Publié il y a deux mois, dans la revue de référence en physique, Physical Review Letters, son modèle cosmologique renvoie aux paradoxes temporels aussi bien qu'à la nature de notre univers. Jugé amusant, original ou stimulant par d'autres physiciens, il est le résultat de plus de 20 ans de recherches centrées sur la flèche du temps. Rencontrer des particules dont le temps s'écoulerait de notre futur vers notre passé aurait d'intéressantes conséquences. Par exemple, j'ai oublié de fermer ma fenêtre et la pluie a inondé ma maison. J'envoie alors un signal à un messager remontant mon temps, qui ferme la fenêtre avant l'orage. Mais cette " communication" entre flèches du temps opposées ne va-t-elle pas modifier irrémédiablement ma propre histoire, comme le prédisent la plupart des scénarios de science-fiction ? Les résultats du modèle de Lawrence Schulman tendraient à dire non... ou presque : notre histoire suivra sa flèche mais un peu perturbée. Première conclusion, la coexistence de régions dans l'Univers ayant des flèches du temps opposées est donc possible. Seconde conclusion, la causalité est préservée dans ce modèle. Une "communication" est donc possible entre les deux mondes, voire la "détection" de l'un par l'autre... . Finalement, cet amusant modèle d'univers à deux temps pourraient arbitrer la "querelle" entre les "ouverts" et les "fermés". En effet, les régions ayant une flèche du temps opposée à la nôtre auraient été nécessairement créées lors du Big Crunch. Elles seraient donc les fossiles de notre univers témoignant de la fin de son expansion en une ultime contraction. En trouver ferait donc pencher la balance vers l'hypothèse "fermée". Cependant, pour parvenir jusqu'à nous, ces particules à rebours doivent effectuer une longue course, quelque cent milliards d'années. Elles seront alors certainement excessivement peu lumineuses et donc difficilement détectables. En revanche, elles obéissent aux lois de la gravitation. Deux propriétés caractéristiques de la matière noire. Lawrence Schulman fait donc de ses deux flèches, deux coups : matière noire et univers clos. (article résumé par @RTflash) Sciences & Avenir : http://www.sciencesetavenir.com/comprendre/page72.html
|
|
|
|
|
|
|
|
Au coeur de l'Italie, quelques skieurs glissent sur le blanc sommet du Gran Sasso, point culminant de la région des Abruzzes. 1.500 mètres plus bas, sous la roche, des dizaines de milliers de mètres carrés de galeries, hautes de vingt mètres, abritent le plus important laboratoire souterrain de physique des particules. Là, à l'abri de la radioactivité naturelle et du "bruit de fond" que constituent les rayonnements cosmiques, les physiciens traquent des particules "fossiles" de l'époque du big bang, d'autres venues de l'explosion d'étoiles géantes (supernovae), ou plus simplement du Soleil. Sphère, citernes, assemblages de modules contiennent des dizaines à des centaines de tonnes de liquides divers qui font "scintiller" les particules tant recherchées. Autant de structures métalliques bourrées d'électronique, reliées à des ordinateurs. Sur l'écran, de temps en temps, un segment lumineux apparaît. Peut-être la trace d'un neutrino... Les neutrinos!... Ces particules fantomatiques, méconnues et pourtant omniprésentes. La plupart viennent du Soleil. Comme toutes les autres étoiles, il est une usine à neutrinos. Avec les leptons chargés électriquement, dont le plus connu est l'électron, et avec les quarks, les neutrinos sont aujourd'hui considérés comme les particules les plus élémentaires. Les physiciens pensent que, dans l'ensemble de l'univers, les neutrinos sont un milliard de fois plus nombreux que les protons et les neutrons, qui forment le noyau des atomes. Et à vrai dire, si les physiciens subodorent que les neutrinos ont une masse, ils n'en sont pas sûrs. S'ils en avaient une, même proche de zéro, ils contribueraient à résoudre l'énigme de la matière sombre. Selon les astronomes en effet, notre galaxie se déplace trop vite par rapport à la masse de matière que l'on peut observer. Notre univers serait en fait composé à 90 % d'une matière sombre - qui n'émet pas de lumière - complètement inconnue, qui influencerait, par sa masse, l'expansion de l'univers et le déplacement des galaxies. L'envoi d'un faisceau de neutrinos du Cern (Laboratoire européen pour la physique des particules, Genève) au Gran Sasso pourrait éclaircir ce mystère. Cette expérience, nommée Opera, devrait permettre de démontrer la transformation - les physiciens disent l'oscillation - des neutrinos-muons en neutrinos-tau. Et si les neutrinos oscillent, c'est qu'ils ont une masse, insiste le Pr. Strolin. Ce faisant, les physiciens devrait également "voir" pour la première fois un neutrino-tau. Il existe trois types de neutrinos: le neutrino-électron et le neutrino-muon - qui sont couramment observés - et le neutrino-tau. Les neutrinos oscilleraient donc, mais sur de grandes distances. Avec l'envoi d'un faisceau de neutrinos-muons sur 730 kilomètres, OPERA veut aller plus loin: "voir" les neutrinos-tau, résultats de la transformation des neutrinos-muons. Pour saisir l'insaisissable, les physiciens du Cern vont construire un énorme accélérateur de particules. Cela ressemble à un tunnel de métro, mais sous vide et avec un diamètre de 2,5 mètres et une pente d'un kilomètre, explique Francesco Pietro Paolo (Cern). Le tunnel guide le faisceau de neutrinos, qui voyage ensuite à travers la terre. A la vitesse de la lumière. Au Gran Sasso, un détecteur d'une kilotonne l'attendra. A partir de 2005, cinq milliards de milliards de neutrinos par an vont être envoyés de Genève. Dont seulement 2.500 interagiront avec le détecteur du Gran Sasso, composé de couches de film photographique et de plomb alternées. Sur ces 2.500 "événements", les physiciens espèrent qu'environ 18 soient dus à des neutrinos-tau qui imprimeraient leur marque pour la première fois. En fonction du nombre de ces événements, nous pourrons aussi déduire la masse, souligne le Pr. Strolin. Plus les événements sont nombreux, plus la masse est grande. S'ils correspondent au chiffre attendu, nous pourrons avancer que les neutrinos constituent environ 20 % de la masse manquante de l'univers. Mais surtout, un nouveau champ - aujourd'hui vierge - de recherche en physique des particules sera ouvert... Le Soir : http://www.lesoir.com/
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Un nouveau traitement des cancers métastasés du rein, basé sur une stimulation des défenses immunitaires, a provoqué une rémission totale de la maladie chez 4 des 17 patients soumis à ce traitement. Ce vaccin thérapeutique expérimental a également permis une diminution des tumeurs de plus de 50% chez deux autres malades. L'équipe d'Alexander Kugler de l'Université de Gottingen (Allemagne), a appliqué ce traitement très prometteur à des patients atteints de cancer du rein métastasé (c'est-à-dire disséminé dans d'autres parties du corps). Mais cette technique pourrait aussi permettre de traiter beaucoup d'autres cancers métastasés, estime le Pr. Kugler. Ce vaccin curatif individualisé est obtenu par la fusion électrique de cellules cancéreuses prélevées sur le patient lui-même et de cellules immunitaires fournies par un donneur. Il a été administré aux malades sur une période de 11 mois, en seulement cinq ou six injections, et a provoqué une réaction immunitaire chez sept d'entre eux, capables dans quatre cas d'éliminer totalement les tumeurs. En revanche les autres patients sont tous morts des suites de leur cancer. Ce traitement affiche ainsi de biens meilleurs résultats que les traitements chimiothérapiques ou hormonaux classiques des cancers rénaux métastasés (moins de 10% de réussite). Les quatre malades qui ont bénéficié d'une rémission totale de la maladie, généralement en moins de trois mois, n'ont été victimes d'aucune rechute sur une période de 21 mois. Les métastases, étendues jusque dans les poumons et les os, ont été complètement éliminées. Les régressions enregistrées chez les deux autres malades ont porté sur plusieurs métastases formant des tumeurs de masse importante. Chez deux malades supplémentaires le cancer s'est stabilisé, un septième a présenté une réponse "mitigée". Le traitement n'a pas induit d'effet nocif important, mis à part un peu de fièvre pendant quelques jours. Les cancers du sein, du poumon, de la prostate et du rein, une fois métastasés, sont souvent mortels et les traitements classiques sont très toxiques. Cette technique "pourrait s'appliquer largement à d'autres tumeurs", estime le Pr. Donald Kufe, de l'Institut Dana-Farber pour le Cancer de la Harvard Medical School (Boston, Etats-Unis). Pour le spécialiste, les régressions obtenues avec cette techniques sont "sans précédent". "Si ces résultats sont confirmés, ils représentent une percée majeure dans le traitement par immunothérapie des tumeurs malignes métastasées", conclut avec enthousiasme Donald Kufe. Le Professeur Kugler, pour sa part précise que de nouveaux essais utilisant ce même type de vaccin "hybride" était en cours dans le traitement du cancer du sein et du mélanome malin. Brève rédigée par @RTFlash New York Times : _ http://www.nytimes.com/library/national/science/health/022900hth-cancer-tumors.h... ABC News : http://abcnews.go.com/sections/living/DailyNews/cancervaccine000228.html
|
|
|
|
|
La société de recherche en biotechnologies, PPL Therapeutics, à qui l'on doit déjà la célèbre brebis Dolly, a annoncé avoir mis au monde le premier clone de cochon. Cinq petites femelles, Millie, Christa, Alexis, Carrel et Dotcom, clonées à partir de cellules adultes, ont vu le jour le 5 mars. Ces clones ont été produits en utilisant la même technique de transfert du noyau cellulaire que celle employée pour produire la célèbre brebis Dolly; "Ceci ouvre la voie à des cochons modifiés dont les organes et les cellules pourront être greffés avec succès sur des humains, seule solution à court terme pour pallier la pénurie mondiale d'organes", déclare PPL. Les chercheurs de cette société espèrent pouvoir expérimenter les premières xenogreffes sur l'homme dans 4 ans. Les spécialistes estiment qu'à lui seul le marché d'organes pourrait rapporter 6 milliards de dollars. Brève rédigée par @RTFlash BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_676000/676906.stm
|
|
|
|
|
|
|
|
Des chercheurs américains, de l'université de Floride ont découvert qu'une injection d'oestrogène, une hormone femelle, peut protéger le cerveau en cas de crise cardiaque. Les chercheurs sont parvenus à réduire sensiblement les dommages subis par le cerveau chez des rats de laboratoire victimes de crises cardiaques artificiellement provoquées. Les chercheurs ont constaté que l'injection d' une dose élevée d'oestrogène dans un délai de 30 minutes pouvait réduire de 60% le taux de destruction des neurones. Administrée 3 heures plus tard, cette injection d'oestrogène permettait encore de protéger jusqu' à 40% des cellules. les chercheurs restent cependant prudents et soulignent que de nombreuses études complémentaires seront nécessaires avant que ce traitement puisse être utilisé sur l'homme. Il est vrai que les rats traités ont reçu 20 fois la quantité d'oestrogène qui est normalement présente dans leurs corps. Brève rédigée par @RTFlash BBC : http://news.bbc.co.uk/hi/english/health/newsid_664000/664184.stm Université de Floride : http://www.napa.ufl.edu/2000news/estrogen.htm
|
|
|
|
|
|
|
|
Prendre des cellules de cerveau foetal humain, en isoler les cellules souches, cultiver, puis injecter à des souris. Laisser infuser plusieurs mois, et déguster les résultats. Aussi simple qu'elle paraisse, la recette mise au point par l'équipe du Pr. Nobuko Uchida (Stemcells Inc), et dévoilée lors d'un récent symposium à Keystone (Colorado), est du grand art. En effet, si des travaux sur des cellules souches de cerveau animal ont déjà été rapportés, c'est la première fois que de telles expériences font appel à des cellules humaines. De plus, après injection dans des cerveaux de souris, ces cellules ont survécu et se sont transformées en cellules nerveuses adultes (notamment neurones). Mieux, après sept mois, elles sont toujours vivantes, et ont migré dans des zones spécifiques du cerveau. Elles se comporteraient même, pour certains aspects, comme des cellules normales, annonce prudemment le communiqué de la société Stemcells. S'ils se confirment, ces résultats offrent de formidables perspectives dans le traitement des maladies neurodégénératives. Parkinson, Alzheimer, chorée de Huntington, sclérose latérale amyotrophique... toutes ces affections, dont certaines touchent des centaines de milliers de personnes en France, se caractérisent en effet par la mort de populations de neurones spécialisés. Voie de recherche très active depuis dix ans dans de nombreuses disciplines, les cellules souches (précurseurs de cellules différenciées adultes) sont d'autant plus étudiées en neurologie qu'on a longtemps cru qu'il n'en existait pas dans le cerveau. Aujourd'hui, on sait qu'elles existent dans le cerveau foetal mais aussi adulte. Sous l'effet de facteurs de croissance, ces cellules souches sont capables d'évoluer en neurones, ou en autres cellules nerveuses (astrocytes). Mais si les premières étapes (isolement et culture de ces cellules souches) semblent en voie d'être maîtrisées, "le challenge actuel est de les faire se différencier, poursuit le Dr Privat. Les cellules semblent se spécialiser différemment selon le site où elles ont été implantées, mais cela reste à prouver. De même qu'il reste à vérifier que leur intégration est non seulement anatomique, mais aussi fonctionnelle." Autre application potentielle des cellules souches en neurologie : les paralysies dues à une section traumatique de la moelle épinière. Il y a quelques mois, des chercheurs américains ont ainsi réussi rendre de la mobilité à des rats paraplégiques! Dès le dixième jour après la greffe (des cellules souches issues d'embryons de souris), les animaux ont pu se soutenir sur leurs pattes arrières, et ont retrouvé une coordination entre pattes avant et arrière. Science &Avenir : http://www.sciencesetavenir.com/actualites/page8.html
|
|
|
|
|
|
|
|
L'évolution des espèces est, par définition, changement. Quoi qu'il arrive, un mammifère comme le tigre devrait subsister quelques millions d'années avant de s'éteindre - ou bien il évoluera et deviendra quelque chose d'autre. Des espèces disparaissent, remplacées par de nouvelles. La mort n'est, dit-on, qu'une façon pour la nature de nous amener à relativiser la vie. Quelle importance, dans ce cas, si c'est l'homme qui détruit, et non pas un processus naturel tel que maladie ou changement climatique ? Parfois, cependant, la mort supprime un nombre colossal d'espèces en un temps relativement bref, beaucoup trop bref pour que ces espèces se reconstituent selon le grand cycle de l'évolution et de l'extinction. Depuis 530 millions d'années, cinq de ces "extinctionsen masse " se sont produites. La plus importante, à la fin de l'ère permienne, voilà 251 millions d'années, a éradiqué plus de 96 % de toutes les espèces. Celle de la fin du crétacé, il y a 65 millions d'années, arrive loin derrière, en dépit de la célébrité de ses principales victimes, les dinosaures. Peut-être sommes-nous en train d'assister aujourd'hui à un nouvel épisode de ce type, accéléré par nos propres agissements. Que se produit-il une fois la vague d'extinction passée ? Combien de temps la biodiversité met-elle à recouvrer toute sa richesse ? D'autant plus longtemps, pourrait-on penser, que la destruction est massive. Faux, affirment deux scientifiques américains dans le numéro du 9 mars de l'hebdomadaire Nature. James Kirchner (université de Californie, Berkeley) et Anne Weil (université Duke, Caroline du Nord) ont étudié ce que les fossiles nous disent du rapport entre extinction et repeuplement. Leurs conclusions sont claires : la reconstruction de l'écosystème prend toujours environ 10 millions d'années, quelle que soit la sévérité de l'extinction qui l'a précédée. L'idée selon laquelle un écosystème met davantage de temps à se reconstituer quand l'extinction est importante repose donc sur une hypothèse fausse, qui veut que les espèces vivent à peu près sans relation entre elles. Selon cette logique, la reconstruction de l'écosystème se limiterait à remplir des niches écologiques vides : plus la destruction est importante, plus cela prendrait de temps. Le problème est que les espèces sont interdépendantes. Elles constituent en elles-mêmes des niches écologiques et la destruction d'une seule nuit à beaucoup d'autres. Cela explique pourquoi les extinctions sont toujours suivies d'une période au cours de laquelle la flore et la faune restent pauvres. La végétation qui pousse sur les lieux où des bâtiments ont été démolis récemment est très peu diversifiée. De même, à l'échelle de la planète, il semble que seules des fougères ont existé durant les centaines de milliers d'années qui ont suivi l'extinction de la fin du crétacé. Quand la nature repeuple la planète, elle suit un calendrier qui lui est propre. Et le premier déterminant du renouveau - ainsi que l'ont montré Weil et Kirchner à partir des fossiles des 530 derniers millions d'années - c'est l'interdépendance des espèces. Ce message est sans appel : si nous détruisons les derniers tigres qui existent, nous ne reverrons plus jamais d'animal qui leur ressemble. Mais si les tigres sont détruits en même temps que la jungle où ils vivent, alors il faudra peut-être 10 millions d'années pour que réapparaissent d'autres grands prédateurs. Autrement dit, même si l'homme survit encore quelques millions d'années (car notre espèce, comme tous les mammifères, devra ensuite s'éteindre ou évoluer), il faudra plus de temps que cela à l'écosystème pour se remettre des destructions qu'il lui aura causées. L'animal qui succédera au tigre ne sera pas chassé par l'homme. Le Monde : http://www.lemonde.fr/article/0,2320,seq-2077-45659-QUO,00.html Nature : http://www.nature.com/nlink/v404/n6774/abs/404177a0_fs.html
|
|
|
|
|
|
|
|
La FDA (Food and Drug Administration) devrait autoriser la mise sur le marché du "Portable Cartledge Infuser" dans 90 jours. Il y a quatre ans, un jeune garçon de 12 ans suppliait le docteur Richard Cartledge de lui sauver la vie. Assisté de son équipe d'urgentistes, M. Cartledge a fait tout ce qui était en son pouvoir pour sauver l'enfant, victime d'un accident de voiture, qui a finalement succombé à une hémorragie interne. Un médecin expérimenté, puis un interne en chirurgie, ont alors tenté de consoler le docteur Cartledge, en lui assurant que le garçon n'aurait de toute façon pas pu être sauvé, compte tenu de la quantité de sang qu'il avait déjà perdu. Malgré tout, le docteur Cartledge n'était pas satisfait. Selon lui, le facteur temps était décisif. Une opération de 20 minutes aurait pu permettre de sauver cet enfant, mais l'hémorragie a été la plus rapide. Le jeune garçon a donc été lune des 40 000 personnes à mourir chaque année dune hémorragie liée à une lésion traumatique aux Etats-Unis. Les traumatismes sont actuellement la principale cause de décès des personnes âgées de moins de 40 ans. Le décès de cet enfant a donc conduit M. Cartledge à créer une machine portable, économique et peu encombrante, baptisée Cartledge Infuser. Cet appareil, breveté, permet de transfuser rapidement du sang réchauffé dans l'organisme du patient, et ce en toute sécurité. Au cours des cent dernières années, nos méthodes d'administration de liquides sanguins aux victimes de lésions traumatiques n'ont pas évolué : nous nous contentons d'accrocher les sacs à un perfuseur. De nombreux patients gravement atteints meurent avant même de parvenir à la salle d'opération, parce que leur hémorragie est trop importante pour être compensée par une perfusion traditionnelle. Grâce à notre appareil, les médecins seront en mesure de transfuser les malades extrêmement rapidement, ce qui leur permettra de les maintenir en vie assez longtemps pour établir un diagnostic pertinent et les soigner correctement, souligne Cartledge, vice-président exécutif de Smisson-Cartledge Biomedical. Cet outil de perfusion portable peut parfaitement être manipulé par une infirmière ou un interne de première année. Il est portatif, fonctionne sur piles ou sur l'alimentation secteur et peut être utilisé dans des salles d'opération ou d'urgences, des ambulances, voire sur un champ de bataille. Il devrait être commercialisé au prix unitaire de 20 000 dollars. Le perfuseur pourrait se révéler l'appareil thérapeutique le plus performant créé au cours de ce siècle, souligne M. Cartledge. Il aurait pu sauver la vie de cet enfant. Biotech Actu : http://www.usinenouvelle.com/
|
|
|
|
|
|
|
|
Première véritable innovation thérapeutique dans la lutte contre l'asthme depuis la commercialisation des corticoïdes il y a plus de vingt ans, une nouvelle classe de médicaments, les antileucotriènes, a fait son apparition en France. Ces nouveaux médicaments - dont le premier est commercialisé par le laboratoire MSD et est remboursé par la Sécurité Sociale - agissent en bloquant les récepteurs spécifiques qui sont à l'origine de l'inflammation bronchique. Simples d'emploi - un comprimé à prendre chaque soir au coucher - les antileucotriènes améliorent le contrôle de l'asthme et diminuent les symptômes diurnes et nocturnes, chez l'adulte comme chez l'enfant de plus de six ans. Ils sont indiqués dans les asthmes persistants, légers à modérés, en complément d'un traitement à la cortisone chez les patients qui gardent des symptômes, a précisé le laboratoire, au cours du salon de la Médecine et de la communication médicale. Soulignant l'intérêt de cette nouvelle classe thérapeutique, le Pr. Pierre Duroux (pneumologue à l'hôpital Antoine-Béclère de Clamart) a rappelé que la gravité et la mortalité de l'asthme sont en augmentation depuis plusieurs années. "En huit ans, a-t-il indiqué, la fréquence de l'asthme a doublé chez l'enfant et chez l'adulte, notamment dans les régions où la densité urbaine est la plus élevée. Selon les épidémiologistes, l'asthme progresse chaque année de 10%, provoquant 850.000 journées d'hospitalisation, et 2.000 à 2.500 morts en France, soit plus de six par jour. Il naît un futur asthmatique toutes les dix minutes et cette maladie respiratoire due à un rétrécissement souvent brutal de leur calibre atteint plus volontiers les personnes de plus de 50 ans et, plus encore, les enfants de 7 à 15 ans qui représentent un tiers des cas identifiés. "3,5 à 5 millions de Français sont asthmatiques, dont plus de 500.000 enfants, mais la moitié seulement sont effectivement traités", a encore souligné le Pr. Duroux. Aux Etats-Unis, un autre médicament très prometteur est en cours d'essais contre l'asthme. Ce futur traitement, baptisé anti-IgE, présenterait l'avantage de prévenir les crises, au prix de une à deux injections par mois. L'anti-IgE (olizumab/rhuMab-E25) est un anticorps monoclonal humain recombiné, qui agit en bloquant la libération d'IgE, un anticorps responsable du déclenchement de substances inflammatoires qui sont à l'origine des maladies allergiques chroniques (asthme, rhinites). AFP : http://www.afp.com/ext/francais/lemonde/sci/000309111919.urq1am88.html
|
|
|
|
|
|
|
|
Le Premier ministre britannique Tony Blair et le président américain Bill Clinton ont demandé le 14 mars aux scientifiques du monde entier de placer dans le domaine public toutes les informations concernant le décodage du génome humain, actuellement en cours. "Les données fondamentales sur le génome humain, y compris le séquençage de tout le génome de l'ADN humain et de ses variations, devraient être librement accessibles aux scientifiques du monde entier", ont estimé Tony Blair et Bill Clinton dans un communiqué commun publié à Londres. Le décodage de la carte d'identité génétique humaine devrait permettre de "réduire le fardeau des maladies, améliorer la santé dans le monde ainsi que la qualité de vie de toute l'humanité", poursuit le texte. . Depuis une dizaine d'années, une course contre la montre est engagée entre scientifiques du monde entier pour décoder les trois milliards de paires de gènes humains, bases de la structure et du fonctionnement de l'organisme de l'Homme. Une première ébauche de carte de l'ADN humain devrait être publiée au printemps 2000, et la totalité du séquençage détaillé établie en 2003, a précisé le porte-parole de Tony Blair. BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_677000/677246.stm CNN : http://www.cnn.com/2000/HEALTH/03/14/human.genome/index.html
|
|
|
|
|
|
|
|
En milieu stimulant favorise le développement cérébral des très jeunes enfants. Ce postulat, habituellement admis, est notamment vrai pour nos différents types de mémoires (spatiale ou non). Mais un entraînement tardif de la mémoire peut-il compenser une défaillance d'origine génétique ? Cette question de taille, car conditionnant la manière d'aborder des désordres comme la maladie d'Alzheimer, est au coeur d'une étude menée par Joe Tsien et ses collègues, de l'université de Princeton (Etat-Unis). Ces chercheurs ont choisi d'étudier une région particulière de l'hippocampe, dans le cerveau de souris, appelée CA1. Les lésions de cette région provoque, chez les humains comme chez les animaux de laboratoire, des déficits mémoriels importants. Dans un premier temps, l'équipe a donc créé des souris mutantes qui n'exprimaient plus, dans leur région CA1, de récepteurs du neurotransmetteur NMDA (N-méthyl -D-aspartate), connu pour son rôle centrale dans les mécanismes de la mémoire. Elle a ensuite testé leurs capacités de mémoire non-spatiale par rapport à celles de souris témoins. Arriveraient-elles, par exemple, à reconnaître un objet ? Placées au milieu de différents jouets, tous les rongeurs ont d'abord présenté le même niveau de curiosité et d'intérêt pour leur entourage. Mais le remplacement de l'un des objets a fait apparaître les premières différences. En effet, seuls les animaux de contrôle ont été capables de reconnaître la nouveauté, y portant une attention plus soutenue. .Constatant les dégâts causés par le défaut induit génétiquement chez leurs souris, Joe Tsien et son équipe ont voulu savoir s'ils pourraient en contrecarrer les effets. Les mêmes expériences ont été répétées, mais cette fois sur des rongeurs ayant préalablement été stimulés pendant deux mois. A l'issue de leur entraînement, les souris témoins ont montré des performances améliorées pour les différentes tâches (reconnaissance d'objet, d'aliment, etc.). Et, plus important, les souris mutantes ont vu leurs déficits partiellement ou entièrement compensés. L'absence d'activité des récepteurs NMDA dans l'hippocampe n'est donc pas une fatalité ; il peut être contrebalancer par des stimuli appropriés. Le phénomène s'explique par l'accroissement du nombre de connexions neuronales. Utilisant la microscopie électronique, les chercheurs ont ainsi pu mettre en évidence une augmentation significative de la densité synaptique dans la région CA1 des souris ayant été exercées, qu'elles soient mutantes ou non. Reste que l'extrapolation à l'homme de ces résultats est délicate. Ce qui est certain, c'est que les changements structurels au niveau du cerveau induits par l'entraînement intensif de la mémoire ne se limitent pas au développement précoce d'un individu. Les souris des expériences de Joe Tsien étaient adultes, et bien adultes... Info-Science : http://www.infoscience.fr/articles/articles_aff.php3?Ref=407
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
A la veille du Conseil européen extraordinaire qui se tiendra à Lisbonne les 23 et 24 mars sur le thème de " l'Europe de l'innovation et de la connaissance " Mme Viviane Reding, membre de la Commission responsable de l'Education et de la Culture, a annoncé le lancement de eLearning, qui va concrétiser et compléter l'initiative eEurope dans les domaines de l'éducation et de la formation. Cette initiative comporte quatre éléments : un effort d'équipement en ordinateurs multimédia des écoles, un effort de formation des enseignants européens aux techniques numériques, le développement de services et logiciels éducatifs européens et l'accélération de la mise en réseau des écoles et des formateurs. Les moyens à mobiliser sont en grande partie nationaux, mais une intervention des fonds structurels européens dans les régions éligibles, une mobilisation des programmes communautaires en faveur du numérique et le développement de partenariats entre les pouvoirs publics et l'industrie devraient venir en complément. Quant aux deux premiers objectifs, eLearning se fixe, dans le cadre de eEurope, les objectifs suivants: pour la fin de l'année 2001, toutes les écoles devraient avoir accès sur Internet à des ressources multimédias et des services de soutien, y compris des informations et des ressources pédagogiques sur le Web, devraient être accessibles à tous les enseignants et élèves. Tous les jeunes devraient avoir accès à Internet et aux ressources multimédias dans des centres publics, y compris dans les zones les moins favorisées. Pour la fin de l'année 2002, tous les enseignants devraient disposer d'un équipement individuel et être capables d'utiliser Internet et les ressources multimédias. Tous les élèves devraient avoir un accès rapide à Internet et aux ressources multimédias dans les salles de classe. Pour la fin de l'année 2003, tous les élèves devraient avoir acquis une culture numérique au moment où ils quittent l'école. " Ces objectifs de la Commission, rappelle Mme Reding, sont particulièrement ambitieux et requièrent de la plupart des Etats membres des efforts supplémentaires. Ils permettront aux Européens, s'ils sont poursuivis et atteints, de rattraper une bonne part de leur retard sur les Etats-Unis. " Commission européenne http://europa.eu.int/rapid/start/cgi/guesten.ksh?p_action.gettxt=gt&doc=IP/00/23...|0|RAPID&lg=FR
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Pas de doute, il s'agit bien d'un mouvement de fond. En dix ans, la part de marché du diesel a doublé en Europe. Les moteurs de dernière génération n'ont strictement rien à voir avec les diesels " camionesques " d'hier. L'injection directe et la technologie du common rail (une rampe à haute pression qui dose la quantité de carburant introduite dans chaque cylindre) ont eu raison des dernières idées reçues. La plupart des constructeurs proposent des motorisations silencieuses, puissantes et économiques dont les niveaux de consommation sont très modérés (moins de 7 litres de gazole sur route pour un moteur deux-litres). La bataille des sigles (Tdi chez Volkswagen, CDI chez Mercedes, dCi chez Renault, JTD chez Fiat, HDi chez Peugeot-Citroën) résulte autant d'une compétition technologique que d'une lutte d'influence autour des normes européennes relatives à la défense de l'environnement. Le diesel, en effet, dispose d'un avantage comparatif important : il produit moins de dioxyde de carbone (CO2) que l'essence. Or, les objectifs européens de lutte contre la pollution s'expriment essentiellement en termes de réduction des émissions de CO2, directement liées au niveau de consommation d'énergie. En France, depuis 1998, elles déterminent, avec la puissance du moteur, la catégorie fiscale d'un modèle. Hier encore soupçonné d'être écologiquement incorrect, le gazole est-il vraiment le carburant " vert " que l'on attendait ? Tout dépend de ce que l'on mesure. S'il émet moins de CO2, il est moins bien placé pour les émissions de Nox - oxydes d'azote - et de particules (en attendant la généralisation de filtres inaugurés par Peugeot et Citroën). Les puristes font également remarquer que le CO2, présent naturellement dans l'atmosphère, n'est pas directement dangereux pour la santé et n'est donc pas, à proprement parler, un polluant. " N'enterrons pas prématurément le moteur à essence, plaide pourtant un expert de Renault. Bientôt, une nouvelle génération de turbocompresseurs améliorera son rendement et lui offrira des performances équivalentes en matière de reprises tout en réduisant la consommation. " Le Monde : http://www.lemonde.fr/article/0,2320,seq-2040-46074-QUO,00.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|