RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 222
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Décembre 2002
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'usage d'arobase ou d'arrobe consacré en Français
Important jugement en Australie pour la liberté d'expression sur l'internet
Le gouvernement confirme son objectif de couverture haut débit pour le territoire
Le commerce électronique en Europe décolle pour les fêtes
France Telecom et 3Com proposent un pack Wi-Fi + ADSL pour les PME
Internet sur la prise électrique : nouveau départ
Une image stockée dans une molécule
Matière
IBM a mis au point des transistors de 6 nanomètres
Le plastique pour des circuits plus rentables
IBM serait prêt à lancer ses puces de technologie 90 nanomètres
Espace
Les Européens ensemble pour la mise au point d'un télescope géant
Terre
La glace polaire s'amenuise
2002 a été la deuxième année la plus chaude depuis un siècle et demi
Vivant
Une grande université américaine va cloner des embryons
L'excès de poids augmente les risques d'attaque cérébrale
OGM : pas de danger pour la santé
Pression artérielle et mortalité : le lien est encore plus marqué
Des chercheurs percent une partie des secrets du rythme biologique
Un des mécanismes d'infection du paludisme identifié
Traire les vaches une seule fois par jour : possible, selon des chercheurs
Dès 2 mois, le réseau du langage est en marche
Edito





TIC
Information et Communication
L'usage d'arobase ou d'arrobe consacré en Français
Samedi, 21/12/2002 - 00:00

Désormais fameux petit a cerclé aux trois-quarts qui sert dans toutes les adresses de courrier électronique, a reçu une dénomination officielle de la part de la Commission générale de terminologie et de néologie. @ doit donc être appelé ''arrobe'' et éventuellement ''arobase'' à l'écrit, selon l'article publié dans le Journal Officiel du 9 décembre. Un choix étonnant qui ne permet pas d'éclaircir l'étymologie de ce mot. Elle en fixe aussi la définition: "caractère @ fréquemment employé dans les adresses de courrier électronique pour séparer le nom identifiant l'utilisateur de celui du gestionnaire de la messagerie". Dans le langage courant le a cerclé est généralement appelé ''at'' à la façon anglo-saxonne, ''arobase'' en français, ou encore ''a commercial'' au Québec. Très ancien, le @ est en effet devenu populaire à partir du XIXème siècle aux Etats-Unis, où il servait dans le langage commercial : « 1 kilo @ 2$ » veut dire « one kilo at 2 dollars » (1 kilo vaut 2 dollars). En revanche, ''arrobe'' n'est jamais utilisé. Ce terme désigne déjà une ancienne mesure espagnole de poids et de capacité (Le Robert). Le @ serait la contraction du ad latin, le a étant dessiné dans la boucle du d. Quant aux origines du mot qui le désigne, elles font l'objet de nombreuses hypothèses. Arobase viendrait de l'espagnol arroba, issu de l'arabe ar-roub (le quart). Il pourrait aussi être une déformation de l'expression ''a rond bas de casse''. Quant à son tracé, il "résulterait de la ligature de l'accent grave avec le a de la préposition française à, autrefois d'usage courant dans le commerce international".

JO du 8-12-2002 :

http://www.legifrance.gouv.fr/WAspad/Visu?cid=323148&indice=38&table=JORF&ligneD...

Important jugement en Australie pour la liberté d'expression sur l'internet
Samedi, 21/12/2002 - 00:00

La plus haute instance judiciaire d'Australie a rendu un jugement qui risque d'avoir des implications mondiales concernant ce qui peut être publié sur l'internet et d'y limiter la liberté d'expression. Dans ce qui semble une première internationale, la Haute cour a décidé à l'unanimité que les responsables de la publication d'informations dénoncées pour leur caractère diffamatoire relevaient des tribunaux du pays où ces informations sont lues et non du pays d'où elles sont diffusées. La cour suprême a rejeté un appel interjeté par l'agence de presse américaine Dow Jones qui demandait qu'une plainte pour diffamation du magnat du secteur minier Joseph Gutnick soit examinée aux Etats-Unis plutôt qu'en Australie où il vit. Le tribunal a donné son feu vert à un examen du dossier dans l'Etat de Victoria, où est établi le plaignant. L'idée est qu'une plainte en diffamation doit être examinée là où la personne qui s'estime diffamée a sa réputation à défendre. M. Gutnick s'est félicité du verdict, qui, estime-t-il, démontre que "le net n'est pas différent des journaux classiques" et que les publications paraissant sur la toile allaient devoir en tenir compte. "Vous devez faire attention à ce que vous écrivez et si vous insultez quelqu'un ou écrivez quelque chose de malveillant, comme cela a été le cas pour moi, vous risquez d'être poursuivi", a-t-il dit à la chaîne de télévision Channel Nine. L'entrepreneur poursuit l'agence économique pour un article sur ses impôts paru en octobre 2000. Dans cette affaire, Dow Jones avait reçu le soutien d'autres grandes sociétés de presse, dont l'agence Reuters et News Corp. Dow Jones s'est dit déçu du jugement qui signifie, a dit l'agence, qu'elle va devoir se défendre "dans une juridiction située très loin du pays où l'article a été préparé et où se trouve l'essentiel du lectorat" du site où il est paru. Un spécialiste des dossiers de diffamation, Damian Sturzaker, du cabinet d'avocats de Sydney Gadens, a estimé que la décision de la Haute cour australienne risquait de faire école dans d'autres pays et de déboucher sur une multitude de litiges où un même accusé serait soumis à diverses juridictions adoptant chacune des critères différents. Il a souligné que les petites sociétés aux ressources limitées sur le plan judiciaire étaient particulièrement vulnérables à ce type d'action. "Cela ne concerne pas que les médias -- les universités et les sociétés qui mettent de l'information sur l'internet vont également devoir en tenir compte", a-t-il dit. Le directeur de l'Australian Internet Association, Peter Coroneos, a estimé que le jugement de la cour suprême australienne retenait l'attention des responsables de médias dans le monde. Il a expliqué que, si le dossier avait été jugé aux Etats-Unis, Dow Jones aurait pu invoquer le premier amendement de la constitution américaine sur la liberté d'expression, une protection qui n'existe pas en Australie où les lois sur la diffamation sont plus sévères. "Cela va certainement inciter les publications dont les contenus paraissent dans d'autres juridictions, en particulier l'Australie, à être plus prudentes", a-t-il dit. Dow Jones soulignait que, puisque les sources à l'origine de l'article controversé se trouvaient aux Etats-Unis, c'était là que la plainte devait être examinée. La cour australienne ne s'est pas prononcée sur le contenu même de la plainte.

Haute Cour d'Australie : Arrêt du 10-12-2002 : Dow Jones contre Gutnick :

http://www.austlii.edu.au/au/cases/cth/high_ct/2002/56.html

Le gouvernement confirme son objectif de couverture haut débit pour le territoire
Samedi, 21/12/2002 - 00:00

Le gouvernement a confirmé vendredi 13 décembre son engagement à assurer à toutes les communes de France un accès à l'internet haut débit à l'horizon 2007. Le Comité interministériel d'aménagement et de développement du territoire (CIADT), réuni à Matignon, a repris le plan "RESO 2007" présenté le 12 novembre par Jean-Pierre Raffarin. "Notre objectif est que les abonnés à l'internet haut débit soient au moins 10 millions dans les cinq prochaines années" - au lieu de moins d'un million aujourd'hui -, avait alors dit le Premier ministre. Le CIADT a décidé de lancer un "appel à projets" pour favoriser les initiatives locales. Le gouvernement y consacrera 4 millions d'euros sur trois ans, auxquels s'ajouteront 600.000 euros de crédits d'étude et d'ingénierie de la Caisse des dépôts et consignations. Il souhaite notamment encourager le recours aux réseaux sans fil. C'est cependant surtout dans le domaine réglementaire que le gouvernement a décidé de faire sauter des verrous. Le code général des collectivités territoriales sera ainsi modifié pour reconnaître à celles-ci la vocation à assumer la fonction d'opérateur. Selon un document gouvernemental, le ministère de l'Equipement proposera "dans les meilleurs délais" d'autres adaptations législatives et réglementaires pour permettre le déploiement de réseaux locaux le long des infrastructures nationales de transport ou l'inscription des réseaux haut débit dans les documents d'urbanisme. Il pourra aussi être demandé aux bailleurs sociaux de prévoir les conduites nécessaires aux futurs connexions internet. Le gouvernement demande à la DATAR (Délégation à l'aménagement du territoire et à l'action régionale) un rapport sur les stratégies des investisseurs susceptibles de s'impliquer dans les territoires les moins attractifs pour les opérateurs du secteur privé. La DATAR est également chargée d'étudier les conditions de développement de l'accès à internet à haut débit par satellite. "Pour favoriser la croissance de ce marché, le gouvernement donne son accord pour que la redevance de gestion des fréquences acquittée par les opérateurs de réseau par satellite soit significativement réduite", lit-on dans le document gouvernemental. En juillet 2001, le gouvernement de Lionel Jospin avait déjà annoncé la mise en place de 10 milliards FF (1,5 milliard d'euros) de prêts à taux préférentiels pour promouvoir le "haut débit pour tous" sur tout le territoire d'ici 2005. Le CIADT de vendredi a d'autre part décidé de mobiliser 10 millions d'euros (cinq millions du ministère de l'Education nationale et cinq millions de la DATAR) pour la création d'"universités numériques" dans les régions et deux millions d'euros pour le développement des accès publics à internet. Le CIADT a par ailleurs confirmé le déblocage par l'Etat de 44 millions d'euros pour l'amélioration de la couverture du territoire par les réseaux de téléphonie mobile. Les préfets de région devront préparer d'ici mars un "plan pluriannuel de déploiement des sites", en concertation avec les collectivités locales et les opérateurs.

Reuters : http://fr.news.yahoo.com/021213/85/2w2db.html

Le commerce électronique en Europe décolle pour les fêtes
Samedi, 21/12/2002 - 00:00

Les sites web détaillants européens atteignent en cette fin d'année leurs prévisions de ventes les plus optimistes, sans avoir à recourir aux clinquantes campagnes publicitaires des années précédentes, selon les dernières études publiées. Même s'il ne représente encore qu'une fraction des ventes de détail, le commerce électronique est passé du statut de niche à celui de phénomène de masse et les premières prévisions pour Noël 2002, outrageusement ambitieuses il y a seulement six semaines, sont maintenant à portée de main. Les prévisions de ventes en ligne pour l'Europe sur la période de Noël tournent autour de 7,6 milliards d'euros, selon la société d'études Forrester Research, un bond de 86% par rapport aux années précédentes. Les mesures de fréquentation de la société Nielsen//Netratings établissent que 47 % des internautes européens ont visité un site marchand en novembre, un autre record. "Novembre a été un mois très important pour la croissance ces deux dernières années", note Tom Ewing, analyste chez Nielsen//Netratings. La proportion d'internautes allemands, britanniques et français qui visitent au moins un site de commerce par mois figure parmi les plus élevées du monde, avec des pourcentages respectifs de 65%, 51 % et 47 %, a ajouté Ewing. Les consommateurs britanniques ont dépensé un milliard de livres sterling, soit environ 1,6 milliard d'euros, sur l'internet en novembre, un bond de 95% par rapport à novembre 2001, selon une étude de Interactive Media in Retail Group (IMRG) publiée le 14 décembre. En comparaison, les ventes au détail en magasin ont augmenté de 6,1% sur la même période, selon le British Retail Consortium.

Reuters : http://fr.news.yahoo.com/021213/85/2w3eq.html

France Telecom et 3Com proposent un pack Wi-Fi + ADSL pour les PME
Samedi, 21/12/2002 - 00:00

L'internet rapide sans les fils ? Imaginé spécialement pour les PME/PMI, France Telecom/Oléane propose un pack "Wi-Fi + ADSL" basé sur le routeur "Office Connect Wireless Cable/DSL Gaetway" de l'équipementier américain 3Com et l'accès internet Oléane Open. Cette solution clef en main permet ainsi à une PME de partager simplement son accès internet avec n'importe quel terminal (PC, PC portable, PC de poche, tablette SmartDisplay) équipé d'une antenne Wi-Fi, sans utiliser le moindre câblage et en rendant possible, dans un rayon d'une centaine de mètres, l'accès au web, à l'intranet encore ou à la messagerie d'entreprise. France Telecom ne communique pas les tarifs de ce pack mais il ne devrait pas dépasser les 1000 ?uros ht auxquels il faudra bien évidemment ajouter le prix de l'abonnement ADSL Oléane. Les TPE pourront toutefois se tourner vers une offre ADSL Free (30 ?/mois) et se satisfaire d'un routeur / Wi-Fi vendu entre 200 et 250 ?uros.. à condition d'avoir quelques notions en informatique.

Netéconomie :

http://www.neteconomie.com/perl/navig.pl/neteconomie/infos/article/2002121615325...

Internet sur la prise électrique : nouveau départ
Samedi, 21/12/2002 - 00:00

L'accès à Internet par courant porteur revient sur le devant de la scène. Eric Pilaud, vice-président de Schneider Electric, a réaffirmé la volonté de sa société de développer cette technologie de transfert des données sur les câbles électriques, malgré les déboires de RWE, l'homologue allemand d'EDF. « L'objectif est d'avoir un million de points raccordés d'ici à 2006 », affirme les responsables de Schneider Electric dans un communiqué, diffusé à l'occasion du récent salon Elec 2002. Le groupe expérimente depuis mars 2001 la technologie CPL (courant porteur en ligne) à travers la filiale EasyPlug qu'il a créée avec Thomson. Aujourd'hui, il estime que les équipements sont suffisamment fiables et performants pour passer au stade commercial. L'offre est présentée comme un complément de l'ADSL, partout où cette dernière technologie ne peut pas aller : dans les zones rurales et dans les pays où les réseaux téléphoniques ne sont que partiellement développés. En France, le déploiement de ces solutions en extérieur bute encore sur des problèmes réglementaires. Mais la technologie est déjà utilisée pour créer des réseaux à l'intérieur des bâtiments, où la réglementation est plus souple. Suite à un appel d'offres lancé par le conseil général de La Manche, cinquante-six collèges sont en cours d'équipement par Schneider Electric. La mise en oeuvre des réseaux est très simple : un serveur sur le central électrique, relié à un accès Internet haut débit (câble, ADSL), et des modems placés entre les prises électriques et chaque micro. Aucun câble à poser. « Un réseau s'installe en un ou deux jours, en toute discrétion, sans gêner l'activité scolaire », explique Christian Duhaut, chargé d'affaires chez Schneider Electric. Selon lui, la solution est jusqu'à cinq fois moins chère que le déploiement d'un réseau Ethernet. « Il faut entre 10 000 et 12 000 euros pour équiper un collège, tout compris », assure Christian Duhaut. Et les performances sont au rendez-vous. « Avec notre équipement, le débit théorique atteint 45 Mbit/s, soit 14 à 16 Mbit/s en pratique. 60 % de la bande passante est réservée au download et le reste à l'upload », poursuit-il. La technologie CPL présente également des avantages que n'ont pas les réseaux sans fil, tel que Wi-Fi. « Le courant porteur est plus rassurant du point de vue des radiations électromagnétiques. C'est un argument important pour convaincre les établissements scolaires », explique le responsable de Schneider Electric.

OINet : http://www.01net.com/rdn?oid=199293&rub=3365

Une image stockée dans une molécule
Samedi, 21/12/2002 - 00:00

L'expérience, menée à l'Université d'Oklahoma et décrite la semaine dernière dans le New Scientist, a permis de mémoriser des bits d'informations dans une molécule. Chacun des 19 atomes d'hydrogène de la molécule utilisée stockait une partie des 1024 bits composant l'image. Cette dernière, une image en noir et blanc de 32 pixels de côté, était ainsi encodée par les variations de fréquence des protons composant les atomes de la molécule. A chaque bit de l'image correspond une fréquence, dont l'amplitude représente soit « 0 » soit « 1 ». Balayée par une onde électromagnétique, la molécule « imprime » les données correspondantes en mémorisant les fréquences unitaires.Ces données stockées par la molécule peuvent ensuite être lues, après émission d'un nouveau champ d'onde, en mesurant - à l'aide d'un instrument de résonance magnétique nucléaire - les variations de fréquences produites en réaction par la molécule. De nombreuses autres tentatives d'utilisation de particules élémentaires ou de molécules pour stocker de l'information ont eu lieu avec succès cette année. Dans le cas présent, les scientifiques ne s'expliquent pas véritablement le comportement « très complexe » de la molécule soumise à des variations de fréquences. Mais, si le procédé est jugé encore « très expérimental », il ouvre une nouvelle voie vers le stockage de données dans des volumes de taille infinitésimale.

New Scientist :

http://www.newscientist.com/news/news.jsp?id=ns99993129

^ Haut
Matière
Matière et Energie
IBM a mis au point des transistors de 6 nanomètres
Samedi, 21/12/2002 - 00:00

A l'occasion de l'International Electron Devices Meeting de San Francisco, IBM vient d'annoncer la mise au point de transistors de seulement six nanomètres (nm) de large, ou 0,06 micron. On mesure mieux cette nouvelle prouesse technologique quand on sait que les plus petits transistors actuellement commercialisés sont 20 fois plus gros (130 nanomètres) et que la prochaine génération de transistors prévue pour 2005 sera gravée par Intel en 65 nm. Ce résultat arrive à point pour rassurer le consortium des entreprises productrices de semi-conducteurs qui estime qu'il faudrait que les transistors atteignent une taille critique de 9 nm en 2016 au plus tard pour soutenir la croissance des performances des processeurs. Cet objectif devrait être atteint sans difficultés avec ce nouveau record d'IBM qui s'est cependant gardé d'avancer une date quant à la mise en production à l'échelle industrielle. Le prototype utilisé pour la démonstration a demandé un an de travail. De nombreuses étapes restent à franchir avant une exploitation industrielle de cette mise au point. Pour accomplir cet exploit, les chercheurs d'IBM ont gravé les transistors sur une couche comprise entre 4 et 8 nm d'épaisseur de "silicium sur isolant" (silicon on insulator ou SOI), reconnu pour ses propriétés d'accélération de la charge électrique, combiné à une longueur d'onde de 248 nm pour la lithographie. Cette annonce d'IBM vient repousser encore un peu plus les limites de la fameuse loi énoncée par Gordon Moore en 1965 et qui prévoit le doublement du nombre de transistors par processeur tous les deux ans environ.

IBM :

http://www.research.ibm.com/resources/news/20021209_transistor.shtml

Le plastique pour des circuits plus rentables
Samedi, 21/12/2002 - 00:00

Beng Ong, un scientifique du centre de recherche de Xerox au Canada, a présenté a la conférence sur la recherche en matériaux (Materials Research Conference) du mardi 3 décembre a Boston, un procédé pour fabriquer des semi-conducteurs plastiques a bas prix. Cette technologie permettrait de réduire le coût des écrans pour ordinateurs portables, téléviseurs et téléphones portables notamment, et de les rendre plus légers et flexibles. Si les scientifiques s'intéressent depuis longtemps au plastique pour remplacer le silicone, jusqu'alors les polymères organiques obtenus, (qui sont a la base du plastique) se désagrégeaient au contact de l'air et avaient un coût de fabrication trop élevé. Le Polythiophene mis au point par Ben Ong et ses collaborateurs surclasse les polymères actuels et n'a as les mêmes contraintes de fabrication qui font des puces en silicone des produits chers. Xerox qui destine ce produit uniquement pour des applications telles que les écrans, a déclare qu'elle allait continuer a évaluer ce produit. Si les résultats se montraient prometteurs, l'entreprise s'engagerait à mettre massivement ce matériau sur le march" par la vente de licences.

MS&T :

http://www.xerox.com/go/xrx/template/019e.jsp?id=NR_2002Dec3_POE&Xcntry=USA&Xlan...

IBM serait prêt à lancer ses puces de technologie 90 nanomètres
Samedi, 21/12/2002 - 00:00

International Business Machines est sur le point de donner naissance à une nouvelle génération de puces mesurant 90 nanomètres, destinées à Xilinx. Cette nouvelle technologie, qui réduit de 50 à 80 % la taille des puces, permet d'obtenir des semi-conducteurs mesurant moins d'un millième de la taille d'un cheveu, a expliqué IBM Microelectronics. IBM a déclaré que la production des puces pour Xilinx débuterait au premier trimestre 2003 et que la production de masse était prévue pour le deuxième semestre. Cette technologie à 90 nanomètres, pour laquelle Intel dispute la paternité à IBM, permet d'ajouter des caractéristiques aux semi-conducteurs et d'accroître leurs performances, en diminuant la taille des transistors, sortes d'interrupteur au sein des puces dont la taille actuelle est de 130 nanomètres. Ces nouvelles puces seront disposées sur des galettes de silicium plus grandes mesurant 300 millimètres de diamètre, contre 200 mm actuellement continuant ainsi à refléter la loi de Moore, qui postule que le nombre de transistors logés dans un processeur double tous les 18 à 24 mois. Un haut-responsable d'IBM a estimé que cette avancée technologique permettrait d'accélérer l'arrivée d'applications telles que le logiciel de reconnaissance vocale et les traducteurs sur les assistants-personnels. IBM fabriquera cette puce de 90 nanomètres pour la société Xilinx, qui propose des microprocesseurs programmables à des sociétés spécialisées dans un grand nombre de domaines, dont les produits de consommation, l'automobile, l'industrie et les communications. Grâce à cette nouvelle technologie, Xilinx pourra baisser ses prix, selon son vice-président mondial du marketing de la société, Sandeep Vij. Xilinx pourra ainsi proposer à ses clients une puce programmable à moins de 25 dollars, alors que "la même performance aurait coûté 140 dollars par puce en 2000", a dit Vij.

Reuters : http://fr.news.yahoo.com/021216/85/2w6t7.html

^ Haut
Espace
Espace et Cosmologie
Les Européens ensemble pour la mise au point d'un télescope géant
Samedi, 21/12/2002 - 00:00

Les astronomes européens, après plusieurs années de travaux en ordre dispersé, vont s'atteler à un projet unique de télescope géant, l'ELT (Extremely large telescope) qui serait le plus puissant au monde. Le miroir primaire de ce télescope de nouvelle génération aurait une surface de 100 mètres, contre 11 pour les plus grands télescopes existant à l'heure actuelle. Il permettrait aux scientifiques d'étudier les objets lointains jusqu'aux confins de l'univers, avec une précision inimaginable aujourd'hui, apprend-on auprès du réseau de coordination constitué à cette fin. "Le saut que cela va représenter par rapport aux outils actuels est du même ordre que celui entre la lunette de Galilée et l'observation à l'oeil nu", a expliqué à l'AFP Roland Bacon, directeur du Centre de recherches astronomiques de Lyon, chargé du dossier côté français et membre du réseau OPTICON (Optical Infrared Coordination Network for Astronomy). "Par exemple, on pourra observer les supernovae en fin de vie, les planètes équivalentes de la Terre près des étoiles proches, et observer directement les planètes extrasolaires, avec tous les enjeux scientifiques que cela implique, pour la compréhension de l'apparition de la vie notamment", poursuit Roland Bacon. Depuis une dizaine d'années, plusieurs pays d'Europe dont la France réfléchissent à des projets de télescopes du futur, en dehors de l'ESO (European Southern Observatory) qui regroupe huit pays et qui avait aussi son projet baptisé Owl (OverWhelming Large Telescope). Il est apparu que plusieurs de ces projets étaient réalistes d'un point de vue technologique, et qu'un travail en commun était préférable à un "gaspillage d'efforts dispersés", a déclaré pour sa part à l'AFP Gerry Gilmore de l'Institut d'Astronomie de Cambrige, qui préside le réseau OPTICON. Un accord est intervenu à Bologne (Italie) en juillet pour fusionner les deux approches, celle de l'ESO pour un télescope de 100 mètres, et le projet EURO 50 mené par l'Espagne et les Pays Scandinaves pour un télescope de 50 mètres. "Il est important politiquement que les Européens soient ensemble pour une proposition commune", estime Roland Bacon, si l'Europe compte "concurrencer les Etats Unis". Le projet américain concurrent est le CELT (California Extra Large Telescope) auquel travaillent les universités de Californie. Les débats dans les mois à venir doivent permettre de présenter à la Commission Européenne une étude de faisabilité détaillée, assortie de solutions techniques et de clarifier les coûts, a expliqué en substance M. Bacon selon lequel le projet devrait avoisiner 1 milliard d'euros. La conception puis la construction de l'ELT devrait prendre 10 à 15 ans pour une mise en service vers 2015, a-t-il estimé, précisant qu'on ignorait encore où l'instrument serait basé. "Il faut un site en altitude dans un climat sec", a-t-il indiqué. L'ELT se présenterait comme un gigantesque saladier, d'une taille comparable à la base de la Tour Eiffel, et son miroir serait constitué d'une mosaïque de quelque 10.000 morceaux de verre juxtaposés. Le plus gros télescope optique en opération (miroir de 11 mètres) est le HET américain (Hobby-Eberly Telescope) installé au Texas sur le Mont Fowlkes. Le Very Large Télescope (VLT) de l'ESO, installé au Chili, comporte quatre miroirs de 8,2 mètres qui peuvent travailler de manière complémentaire.

AFP : http://fr.news.yahoo.com/021210/202/2vwk7.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La glace polaire s'amenuise
Samedi, 21/12/2002 - 00:00

En période estivale, la calotte glaciaire s'étend habituellement sur six millions et demi de kilomètres carrés. Mais cette année, elle fait à peine plus de cinq millions et demi. A ce rythme, d'ici 2050, 20 % des glaces couvrant l'Arctique se seront volatilisés. C'est ce qu'a indiqué Mark Serreze, chercheur au Centre américain de données sur la neige et la glace, à Boulder, dans le Colorado, à la conférence 2002 de l'American Geophysical Union , la semaine dernière, à San Francisco. C'est à partir d'images satellites que le chercheur a mesuré la taille de la calotte glaciaire. Le scientifique estime que l'oscillation arctique, un cycle régulier de circulation d'air au dessus du Pôle Nord, est en partie responsable de cette fonte. Ce cycle est déréglé. L'oscillation arctique a normalement deux phases qui s'alternent, une positive et une négative. Mais, depuis 1980, elle est bloquée dans sa phase positive. Une basse pression prédomine donc dans l'Arctique. Ce qui engendre des printemps plus orageux, suivis d'étés plus chauds. Les orages printaniers brisent la glace en menus morceaux, ce qui en accélère la fonte. Comme le fait remarquer le scientifique dans la revue Nature du 9 décembre, les tempêtes ont été particulièrement violentes cette année. L'homme n'est pas étranger à ce phénomène. En effet, l'amincissement de la couche d'ozone au dessus du Pôle et les rejets accrus de dioxyde de carbone dans l'atmosphère expliquent partiellement les perturbations de l'oscillation arctique. Une fonte estivale de la calotte polaire, plus importante que la normale, influence le climat de l'Arctique. Car la glace renvoie 80% de l'énergie solaire, tandis que l'eau l'absorbe à 80%. Plus la calotte glaciaire fond, plus l'océan arctique se réchauffe. Et vice versa. Un autre chercheur, Konrad Steffen, climatologue à l'Université du Colorado, à Boulder, a découvert que les glaces du Groenland avaient également fondu anormalement l'été dernier.

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N3056.asp

2002 a été la deuxième année la plus chaude depuis un siècle et demi
Samedi, 21/12/2002 - 00:00

2002 aura été la deuxième année la plus chaude depuis près d'un siècle et demi, ont estimé mardi les experts de l'Organisation météorologique mondiale (OMM) qui ont prédit que les effets perturbateurs d'El Nino se poursuivraient jusqu'en avril 2003. La température moyenne à la surface du globe en 2002 devrait dépasser de 0,5 degrés Celsius la normale calculée pour la période 1961-1990, ont-ils précisé. 1998 a été l'année la plus chaude depuis que les premiers relevés ont été mis en place en 1860. 2001 occupe la troisième place du palmarès.L'OMM, dont le siège est à Genève, présentait à la presse son rapport sur l'état du climat mondial en 2002. Il confirme que la planète se réchauffe à un rythme accéléré : sa température moyenne a grimpé depuis 1976 à un rythme trois fois plus élevé que celui qui a prévalu sur un siècle. La hausse globale depuis 1900 atteint 0,6 degrés. Les neuf années les plus chaudes ont été enregistrées après 1990. Selon Kenneth Davidson, qui dirige le programme d'étude du climat à l'OMM, ce réchauffement rapide "est sans précédent sur la période de 1.000 ans" pour laquelle on dispose de moyens fiables de contrôle (carottage de la banquise, examen des anneaux de croissance des arbres, analyse de la vase au fond des mers). Pour les responsables de l'OMM, ce réchauffement est dû essentiellement à la pollution atmosphérique. "Si on ne fait rien de plus pour éviter les rejets de gaz à effet de serre, cette tendance se poursuivra", a souligné le secrétaire général adjoint de l'OMM, Hong Yan. Signe du réchauffement, l'étendue de la couverture de glace de l'océan arctique en septembre 2002 a été la plus faible pour un mois de septembre depuis 1978, date des premières observations par satellite. Selon Matthew Manne, de l'Administration américaine pour les océans et l'atmosphère (NOAA), cette fonte des glaces ne fait pas beaucoup monter le niveau des mers mais elle modifie les échanges de chaleur entre océans et atmosphère, ce qui "peut avoir un impact sur le climat régional, et peut-être même mondial". En revanche, l'état de la couche d'ozone, qui protège la terre des rayons ultra-violets, s'est amélioré en 2002 : le trou d'ozone au-dessus de l'Antarctique a été le plus petit et le moins profond observé depuis 1988. Ce phénomène varie en ampleur et durée d'une année sur l'autre. L'OMM estime que les certaines des anomalies climatiques constatées en 2002 - printemps glacial au Canada, fortes pluies en Afrique de l'Est, canicule et sécheresse en Australie qui ont provoqué des incendies - peuvent s'expliquer par "un épisode El Nino d'intensité modérée". "Les conditions liées à El Nino devraient durer jusqu'en avril prochain", estime Kenneth Davidson. Il prévoit en conséquence des pluies anormalement abondantes sur le nord-ouest de l'Amérique latine et une sécheresse persistante en Argentine, en Uruguay et en Afrique australe. El Nino, dont on a annoncé le retour en juin 2002, se produit quand la température à la surface du Pacifique au niveau de l'Equateur reste au-dessus des normales saisonnières pendant plusieurs mois. Parmi les aberrations climatiques de 2002, l'OMM mentionne aussi l'été le plus chaud depuis 1860 en Suède, des inondations record en Allemagne, Autriche et Europe centrale en août, des pluies diluviennes dans le sud de la France, des tempêtes tropicales deux fois plus nombreuses qu'à l'ordinaire sur les côtes atlantiques des Etats-Unis. La sécheresse a fait des ravages en Inde, en Mauritanie, au Sénégal et en Gambie, en Ethiopie et en Amérique centrale. Pour M. Davidson, il est difficile d'affirmer que ces événements climatiques extrêmes sont provoqués par le réchauffement : "Je peux dire seulement que nous en avons davantage chaque année".

OMM : http://www.wmo.ch/web/Press/Press684fr_.pdf

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une grande université américaine va cloner des embryons
Samedi, 21/12/2002 - 00:00

La prestigieuse université de Stanford, en Californie, a annoncé le 10 décembre qu'elle allait cloner des embryons dans le cadre de recherches sur les cellules souches, une démarche annoncée comme une première aux Etats-Unis. Jusqu'ici, les cellules souches embryonnaires était cultivées à partir d'embryons existants, issus notamment d'instituts pratiquant la fécondation in vitro. Aucun laboratoire de recherche ne clonait des embryons dans le but d'en extraire ces cellules. Ce clonage servira à produire des cellules souches dans le cadre de recherches pour mettre au point des traitements innovants contre le cancer, mais aussi contre le diabète, les maladies cardio-vasculaires et la maladie de Parkinson. Ces recherches seront réalisées par un nouvel institut fondé au sein de l'université californienne grâce à un don anonyme et privé de 12 millions de dollars. Il sera dirigé par le chercheur spécialiste des cellules souches, Irving Weissman. "Cette démarche majeure traduit notre volonté d'utiliser le fruit de nos recherches pour développer des traitements dont les patients pourront bénéficier directement", a déclaré mardi le Dr Philip Pizzo, doyen de l'école de médecine de Stanford et chercheur en cancérologie. Selon le Dr Weissman, certaines celulles cancéreuses, dans le cas de la leucémie par exemple, se développent de façon similaire aux cellules souches. En étudiant ces dernières, il espère pouvoir mettre au point de nouveaux traitements puissants à base de cellules souches pour traiter ces cancers. En septembre, la Californie a promulgué une loi permettant la recherche sur les cellules souches embryonnaires, devenant le premier Etat américain à autoriser sans limitation ce type de recherche, en contradiction avec les restrictions imposées par George W. Bush au niveau fédéral pour la recherche publique. Les cellules souches sont des cellules indifférenciées, capables de produire des cellules spécialisées (sang, foie, muscle, etc.). Elles pourraient permettre un jour de "réparer", voire remplacer, des organes endommagés et de guérir des maladies aujourd'hui incurables (cancers, diabète, maladies de Parkinson et d'Alzheimer).

Los Angeles Times :

http://www.latimes.com/news/nationworld/nation/la-na-stem11dec11.story

L'excès de poids augmente les risques d'attaque cérébrale
Samedi, 21/12/2002 - 00:00

L'excès de poids augmente aussi les risques d'attaque cérébrale selon la première étude de grande ampleur sur ce sujet publiée aux Etats-Unis, alors que l'obésité et le surpoids étaient déjà connus pour être des facteurs de risque d'accident cardiaque. L'étude publiée dans les Archives of Internal Medicine, une publication du Journal of the American Medical Association (JAMA), a été menée durant 12 ans et demi sur une population de 21.414 hommes de 40 à 84 ans qui étaient en bonne santé au début du suivi. Les chercheurs ont comptabilisé 747 attaques cérébrales durant l'étude, dont 631 d'origine ischémique (diminution de l'apport sanguin artériel), 104 d'origine hémorragique et 12 d'origine indéfinie. Les auteurs des travaux ont mis en rapport l'indice de masse corporelle (IMC) des personnes suivies avec la fréquence des accidents cérébraux.Les personnes dont l'IMC était égal ou supérieur à 30 ont été deux fois plus nombreuses à souffrir d'un accident cérébral que les participants dont l'IMC était égal ou inférieur à 23. Chaque hausse d'un point de l'indice IMC s'est traduit par une hausse de 6 % du risque d'accident cérébral, selon le calcul des chercheurs du Brigham et Women's Hospital de Boston (Massachusetts) placés sous la direction du Dr Tobias Kurth. L'IMC est égal au rapport du poids de l'individu, exprimé en kilogrammes, sur le carré de sa taille, exprimée en mètres. On parle généralement d'obésité quand l'IMC dépasse le seuil de 30, et de surpoids quand il dépasse 25. Le poids dit "souhaitable" est compris entre 18,5 et 24,9. Sur le groupe étudié, "la hausse de l'IMC a été associée à la progression constante des risques d'attaque cérébrale, d'origine ischémique et hémorragique. Même si l'hypertension et les diabètes concomitants ont compté pour une grande part de la hausse dans le total et dans les attaques ischémiques, il subsistait une hausse substantielle après ajustement", soulignent les auteurs de l'article. L'étude démontre, selon eux, que "patients et médecins devraient considérer les risques accrus d'attaque cérébrale comme un autre danger de l'obésité. La prévention de l'obésité devrait aider à prévenir les risques d'attaque cérébrale".

JAMA : http://jama.ama-assn.org/

OGM : pas de danger pour la santé
Samedi, 21/12/2002 - 00:00

"Une dizaine d'années de consommation d'OGM ou de produits dérivés d'OGM, outre-Atlantique en particulier, n'ont fait surgir aucun problème particulier de santé", explique l'Académie de Médecine dans un rapport publié le 11 décembre. "Le bilan de l'utilisation des OGM en alimentation est globalement positif, à condition d'établir des systèmes permanents d'évaluation et de biovigilance", poursuivent les sages de cette société savante française. Le rapport recommande donc la levée du moratoire de quatre ans sur les organismes génétiquement modifiés (OGM). Celui-ci avait été décidé en 1999 par sept pays de l'Union européenne, dont la France, sur les autorisations de nouveaux OGM, en l'attente de règles en matière de traçabilité et d'étiquetage. "Cette réglementation a maintenant vu le jour", remarque l'Académie. Dans ses conclusions, l'Académie de Médecine souligne que les procédures permettant d'évaluer les risques éventuels sont maintenant bien encadrées tant en France qu'au niveau européen. Ces évaluations "permettent d'assurer une protection sans défaut des consommateurs", selon le rapport. Les sages estiment que "l'amélioration quantitative et qualitative de la production alimentaire mondiale, longtemps rendue possible par les progrès des techniques agricoles classiques, (...) a maintenant atteint son plafond". Les OGM représentent dans ce domaine "des outils puissants d'accroissement de la productivité de sols (...) tout en préservant l'environnement et son capital d'avenir". Les académiciens décochent au passage quelques flèches en direction des organisations écologistes, sans les nommer, dénonçant notamment "les craintes irraisonnées des consommateurs fondées sur une information parcellaire et souvent tendancieuse". L'utilisation d'OGM dans le domaine thérapeutique, notamment pour la production de médicaments, doit également être encouragée, selon l'Académie de médecine. Ces OGM "participent non seulement aux traitements de maladies actuellement incurables, mais ils permettent aussi de faire progresser la connaissance physiopathologique de nombreuses maladies", selon le rapport. L'Académie de Médecine doit maintenant adopter formellement un ensemble de recommandations sur ce dossier, qui doivent être rendues publiques jeudi. L'Académie des Sciences, de son côté, publiera vendredi un rapport sur les aspects environnementaux et de recherche concernant les plantes génétiquement modifiées.

Académie de Médecine :

http://www.academie-medecine.fr/actualites/avis.asp

Pression artérielle et mortalité : le lien est encore plus marqué
Samedi, 21/12/2002 - 00:00

Le lien entre mortalité et pression artérielle est bien documenté. Cependant, une très vaste analyse montre que la relation entre pression artérielle et mortalité cardiovasculaire est encore plus marquée qu'on ne le pensait. En collaboration avec de nombreux investigateurs internationaux, Sarah Lewington et des confrères du Clinical Trial Service Unit and Epidemiological Studies Unit à Oxford ont analysé les données combinées de 61 études prospectives qui impliquaient environ un million d'adultes. Selon les commentaires des auteurs, il existe une relation continue entre le risque vasculaire et les valeurs 'normales' de pression artérielle jusqu'à 115/75 mm Hg au moins. De plus, dans cette gamme de pression normale, la pression artérielle (PA) est encore plus fortement liée à la mortalité vasculaire que ne le laissaient penser des données antérieures. Par exemple, une PA systolique plus faible de 10 mm Hg ou une PA diastolique plus faible de 5 mm Hg devrait, sur le long terme et pour une population d'âge moyen, être associée à une réduction de près de 40 % du risque de décès par accident vasculaire cérébral et de 30 % du risque de décès par cardiopathie ischémique ou autre origine vasculaire.

Lancet :

http://www.thelancet.com/journal/vol360/iss9349/full/llan.360.9349.talking_point...

Des chercheurs percent une partie des secrets du rythme biologique
Samedi, 21/12/2002 - 00:00

Deux équipes de chercheurs ont percé une partie des secrets du rythme biologique permettant à l'homme de maintenir une régularité dans ses périodes d'éveil et de sommeil, selon des travaux jeudi aux Etats-Unis. Des chercheurs de l'Université de Stanford (Californie) ont mis en évidence le rôle d'une molécule présente dans la rétine, capable de transmettre à l'horloge biologique du cerveau des informations sur la quantité de lumière présente dans l'environnement, déterminante dans le rythme de l'organisme. Cette molécule, appelée mélanopsine, serait l'un des récepteurs photosensibles présents dans la rétine pour réguler le cycle quotidien, selon les chercheurs dont les travaux sont publiés dans la revue américaine Science. Ils pu montrer, lors d'expériences sur des souris, que certaines cellules de la rétine contenant cette protéine photosensible permettaient de réguler en partie l'horloge biologique de ces souris. Privées de mélanopsine, les souris ont moins bien ajusté leurs périodes d'activité au cycle jour-nuit artificiel qui leur était imposé en laboratoire. La perte de réactivité au cycle jour-nuit était de l'ordre de 40% chez les souris dépourvues de la molécule. Les chercheurs soulignent cependant que le rôle de cette molécule paraît limité aux informations sur la lumière de faible intensité, d'autres photorécepteurs encore inconnus jouant un rôle pour la transmission d'autres informations au cerveau. "Cette étude clarifie le rôle de la mélanopsine dans l'établissement et le maintien de l'horloge circadienne (quotidienne)", a expliqué Bruce O'Hara, chercheur à Stanford et co-auteur de l'une des études. Une autre étude sur ce gène de la mélanopsine (Opn4), également publiée dans Science arrive aux mêmes conclusions que l'équipe de Stanford. La mélanopsine est "la protéine clé qui envoie les signaux à l'horloge", a commenté le Dr Steve Kay du Scripps Research Institute qui a mené les travaux parallèles.

Science : http://www.sciencemag.org/cgi/content/abstract/298/5601/2211?etoc

Science :

http://www.sciencemag.org/cgi/content/abstract/298/5601/2213?etoc

Un des mécanismes d'infection du paludisme identifié
Samedi, 21/12/2002 - 00:00

Deux équipes de chercheurs français ont découvert une des serrures qui ouvre la porte des cellules du foie au parasite du paludisme, une maladie qui touche plusieurs centaines de millions de personnes par an. Le Pr Dominique Mazier (hôpital de la Pitié-Salpétrière à Paris) et le Dr Claude Boucheix (hôpital Paul Brousse à Villejuif), dont les travaux sont publiés en ligne par Nature Medecine, ont mis en évidence le caractère indispensable à la colonisation des cellules du foie d'une molécule présente à la surface de ces cellules, la tétraspanine CD 81. Cette démonstration a été faite sur des souris artificiellement privées de cette molécule : chez ces rongeurs, le parasite n'a pas pu infecter les cellules hépatiques où il se multiplie habituellement avant de poursuivre son trajet dans le sang. A partir de cette découverte, les chercheurs espèrent mieux comprendre le processus infectieux du parasite et, à terme, pouvoir exercer une action préventive contre le parasite. La molécule tétraspanine CD 81 joue également un rôle dans l'infection par le virus de l'hépatite C, une maladie qui dans plusieurs régions du monde se superpose au paludisme. Cette découverte intervient six semaines seulement après l'annonce du décryptage du génome du moustique responsable de la transmission du paludisme et de celui du parasite qu'il transmet. Le paludisme touche entre 300 et 500 millions de personnes chaque année, principalement dans les pays en développement ou pauvres, et fait entre 1,5 à 2,7 millions de morts pendant la même période, dans 85 à 90 % des cas en Afrique sub-saharienne.

AFP : http://www.larecherche.fr/actu/n021218105228.zz1dlfa9.html

Traire les vaches une seule fois par jour : possible, selon des chercheurs
Samedi, 21/12/2002 - 00:00

La traite, l'un des travaux les plus contraignants dans l'élevage laitier, pourrait se faire une seule fois par jour sans poser de problèmes majeurs, selon des études menées par des chercheurs français. Des essais ont en effet été menés sur un troupeau de vaches laitières par une équipe de chercheurs de l'Institut national de la recherche agronomique (INRA) et de l'Ecole nationale des d'ingénieurs des travaux agricoles de Clermont-Ferrand (Puy-de-Dôme). Le verdict des scientifiques semble concluant : les vaches qui ne sont traites qu'une seule fois par jour - au lieu de deux - ne présentent aucun trouble sanitaire. Certes, elles produisent 30 % de moins, mais leur lait est plus riche et elles ont en fin de lactation un poids vif supérieur et un meilleur état corporel, note l'INRA dans son dernier bulletin mensuel Presse Info (décembre). Cette pratique, note l'INRA, pourrait trouver sa place dans un contexte de pénurie de main-d'oeuvre ou de quotas laitiers importants. Les chercheurs restent toutefois prudents et soulignent qu'il serait préférable avant d'envisager la mise en place de cette traite unique d'étudier notamment son impact sur plusieurs lactations. Dans un premier temps, cette pratique pourrait être limitée à de courtes périodes sensibles, pour s'adapter aux quotas autorisés ou pour dégager du temps pour les travaux estivaux, relève l'INRA.

La Recherche : http://www.larecherche.fr/afp/n021210101111.fdtluv95.html

Dès 2 mois, le réseau du langage est en marche
Samedi, 21/12/2002 - 00:00

Bébé ne parle pas, mais dès l'âge de 2 mois, tout est prêt. Ce sont les régions gauche de son cerveau qui traitent le langage. Comme chez l'adulte. Le cerveau est très tôt équipé avec les mécanismes du langage, et il dispose d'une grande plasticité, c'est ce qui ressort de travaux publiés (1) par une équipe française du CNRS qui a travaillé à l'hôpital Necker-Enfants malades à Paris. Elle a obtenu ces résultats grâce à une technique récente de plus en plus utilisée pour connaître le fonctionnement du cerveau : l'imagerie par résonance magnétique fonctionnelle (IRMf). Mais c'est la première fois en France qu'une équipe de recherche est autorisée à pratiquer une telle exploration chez des bébés en bonne santé. On sait que chez les adultes, l'hémisphère gauche est dédié à cette fonction (du moins dans 90 % des cas, certains ont en effet «le langage à droite»). En revanche, la différence de timbre de voix fait en général travailler l'hémisphère droit. Existe-t-il dès la naissance une région du cerveau spécialisée dans le langage ? L'adulte est-il un «prolongement» de ce qui se produit chez le bébé ? Pour en savoir plus, Ghislaine Dehaene-Lambertz, pédiatre de formation, a enregistré sa voix alors qu'elle lisait un livre pour enfants. C'est cet enregistrement en français, défilé à l'endroit et à l'envers qu'ont entendu vingt bébés âgés de 2 ou 3 mois pendant qu'ils étaient dans l'appareil d'IRM. Les bébés font en effet la différence entre leur langue maternelle et une langue étrangère, mais cette capacité disparaît si le texte défile à l'envers. Les bébés étaient soit naturellement endormis, soit éveillés, allongés, immobilisés dans l'appareil d'IRM pendant 15 minutes. Tout en regardant des images sur écran placé au-dessus de leur tête, ils écoutaient l'histoire à l'endroit 20 secondes. Et, après un silence, ils l'écoutaient à l'envers 20 secondes également. L'IRM permet de «voir» ce qui ce passe dans le cerveau grâce à des images numériques d'une qualité de résolution spatiale sans précédent. L'IRM dite «anatomique» est devenue un instrument-clé de la détection des tumeurs et autres lésions du cerveau (2). Plus récemment, l'IRM dite «fonctionnelle» (IRMf), s'est mise au service de la recherche : elle fait apparaître les zones du cerveau qui rentrent en activité lorsqu'elles sont sollicitées par une fonction mentale. Lorsqu'une région cérébrale s'active, elle a besoin d'oxygène, qui est apporté par le système vasculaire : c'est ce que visualise l'IRM. Les résultats montrent que lorsque le bébé écoute, l'hémisphère gauche s'active plus que le droit, et plus encore quand le langage défile à l'endroit. Certaines zones, comme le gyrus angulaire (zone de la mémoire des mots), ne sont pas stimulées par le langage à l'envers. «L'activation frontale nous a intéressés, explique Ghislaine Dehaene : on croit ces régions peu utilisées par le bébé car ce sont les dernières à devenir matures. Le frontal, c'est le siège des activités complexes : la planification, les relations sociales... Et nous avons constaté que les bébés ont une activité frontale plus importante lorsque la parole défile à l'endroit. Il n'y a eu aucune réponse frontale chez les bébés endormis.» Deux camps opposés. Pour les chercheurs, ces résultats lèvent un coin du voile : tous les réseaux présents chez l'adulte existent chez le bébé bien avant qu'il ne sache parler. «Le cerveau est organisé très précocement, mais le système est très plastique : l'hémisphère gauche est prévu pour traiter le langage, mais si une lésion cérébrale survient à gauche chez l'enfant, l'hémisphère droit prend alors le relais de façon bien plus efficace que chez l'adulte.»

Libération : http://www.liberation.com/page.php?Article=73238

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top