|
|
|
|
|
NUMERO 168 |
|
|
|
|
|
|
|
Edition du 09 Novembre 2001
|
|
|
|
|
Edito
La France, nouveau moteur démographique de l'Europe
L'événement est historique : le nombre de naissances en France (780.000) a dépassé l'an dernier celui des naissances en Allemagne (778.900). Cela n'était arrivé auparavant qu'une seule fois en quarante ans, en 1973. De ce fait, l'Hexagone devient le pays le plus fécond d'Europe. Les Français font plus de bébés que les Anglais ou les Italiens et même que les Allemands, bien que ceux-ci soient 20 millions de plus. Tranchant avec les années creuses qui ont suivi la récession de 1993, la natalité s'accroît depuis le milieu de la décennie passée. Un pic a été atteint en l'an 2000, selon les données de l'Institut national d'études démographiques (Ined) rendues publiques ces jours derniers, qui confirment les premières informations délivrées par l'INSEE et Eurostat. Les pays proches ne connaissent pas une évolution similaire et vieillissent plus vite. Par ailleurs, le nombre moyen d'enfants par femme (l'indice de fécondité) est également orienté à la hausse. Il atteint 1,89 après 1,79 en 1999, soit un niveau équivalent à celui de l'Irlande, le plus élevé de l'Union européenne. La moyenne des Quinze s'établit quant à elle à 1,63 enfant par femme. Il est encore trop tôt pour savoir si cette reprise de la natalité sera durable mais on peut déjà observer qu'elle se poursuit cette année. Selon des chiffres provisoires, les sept premiers mois de 2001 sont comparables aux sept premiers mois de 2000. Il ne s'agit donc pas d'un pic ponctuel lié au changement de millénaire. Grâce à son dynamisme, la France assure la jeunesse du Vieux Continent. « La croissance naturelle de la population européenne (l'excédent des naissances sur les décès) s'élève à plus de 300.000 personnes, dont 200.000 pour la France », souligne François Héran, directeur de l'INED. C'est du jamais vu. Comparé à ses voisins, le pays semble bel et bien faire figure de cas particulier. En Allemagne, en Italie ou en Suède, « l'accroissement naturel » est négatif. Dans ces pays, seule l'immigration permet de compenser le déclin. « Les naissances sont retardées mais la fécondité est stable », estime Laurent Toulemon, auteur d'une autre étude INED. Si la fécondité ne subit pas de nouvel accident conjoncturel, comme celui provoqué par la crise économique de 1993-1994, la descendance des générations nées à la fin des années 60 va se stabiliser légèrement au-dessus de 2 enfants par femme, sachant que l'âge de la première grossesse est passé de 24 ans à 28 ans en 25 ans entre 1973 et 1998. Depuis 1970, avec 750.000 naissances en moyenne par an (744.000 en 1999, 779.000 en 2000), on constate qu'il n'y a pas de diminution de la taille des familles, malgré ces premières naissances plus tardives. Quatre mères sur 5 ont un second enfant, chiffre stable depuis 1960, même si les naissances sont plus espacées (de 4 à 5 ans). Ces taux indiquent un retour aux niveaux de l'après-baby-boom, à la fin des années 50. Entre 1980 et 1990, on avait assisté à une baisse importante - de 1,95 à 1,78 - avant une chute à 1,66 en 1993 et 1994. Cette tendance avait alors suscité des prévisions catastrophistes, "non confirmées aujourd'hui puisque ce plancher a été suivi d'une hausse modérée mais constante depuis 1995", a souligné François Herrand, directeur de l'INED. Cette particularité française peut en partie s'expliquer par un environnement favorable au travail des femmes mères de famille, sous l'effet conjugué des aides publiques et des structures d'accueil des enfants. Ainsi en Allemagne, où le taux de fécondité n'a été que d'1,36 en 1998 et 1999, les aides existent mais pas les structures d'accueil, note M. Herrand, directeur de l'INED. Il cite aussi le taux très élevé de 40 % de naissances hors mariage dans l'Hexagone : une situation beaucoup moins bien acceptée socialement chez nos voisins, puisqu'il n'y en a que 4% en Grèce, 10 % en Italie et 14 % en Espagne. Dernier élément d'explication à cette vitalité démographique nationale : un rattrapage aurait lieu aujourd'hui après les années de crise. Pour preuve, l'âge de la première maternité est de plus en plus tardif, mais la taille des foyers reste relativement stable sur le long terme (40 % des femmes ont deux enfants). Pour autant, il semble délicat de voir dans ces situations les conséquences d'une disposition particulière de la politique familiale. « Un rapport de 1998 dénombrait 28 mesures favorables à la natalité, rappelle François Héran. Il est donc extrêmement difficile de mesurer l'impact d'une seule d'entre elles. Ce qui ne veut pas dire qu'elles ne sont pas efficaces. » Enfin, si la hausse des naissances est une bonne nouvelle pour les familles, elle en est aussi une pour l'ensemble du pays. Car, de façon prosaïque, elle induit un relèvement de la croissance potentielle. Au-delà des cycles conjoncturels, l'expansion d'une économie à long terme dépend de l'évolution de sa population active et de sa productivité. Or, on sait qu'à partir de 2005, notre population active va cesser d'augmenter et commencer un lent déclin, sous l'effet du départ à la retraite de la génération du baby-boom d'après guerre. Si cette tendance démographique se poursuivait, cette baisse pourrait être inversée à partir de 2030 quand tous ces enfants commenceront à travailler. Une telle perspective pourrait évidemment modifier de manière sensible les prévisions sur l'avenir de nos retraites et de notre système de protection sociale. Au-delà des clivages politiques, il appartient donc à notre collectivité nationale de mettre en oeuvre sur la durée une politique familiale ambitieuse et cohérente qui offre aux femmes le meilleur cadre incitatif pour avoir autant d'enfants qu'elles le souhaitent, tout en poursuivant leur carrière professionnelle. Cette politique familiale, même si son coût est élevé, est un investissement indispensable pour assurer l'avenir de notre pays, sa prospérité et sa place dans l'Europe et dans le monde. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le nombre de lignes internet à haut débit DSL (Digital Subscriber Line) devrait dépasser les 5 millions à la fin de l'année 200, puis atteindre 47 millions en 2006, contre à peine 600.000 à la fin 2000, selon une étude publiée par l'Institut de l'audiovisuel et des télécommunications en Europe (Idate). Le centre de recherche, qui a étudié les sept principaux marchés européens avant de faire des projections sur l'ensemble des pays de l'Union européenne plus Norvège et Suisse, précise que le DSL ne représentera que 3,0% du parc des internautes. En ajoutant l'accès par câble (2,0 millions), le taux de pénétration du haut débit chez les internautes atteint 4%. La boucle locale radio (BLR) commencera à avoir des clients en 2002 mais ne deviendra significative qu'à partir de 2004. Mais l'Idate table sur une très forte progression du haut débit au cours des prochaines années. En fonction des hypothèses, il devrait totaliser entre 17,1 millions (13 millions pour le DSL) et 19,1 millions (15 millions pour le DSL) d'utilisateurs en 2002, entre 23,2 millions (18 millions DSL) et 27,2 millions (22 millions DSL) en 2003, entre 29,7 millions (23 millions DSL) et 39,2 millions (31 millions DSL) en 2004). Le taux de pénétration chez l'ensemble des internautes atteindre 10-11 % en 2002, 13-16 % en 2003, 16,2-21,4 % en 2004. Dans l'hypothèse haute, il se situerait à 35% en 2006. L'Idate, qui consacre ses traditionnelles "Journées internationales" des 22 et 23 novembre à l'internet à haut débit, souligne que l'Allemagne reste le premier pays européen dans le domaine du DSL avec 2,0 millions d'utilisateurs fin 2001 contre 700.000 un an plus tôt. La France devrait atteindre 500.000 (contre 170.000) comme l'Italie (300.000 en 2000). Il note que les opérateurs historiques contrôlent en moyenne entre 90% et 95% du marché du DSL, ce qui illustre la difficulté des concurrents à obtenir des conditions de dégroupage - c'est-à-dire l'ouverture de la boucle locale - dans des conditions technologiques et économiques satisfaisantes. IDATE : http://www.idate.fr/bienvenue.html
|
|
|
|
|
|
|
|
Depuis leur ouverture au public fin octobre, les plus grandes archives Internet du monde sont prises d'assaut. Alléchés par la perspective de se plonger gratuitement dans une collection de dix milliards de pages web, les visiteurs se pressent mais la moitié d'entre eux est refoulée à l'entrée. Trop d'affluence. C'est que ce musée en ligne offre une expérience hors du commun: revisiter la brève mais riche histoire du Web. Surnommé «The Wayback Machine» (la machine à remonter le temps), ce site permet de retrouver des pages sauvegardées depuis 1996. Par exemple, le Yahoo! dépouillé des débuts, les premières pages personnelles - touchantes de maladresse et pour beaucoup laissées en jachère - de l'hébergeur gratuit Geocities, les sites (alors) triomphants du commerce électronique, comme l'épicier en ligne Webvan, emportés depuis par le crash de la Net économie. Le fondateur de ces archives, Brewster Kahle, a créé, il y a cinq ans, l'ancêtre de la machine à remonter le temps, «Internet Archive» , avec ses propres deniers et une passion sans limites. Ses archives n'étaient accessibles jusqu'alors qu'à un groupe restreint de chercheurs et de journalistes. Mais les attaques du 11 septembre ont incité Brewster Kahle à généraliser plus tôt que prévu l'accès à ce gigantesque champ de mémoire. Quelque 100 000 milliards d'octets d'informations, soit l'équivalent de cinq fois le contenu de la bibliothèque du Congrès à Washington, sauvés de l'oubli. «Si vous ne gardez aucune trace des contenus numériques, ils disparaissent», rappelle ce chercheur retraité d'IBM. Pour remonter le fil du Web, il suffit d'entrer l'adresse d'un site. «The Wayback Machine» présente alors toutes les versions qui en ont été sauvegardées depuis 1996. Les enregistrements se font au gré de l'humeur vagabonde des «robots» de recherche qui parcourent le Web tous les deux mois, prenant des «photos instantanées» des pages des sites détectés. Brewster Kahle rêve finalement d'une bibliothèque d'Alexandrie numérique: «Nous avons la technologie pour créer à moindre frais un énorme fonds, accessible de partout dans le monde.» Numérisé, l'ensemble des ouvrages de la librairie du Congrès tiendrait dans une machine de la taille d'un frigo. Quant aux archives de l'Internet et leurs100 teraoctets, «ça a l'air gros, mais cela coûte seulement 400 000 dollars (442 000 euros) à stocker». Chaque mois, une centaine de nouveaux serveurs rejoint le coeur de la machine à remonter le temps. C'est que son fondateur voit de plus en plus grand et espère coopérer avec la France, mais aussi l'Australie et la Suède sur des projets d'archivage de leurs sites nationaux.
|
|
|
|
|
|
|
|
Après les attentats terroristes du 11 septembre - et alors que d'autres menaces sont régulièrement évoquées par le gouvernement américain - le pays va-t-il se doter d'une "Cyber Guard", à l'image de sa Garde Nationale ? Le projet est tout à fait sérieux, et défendu par le sénateur Démocrate Ron Wyden, qui est le président de la Commission sur les Sciences et les Technologies au Sénat. Celui-ci a déjà organisé, à Washington, des auditions auxquelles participaient quelques-unes des grandes figures de la high tech de la Silicon Valley, comme Steve Jobs (patron d'Apple) ou Andy Grove (fondateur d'Intel). La mission principale de cette Cyber Guard serait de répondre en urgence aux attaques - d'où qu'elles viennent - désorganisant Internet ou les communications en général, aux Etats-Unis. Elle serait composée d'experts en informatique et en télécommunications susceptibles d'être mobilisés à tout instant pour travailler en urgence sur un cas grave. Selon le sénateur Ron Wyden, le cas aurait pu tout à fait s'appliquer à New-York le jour du 11 septembre. En effet, les attentats ont presque totalement détruit les réseaux de communications dans le sud de Manhattan, empêchant une meilleure coordination des secours. De fait, c'est l'initiative privée de plusieurs entreprises high tech, notamment originaires de la Silicon Valley comme Intel, Cisco ou Hewlett-Packard, qui a donné au sénateur l'idée de créer cette cyber-guard. Ainsi, les techniciens de ces firmes ont, de leur propre initiative et sur le budget de leur entreprise, installé en quelques heures des réseaux de fortune permettant de rétablir les communications Internet, avec et sans fil. Bien entendu, cette cyber-guard interviendrait également - et même principalement - dans le cas de cyber-attaques lancées spécifiquement contre Internet aux Etats-Unis. Dans la pratique, pourtant, l'existence d'une telle unité poserait quelques problèmes. Le gouvernement fédéral souhaitant disposer des meilleurs spécialistes Internet du pays ne peut les débaucher tous des entreprises où ils travaillent aujourd'hui et les payer à ne rien faire, en attendant les cas d'urgence. Les Echos : http://hightech.lesechos.fr/
|
|
|
|
|
|
|
|
Communications codées, secrets militaires et transactions bancaires électroniques devraient rester sûrs pour de longues années, selon un groupe de mathématiciens lillois organisateurs d'une exposition à la Coupole de Saint-Omer. "Enigma", qui emprunte son nom à la machine à coder allemande de la Seconde guerre mondiale, parcourt l'histoire de la cryptologie jusqu'à l'AES, (Advanced Encryption Standard) le code lauréat en l'an 2000 d'un concours destiné à choisir le nouveau standard capable, notamment, de protéger les paiements sur internet. Jusqu'en mars 2002, la Coupole, centre d'histoire et de mémoire installé sur le site fortifié d'où devaient décoller les V2 allemandes pointées sur Londres, donne à voir et à comprendre des secrets qui ne sont pas percés pour autant. "Connaître le mécanisme de fonctionnement d'un cadenas ne permet pas de l'ouvrir", explique Eric Wegzynovski, chercheur et professeur de mathématiques à l'université Lille 1, un des quatre concepteurs de l'exposition Enigma. Selon ce spécialiste des algorithmes, schémas de calcul en chaîne utilisés dans le chiffrement informatique, les mathématiciens ont tous accès au principe de fonctionnement des codes mis au point par leurs collègues et c'est l'échec de leurs multiples tentatives pour les "casser" qui en certifie la qualité. L'AES - créé par deux chercheurs belges de l'université de Louvain, Vincent Rijmen et Johan Daemen - propose ainsi "un nombre de combinaisons égal à 1,2 fois 10 puissance 77, un défi pour la force brute des ordinateurs", précise le professeur Jean-Paul Delahaye, mathématicien à Lille-1 et co-auteur de l'exposition Enigma. "Les craqueurs, indique-t-il, butent sur la factorisation (décomposition en produit) des nombres entiers car le plus puissant ordinateur ne peut déterminer les facteurs d'un nombre formé de plus de 155 chiffres (512 bits)". Selon lui, le cryptage est entré dans l'ère moderne dans les années 70 avec l'avènement des codes asymétriques utilisant deux clés différentes qui dispensent les interlocuteurs d'avoir à échanger, par un moyen forcément coûteux et jamais totalement sûr, une clef de décryptage parallèlement au message lui-même. "Aujourd'hui on combine les deux méthodes, précise-t-il, on utilise le codage asymétrique pour se transmettre la clef puis on passe en symétrique, nettement moins lourd en terme de puissance de calculs, pour le message proprement dit". Pour Jean-Paul Delahaye, la "yes card", fausse carte de crédit qui trompe certains terminaux de paiement ne met pas le cryptage en échec: "Ce n'est qu'un bricolage exploitant une faille du système informatique des cartes bleues qui cesse de fonctionner, dès qu'il est mis en relation avec une banque". "La garantie que les mathématiciens peuvent donner de l'inviolabilité de la combinaison d'un coffre, ne s'étend pas à l'hypothèse selon laquelle quelqu'un oublierait un jour de le refermer", conclut-il. AFP : http://fr.news.yahoo.com/011107/202/28fmx.html
|
|
|
|
|
|
|
|
Le tout dernier modèle du chien-robot AIBO, présenté mercredi par le groupe japonais d'électronique Sony Corp., se veut plus chargé en "testostérone virtuelle" que les toutous cybernétiques qui l'ont précédé depuis 1999. "Il est peut-être un peu plus macho" que les autres AIBO, a admis Stuart Wallock, directeur du marketing de la filiale américaine de Sony Electronics, Entertainment Robot America. "Ce n'est pas du tout un AIBO féroce ou hostile, il est peut-être un peu agressif, mais il reste amical et aimable", a-t-il ajouté. Sony a lancé deux premiers modèles de la série AIBO 200 en septembre, le Latte aux formes rondouillardes et le Macaron. L'AIBO ERS-220 est lui un robot mince, couleur argent, aux lignes plus mordantes. Avec le nouveau logiciel conçu par Sony, l'AIBO Explorer, "il peut entrer en mode 'turbo' quand il s'excite et faire un bruit d'accélération, comme une voiture de sport", a décrit un porte-parole de la société, Jon Piazza. Le nouveau "compagnon" de Sony, qui vise les adolescents et les hommes de 25 à 45 ans, sera commercialisé dans une ou deux semaines en Amérique du Nord et au Japon pour 1.500 dollars, soit 1.675 euros. Seule réelle nouveauté technologique, les AIBO de la série 200 peuvent comprendre 75 instructions verbales, contre 50 pour leurs prédécesseurs, et prendre des images fixes au format Jpeg en mode "surveillance" avec la caméra implantée dans la tête, grâce à de nouvelles cartes-mémoire Sony Memory Stick. Sony vend en option un logiciel, l'AIBO Life 2, qui permet notamment faire danser le robot sur n'importe quel rythme. Reuters : http://fr.news.yahoo.com/011108/85/28k4l.html
|
|
|
|
|
|
|
|
Pioneer s'apprête à lancer sur le marché japonais une chaîne hi-fi dotée d'un disque dur. Grâce à ce média de stockage, emprunté à l'univers informatique, cette chaîne se transforme en véritable Jukebox. Le disque dur incorporé de 2,5 pouces offre une capacité de 6 Go. De quoi accueillir le contenu musical d'une collection de 100 CD sous forme de fichiers au format Atrac3. La copie d'un CD-Audio en vitesse rapide prend environ 12 minutes. La chaîne lit, bien sûr, les CD. Elle accepte également la minicarte MemoryStick comme média amovible de transfert de fichiers musicaux téléchargés sur Internet. Un logiciel intégré facilite le classement et la recherche des titres. Près de 80 000 titres ont été mémorisés dans la chaîne afin de simplifier la reconnaissance automatique des chansons lors de la copie des CD sur le disque dur. Lorsqu'un CD est inséré dans le lecteur, le système affiche automatiquement le nom de l'album, de l'artiste et de la plage. Informations enregistrées ensuite sur le disque dur. Industries&Techniques : http://www.industries-techniques.com/site/quotidien/page.cfm?
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
La calotte glaciaire du nord-ouest du Groenland fond partiellement et perd parfois près de 42 centimètres d'épaisseur par an dans les zones d'altitude du nord-ouest de la grande île, révèle une étude canado-danoise. L'étude est basée sur des mesures récentes et celles d'une expédition britannique réalisée il y a une cinquantaine d'années. Les glaciologues ont exploité les mesures trigonométriques prises entre 1952 et 1954 par la «British North Greenland Expedition», le long d'un trajet de 1200 km, aux données enregistrées en 1994-1995 par l'altimètre radar du satellite européen ERS-1. Dans les deux cas, les régions étudiées se trouvaient entre 1500 et 2500 mètres d'altitude. Les résultats obtenus montrent que la calotte glaciaire du nord-ouest du Groenland est restée inchangée et qu'elle avait même tendance à s'épaissir un peu, jusqu'à 9,7 cm par an, tandis que dans la région la plus touchée, le nord-ouest, la fonte variait entre 20,3 et 41,7 cm par an. Selon les chercheurs, une meilleure compréhension de la manière dont la calotte glaciaire répond aux changements climatiques peut notamment permettre de mieux évaluer les risques d'élévation du niveau des mers et océans. Radio Canada : http://radio-canada.ca/nouvelles/Santeeducation/nouvelles/200110/31/001-groenlan...
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
La stratégie visant a traiter des cancers en bloquant le développement des vaisseaux sanguins qui se forment autour des tumeurs vient de franchir une étape grâce aux travaux menés par des chercheurs du Memorial Sloan-Kettering Cancer Center et du Weill Medical College de Cornell University. Les cellules cancéreuses sécrètent en effet l'agent proteinique VEGF qui entraîne des vaisseaux sanguins, constitues de deux groupes de cellules souches provenant de la moelle osseuse, à se lier aux tumeurs. Or les chercheurs ont réussi à empêcher cette liaison grâce à l'utilisation d'anticorps qui bloquent au moins deux des six récepteurs situés à la surface des cellules souches. Cette stratégie représente donc une alternative a celle poursuivie par Genentech pour bloquer le récepteur principal. Brève rédigée par @RT Flash NYT 01/11/01 : http://www.nytimes.com/2001/11/01/health/01CANC.html
|
|
|
|
|
|
|
|
Une idée neuve nous vient d'Australie et de Nouvelle-Zélande: puisque l'hypertension artérielle est un facteur de risque d'attaques vasculaires cérébrales, peut-on proposer aux patients ayant eu un premier accident vasculaire cérébral de les traiter préventivement ? Rappelons qu'il meurt chaque année cinq millions de personnes des suites des attaques d'apoplexie. Quinze autres millions sont touchés, dont un tiers reste durablement handicapé par des hémiplégies, ou des aphasies secondaires à la destruction du tissu cérébral. Elles-mêmes sont consécutives à l'interruption du flux sanguin (qu'il s'agisse d'hémorragies ou au contraire d'infarctus en raison de la formation d'un caillot). Or le risque de récidive est important: environ un individu sur cinq ou sur six est à nouveau victime d'une seconde attaque dans les cinq ans suivant la première. Certes, il existe déjà quelques parades: ainsi, l'utilisation d'antiagrégants plaquettaires réduit d'un sixième environ le risque d'attaque ischémique (par caillot sanguin): elle est prescrite en routine à cette catégorie de malades. On peut aussi utiliser une technique chirurgicale, l'endartériectomie carotidienne, pour déboucher une artère carotide resserrée par l'athérome. Et un traitement anticoagulant réduit le risque d'accident vasculaire cérébral chez les patients ayant un trouble du rythme cardiaque (la fibrillation auriculaire), qui favorise l'envoi de pluies d'emboles et de caillots dans les artères cérébrales. Mais, comme l'annoncent en préambule les auteurs de l'étude «Progress», «chacun de ces traitements ne convient qu'à une faible proportion des patients victimes d'attaques cérébrales ischémiques ou d'accidents ischémiques transitoires. Aucun traitement n'a fait la preuve qu'il pouvait réduire le risque des récidives chez les malades ayant eu une hémorragie cérébrale». L'université de Sydney et les membres du groupe collaborateur de l'étude «Progress», publiée le 29 septembre dans The Lancet, ont donc répondu à une vieille interrogation qui divisait jusqu'ici le monde de la neurologie. Peut-on diminuer vraiment de façon significative le risque de récidive d'un accident vasculaire cérébral chez les patients qui ont déjà eu une attaque, voire le risque «d'événements cardio-vasculaires» , comme les infarctus cardiaques ou les thromboses? Pour régler définitivement cette importante question, des spécialistes de l'hypertension artérielle et des neurologues du continent australien ont recruté dans 172 hôpitaux de Chine, du Japon, de Nouvelle-Zélande ou d'Europe plus de 7 000 patients victimes dans les cinq années précédentes d'une attaque cérébrale. «Le principe de l'étude est très astucieux et pragmatique, estime une des participantes, le professeur Marie-Germaine Bousser (hôpital Lariboisière, Paris). Ils ont inclus des malades hypertendus mais aussi des sujets à pression artérielle normale, des Caucasiens comme des Asiatiques, des sujets ayant eu des hémorragies ou des infarctus, pour avoir un échantillon représentatif des pathologies, des populations. Les sujets normotendus ont été inclus, pour vérifier que chez eux aussi la baisse de pression artérielle diminuait bien le risque. Par ailleurs, une certaine liberté de prescription a été laissée au clinicien, qui a pu individuellement, dans chaque groupe, choisir de donner un seul médicament antihypertenseur, ou de lui associer un diurétique. Ainsi, ce ne sont pas les mêmes malades qui ont reçu un ou deux médicaments.» Le résultat est là: dans le groupe des patients ayant pris un antihypertenseur de la famille des inhibiteurs de l'enzyme de conversion et un diurétique, la pression artérielle systolique a baissé de 12 millimètres de mercure et la diastolique de 5 mm Hg, avec une diminution concomitante du risque de récidive d'attaque cérébrale de 28 %. De plus, la diminution du risque d'événements cardiaques ou vasculaires majeurs (infarctus) est dans ce même groupe supérieur à 26 %. En revanche, le groupe des patients n'ayant pris qu'un seul antihypertenseur (perindopril) n'a vu ses chiffres de pression artérielle baisser respectivement que de 5 mm Hg pour la systolique et 3 pour la diastolique. Ce groupe n'a pas de bénéfice préventif: le risque de récidive n'est en effet pas sensiblement différent du groupe placebo. De même le risque d'événements cardio-vasculaires majeurs, tels qu'ils ressortent de l'étude «Progress», est inchangé chez les patients n'ayant pris qu'un seul médicament. Les hypertendus ne seraient pas les seuls à être concernés: le New England Journal of Medicine vient en effet de publier une étude de chercheurs de l'université de Boston à propos du risque cardio-vasculaire des sujets ayant une pression artérielle dite normale haute (la pression systolique est alors comprise entre 130 et 139 millimètres de mercure et la diastolique entre 85 et 89). Le risque est chez eux plus élevé que les sujets ayant une tension artérielle normale basse. «C'est tout le concept d'hypertension artérielle qui est remis en cause» , estime le Professeur Bousser. Verra-t-on bientôt les experts et l'industrie proposer un traitement antihypertenseur préventif à la majorité des Français ? Figaro : http://www.lefigaro.fr/cgi-bin/gx.cgi/AppLogic+FTContentServer?
|
|
|
|
|
|
|
|
Il est largement prouvé que l'alimentation a des répercussions sur la santé. Certaines pathologies sont intimement liées au mode diététique, tel que le diabète ou encore les dyslipidémies. D'autres aliments ont un effet protecteur vis-à-vis de certaines maladies : c'est le cas du thé pour les maladies cardio-vasculaires, comme le rappelle une session du MEDEC 2001. On parle beaucoup du thé vert, mais qu'il soit vert ou noir, ce qui caractérise le thé est sa richesse en flavonoïdes. Or, les flavonoïdes ont une puissante activité antioxydante : in vitro, cette activité est cinq fois plus importante que celle de la vitamine C ou de la vitamine E. Certes, les flavonoïdes ne sont pas présents uniquement dans le thé : on les retrouve également dans le vin, le cassis, les fraises ou encore les oignons. Mais le principal apport en flavonoïdes chez l'homme est le thé : ainsi en Grande-Bretagne, le thé représente plus de 70 % des flavonoïdes alimentaires. L'ingestion de thé augmente l'activité antioxydante plasmatique chez l'homme : c'est ce qui explique son activité protectrice cardio-vasculaire. Une étude hollandaise montre que les hommes ayant un taux plasmatique élevé de flavonoïdes ont une réduction de la mortalité cardio-vasculaire : or, 60 % des flavonoïdes proviennent de l'ingestion de thé. Sans être de grands buveurs de thé, les Français ne sont pas en reste : seuls 6 % des hommes et 10 % des femmes en consomment quotidiennement, mais ils sont respectivement 35 % et 57 % à en consommer régulièrement. Csanté : http://www.csante.com/comsante/gen/read.php3?
|
|
|
|
|
|
|
|
Un laboratoire américain a annoncé lundi la mise au point d'un test ADN permettant de détecter en moins d'une heure la présence de la bactérie du charbon chez une personne ou sur un objet. "Cette méthode d'identification rapide permettra aux médecins de débuter un traitement immédiat des personnes exposées à l'anthrax (bacille du charbon) et soulagera rapidement l'anxiété des personnes qui n'y ont pas été exposées", a expliqué le microbiologiste Franklin Cockerrill, qui a mis au point le test. Le chercheur a estimé que "les événements des dernières semaines demandent une réponse aussi rapide que possible", alors que "le processus actuel pour identifier la présence d'anthrax peut prendre plusieurs jours". Ce test, mis au point à la Mayo Clinic de Rochester (Minnesota), va être produit et rapidement mis sur le marché par le groupe pharmaceutique suisse Roche, a annoncé le président de la filiale Roche Diagnotics, Martin Madaus, lors d'une conférence de presse conjointe avec le chercheur. "Rendre ce test disponible à très court terme est notre contribution à la lutte contre le bioterrorisme", a déclaré M. Madaus. Le test nécessite un instrument d'amplification génétique (PCR, réaction de polymérisation en chaîne) fabriqué par Roche et déjà utilisé par de nombreux laboratoires américains, associé à des réactifs mis au point par le Dr Cockerrill. Une vingtaine de ces laboratoires à travers les Etats-Unis recevront ces réactifs à partir du 9 novembre, ont précisé les responsables au cours de la conférence de presse. La Recherche : http://www.larecherche.fr/medecine/n011105165500.v44fzftk.html
|
|
|
|
|
|
|
|
Le professeur Michèle Mock spécialiste de l'anthrax à l'Institut Pasteur, annonce vendredi dans ''Le Parisien'' que l'Institut Pasteur a ''réussi à mettre au point un vaccin qui fonctionne sur les souris contaminées par l'anthrax''. Le vaccin ''est élaboré à partir d'une protéine entrant dans la composition des toxines, à laquelle on rajoute des composants de la spore'' de la maladie du charbon, explique le Pr Mock. ''Jusqu'à présent nous n'avions pas beaucoup d'offres car personne ne pensait que la maladie menaçait l'homme''. ''Si un industriel nous aide, on pourrait envisager immédiatement de passer à un essai de phase 1 dit de non-toxicité sur l'homme'', avance la spécialiste française de l'anthrax. Les scientifiques de l'Institut Pasteur ont travaillé sur l'étude de virulence des bacilles d'anthrax présentes dans son laboratoire. Le Pr Mock précise que ''les spores sont génétiquement modifiées d'une manière irréversible'', ce qui les rend ''non virulentes''. ''En ce moment, nous travaillons aussi en fin de chaîne dans le cadre du plan Biotox'', ajoute-t-elle. ''Nous sommes intervenus quelques fois ces dernières semaines'' lors de découverte de poudre suspecte, ''mais à chaque fois les tests ont été négatifs'', a assuré Michèle Mock. Institut Pasteur : http://www.pasteur.fr/externe
|
|
|
|
|
|
|
|
Des chercheurs américains ont mis en évidence, sur des cellules humaines et de souris, un nouveau mécanisme par lequel certains médicaments anti-inflammatoires, comme l'ibuprofène, pourraient réduire le risque de développer la maladie d'Alzheimer. Ces travaux, publiés le 8 novembre dans la revue Nature, suggèrent que certains médicaments de la famille dites des anti-inflammatoires non stéroïdiens (AINS), auraient un impact direct sur la formation anormale de dépôts de protéine (amyloïde-béta, AB42) dans le cerveau, caractéristiques de la maladie d'Alzheimer. Les résultats obtenus offrent un espoir de développer des médicaments contre ces dépôts anormaux dans le cerveau, mais sans les effets secondaires des traitements anti-inflammatoires (saignements gastro-intestinaux, problèmes rénaux...), selon les chercheurs. Les tests des chercheurs de l'université de Californie à San Diego montrent que le niveau de la protéine en cause (AB42) diminue de l'ordre de 80 % avec l'ibuprofène, l'indométhacine et le sulindac, mais que d'autres anti-inflammatoires (aspirine, naproxène, celecoxib) restent sans effet. Pour autant, cela ne veut pas dire que les médecins doivent se mettre à prescrire ces trois médicaments à leurs patients atteints d'Alzheimer, avertit Edward Koo, l'un des auteurs. "Les doses requises pour inhiber la production de la protéine AB42 sont beaucoup trop élevées", relève-t-il. L'équivalent, par exemple, de la prise de seize comprimés d'ibuprofène au dosage adulte (200 mg), bien au delà des doses recommandées. Nombre de chercheurs pensaient que ces médicaments agissaient en bloquant des enzymes, appelées Cox (cyclooxygénases). Mais ce n'est pas le cas montrent les chercheurs de San Diego. Ils ont modifié génétiquement des cellules pour les débarrasser des enzymes et les ont ensuite traitées avec le sulindac. Le résultat a montré que la réduction de la concentration de la protéine est totalement indépendante de ces enzymes. On distingue les AINS d'une autre famille d'anti-inflammatoires regroupant cortisone et produits assimilés. Nature : http://www.nature.com/nsu/011108/011108-10.html
|
|
|
|
|
|
|
|
Echauffement planétaire oblige, le printemps avance et l'hiver recule. Profitant de l'aubaine, nombres de plantes et d'animaux allongent leurs périodes d'activités. Un moustique américain Wyeomyia smithii a même vu son génome transformé : l'évolution est en marche. Certains oiseaux et batraciens pondent plus tôt qu'il y a trente ans. Les scientifiques interprètent ce phénomène comme une adaptation au réchauffement climatique, sans qu'il y ait de conséquences pour le patrimoine génétique de ces animaux. Cependant, pour la première fois, un chercheur américain a démontré l'impact du climat sur le génome d'un moustique américain. William Bradshaw, de l'université de l'Oregon, a étudié différentes populations de moustiques Wyeomyia smithii, isolées en 1972, 1988, 1993 et 1996. Les échantillons les plus récents entrent en phase de dormance, pour passer l'hiver, huit à dix jours plus tard que ceux des années 70, dans des conditions pourtant identiques d'élevage. Pour William Bradshaw, il n'y a qu'une seule explication : une mutation entraînant un retard dans la mise en dormance a été favorisée par l'allongement de la saison chaude. Le chercheur pense que cet insecte n'est pas le seul concerné et que le génome d'autres organismes est peut-être déjà modifié du fait des changements climatiques de la deuxième moitié du XXème siècle. Sciences&Avenir : http://permanent.sciencesetavenir.com/sci_20011106.OBS0220.html
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
On connaît l'enjeu économique majeur du e-learning pour les toutes prochaines années. Divers chiffres circulent. Pour sa part, l'IDC évalue le marché à 23 milliards de dollars en 2004, contre 1,7 milliard en 1999, soit une augmentation annuelle de 70 % pendant cinq ans et met l'accent sur la présence grandissante de l'Europe dans ce développement, la part de marché de la zone européenne passant de 8 % à 17 %, tandis que celle des Etats-Unis reste stable, autour de 70%, le Japon étant le grand perdant dans cette évolution. Que la normalisation puisse aider les éditeurs européens de logiciels pédagogiques à trouver leur place dans ce paysage remodelé est l'évidence. On se réjouit que les deux organismes internationaux de normalisation, l'ISO (Organisation internationale de normalisation) et l'IEC (Commission internationale électronique), aient joint leurs efforts dans un comité commun pour couvrir l'ensemble des besoins de normalisation dans différents domaines, ce qui est fait par un nombre important de sous-comités, au nombre desquels le sous-comité 36 (SC 36) suit le dossier du e-learning. Par ailleurs, chaque organisme national compétent pour la normalisation peut créer un groupe miroir du sous-comité international, pour apporter sa contribution comme le fait en France la CN 36 de l'Afnor (Agence française de normalisation). Le travail technique est préparé, entre autres, par l'IEEE, (Institute of Electrical and Electronics Engineers), une association professionnelle américaine, vieille de bien plus d'un siècle, fédérant 36 associations, et regroupant 365 000 adhérents. La réputation de compétence technique de cette association, sur le plan mondial, est imposante et son poids est considérable dans le processus de normalisation. De quinze à vingt projets sont actuellement analysés par l'IEEE pour bâtir la norme dont aurait besoin l'e-learning. Parmi lesquels précisément le Simple Human Identifier, sur lequel s'est attardé le CN 36 de l'Afnor. Déjà, un identifiant simple à concevoir pour les fournisseurs et distributeurs des produits de l'e-learning et pour les apprenants n'est pas sans danger, car il peut être aussi facilement mémorisé par des personnes de l'entourage du titulaire ou du fournisseur. Et c'est alors la porte ouverte au vol d'identité. Mais là où les avantages de cet identifiant, tels qu'ils sont avancés par l'IEEE, parviennent encore moins à convaincre un Européen, c'est lorsqu'on lui assigne pour fonction de rassembler sur un même apprenant ses styles et ses préférences, en notant ses modes d'apprentissage, ses aptitudes physiques et cognitives, ses penchants culturels. Tout est en place pour enrichir ces données, avec ou sans le consentement des apprenants, les grandes bases de données comme Abacus ou Double Click, dont le négoce est si lucratif. Et il ne suffit pas, comme semble le penser l'IEEE, que l'identifiant (une chaîne de caractères alphanumériques) soit non signifiant, en s'abstenant de coder des données qui, comme le fait notre numéro de sécurité sociale, désignent nos sexe, date et lieu de naissance, et numéro du registre d'état-civil. Nous avons bien su, en France, gérer la scolarité de nos douze millions d'élèves sans le recours à un identifiant national. Un identifiant est une donnée sensible, sa mise en place nécessite un débat dans lequel le pouvoir politique a l'initiative et doit prendre parti. C'est sur ce motif que le CN 36 de l'Afnor mène croisade contre ce projet fou et tente de rallier à sa cause ses partenaires européens.
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Les chercheurs du DLR (Centre de Recherche Aerospatiale Allemand) travaillent actuellement sur la mise au point d'un système améliore de détection au sol des avions pour les contrôleurs aériens. En effet, dans un grand nombre d'aéroports non équipes d'appareils radar au sol, les contrôleurs doivent se fier aux données transmises par les pilotes et a la vue que confère leur position dans la tour de contrôle...quand la vue est dégagée et qu'il n'y a pas de brouillard. Les chercheurs développent donc un système qui représente de façon continue sur un écran d'ordinateur le plan de l'aéroport et le déplacement de tous les avions et de tous les véhicules de service. Les données proviennent des impulsions radar, des systèmes de positionnement des avions ainsi que des cameras et des capteurs disposes sur les pistes. Ce système est d'ores et déjà testé dans les aéroports de Brunswick, Hambourg et Prague, le projet doit être mené jusqu'à la fin 2002. Dans un premier temps, ce système sera mis uniquement en place dans les tours de contrôle afin d'alléger le travail des contrôleurs. Dans un second temps, il est prévu que le système soit mis en place dans les cockpits. Brève @RTFlash Die Welt, 20/10/01 : http://www.welt.de/daten/2001/10/20/1020xs289961.htx?search=dlr
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|