|
|
|
|
|
NUMERO 202 |
|
|
|
|
|
|
|
Edition du 05 Juillet 2002
|
|
|
|
|
Edito
L'avenir tricote notre destin
Décidément, le futur prend beaucoup de coups ces temps-ci. Depuis bientôt deux ans, la bulle spéculative qui avait entouré le berceau de la nouvelle économie n'en finit pas de se dégonfler. Comme le veut la Loi de la Nature, ce furent les structures les plus fragiles, les plus faibles qui furent d'abord touchées. Ce sont ainsi des milliers et des milliers de petites « start-up » qui, dans un premier temps, disparurent dès la levée de la tempête, ces fragiles esquifs n'étant pas armés pour affronter le gros temps. Maintenant, le typhon secoue et met à mal les plus grosses structures. Toutes celles qui n'ont pas voulu voir la réalité et dont les capitaines ont été jusqu'à déformer les images sur leurs instruments de vigilance, se retrouvent en situation critique. Worldcom et Vivendi se retrouvent ainsi en première ligne. La vague de fond arrive sur leurs flancs et ces grands navires ne sont pas positionnés au mieux pour y faire face. Que ceux qui ont sciemment spéculé en Bourse en laissant croire que les arbres pouvaient monter jusqu'au ciel, en valorisant les entreprises dites de la nouvelle économie à des niveaux aberrants, soient aujourd'hui sanctionnés entre dans la normalité. Mais pour autant, il ne faut pas désespérer et jeter le bébé avec l'eau du bain. Pendant ce temps de déroute financière de ceux qui ont voulu s'enrichir trop rapidement, l'avenir continue imperturbablement à tricoter notre destin. Dans tous les laboratoires de recherche, dans toutes les entreprises de pointe du monde, les chercheurs, les ingénieurs, les techniciens continuent, sans relâche, à développer les process, les logiciels, les produits qui, demain, changeront notre vie. La Loi de Moore qui veut que les performances de nos machines de nouvelles technologies doublent tous les 18 mois continue, sans défaillance, à être respectée et ce n'est pas parce que des analystes financiers versatiles semblent douter que les computers ont ralenti leur progression géométrique. Ainsi, dans ces deux dernières années, alors que les valeurs boursières de certaines sociétés phares ont été divisées par 50 ou par 100, les fréquences des microprocesseurs qui animent les micro-ordinateurs que nous achetons en ces jours de juillet 2002 ont plus augmenté en ces deux dernières années, qu'elles ne l'avaient fait depuis l'origine de la micro-informatique en 1971. Ces vitesses de calcul étant à la base de tous les progrès dans tous les laboratoires du Monde, nos connaissances évoluent à un rythme soutenu et tout laisse à penser que le défi que s'est lancée l'humanité en l'an 2000 sera tenu. Ce défi veut que dans la prochaine décennie, l'Homme acquerra autant de connaissances qu'il n'avait su en acquérir avant l'an 2000 depuis l'origine des temps. Aussi, inexorablement, malgré les graves difficultés conjoncturelles auxquelles nous devons faire face, l'Humanité avance. Dans tous les domaines majeurs de la connaissance, les progrès sont constants et stupéfiants. Dans beaucoup de domaines-clés, la connaissance entre dans des champs d'avenir qui étaient encore insoupçonnés il y a quelques mois. Cela est aussi vrai dans la connaissance intime des mécanismes de la vie avec les cellules souches que dans les nanotechnologies et bien d'autres domaines que nous vous aidons, modestement, à mieux connaître, semaine après semaine, dans cette Lettre @RT-Flash. Aussi, ce n'est pas la valorisation virtuelle de l'activité humaine par les principales bourses du Monde qui doit, jour après jour, décider du moral de nos Peuples. Certes, tout doit être entrepris pour que ces marchés retrouvent la voie d'un progrès raisonné mais, au-dessus de tout cela, les responsables qui mènent notre Monde doivent aider leurs Peuples à retrouver l'espérance. Tout semble s'être déréglé depuis deux ans et cela a été amplifié par les terribles attentats du 11 septembre. Ne tombons pas dans la morosité car cela ne pourrait que revigorer le terrorisme qui sait fort bien que c'est dans leur moral que nos peuples sont maintenant les plus fragiles. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Les internautes américains bénéficiant d'une connexion à haut débit passent plus de temps devant leur ordinateur et moins dans leur voiture, à faire les courses ou à regarder la télévision, selon une étude réalisée par la fondation Pew Internet and American Life Project. Les connectés haut débit, par câble ou ligne DSL, passent en moyenne 95 minutes par jour en ligne, contre 83 pour ceux qui passent par une connexion classique par modem analogique sur ligne téléphonique. Le temps passé sur internet permet d'augmenter la quantité de travail réalisé au domicile, au détriment d'autres activités comme la télévision, les courses et la lecture de journaux, mais sans prendre sur le temps passé en famille ou avec des amis, montre l'étude. Les utilisateurs de connexion haut débit profitent plus des possibilités offertes pour construire des pages web, créer des journaux en ligne, diffuser des photos et télécharger de la musique ou des vidéos. "Ce sont des gens qui tirent vraiment avantage des particularités de l'internet", explique Lee Rainie, directeur de l'association à but non lucratif, créée pour étudier les habitudes des internautes américains. Selon cette étude menée par Pew Internet and American Life Project, 24 millions d'Américains, soit 21 % de la population internautes ( contre seulement 3 % des foyers français), disposent d'un accès haut débit à domicile pour un abonnement d'environ 50 dollars par mois (51,1 euros). Les internautes américains adeptes du haut débit répondent aux caractéristiques habituelles des fanatiques de nouvelles technologies prêts à payer plus cher pour avoir le dernier cri: plus diplômés, plus aisés et plus masculins que la moyenne de la population. Ces particularités disparaîtront probablement avec la diffusion progressive des technologies haut débit, comme les lignes DSL (digital subscriber line, une technologie de transmission de données numériques via une connexion téléphonique classique). L'étude montre que 40 % des utilisateurs bas débit aimeraient passer au haut débit. En terme de mode de connexion, l'accès câble haut débit est toujours prédominant : c'est le cas de 71 % des personnes interrogées, suivi de loin par les ligne DSL (27 %), les 2 % restant se partageant entre l'accès satellite et les services d'accès haut débit sans fil. Reuters : http://fr.news.yahoo.com/020624/85/2nf4o.html
|
|
|
|
|
|
|
|
Malgré son utilité évidente en théorie, l'internet mobile a jusqu'ici paru bien fade dans ses concrétisations, souffrant de connexions trop lentes et surtout de sites creux, peu lisibles et mal organisés. Mais chacune de ces lacunes pourraient être comblées dans les mois à venir. Les constructeurs de matériels s'y sont mis les premiers, pariant sur l'avenir de cette technologie pour lancer des téléphones mobiles avec de larges écrans couleur et des ordinateurs de poche dotés de modems sans fil. Le japonais Toshiba commercialise ainsi, sous sa marque ou sous celle d'Audiovox, deux PDA (personal digital assistants, ou assistants personnels numériques) pouvant se connecter l'un sur des réseaux de téléphonie mobile, l'autre sur des réseaux informatiques locaux sans fil. Les opérateurs de téléphonie mobile commencent à suivre. Les quatre premiers acteurs du marché américain prévoient de lancer à la fin de l'été des offres d'accès internet sur téléphone mobile avec des vitesses trois à quinze fois supérieure à celles d'aujourd'hui (14,4 kilobits par seconde, soit un misérable 1,8 kilo-octet par seconde) ou d'hier (9,6 kbps, ou à peine plus d'un kilo-octet par seconde), là où la plus simple des technologies filaires permet une connexion entre 42 et 56 kbps. Les derniers progrès s'opèrent dans le domaine des logiciels avec notamment un accord en mai dernier entre MSN, service d'accès à internet de Microsoft, et l'opérateur mobile américain Verizon Wireless pour le développement conjoint de logiciels et de services pour l'internet mobile. Le marché des services mobiles reste pourtant embryonnaire. "C'est une tendance qui va tout juste démarrer cette année", estime Jakob Nielsen, un des experts les plus renommés dans ce domaine. Aux Etats-Unis, pays où ils sont les plus avancés, seules 761.000 personnes accèdent à internet sur leur PDA et 3,5 millions sur un téléphone mobile, une goutte d'eau parmi les 85,1 millions d'internautes possédant une connexion personnelle, sans compter les accès depuis le lieu de travail, selon une étude de la société comScore Media Metrix réalisée au quatrième trimestre 2001. L'obstacle majeur est aujourd'hui celui de la difficulté d'utilisation, affirme Nielsen, soulignant la nécessité d'avancées dans la conception des appareils et des contenus. "Le seul point sur lequel je suis pessimiste est la qualité des premiers services. La première année, ce sera la misère", prévoit-il. "Cela ne fonctionne pas pour tout ce qui représente une grosse quantité d'informations", rappelle-t-il, du moins pour le moment car si les progrès du matériel sont réels, ceux du contenu n'arriveront que dans un an voire plus. A cette théorie du "bâtissons l'infrastructure d'abord, les services viendront ensuite", s'oppose la conception que les constructeurs attendront pour développer de nouveaux produits de s'appuyer sur une demande, découlant elle-même de l'existence d'applications convaincantes. Au premier rang des contenus susceptibles de susciter des achats de produits figurent les jeux, un marché qui atteint en 2002 un niveau record pour égaler celui des autres loisirs comme le cinéma ou la musique. Reuters : http://fr.news.yahoo.com/020629/85/2no9b.html
|
|
|
|
|
|
|
|
Avec un écran plat de 16 pouces, qui offre la surface d'affichage d'un écran 17 pouces à tube cathodique, c'est à dire autant, voire plus, que la plupart des ordinateurs de bureau, les modèles 16 pouces de Sony et de Dell sont cette année les vedettes PC de TechX . Une catégorie de produits qui ne manquait aucune nouveauté. HP commençait ainsi à y généraliser l'USB 2.0. Toshiba et Sony ont, eux, homologué leurs modèles pour qu'ils puissent être équipés, en même temps, des technologies sans-fil Bluetooth et WiFi (802.11b), ces dernières utilisant la même fréquence. Intel, aprés avoir présenté son Pentium 4 à 2 GHz pour portable, prépare le lacement en 2003 de Banias. Ce nom de code correspond à la première génération de puces Intel uniquement destinée au monde des portables. Avec Banias Intel espère convaincre les utilisateurs que, dans le monde des portables, une meilleure fréquence n'est pas synonyme de meilleure performance. Reste qu'en terme de rapport coût-performances l'ordinateur de bureau reste imbattable pour l'instant, sans compter le confort de travail. On trouve par exemple à moins de 2000 euros des machines de bureau équipées d'un Pentium 4 à 2 GHz, de 256 Mo de RAM, d'un disque dur de 80Go, et d'un combiné lecteur DVD-graveur CD ROM, le tout avec un écran de 19 pouces, le tout avec Word et Excel ! OINet : http://www.01net.com/rdn?oid=188010&rub=3184
|
|
|
|
|
|
|
|
Lorsque la puissance de calcul d'un ordinateur augmente (la Loi de Moore prédit que la puissance de calcul des microprocesseurs double tous les dix-huit mois) la chaleur produite par la ou les puces augmente alors de façon exponentielle. Lors de l'inauguration du nouveau Nicholas C. Metropolis Center for Modeling and Simulation le mois dernier, les chercheurs de Los Alamos ont évoqué ce problème en présentant deux solutions informatiques très différentes. La première, l'ordinateur Q, possède une puissance de calcul de 30 téraflops, soit 30 000 000 000 000 d'opérations par seconde. Cette capacité devrait lui permettre de simuler en détail une explosion nucléaire. Pour effectuer un tel calcul, Q consomme 3 MW, plus 2 autres pour alimenter son système de refroidissement, soit l'équivalent de la consommation moyenne de 5 000 maisons. Ne pouvant fonctionner que durant des périodes de quelques heures et nécessitant une chambre blanche d'un demi-hectare, ce supercalculateur coûtera la bagatelle de 215 millions de dollars. C'est 640 fois le coût de son concurrent baptisé " Green Destiny ". De la taille d'un réfrigérateur, celui-ci fait partie de la famille des clusters Beowulf. Il consiste en plusieurs microprocesseurs travaillant en parallèle via un réseau Ethernet. Green Destiny consomme beaucoup moins d'énergie (5 kw) pour une puissance de calcul de 160 gigaflops. Il est donc moins rapide que Q mais son rendement est meilleur. Cependant, la vitesse de communication entre les microprocesseurs est limitée à la vitesse de 100 megabits par seconde d'un Ethernet classique (contre 6,3 gigabit pour Q).
|
|
|
|
|
La société californienne Universal Electronics a annoncé que sa télécommande universelle Nevo serait intégrée au nouvel assistant personnel de Hewlett-Packard, iPAQ Pocket PC, qui devrait être commercialisé cet été aux Etats-Unis. Les ordinateurs de poche, qui fonctionnent déjà comme des agendas des calendriers, pourront désormais servir à changer les chaînes de télévision, actionner le lecteur de DVD ou n'importe quel objet dont le fonctionnement est commandé à distance, a expliqué Rob Lilleness, P-DG de Universal Electronics. Universal, qui fabrique des télécommandes pour diverses sociétés et un modèle universel, dispose de nombreux codes infrarouge pour permettre aux télécommandes et aux appareils électroniques de communiquer. Reuters : http://fr.news.yahoo.com/020624/85/2nc4c.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Trier la lumière? C'est, littéralement, ce que des physiciens écossais annoncent avoir accompli: une technologie pour trier des photons, un par un. Le tri est réalisé en fonction de ce que les experts appellent la propriété de moment angulaire, peut-on lire dans l'édition du 24 juin du Physical Review Letters. Jusqu'ici, les physiciens ne pouvaient séparer les photons qu'en fonction de leur valeur de spin, un terme technique qui désigne le sens dans lequel tourne le champ électrique du photon. Or, ce champ électrique ne peut tourner que dans deux directions possibles. Le moment angulaire peut, lui, prendre n'importe quelle valeur (littéralement: de zéro à l'infini!). Résultat: les scientifiques croient possible, grâce à cet exploit, d'insérer davantage d'information dans quelques grains de lumière, ce qui ouvre la porte à des applications en télécommunications -avec la fibre optique, particulièrement- et dans le domaine de l'encodage: physiciens et mathématiciens pensent en effet développer de nouveaux algorithmes d'encodage impénétrables, faisant ainsi le bonheur des militaires, des services secrets... et le malheur des pirates informatiques ! Physical Review Letters : http://ojps.aip.org/getabs/servlet/GetabsServlet?
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
La pollution atmosphérique est responsable de 2.786 décès anticipés chaque année dans neuf grandes villes françaises, soit au total plus de 11 millions d'habitants, selon une étude de l'Institut de veille sanitaire (Invs) publiée mardi. Les experts appellent "décès anticipé" un décès survenant un jour donné en relation avec la pollution, indépendamment de l'âge et d'autres facteurs de risque, et qui, en l'absence de pollution ce jour-là, ne se serait pas produit. Selon l'Institut, le nombre de ces décès anticipés attribuables à des niveaux de pollution supérieurs à 10 microgrammes par mètre-cube est de 2.786 pour la mortalité totale. Mais une bonne part de ces décès (1.834 exactement) auraient pu être évités si les niveaux de pollution avaient été réduits de moitié. "D'une manière générale, ce sont les niveaux de pollution photo-oxydante (dioxyde d'azote et ozone) qui conduisent le plus souvent au nombre de décès anticipés le plus élevé", souligne l'Institut. Les polluants émis principalement par le trafic automobile (dioxyde d'azote, hydrocarbures) se combinent sous l'effet du soleil pour former l'ozone, qui pénètre dans profondément dans les voies respiratoires. Le programme de surveillance épidémiologique qui a permis d'aboutir à ces conclusions a été mené dans neuf villes : Bordeaux, Le Havre, Lille, Lyon, Marseille, Paris, Rouen, Strasbourg et Toulouse. L'étude a croisé les variations, d'un jour à l'autre, d'indicateurs de l'état de santé de la population (mortalité, admissions à l'hôpital) et des indicateurs d'exposition de la même population à la pollution atmosphérique. Caducée : http://www.caducee.net/afp/edit.asp?id_depeche=10739
|
|
|
|
|
Depuis les années 80, la demande humaine excèderait la capacité de renouvellement de la biosphère, selon Mathis Wackernagel. D'après le modèle développé par ce chercheur, l'homme n'utilisait que 70% de cette ressource en 1961, contre 120% en 1999. Cela signifie qu'il faudrait à la Terre au moins un an et trois mois pour reconstituer ce que les hommes ont utilisé en une année. Ces conclusions globales, publiées le 26 juin dans les Proceedings of the National Academy of Sciences, s'appuient sur la théorie de l'empreinte écologique (ecological footprint), développée par William Rees et Mathis Wackernagel. L'empreinte écologique se définit par le nombre d'hectares de biosphère nécessaires à un individu pour vivre. En moyenne, cet espace était de 2,3 hectares par personne en 1999, mais les écarts sont grands. Un habitant moyen des États-Unis a besoin de 9,7 hectares, un Allemand 4,7 et un Britannique 5,4. PNAS : http://www.pnas.org/current.shtml
|
|
|
|
|
|
|
|
Face aux incendies qui ravagent chaque été les massifs du Sud de la France et de la Corse, les pompiers sont bien souvent désarmés pour limiter l'impact de la catastrophe écologique. Une entreprise californienne, Wetzone Engineering, a conçu un dirigeable innovant qui pourra arroser une zone de manière continue tandis qu'avions et hélicoptères l'alimenteront en eau. Le projet repose sur un dirigeable long de 300 mètres, gonflé à l'hélium, qui pourra transporter jusqu'à un million de litres d'eau, contre 600 litres pour un hélicoptère et 13.000 litres pour les avions Hercule reconvertis en transporteurs d'eau aux Etats-Unis. Doté d'un bassin à son sommet, le dirigeable pourra par ailleurs être rempli en vol par des avions ou des hélicoptères. L'engin inondera alors la zone en feu à une cadence de 200.000 litres par heure via des valves ajustables, semblables à des pommeaux de douche précise New Scientist, sous son ventre. Autre intérêt de ce ballon : ses concepteurs indiquent qu'il pourra projeter des fertilisants sur le site, une fois l'incendie éteint. Un tel projet comporte toutefois de nombreuses inconnues : un tel appareil peut-il décoller avec un million de litres d'eau ? Thomas Gagliano, responsable scientifique de Wetzone, répond par l'affirmative : pour soulever un kilo de charge, il faut un mètre cube d'hélium et rien ne s'oppose à ce que des dirigeables s'envolent avec l'équivalent d'un million de litres à leur bord. Deuxième interrogation : comment se comportera l'engin face au vent et aux turbulences crées par les incendies, lesquels obligent souvent les canadair à rebrousser chemin ? En contournant ces contraintes, affirme Thomas Gagliano. Le dirigeable volera à plus grande altitude (1.200 mètres) et la densité de la pluie artificielle sera changée pour que l'eau ne s'évapore pas avant d'avoir atteint le brasier. Reste la question du coût d'une telle innovation. La société travaille sur des prototypes mais la mise au point d'une flotte ne sera pas possible avant au moins trois ans tant les investissements nécessaires sont importants. Mais, insiste le chercheur de Wetzone, ils ne sont rien en comparaison des 2 milliards de dollars qui partent chaque année en fumée à la suite des incendies de forêts aux Etats-Unis. Sans parler du coût humain et financier que représente la lutte contre le feu. New Scientist : http://www.newscientist.com/news/
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
L'inosine, une substance produite par l'organisme, favorise la croissance nerveuse dans le cerveau, permettant de réparer certains dommages causés par un accident vasculaire cérébral, selon une étude menée sur un modèle animal parue aux Etats-Unis. Les résultats de l'étude menée sur des rats, publiée dans les Comptes rendus de l'Académie nationale des sciences (PNAS), montrent que l'inosine stimule la croissance des axones (prolongement des neurones transmettant l'influx nerveux) dans les zones intactes du cerveau, rétablissant ainsi des connexions dans les zones touchées par un accident cérébral. Ces résultats sont d'un intérêt à la fois scientifique et clinique", a commenté le neurologue Larry Benowitz, qui a dirigé l'étude au sein de l'Hôpital pour enfants de la faculté de médecine de Harvard à Boston (Massachusetts, nord-est). L'étude montre que l'inosine provoque un grand nombre de reconnexions dans le cerveau après une attaque. Ces reconnexions paraissent suffisantes pour permettre une guérison fonctionnelle substantielle", a poursuivi le Dr Benowitz. "En terme d'implications cliniques, l'inosine, qui semble ne pas avoir d'effets indésirables sur les animaux jusqu'à présent, est une nouvelle approche potentielle de régénération nerveuse pour le traitement de l'attaque et d'autres types de blessures du cerveau", a-t-il ajouté. L'inosine est un nucléoside de l'organisme. Pour cette étude, la substance a été produite par la société pharmaceutique américaine Boston Life Sciences, basée à Boston, qui avait déjà fait état à la fin 2001 de résultats encourageants dans l'utilisation d'inosine, jusqu'à 24 heures après la survenance d'une attaque. Environ 750.000 personnes sont victimes d'un accident vasculaire cérébral chaque année aux Etats-Unis. Ce type d'attaque est la troisième cause de décès par maladie aux Etats-Unis après l'accident cardiaque et le cancer. PNAS : http://www.pnas.org/papbyrecent.shtml
|
|
|
|
|
|
|
|
L'amiante risque de toucher 100.000 à 200.000 personnes en France dans les vingt prochaines années, ce qui coûtera entre 8 à 10 milliards d'euros à la collectivité, a indiqué mardi Denis Kessler, président de la fédération française des sociétés d'assurance (FFSA). La décision de la Cour de cassation du 28 février dernier a étendu la responsabilité des entreprises face aux accidents du travail et notamment aux victimes de l'amiante, ce qui va ouvrir la voie à de nombreuses demandes d'indemnisation. La Cour de Cassation a estimé que des entreprises avaient commis des "fautes inexcusables" en exposant leurs salariés à l'amiante et instauré une obligation de prévention, dite de "sécurité résultat". Désormais, "la faute inexcusable" sera retenue quasiment systématiquement dans ces affaires et la charge globale complémentaire des indemnités qui devront être versées dans les vingt ans à venir aux victimes sera de 8 à 10 milliards d'euros, a expliqué M. Kessler. Elle sera supportée à la fois par la Sécurité sociale, les entreprises et leurs assureurs, sans que l'on puisse savoir précisément quelle part reviendra aux uns et aux autres puisque cela dépendra de l'examen de chaque cas, contrat par contrat, a-t-il ajouté. "La part des assureurs devrait toutefois être nettement inférieure à 50% du montant total", a-t-il précisé. Alors que les entreprises s'attendent à une très forte hausse des primes couvertures de responsabilité civile à l'arrivée à échéance des contrats début juillet, les assureurs réclament une nouvelle législation qui permette de revoir tout le dispositif de couverture des accidents de travail, a expliqué la FFSA. En France, l'amiante est interdit depuis le 1er janvier 1997. En raison des risques sanitaires, il n'est plus utilisé en flocage depuis vingt ans. Les prochaines années devraient connaître une recrudescence des maladies liées à l'amiante dont l'incubation est d'une vingtaine d'années: leur nombre a doublé entre 1996 et 1999 et atteint 3.000 cas. Selon un spécialiste, le Pr Marcel Goldberg, entre 50.000 et 100.000 décès interviendront ainsi, lors des deux prochaines décennies, de pathologies liées à l'inhalation de fibres d'amiante. AFP : http://fr.news.yahoo.com/020625/202/2nhes.html
|
|
|
|
|
|
|
|
Un étude américaine très sérieuse réalisée par la New York University's School of Medicine chez plus de 14000 femmes montre que la prise régulière, au moins 4 fois par semaine, depuis plus de 6 mois, d'aspirine, réduit du tiers le risque global de cancer du poumon et de la moitié le risque de cancer du poumon dit "non à petites cellules", qui représente les trois quarts de ce type de cancer. Le Docteur Arslan Akhmedkhanov qui a dirigé cette étude souligne cependant avec force que "l'arrêt du tabac reste de très loin la meilleure façon de réduire sensiblement les risques de cancer du poumon même si la prise régulière d'aspirine confère un certain degré de protection, variable selon les individus, contre ce cancer très difficile à soigner". Le Professeur Gordon McVie, Directeur général de la recherche contre le cancer en Grande Bretagne souligne pour sa part que "cette remarquable étude montre que l'aspirine confirme qu'il est un médicament réellement extraordinaire qui ne cesse de dévoiler de nouveaux effets thérapeutiques bénéfiques et confirme ses potentialités anti-cancéreuses. Mais ces résultats ne doivent en aucun cas justifier une poursuite de la consommation de tabac car seul l'arrêt total et définitif de la cigarette peut véritablement protéger des cancers liés au tabac." Une autre étude encourageante publiée par le British Journal of Cancer, prévoit une baisse de 20% de la mortalité par cancer du poumon chez les hommes de moins de 75 ans au cours des 5 prochaines années. Cette baisse pourrait atteindre 26% chez les hommes de moins de 55 ans, et 15% chez les femmes de moins de 55 ans, grâce à la diminution régulière de la consommation de tabac en Grande Bretagne liée à la trés grande efficacité des campagnes anti-tabac. Brève rédigée par @RT Flash BBC du 26-06-2002 : http://news.bbc.co.uk/hi/english/health/newsid_2064000/2064979.stm
|
|
|
|
|
|
|
|
Le professeur Jean-Michel Dubernard (Hôpital Edouard Herriot, Lyon), qui venait présenter devant l'académie nationale de médecine un bilan de la greffe allogénique des deux mains réalisée par lui et son équipe en janvier 2000, a notamment insisté (en dehors des résultats fonctionnels et psychologiques satisfaisants), clichés d'IRM à l'appui, sur «l'insoupçonnée plasticité du cortex cérébral» observée lors de la réorganisation massive du cortex primaire, dans les mois qui ont suivi la transplantation du patient. La transplantation de mains est un exemple d'allogreffe composite de tissus vascularisés. Le professeur Dubernard et une équipe de 18 chirurgiens ont procédé en janvier 2000 à la première greffe bilatérale de mains sur un homme de 33 ans amputé depuis 1996. Le donneur, victime d'un traumatisme crânien, âgé de 18 ans, appartenait au même groupe érythrocytaire A (receveur AB) mais présentant 5 incompatibilités HLA/DLA avec le receveur. Le traitement immunosuppresseur a été celui utilisé dans toutes les procédures de transplantation (anticorps polyclonaux +/- anti-CD25, tacrolimus, mycophénolate mofétil et prednisone). Il a été augmenté lors des deux épisodes de rejet cutané (au 53ème jour et au 82ème jour post-opératoire) qui ont été jugulés. La sensibilité est réapparue dans les six mois après la greffe avec toutefois des troubles persistants de la discrimination. Les résultats moteurs ont été jugés satisfaisant, le patient ayant réussi les tests classiques utilisés aux Etats Unis. Les IRM fonctionnelles ont montré une plasticité cérébrale caractérisée par un remaniement global des représentations sensitives et motrices des membres supérieurs. Selon le professeur Dubernard, il s'agit là «de la plus grande leçon de ces travaux». Au niveau psychologique, l'appropriation des mains a progressé avec leur récupération fonctionnelle. Les greffons, en permanence sous le regard du patient et des autres, ont induit un système de défense particulier, le déni, c'est à dire que le sujet s'est armé contre un rejet psychique de membres qui lui sont étrangers et qui proviennent d'un cadavre. «La fonction a primé sur le narcissique chez ce sujet», a commenté le professeur. Rejetant une objection de la salle sur le risque de lymphomes provoqués par les procédures de transplantation, le professeur Dubernard a rappelé que le risque est faible (0,28% d'après le registre OPELZ) et a insisté sur les bénéfices de la greffe, en terme d'autonomie, apportés aux patients transplantés des mains. Académie Nationale de Médecine : http://www.caducee.net/breves/breve.asp?idp=&idb=4058&cal=1
|
|
|
|
|
|
|
|
Les résultats très prometteurs des essais cliniques indiquent que des radio-isotopes émetteurs de particules alpha sont capables de détruire les cellules cancéreuses. Le Centre commun de recherche de la Commission et le Deutsches Krebsforschungszentrum ont présenté ce traitement innovant lors d'un récent colloque à Heidelberg. La radio-immunothérapie alpha devrait devenir une thérapeutique efficace au cours des prochaines années et offrir de nouveaux moyens de guérison aux patients. Comment le mécanisme de destruction du cancer fonctionne-t-il ? Un vecteur spécifique des cellules cancéreuses (p. ex. un anticorps monoclonal ou un peptide) est couplé à un puissant radio-isotope qui, en se désintégrant, émet des particules capables d'anéantir directement ou indirectement toutes les cellules cancéreuses qu'elles rencontrent. Comme l'a déclaré M. Philippe Busquin, commissaire européen à la Recherche : D'autres travaux sont nécessaires mais, selon les experts, les résultats des études précliniques et des premiers essais cliniques sont prometteurs. Les isotopes chercheurs à action destructrice devraient être utiles dans la lutte contre plusieurs cancers tels que la leucémie et le lymphome (affections hématologiques malignes), les carcinomes micrométastasiques intrapéritonéaux (ovarien, gastrique, etc.), le glioblastome et le traitement post-opératoire des gliomes, mélanomes, tumeurs du colon et myélomes, et le traitement palliatif de l'ascite maligne. Des coopérations multidisciplinaires entre les meilleures équipes européennes sont nécessaires afin de développer cette approche novatrice. Un des objectifs essentiels du 6e programme cadre de recherche et développement de la Commission européenne (2003-2006) est la Lutte contre le cancer. Globalement, juste un peu plus d'un milliard d'euros ont été affectés à la lutte contre les maladies graves, dont au moins 400 millions à la recherche sur le cancer. Le but est d'améliorer les stratégies visant à combattre cette affection, depuis la prévention jusqu'au traitement en passant par le diagnostic. La recherche communautaire s'attachera principalement à traduire les nouvelles connaissances issues de la génomique et d'autres sphères de la recherche fondamentale en applications susceptibles d'améliorer la pratique clinique et la santé publique. Les résultats récents des études cliniques faisant appel au bismuth-213 pour combattre la leucémie myéloïde aiguë et les premières évaluations de l'application directe de l'actinium-225 montrent que la direction est la bonne. Alors que le premier de ces isotopes se désintègre en n'émettant qu'une seule particule alpha, le second possède une chaîne de désintégration à 4 particules alpha qui le rendrait beaucoup plus efficace, du moins lorsque la totalité de son potentiel sera exploitable. Aucune toxicité aiguë n'a été observée au niveau de dosage le plus élevé (de l'ordre de 100 mCi de Bi-213). Cette percée ouvre la voie à l'analyse d'autres émetteurs de particules alpha au stade clinique également. La Commission a encouragé les travaux pionniers du Deutsches Krebsforschungszentrum (DKFZ) et du Kantonspital de Bâle, où les premiers patients ont été soignés respectivement pour des lymphomes non hodgkiniens et des glioblastomes. A ce jour, 37 malades ont été traités à l'aide de bismuth-213 or d'astatine-211 aux États-Unis et 11 en Europe. D'autres études très prometteuses consacrées au traitement du mélanome par injection locale d'un anticorps conjugué à du Bi-213 stimulent la connaissance scientifique, et plusieurs hypothèses relatives aux mécanismes de l'action destructrice des particules alpha peuvent donc être validées. La génomique et la protéomique de pointe devraient permettre de bien comprendre les processus qui gouvernent l'application des émetteurs alpha et autres radio-isotopes. Cette connaissance détaillée aidera non seulement à combattre le cancer, mais aussi à comprendre comment l'exposition à de faibles doses de radiations affecte les caractéristiques génétiques de l'Homme. L'espoir est d'arriver, à terme, à concevoir des médicaments ou des traitements personnalisés en étudiant les spécificités de certaines affections et leur expression génétique. Commission européenne : http://www.newspresspro.com/aff_comm.php?communique=FR115592
|
|
|
|
|
|
|
|
Les experts réunis durant trois jours à Genève sous l'égide des Nations unies ont fait part jeudi de leur "préoccupation majeure" après la publication d'une étude scientifique affirmant que l'acrylamide, substance présente en grande quantité dans les frites ou les chips, pourrait provoquer le cancer. Toutefois, ces experts réunis par l'Organisation mondiale de la santé (OMS) et l'Organisation des Nations unies pour l'alimentation et l'agriculture (FAO) ont estimé que de nouvelles études étaient nécessaires pour mesurer le niveau du risque et savoir comment le réduire. "C'est un sujet de préoccupation majeure et nous devons mener des recherches de façon très urgente afin de pouvoir réduire les niveaux d'acrylamide dans l'alimentation", a déclaré le scientifique allemand Dieter Arnold, qui présidait cette réunion d'experts. Toutefois, les experts réunis à Genève n'ont pas souhaité montrer du doigt tel ou tel aliment en raison de la trop forte présence d'acrylamide dans sa composition. "Sur la base des informations dont nous disposons actuellement, nous ne pouvons pas donner aux consommateurs de conseils très précis du type: 'évitez s'il vous plaît de manger les chips de telle ou telle marque'. On ne fera pas cela", a souligné M. Arnold. "Nous préférons dire aux gens d'avoir une alimentation équilibrée et variée, incluant beaucoup de fruits et de légumes, et de modérer leur consommation d'aliments frits et gras", a ajouté le scientifique allemand. Les premières recherches sur la présence d'acrylamide dans des aliments à base d'amidon, tels que les chips et les pommes de terre frites, lorsqu'ils ont été frits ou cuits à haute température, ont été rendues publiques en avril en Suède. Depuis, des études aux résultats identiques ont été conduites en Suisse, en Norvège, au Royaume Uni et aux Etats-Unis. L'OMS et la FAO avaient réuni d'urgence cette commission d'experts après la publication en avril d'une étude suédoise montrant que certains aliments de base, cuits à très haute température, notamment les chips, les frites et certaines formes de pain, contiennent de l'acrylamide, une substance qui sert à purifier l'eau, cancérigène chez l'animal et suspectée d'avoir le même effet chez l'homme. Selon les chercheurs suédois, les frites, les chips et les produits céréaliers contiendraient beaucoup d'acrylamide. Ces résultats n'ont pas été retrouvés dans les produits bouillis. Le gouvernement de Stockholm, qui se base sur les résultats obtenus chez des rats, estime que ces aliments pourraient être à l'origine de 45.000 nouveaux cas de cancers chaque année en Suède chez l'homme. A l'occasion de la réunion de Genève, le Centre pour les sciences dans l'intérêt du public (CSPI), une association de défense des consommateurs aux Etats-Unis, a fait paraître une étude similaire à Washington sur des produits de consommation courante. Il a ainsi relevé de forts taux d'acrylamide chez certaines marques de frites et de chips, notamment chez McDonalds avec 72 microgrammes. En 1994, l'Agence de recherche sur le cancer de l'OMS avait déjà soupçonné l'acrylamide d'être "probablement cancérigène pour les humains" après des études sur des animaux. OMS : http://www.who.int/fsf/Acrylamide_pressrelease.pdf
|
|
|
|
|
|
|
|
Le dernier rapport publié le 2 juillet par le Programme commun des Nations Unies sur le SIDA (ONUSIDA) en préalable à l'ouverture de la XIVème Conférence internationale sur le SIDA de Barcelone, annonce que l'épidémie de SIDA en est encore à ses débuts. Dans les pays les plus touchés, la prévalence du VIH monte à des niveaux que l'on ne croyait pas possibles auparavant et le virus continue à se propager rapidement dans de nouvelles populations d'Afrique, d'Asie, des Caraïbes et d'Europe de l'Est. L'épidémie du sida, qui a déjà tué en vingt ans plus de vingt millions de personnes dans le monde, "est encore à ses débuts" et pourrait provoquer la mort prématurée de 68 millions de personnes supplémentaires d'ici 2020, avertit le patron de l'ONUSIDA. "L'épidémie de SIDA est toujours à ses débuts. On le savait pour l'Asie et l'ex-Union soviétique. Mais en plus, elle ne donne aucun signe d'essoufflement dans les pays les plus gravement atteints, c'est-à-dire en Afrique Australe", a déclaré à l'AFP le Dr Peter Piot, directeur exécutif d'ONUSIDA (le programme commun des Nations unies pour le VIH-SIDA). "Dans des pays gravement atteints, comme le Zimbabwe, un tiers des adultes sont séropositifs contre un quart deux ans auparavant", ajoute-t-il à l'occasion de la publication mardi du rapport d'analyse bisannuel d'ONUSIDA. Mauvaise "surprise", "l'épidémie, même en Afrique australe où elle est la plus grave, continue, elle ne paraît ni arriver à saturation ni avoir de limite naturelle ou plafond naturel", et atteint des niveaux jusque là inenvisagés, explique-t-il. "C'est effrayant", lance-t-il. "C'est de loin la plus grande épidémie que l'humanité a connu, en termes absolus", ajoute-t-il. "Dans les 45 pays les plus atteints, si la riposte au sida ne s'intensifie pas, il y aura 68 millions de morts à cause du sida d'ici 2020", poursuit le Dr Piot. "C'est en Afrique subsaharienne que le nombre projeté des décès est le plus élevé avec 55 millions de décès supplémentaires attendus", selon ONUSIDA. L'Asie, avec les pays les plus peuplés du globe, l'Inde et la Chine, est assise sur une "bombe" qui menace d'exploser, l'ex-Union soviétique est confrontée à une épidémie galopante tandis que "la vigilance s'est relâchée dans les pays riches où, avec l'arrivée en 1996 des trithérapies, beaucoup de gens ont cru que le sida, c'est fini", selon lui. Plus de 60 millions de personnes ont été infectées par le VIH depuis l'identification de la maladie il y a deux décennies. La plupart des 40 millions qui vivent encore mourront s'ils n'ont pas accès aux traitements. Or "moins de 4% des personnes atteintes dans le monde en développement ont accès au traitement antirétroviral" (ARV, médicaments spécifiques contre le virus du sida, ou trithérapie), selon l'Onusida. "Malgré la baisse de près de 90% du prix des ARV (NDLR en Afrique notamment), la vaste majorité des malades n'y pas accès", s'indigne le patron d'ONUSIDA. "Il faut encore faire baisser le prix des médicaments". "Fin 2001, 730.000 personnes dans le monde recevaient un traitement ARV dont un demi-million dans les pays riches où moins de 25.000 personnes sont mortes du sida l'année passée", constate le Dr Piot. "Par contre, en Afrique subsaharienne, où le sida a tué 2,2 millions de personnes, seulement 30.000 en ont bénéficié". Le nombre de ces chanceux est aussi ridicule en Asie et dans le Pacifique, où 435.000 personnes sont mortes du sida l'an passé. Pour combattre sérieusement ce fléau dans les pays qui en ont le plus besoin, "il faudrait, indique le Dr Piot, dix milliards de dollars chaque année uniquement pour le sida et ce pendant dix ans". L'épidémie dévastatrice continue à se propager dans presque toutes les parties du monde. Particulièrement exposés : les jeunes, dont près de 12 millions sont déjà contaminés, selon ONUSIDA. La moitié environ des nouvelles infections adultes touchent des jeunes de 15 à 24 ans. "Chaque jour 6.000 jeunes de moins de 24 ans et 2.000 de 15 ans sont infectés dans le monde", selon le Dr Piot. Dans le monde, 14 millions d'enfants sont devenus orphelins à cause du sida. En 2001, l'épidémie mondiale a tué 3 millions de personnes dont 2,2 millions en Afrique. Les succès de certains pays (Ouganda, Cambodge...) ne doivent pas faire oublier qu'il s'agit d'exceptions, rappelle-t-il. L'augmentation des financements et de l'engagement politique, marquent "le début d'une ère nouvelle". Mais, il en faudra beaucoup plus, et surtout des ressources qui font encore cruellement défaut, pour vaincre ce fléau, estime le Dr Piot. ONUSIDA : http://www.unaids.org/whatsnew/press/frn/pressarc02/PRreport020702.html
|
|
|
|
|
|
|
|
Alors que le paludisme, maladie tropicale qui tue plusieurs millions d'individus chaque année, réapparaît de façon inquiétante dans les pays chauds, des scientifiques anglo-saxons se penchent sur le génome du parasite qui en est responsable, et sur celui de l'anophèle, le moustique qui le transporte. Selon l'Organisation mondiale de la santé (OMS), 1,5 à 2,7 millions de personnes meurent chaque année dans le monde de paludisme (ou malaria), dont 90% en Afrique sub-saharienne. Ces décès qui frappent des jeunes sont favorisés notamment par la pauvreté qui empêche l'achat de tout médicament et son corollaire, la malnutrition. De plus, quand les gens ont les moyens de se soigner, l'augmentation inquiétante des résistances du parasite à la chloroquine, le premier et le moins cher des antipaludéens, rend le traitement inutile. Connaître ces deux génomes devrait permettre aux scientifiques de mettre au point des médicaments plus puissants, capables d'agir sur les gènes responsables de cette augmentation des résistances. Une recherche importante, puisque la recherche sur la mise au point d'un vaccin contre le paludisme se révèle décourageante. En début d'année, des chercheurs américains et britanniques avaient annoncé avoir cartographié le génome du plasmodium falciparum, le plus dangereux des quatre parasites responsables de paludisme. Par ailleurs, des scientifiques appartenant à 12 nations différentes viennent de venir à bout de la carte du génome de l'anophèle, le moustique vecteur de la maladie. "C'est quelque chose de totalement nouveau, dans la mesure où cela va nous permettre d'étudier le génome", a déclaré le Dr Paul Brey, de l'Institut Pasteur. "Dans le passé, nous observions les cibles accessibles au traitement une par une, sous un seul angle. Maintenant, nous disposons du génome dans son ensemble, et par conséquent de toutes les cibles possibles", s'est pour sa part félicité Michael Gottlieb, chef du département de parasitologie à l'Institut national d'allergies et de maladies infectieuses. Bien que le parasite ne soit qu'un protozoaire unicellulaire, son génome est compliqué. Il échappe au système immunitaire en changeant de forme à chaque étape de son développement. La propagation du plasmodium falciparum dans des zones dont il avait été éliminé, notamment l'Amazonie péruvienne, est inquiétante, a encore observé le Dr Joseph Vinetz, porte-parole de la Société américaine des maladies infectieuses. Selon lui, la malaria continue de sévir en Afrique, s'aggrave en Asie du Sud-est et en Amérique du Sud, essentiellement du fait de cette résistance. C'est pourquoi les espoirs se portent aussi sur la découverte d'un moyen de prévenir la transmission du parasite par le moustique. Dans ce sens, les scientifiques qui ont décodé le génome de l'anophèle vont tenter de comprendre comment le parasite arrive à se développer dans cette espèce de moustique, et non dans d'autres, pour se loger dans ses glandes salivaires. "Les moustiques sont tellement prolifiques qu'il est difficile de les détruire. Il serait plus facile d'empêcher la transmission de la maladie", a expliqué Fotis Kafatos, directeur du laboratoire de biologie moléculaire de Heidelberg (Allemagne). Le mois dernier, des chercheurs américains avaient déjà rapporté dans la revue scientifique "Nature" qu'en insérant un gène modifié dans les moustiques, ils avaient réussi à interrompre cette transmission. AP : http://fr.news.yahoo.com/020627/5/2nlfk.html
|
|
|
|
|
|
|
|
Un nouveau-né âgé de deux à cinq jours est déjà capable d'établir un contact visuel avec une personne qui le regarde dans les yeux, selon une étude européenne parue aux Etats-Unis. Dix-sept nouveaux-nés âgés de 2 à 5 jours ont été stimulés par photographies de visages les regardant directement ou regardant de côté. Les chercheurs ont établi que les bébés regardaient près de deux fois plus longtemps les visages dont les yeux étaient braqués sur eux. Les scientifiques, qui publient leurs résultats dans les Comptes rendus de l'Académie nationale des Sciences (PNAS), ont également mesuré l'activité cérébrale de 15 bébés de quatre mois, montrant que cette activité est plus intense lorsqu'un contact visuel est établi avec une personne qui leur fait face, par opposition à la présence d'une personne qui ne les regarde pas. "Les résultats montrent que, dès la naissance, les nouveaux-nés préfèrent regarder des visages avec lesquels ils échangent des regards et que, très tôt, les bébés en bonne santé montrent une activité cérébrale accrue résultant d'un regard direct", écrivent les auteurs de l'étude. "La sensibilité exceptionnellement précoce aux regards démontrée dans ces études constitue probablement la fondation principale du développement ultérieur des capacités sociales", estime encore l'équipe de chercheurs sous la direction de Teresa Farroni, du Birkbeck College (Université de Londres) et du département de psychologie de l'université de Padou (Italie). PNAS : http://www.pnas.org/cgi/content/abstract/152159999v1
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Les voitures sont de plus en plus « intelligentes », et en moins de dix ans l'électronique embarquée est passée de quasiment 0 à 30 % du coût total d'un véhicule (ce qui explique pourquoi même les plus petites voitures ne sont jamais en dessous des 10 000 ?/65 600 F). Ces autos savent déjà tout faire comme nous l'avons vérifié vendredi sur le circuit de Versailles-Satory... Elles respectent les distances. Ce système, imaginé depuis dix ans par les ingénieurs de Renault, permet de respecter les distances de sécurité grâce à un radar caché dans le pare-chocs avant. Il détecte la présence du véhicule qui précède et réduit automatiquement la vitesse en cas de danger et de freinage brusque. Proposé en option, à un prix encore inconnu, sur la Vel Satis à partir de la rentrée. Elles voient la nuit. Cette voiture sait éviter tous les obstacles vivants dans l'obscurité (Peugeot-Citroën). Une caméra infrarouge, installée à côté des essuie-glaces, détecte dans un rayon de 300 mètres la chaleur émise par les piétons, cyclistes et animaux, et retransmet une image en couleur sur un écran du tableau de bord (photo ci-contre) . Un système similaire est déjà vendu aux Etats-Unis sur les modèles haut de gamme Cadillac. Mais l'option est facturée 2 000 dollars (environ 15 000 F). PSA peaufine son propre système et devrait l'installer sur un Xsara Picasso d'ici à deux ou trois ans. Elles suivent la ligne blanche. Ce correcteur de trajectoire (Valeo), avec deux caméras infrarouges, suit les lignes blanches, continues ou intermittentes, sur la chaussée et calcule constamment la direction « normale » à suivre du véhicule. Au moindre écart et franchissement anormal de lignes, un signal sonore retentit dans l'habitacle pour prévenir et éventuellement réveiller le conducteur. On peut aussi avoir en option un dispositif dans le dossier du siège et qui alerte le conducteur en le massant dans le dos à droite ou à gauche selon la mauvaise direction prise par le véhicule ! Déjà en production aux Etats-Unis, il équipe les mini-vans Ford Windstar et un modèle de poids lourd Chrysler. Disponible sur les premières voitures qui sortiront en 2003. Elles font les créneaux. Ce calculateur imaginé par Valeo facilite la manoeuvre des créneaux. Plusieurs capteurs à ultrasons placés sur le côté de la voiture détectent, au moment où le véhicule s'approche de l'endroit du créneau, le bout du pare-chocs avant et le bout du pare-chocs arrière des deux voitures entre lesquelles il va se garer. Le conducteur est averti s'il a la place suffisante pour se « caser » via un boîtier équipé de diodes rouge et verte installé sur le tableau de bord. Dans un an ou deux sur les modèles haut de gamme des principales marques européennes. Le Parisien : http:/www.leparisien.com/home/info/permanent/article.htm?
|
|
|
|
|
|
|
|
Le Japon a investi, en l'an 2000, 3 % de son produit intérieur brut (PIB) dans la recherche, les Etats-Unis 2,7 %, tandis que l'Union européenne stagnait à 1,93 %. A taux de change constant, l'Amérique a, cette année-là, consacré à la recherche 100 milliards d'euros de plus que l'Europe. Cet écart a doublé en cinq ans. Il explique en grande partie le différentiel de productivité qui se creuse entre les deux rives de l'Atlantique, et dont la Commission européenne s'était alarmée au mois de mai. La prise de conscience du danger a conduit les Européens, au Sommet de Barcelone, en mars, à s'engager à investir d'ici la fin de la décennie 3 % de leur PIB dans la recherche. Chargé de voir quelles politiques doivent être mises en place pour y parvenir, le commissaire européen Philippe Busquin s'apprête à rendre public des chiffres alarmants. Dans un entretien au Monde, il estime que les gouvernements européens n'ont pas encore pris la mesure de "l'importance de la recherche et de l'innovation pour résoudre les problèmes de croissance et d'emploi en Europe". Cet écart croissant entre les deux côtés de l'Atlantique est dû essentiellement à la faiblesse de l'investissement privé, deux fois moins élevé en Europe qu'aux Etats-Unis. La puissance publique américaine joue un rôle important pour aider cette recherche privée. Grâce aux commandes de l'industrie militaire ou aux accords avec les universités américaines, 12,3 % des recherches des entreprises sont financées par des fonds publics, contre 8,5 % en Europe. Au moment où l'administration Bush augmente de 47 % le budget de la défense, "il n'y a pas de prise de conscience suffisante qu'il faut mener cette politique industrielle à l'échelle européenne", avertit M. Busquin. Le commissaire souligne que "jusqu'à une période récente, l'effort de recherche consenti dans un Etat était considéré comme un élément de support à son industrie nationale", aboutissant à des déperditions d'énergie. Si l'Europe a réussi à unifier son industrie aéronautique autour d'Airbus, le couple Siemens/Deutsche Bahn et Alstom/SNCF se sont livré une concurrence féroce et coûteuse pendant un demi-siècle. Les programmes de recherche européens représenteront 17,5 milliards d'euros de 2002 à 2006 - à comparer avec les 40 milliards d'euros annuels d'aide à l'agriculture. De nombreuses voix demandent qu'ils soient augmentés. Ils doivent, pour M. Busquin, être "le liant" pour coordonner les politiques nationales et les efforts industriels. Depuis le sommet de Barcelone, "la direction de la concurrence de la Commission est beaucoup plus souple sur les aides d'Etat pour la recherche et le développement" mais il reste de très nombreux obstacles. L'institution d'un brevet communautaire est toujours bloquée au conseil des ministres des Quinze. Le capital-risque est sous-développé. Surtout, s'inquiète le commissaire européen, "on réglemente parfois trop". "Sur les OGM, vu comme c'est parti, l'Europe ne sera pas du tout dans le coup", estime-t-il, déplorant que les grands groupes aillent investir aux Etats-Unis. Même souci pour la recherche génétique. "L'Australievientd'investir 20 millions d'euros pour un centre de production de cellules-souches. Singapour est prêt à le faire. Ainsi, certains médicaments pour lutter contre la maladie de Parkinson se développeront peut-être plus là-bas qu'en Europe". Un autre enjeu consiste à améliorer l'environnement des chercheurs. "Les structures universitaires sont très figées : il n'y a pas cette idée de favoriser les meilleurs chercheurs, de permettre des liens plus forts entre universités et entreprises", s'inquiète M. Busquin, qui souhaite que l'Europe s'inspire des expériences positives menées en Suède et Finlande. Ces deux pays ont beaucoup progressé et investissent dans la recherche 3,6 % et 3,3 % de leur PIB. "Le salaire des chercheurs doit être revalorisé un peu partout en Europe", demande le commissaire, qui déplore, qu'à l'exception de la France, ils soient surtout en contrat à durée déterminée. "Quand des chercheurs ont un contrat d'un an, si on leur propose quelque chose de bien, ils partent aux Etats-Unis". Sans surprise, l'Europe est pauvre en capital humain, comptant seulement 5,1 chercheurs pour 1000 actifs, contre 7,4 aux Etats-Unis et 8,9 au Japon. Le Monde du 26-06-2002 : http://www.lemonde.fr/article/0,5987,3214--282241-,00.html
|
|
|
|
|
|
|
|
Les dépenses de recherche et développement technologique (RD) ont atteint 288 milliards d'euros aux États-Unis au cours de l'année 2000 (soit 265 milliards de dollars), contre seulement 164 milliards dans l'UE. Le Commissaire européen pour la recherche, M. Philippe Busquin, a présenté les dernières données disponibles aujourd'hui à Bruxelles. « En euros courants, l'écart entre les États-Unis et l'UE a atteint 124 milliards en 2000 » a affirmé M. Busquin. « À parité et à prix constants, cet écart représente près de 100 milliards d'euros en 2000, alors qu'en 1994 il était de 51 milliards et n'a cessé de croître depuis cette date. Il s'agit d'une aggravation considérable de la tendance observée depuis la seconde moitié des années 1990. La dépréciation de l'euro face au dollar en 2000 n'explique qu'en partie cette hausse exceptionnelle de l'écart d'investissement en recherche. Cette évolution confirme l'im portance et l'urgence d'atteindre l'objectif fixé par le Conseil européen de Barcelone d'augmenter les dépenses de RD dans l'Union pour approcher 3% du PIB en 2010 », a conclu M. Busquin. Le Commissaire Busquin a ajouté que « ces résultats soulignent la nécessité d'une réflexion d'ensemble sur la meilleure manière de donner aux budgets publics de recherche le rôle d'un véritable effet de levier entraînant à sa suite l'investissement privé. Ceci nous invite à bien analyser et à diffuser les meilleures pratiques en matière d'aide directe, de mesures fiscales et de stimulation du capital-risque ». Le Japon, avec un taux d'investissement de 2,98% en 2000, a déjà atteint cette intensité de recherche et les États-Unis s'en approchent (2,69% en 2000 et en croissance continue depuis 1995). En Europe, par contre, l'intensité de RD, de 1,93% en 2000, stagne en deçà de 2% depuis le début de la décennie précédente. L'UE consacre donc une part nettement moindre de son PIB à la recherche. L'évolution observée en 2000 résulte de la baisse de l'intensité de RD des grands pays membres comme la France, l'Italie et le Royaume-Uni, compensée par les bonnes performances de certains États membres comme la Grèce, le Portugal, la Finlande ou les Pays-Bas (voir tableau 1 en annexe). Encourager les investissements privés en RD : En Europe, la part du secteur privé dans le financement de la recherche est moins élevée qu'au Japon et aux États-Unis, où elle excède les deux tiers du total. En Europe, le secteur privé occupe une place comparable en Finlande, en Suède, en Belgique, en Allemagne et dans une moindre mesure en Irlande. Mais, malgré une tendance à la hausse observée au cours de ces dernières années, le secteur privé ne finance encore que 56% des dépenses totales de RD de l'UE dans son ensemble. En 1999, le taux de croissance réelle des dépenses de recherche financées par les entreprises européennes (8,2%) est très proche de celui des États-Unis (9,0%), alors que ce taux est largement dépassé par certains États membres 26,3% en Grèce, 21,4% en Finlande, 14,9% au Portugal, 11,9% en Allemagne . En 2000, il baisse légèrement aux États-Unis (8,3%) et il n'est pas possible de dégager une tendance globale pour l'Union européenne, pour laquelle les données ne sont disponibles que pour seulement cinq pays. Mais parmi ces derniers l'évolution est contrastée : la Finlande croît encore de 16,0%, on observe une forte augmentation en Espagne (12,7% contre 1,1% en 1999) mais une tendance inverse en Allemagne (6,7%, tendance qui se poursuit en 2001 avec 3,4%) (voir tableau 2 en annexe). Ainsi, la plus grande partie du déficit global d'investissement en RD de l'Europe par rapport aux États-Unis est imputable à la faiblesse des fonds investis par le secteur privé européen. L'écart entre les investissements de recherche financés par les entreprises européennes et américaines a atteint 104 milliards d'euros en 2000 alors qu'il n'était que de 14 milliards d'euros en 1995 (1) . Cette évolution inquiétante impose de revoir en profondeur les facteurs économiques, fiscaux et sociaux qui influencent les décisions des entreprises en matière d'investissement en recherche et en innovation, et d'améliorer la coordination des politiques de recherche et d'innovation avec les autres politiques publiques, en particulier avec les politiques industrielles et de la concurrence. L'accroissement de la part des investissements privés doit s'accompagner d'une augmentation des investissements publics. En 1999, le financement public de la recherche n'a augmenté que de 2,2% en Europe malgré une croissance rapide dans certains États membres comme le Portugal (15,9%), la Grèce (13,1%) et la Finlande (12,5%) contre 0,2% aux États-Unis et 2,1 % au Japon . En 2000, cette part a augmenté au Japon (3 ,6%) et, dans une moindre mesure, aux États-Unis (0,8%), tandis que, au vu des quelques données sur l'Union européenne disponibles, on peut s'attendre à une croissance un peu plus faible qu'en 1999 Le rôle de l'Union Européenne Le soutien public à la recherche industrielle a un rôle d'entraînement essentiel pour faire levier sur l'investissement privé. En 1999, alors que les dépenses de RD des entreprises américaines ont crû fortement, 12,3% de celles-ci ont été financées par des fonds publics, contre seulement 8,6% des entreprises européennes. Ces indicateurs soulignent plus que jamais l'importance des décisions prises par les chefs d'État et de gouvernement au cours des Conseils européens de Lisbonne (mars 2000) et de Barcelone (mars 2002). Les investissements en RD et le progrès technique qu'ils induisent sont un moteur majeur de la compétitivité future et de la création d'emploi qualifié. On sait, par exemple, que la forte croissance américaine des années 1990 fut précédée par une amélioration spectaculaire de l'innovation technologique, due essentiellement à d'importants investissements tant publics que privés dans la recherche et l'innovation. L'Europe reste une puissance scientifique mondiale de premier plan et conserve un potentiel de haute qualité en matière de recherche et de ressources humaines hautement qualifiées. Mais l'écart croissant d'investissement vis-à-vis des principaux partenaires fait craindre qu'un décrochage soit inéluctable si les tendances ne sont pas inversées rapidement. C'est la raison pour laquelle le Conseil européen de Barcelone a fixé à l'Union l'objectif d'accroître son effort de RD pour approcher les 3% du PIB, dont deux tiers financés par le secteur privé, d'ici à 2010. La Commission européenne a l'intention de présenter prochainement les premiers résultats de ses réflexions à ce sujet. Cet objectif ne prend toutefois toute sa signification que dans le cadre plus général de la mise en place de l'Espace européen de la recherche. En effet, les investissements doivent s'accompagner d'efforts importants pour accroître l'efficacité globale de la recherche en Europe, en renforçant la coordination des politiques nationales, en développant la coopération entre les entreprises et les universités, en produisant et attirant davantage de chercheurs hautement qualifiés tout en leur garantissant une plus grande mobilité, et en assurant une plus grande cohérence des instruments et moyens publics de la recherche pour stimuler les entreprises et en particulier les PME européennes à investir davantage dans la recherche et l'innovation. Newspress : http://www.newspresspro.com/aff_comm.php?communique=FR115648
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|