RTFlash

RTFLASH Recherche & Technologie
NUMERO 290
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 14 Mai 2004
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Adidas se lance dans la course à puce
Protection anti-virus : mieux vaut prévenir que guérir
Un nouveau protocole pour faire passer le sans fil au gigabit
Une norme de l'UIT ouvre la voie du VDSL aux opérateurs de réseaux de télécommunication
Avenir
La téléportation quantique de données devient réalité
Le premier robot à ADN
Nanosciences : l'Europe doit tripler ses efforts pour rester dans la course
Matière
Intel tire un trait sur la course au mégahertz au profit des puces multicoeurs
Espace
Essai réussi pour un prototype de navette spatiale européenne
Terre
Des centrales au charbon sans émissions toxiques
Météo-France va étudier la météo urbaine, cette inconnue
Vivant
Tumeur du cerveau : un nouveau traitement prometteur
La spiruline, une algue microscopique pour lutter contre la malnutrition
Les cellules productrices d'insuline pourraient se régénérer
Maladies du coeur : un essai démontre le potentiel des cellules souches
Homme
Des éditeurs français s'alarment des brevets sur les logiciels
Adoption définitive du texte sur l'économie numérique
Edito
Les nanotechnologies, prochaine révolution de la médecine



On parle beaucoup des futures et prometteuses applications des nanotechnologies dans le domaine de l'électronique où la miniaturisation par les méthodes actuelles de gravure sur silicium devrait atteindre ses limites vers 2015. Mais il est un autre domaine dans lequel les nanotechnologies vont permettre une révolution technologique au moins aussi importante : la médecine et la biologie. Dans leur rapport présenté la semaine dernière et intitulé "Nanosciences et progrès", les sénateurs Jean-Louis Lorrain (UMP, Haut-Rhin) et Daniel Raoul (PS, Maine-et-Loire), membres de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (Opecst), mettent bien en lumière les grands axes de cette évolution scientifique : la nano-exploration et le nano-diagnostic, les nanomédicaments, les neuroprothèses et enfin l'ingénierie tissulaire, destinée à remplacer des tissus ou organes. Concrètement, au cours de ces derniers mois, plusieurs publications scientifiques sont venues confirmer à quel point les nanotechnologies étaient en train de se diffuser dans le domaine biologique et médical, à la fois en tant qu'outils de recherche puissants et comme moyens thérapeutiques très prometteurs. C'est ainsi que tout récemment, des chercheurs de la Rice University à Houston ont expérimenté un système de nanoballes en or capable de détruire des types de cancers inopérables (voir article "Des nanoballes contre le cancer dans @RT-Flash 272). Ces nanoballes sont constituées de petites particules de silice d'un diamètre de 110 nm, recouvertes d'une couche d'or épaisseur 10 nm s'échauffant quand une lumière se situant dans l'infrarouge proche est envoyée sur les particules, détruisant les cellules cancéreuses à proximité. Les chercheurs ont réussi à fabriquer des nanoballes capables de cibler les tumeurs et à lier ces nanoballes à des anticorps qui se fixent uniquement aux cellules cancéreuses. Cette nouvelle technique va être expérimentée sur des patients souffrant de graves cancers des poumons. Toujours en matière de lutte contre le cancer, James Baker, de l'Université du Michigan, essaye d'équiper ces nanoparticules de systèmes moléculaires chargés de diriger les médicaments vers une cellule. Ainsi, Baker a-t-il eu recours à des polymères sphériques connus sous l'appellation de dendrimères pour transporter dans une cellule du méthotrexate, un produit qui attaque certains types de cellules cancéreuses. Lors d'expériences en laboratoire réalisées sur des cellules tumorales, le méthotrexate a éliminé cent fois plus de cellules cancéreuses quand il était administré par le biais de nanoparticules que quand il était simplement ajouté à la culture des cellules. D'autres recherches passionnantes, menées par Alberto Bianco au CNRS à Strasbourg viennent de montrer que les nanotubes de carbone peuvent être utilisés pour pénétrer à l'intérieur du noyau des cellules pour y livrer médicaments et vaccins. "Ces recherches n'en sont qu'à leur début" souligne Alberto Bianco, "mais tout nous laisse penser que les nanotubes pourront un jour servir d'outils d'une incroyable précision pour modifier l'ADN à l'intérieur du noyau ou acheminer, dans une partie précise de la cellule, un médicament". De l'autre côté de l'Atlantique, à Université d'Harvard, des scientifiques américains ont mis au point des nanosondes, plus petites que la largeur des cheveux humains, qui ont révélé une sensibilité 1.000 fois plus grande que les puces standard à ADN. Ces nanosondes ont été testées avec succès pour détecter la mutation génétique spécifique de la fibrose cystique. Selon les chercheurs, ces nanosondes ultrasensibles pourraient être, d'ici 5 ans, à la disposition des chirurgiens et des médecins. Selon le Professeur Charles Lieber, qui dirige ces recherches, ces nanosondes constitueraient une véritable révolution en matière de diagnostic : il suffirait en effet de les utiliser sur une goutte de sang, un peu de salive ou d'urine pour détecter en quelques minutes une maladie génétique ou un virus. D'autres scientifiques américains réunis au sein de la NanoSystems Biology Alliance, tentent de construire les nano-outils qui pourraient un jour suivre en temps réel la vie à l'intérieur de la cellule. Ces outils très prometteurs se composent de batteries de nanosondes capables de détecter des milliers de protéines sécrétées par une cellule. Jim Heath et son équipe à l'Institut technologique californien, à Pasadena, travaillent par exemple sur une puce au silicium d'un centimètre carré qui combinera plusieurs tests et qui pourrait être disponible dans un futur proche. Cette puce réunira plus de 1000 nanocâbles semi-conducteurs d'un diamètre de 8 nm chacun et espacés de seulement 8 nm. Chacun de ces nanocâbles pourrait porter un anticorps ou un oligonucléotide différent, ou encore une courte séquence d'ADN permettant de reconnaître des séquences précises d'ARN (acide ribonucléique). "Avec une seule puce, nous pourrons réaliser mille expériences sur la même cellule", dit Jim Heath. D'autres scientifiques américains de l'Université du Nord Ouest (Illinois) sont parvenus à faire "pousser" des neurones en utilisant des nanostructures marquées par un signal biologique spécifique. Ces chercheurs ont conçu des molécules synthétiques qui favorisent la croissance des neurones, dans la perspective plus lointaine de pouvoir réparer les lésions de la moelle épinière entraînant des paralysies. Samuel I. Stupp et son équipe ont réussi à produire de manière sélective des cellules nerveuses différenciées en utilisant un réseau tridimensionnel des nanofibres, une technique très prometteuse en médecine régénératrice. De leur côté, des chercheurs de l'université d'Indiana, à Bloomington, pensent qu'il est possible, en exploitant les propriétés de la spectroscopie de Raman (qui permettent de détecter des "signatures lumineuses spécifiques de très faible intensité, d'utiliser des virus associés à des particules d'or pour obtenir des"nano-appareils-photo" capables de photographier avec un précision extraordinaire (de l'ordre de 30 nanomètres) les événements se déroulant à l'intérieur de virus ou de cellules vivantes. Il serait alors possible d'observer des phénomènes biologiques au niveau moléculaire avec une souplesse et une précision bien supérieure à celles du microscope électronique. Enfin, des chercheurs du Massachusetts Institute of Technology (MIT) et de l'Université du Texas à Austin sont parvenus, il y a quelques semaines, à modifier génétiquement un virus commun pour en faire un support de synthèse de nanostructures. En fournissant ensuite les bons éléments au bon moment, la coque modifiée de ce virus joue un rôle de canevas sur lequel vont se développer des cristaux réguliers parfaitement agencés. Enfin, il y a quelques jours, des chercheurs de l'Institut Weizmann en Israël, ont mis au point un "ordinateur moléculaire" composé essentiellement d'un mélange d'ADN de synthèse et d'enzymes. A terme, cet ordinateur pourrait détecter les premiers signes chimiques de la maladie cancéreuse et libérer alors des médicaments anticancéreux (voir article dans la rubrique biotechnologies de @RT-Flash 289). Une des conséquences les plus remarquables de cet essor foisonnant des nano biotechnologies est le décloisonnement des disciplines scientifiques impliquées et la coopération de plus de plus étroite entre physiciens, chimistes biologistes et informaticiens au sein de groupes de recherches "transversaux". Ces quelques exemples récents montrent à quel point les nanotechnologies sont déjà en train de révolutionner la médecine et la biologie et doivent concentrer un effort de recherche exceptionnel au cours de ces prochaines années si nous voulons que notre pays reste compétitif dans le domaine stratégique des sciences du vivant et des biotechnologies.

RenéTRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Adidas se lance dans la course à puce
Samedi, 15/05/2004 - 00:00

Des capteurs, un microprocesseur, un moteur électrique, voici un aperçu de la technologie embarquée sur l'un des prochains modèles d'Adidas. La « 1 », c'est son nom, est attendue pour décembre prochain aux Etats-Unis. « Ce que nous avons ici, c'est la première chaussure de sport dont les caractéristiques techniques peuvent être modifiées en temps réel » , a expliqué au New York Times Christian DiBenedetto, chercheur au quartier général d'Adidas pour l'Amérique du nord. Le système mis au point par le fabricant ajuste en permanence la souplesse et la rigidité de la chaussure tout au long de la course. A chaque impact du pied sur le revêtement, un capteur et un aimant placés dans le talon mesurent la compression de la semelle avec une précision de 0,1 millimètre. Les informations recueillies sont ensuite transmises au « cerveau » de la chaussure, un microprocesseur logé sous la voute plantaire, accompagné d'un logiciel qui détermine si la chaussure est trop souple ou trop rigide. Des ordres sont alors transmis au « muscle » de la chaussure : un simple câble de commande motorisé. Une vis rallonge ou raccourcit ce câble, modifiant la souplesse et la rigidité de la chaussure. Le coureur ne se rend pas compte de ce qui se trame dans sa chaussure, mais devrait gagner tout à la fois en confort et en performance. Sur la côté de la chaussure, une « interface utilisateur » , composée de deux boutons « plus » et « moins » , permet aussi de régler manuellement la pression des coussins amortisseurs. Cinq petits voyants lumineux décrivant les réglages en cours viennent compléter ce tableau de bord. L'Adidas 1 est alimentée par une simple pile remplaçable, dont la durée de fonctionnement n'excède pas une centaine d'heures, ce qui correspond, précise Adidas, à la durée de vie moyenne d'une chaussure. L'ensemble de l'électronique embarquée ne pèse que 40 grammes, soit 10 % du poids total de la chaussure. . Le prix de l'Adidas 1 a été fixé à 250 dollars pour le marché américain.OINet :

http://www.01net.com/article/240805.html

Protection anti-virus : mieux vaut prévenir que guérir
Samedi, 15/05/2004 - 00:00

Deux petites entreprises technologiques américaines ont annoncé lundi leur alliance pour la commercialisation d'un logiciel destiné à défendre en amont les réseaux des entreprises contre les virus et les hackers en identifiant les failles des sécurité des systèmes informatiques. Cigital et Fortify Software ont précisé qu'elles cherchaient à protéger les systèmes informatiques en prévenant les menaces avant même qu'elles n'apparaissent, contrairement à la pratique la plus répandue actuellement qui consiste à mettre au point des "patches" après des attaques de virus, comme celle de Sasser la semaine dernière. Cigital, qui compte Motorola et MasterCard International parmi ses clients, aidera les utilisateurs à intégrer les technologies de lecture de code de Fortify à ses services de conseils. Les deux entreprises vendront et commercialiseront leurs services respectifs aux fournisseurs d'accès internet et à d'autres entreprises de taille importante. Les entreprises ne peuvent pas se contenter de système pare-feu (firewalls) sans rechercher l'origine de la faille du logiciel qui permet aux hackers de pénétrer les réseaux informatiques internes, estime Ted Schlein, président de Fortify. Le récent ver informatique Sasser, qui a succédé à de nombreuses autres attaques de virus depuis le début de l'année, a attaqué les PC équipés des systèmes d'exploitation Microsoft Windows 2000, NT et XP. Ce virus a provoqué des redémarrages intempestifs des ordinateurs infectés et des connexions internet anormalement lentes. Les éditeurs de logiciels ont en général été plus attentifs à l'ajout de fonctions de protection sur les logiciels et ont attaché moins d'importance à la sécurité dans les premiers stades de développement des logiciels, estiment des analystes. "Mais un gros changement est en train de se produire en raison des virus que nous avons rencontrés dans les trois dernières années. Ce que les éditeurs et d'autres reconnaissent est que les failles de sécurité doivent être traitées au stade de la mise au point du logiciel", a déclaré Melissa Webster, analyste pour le cabinet d'études technologiques IDC. Microsoft a intensifié ses efforts pour renforcer la sécurité de ses produits. Le premier éditeur mondial de logiciels est en train d'intégrer de nouveaux éléments de sécurité dans la prochaine version de Windows, qui devrait voir le jour vers 2006. Gary McGraw, responsable technologique de Cigital, a précisé qu'il s'agissait d'identifier les failles lors de la mise au point du logiciel en parcourant son code-source afin d'y repérer des milliers de failles connues. Les utilisateurs emploient en général des systèmes pare-feu afin d'empêcher les virus de pénétrer à l'intérieur du système interne d'un utilisateur. Détecter et éliminer les vulnérabilités des logiciels lors de l'édition du logiciel en installant des remèdes contre les virus connus permettrait aux utilisateurs de bénéficier d'une couche supplémentaire de protection, a ajouté McGraw.

Reuters :http://fr.news.yahoo.com/040510/85/3sh28.html

Un nouveau protocole pour faire passer le sans fil au gigabit
Samedi, 15/05/2004 - 00:00

Le monde du sans fil risque de connaitre prochainement une mini-revolution avec l'emergence d'un nouveau protocole, l'Ultra-Wide Band (UWB). On savait deja que grace a cette technologie (developpee dans les années 60 mais vraiment exploitée depuis quelques années seulement !) il était possible d'obtenir des débits de l'ordre de 480 Mbit/s sur un réseau sans fil. Or après PulseLink, société américaine dirigée par Bruce Watkins, il serait possible, en utilisant l'UWB, d'obtenir des debits de l'ordre du Gigabit/s (par exemple Wi-Fi propose des debits allant de 100 a 480 Mbit/s).

Ainsi, pour les reseaux sans fil, le debit de transfert des donnees (entre deux bornes fixes) serait multiplie par deux par rapport aux solutions deja existantes! L'entreprise prevoit d'ailleurs le lancement d'ici l'ete d'un appareil radio base sur l'UWB permettant un debit d'environ 920 Mbit/s sur un reseau sans-fil. Mais le principal probleme de l'UWB reste l'absence de standards internationaux. Ainsi, au sein de l'IEEE, deux groupes s'affrontent : d'un cote la MBOA Alliance (comptant notamment Intel et HP dans ses rangs) favorable a l'UWB ; de l'autre, un petit groupe de constructeurs menés par Motorola et résolument hostiles a cette technologie. Résultat : aucun standard a l'horizon pour l'UWB.

Néanmoins, toujours selon PulseLink, les appareils utilisant l'UWB pourraient fonctionner ensemble sans probleme si les équipementiers s'accordaient sur un protocole radio (a debit réduit) de communication/négociation/signalisation entre les machines. Cette proposition sera soumise a l'International Telecommunication Union, qui devrait analyser la question lors d'une réunion prévue les 8 et 9 juin prochains. (MS&T)Ambassade de France aux USA :

http://www.france-science.org PulseLink http://www.pulse-link.net/pr-oct23-2003.html

Une norme de l'UIT ouvre la voie du VDSL aux opérateurs de réseaux de télécommunication
Samedi, 15/05/2004 - 00:00

L'UIT est parvenue à un accord sur une nouvelle norme mondiale définissant l'application des deux principales technologies, la multitonalité discrète (DMT) et la modulation d'amplitude en quadrature (QAM), utilisées pour coder les signaux et passer du DSL au VDSL (ligne d'abonné numérique à très haut débit). Le VDSL permet avec un débit de plusieurs mégabits d'accéder au réseau par l'intermédiaire des lignes téléphoniques ordinaires, mais aussi aux opérateurs d'offrir un triple service, c'est-à-dire des images numériques de haute qualité, un accès à l'Internet à grande vitesse et la téléphonie. "L'évolution future de la norme VDSL, qui devrait permettre des débits plus importants sur de plus grandes distances, reposera sur la technologie DMT utilisée pour l'ADSL, d'où l'établissement d'une norme mondiale unique, grâce à laquelle les utilisateurs des télécommunications à large bande pourront bénéficier des économies d'échelle réalisées globalement ainsi que de l'innovation technologique née de la concurrence", nous a déclaré Peter Wery, Président de la Commission d'études 15 de l'UIT-T. Et d'ajouter: "Lorsque les opérateurs de réseau auront mis en oeuvre la nouvelle norme, les utilisateurs pourront regarder plusieurs programmes de télévision, accéder à l'Internet et téléphoner, tout en même temps, et ce, sur une seule et même ligne téléphonique". Le VDSL permet la transmission de données asymétriques et symétriques à des débits de plusieurs dizaines de Mbit/s, grâce auxquels les opérateurs de réseau pourront offrir à leurs abonnés des services pleinement intégrés associant la téléphonie, l'image et un accès à l'Internet à grande vitesse. Le VDSL peut être mis en oeuvre à partir d'offices centraux ou d'armoires utilisant la fibre optique situées à proximité du domicile des abonnés, la distance déterminant d'ailleurs les débits qui pourront être obtenus, soit normalement de l'ordre de 50 Mbit/s en aval et de 23 ou 4 Mbit/s.

Lettre de l'internet :http://www.lalettre.com/techinfos/hebdo.cfm?id=2387

^ Haut
Avenir
Nanotechnologies et Robotique
La téléportation quantique de données devient réalité
Samedi, 15/05/2004 - 00:00

"Téléportez-nous, Scottie". La phrase mythique du Captain Kirk dans Star Trek est devenue réalité. Pour l'échange d'informations seulement. Des chercheurs basés en Australie sont parvenus à transmettre un message en plusieurs fractions à un réseau de destinataires selon un procédé de téléportation utilisant la physique quantique. La téléportation consiste ici à produire un message, à le désintégrer puis à le reconstruire. Dans l'expérience des chercheurs, le message, envoyé à un réseau de récipiendaires, était un son de haute fréquence mais il aurait pu s'agir d'un message parlé ou écrit. Cette première mondiale, décrite dans la revue Physical Review Letters, a été réalisée par un étudiant australien, Andrew Lance, et par un chercheur français, Thomas Symul, du département d'optique quantique de l'Université Nationale de Canberra (ANU), en collaboration avec un professeur de l'université canadienne de Calgary, Barry Sanders. Selon les scientifiques, leur découverte a la capacité potentielle d'améliorer de manière significative la sécurité des systèmes informatiques dans le monde. Les acteurs de la finance et de la défense sont susceptibles de s'y intéresser. La procédure de partage de données de manière secrète est en effet considérée comme un élément essentiel des télécommunications actuelles, de l'informatique et des échanges bancaires. Ce n'est pas la première fois qu'une téléportation est effectuée. En 2002, deux scientifiques de l'ANU étaient déjà parvenus à téléporter des informations en utilisant un rayon laser. Andrew Lance a toutefois souligné que ce qui venait d'être réalisé "était une forme bien plus complexe de téléportation d'informations dans la mesure où elle impliquait des destinataires multiples". Quant aux apprentis Spock qui rêvent de voyager en un éclair, ils devront se contenter pour l'instant de regarder leur feuilleton spatial favori. TF1 : http://news.tf1.fr/news/sciences/0,,2628041,00.html

Samedi, 15/05/2004 - 00:00
Le premier robot à ADN
Samedi, 15/05/2004 - 00:00

La nanorobotique vient de franchir une nouvelle étape avec la mise au point, par des chercheurs américains, du premier robot à ADN capable de marcher sur ses deux "pattes" . Il mesure 10 nanomètres et ses deux jambes sont formées de brins d'ADN. C'est ce microscopique bipède que deux chercheurs de l'Université de New York ont réussi à faire marcher sur un chemin lui aussi composé d'ADN. Chaque jambe est composée de deux brins d'ADN qui s'apparient pour former une hélice. Les chercheurs ont utilisé cette capacité des brins d'ADN à se mettre en couple pour faire fonctionner leur robot. En effet, selon l'ordre des paires de bases, deux brins sont ou non complémentaires. Les pieds du robot étaient ainsi formés d'un seul brin. Pour lui faire faire son premier pas, les chercheurs ont ajouté un brin d'ADN qui peut s'apparier avec le pied et avec l'ancre disposée sur le chemin. Pour libérer le pied, ils ont ajouté un brin qui a l'effet contraire. Et ainsi de suite. Les créateurs de ce nano-robot à ADN, Nadrian Seeman et William Sherman, vont maintenant tenter de faire transporter une charge à leur petit bipède. En attendant, ils ont publié leurs résultats dans l'édition électronique des Nano Letters.

New Scientist :http://www.newscientist.com/news/news.jsp?id=ns99994958

Nanosciences : l'Europe doit tripler ses efforts pour rester dans la course
Samedi, 15/05/2004 - 00:00

Au cours de notre mission, nous avons souvent été pris de vertige : en travaillant sur la matière à l'échelle de l'atome, de l'infiniment petit, l'homme est en train de créer un nouveau monde, de devenir Dieu.» En présentant, hier à la presse, leur rapport intitulé «Nanosciences et progrès médical», les sénateurs Jean-Louis Lorrain (UMP, Haut-Rhin) et Daniel Raoul (PS, Maine-et-Loire), membres de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (Opecst), ont trouvé les mots justes pour dépeindre la révolution scientifique actuellement à l'oeuvre dans le monde. «Une révolution d'une ampleur comparable à l'invention de la diode ou du transistor», ajoute Daniel Raoul qui est aussi physicien. Grâce aux progrès de la microscopie électronique, les scientifiques sont capables aujourd'hui de créer et de fabriquer de toutes pièces des objets minuscules, de la taille d'un groupe d'atomes ou d'une molécule, ne mesurant pas plus d'une centaine de milliardièmes de mètre ou nanomètres. D'où le terme de nanoscience ou nanotechnologie utilisé pour désigner cette nouvelle discipline. Dans le domaine médical, auquel se sont plus particulièrement intéressés les deux parlementaires, les retombées attendues sont considérables. Qu'il s'agisse de «mieux voir, c'est-à-dire mieux diagnostiquer, de mieux soigner ou de mieux compenser les déficits acquis ou congénitaux». Jean-Louis Lorrain et Daniel Raoul citent notamment l'exemple de cette capsule, de conception israélienne, équipée d'une microcaméra, de diodes et de batteries minuscules que le patient ingère comme une gélule pour effectuer une endoscopie de l'ensemble de son tube digestif pendant une dizaine d'heures. La «vectorisation» des médicaments est une autre piste explorée par les chercheurs. Il s'agit d'enfermer le principe actif dans des nanosphères lui permettant d'atteindre l'organe - voire la cellule - cible avec un maximum d'efficacité sans déperdition en cours de route. La société toulousaine Nanobiotix utilise, notamment, cette technique pour acheminer les médicaments vers les cellules tumorales. Troisième volet : plusieurs équipes dans le monde travaillent à la réalisation de neuroprothèses destinées à restaurer des connexions nerveuses endommagées à la suite d'un accident ou d'une maladie. Enfin, l'ingénierie tissulaire qui consiste à utiliser des cellules vivantes et des biomatériaux «nanostructurés» pour réparer des organes défaillants (peau, cornée, vaisseaux sanguins, os, cartilage, vessie, foie, pancréas, valvules cardiaques, etc.) est elle aussi promise à un grand avenir. Son marché actuel est déjà estimé à 5 milliards d'euros par an. Comme le constatent Jean-Louis Lorrain et Daniel Raoul, «les nanobiotechnologies commencent à quitter le cercle des laboratoires de recherche pour entrer dans la phase de développement industriel». Or la France et l'Europe sont en passe d'être distancées par les États-Unis et le Japon qui investissent des sommes considérables dans la recherche sur ce domaine clef. «Avec 216 millions d'euros par an pendant les quatre prochaines années, le budget européen consacré aux nanotechnologies dans le cadre du sixième PCRD (2) restera presque trois fois inférieur à celui des États-Unis sur la même période», notent les deux sénateurs. Pour combler ce retard, ils proposent qu'une loi soit soumise au Parlement et périodiquement réexaminée afin «d'affirmer le caractère stratégique des nanotechnologies (...) et de définir les orientations de recherche et de soutien (financiers et industriels) à court et à long terme». Jean-Louis Lorrain et Daniel Raoul suggèrent également la création, sur le modèle des États-Unis, d'un grand programme interministériel baptisé NanoTech et soutiennent la proposition formulée récemment par l'Académie des Sciences et l'Académie des Technologies de créer une agence chargée de «distribuer sur projets les fonds aux laboratoires partenaires du programme Nanotech». Des fonds qui, selon les deux parlementaires, devraient au moins doubler, voire tripler, par rapport à leur volume actuel pour que notre pays reste dans la course.

Figaro http://www.lefigaro.fr/sciences/20040507.FIG0355.html

Samedi, 15/05/2004 - 00:00
^ Haut
Matière
Matière et Energie
Intel tire un trait sur la course au mégahertz au profit des puces multicoeurs
Samedi, 15/05/2004 - 00:00

Comme Sun, Intel a décidé de saborder sa roadmap de processeurs afin d'accélérer le développement de puces multicoeurs. Ce revirement stratégique se traduit par la disparition de deux processeurs attendus pour 2005, Tejas et JayHawk. Tejas, considéré jusqu'alors comme la prochaine génération du Pentium 4, et Jayhawk, le successeur annoncé du Xeon, devraient céder leur place à un design à deux coeurs d'ici la fin 2005.Intel rencontre de plus en plus de problèmes de dissipation thermique et de consommation sur son architecture NetBurst (l'architecture des Pentium 4 et Xeon). Conçue à l'origine pour permettre une montée rapide en fréquence, NetBurst touche aujoud'hui ces limites avec un plafond prévu vers 4 GHz pour une dissipation thermique supérieure à 100 W. Comme Sun ou IBM, Intel cherche à multiplier le nombre de coeurs sur ses puces afin de continuer à augmenter les performances sans avoir à pousser autant les fréquences. L'idée est de tirer parti du coeur Banias (l'architecture du Pentium-M) pour développer des puces moins gourmandes en énergie et plus performantes. En 2005, Intel devrait conserver l'architecture NetBurst pour ses premières générations de puces multicoeurs Pentium 4 et Xeon. Mais cette transition devrait être de courte durée : en 2006, Intel prévoit de baser l'intégralité de ses puces pour serveurs, PC de bureau et portables sur l'architecture Banias. Les puces basées sur ce coeur sont en effet plus petites, moins gourmandes en énergie que les puces NetBurst. En abandonnant Netburst, Intel admet implicitement que les choix technologiques sur lesquels il a fondé sa stratégie des dernières années n'étaient sans doute pas les meilleurs techniquement. Un aveu de taille alors que la menace d'AMD se fait plus précise sur l'ensemble des segments du marché des processeurs. Intel doit désormais exécuter sans erreur son revirement vers Banias. Tout retard ou problème technique profiterait en effet immanquablement à son concurrent...Monde informatique :

http://www.weblmi.com/news_store/2004_05_10_Intel_tire_un_trait__75/News_view

^ Haut
Espace
Espace et Cosmologie
Essai réussi pour un prototype de navette spatiale européenne
Samedi, 15/05/2004 - 00:00

Un prototype de la future navette spatiale européenne a effectué samedi un essai réussi dans le ciel du nord de la Suède, où il a volé à une altitude de 2.400 mètres avant de planer jusqu'à son atterrissage.L'EADS Phoenix, prototype non habité de conception allemande, est un modèle à échelle réduite de l'engin européen qui pourrait transporter des hommes dans l'espace et les ramener sur Terre d'ici une vingtaine d'années. "Tout le monde ici est enthousiaste", a confié Johanna Bergström-Roos, du Centre d'essais aérospatial d'Europe du Nord à Kiruna, à 1.230km au nord de Stockholm. "Cela nous met du vent dans les voiles!"La navette Phoenix, qui porte les espoirs de l'Agence spatiale européenne (ESA), devrait devenir réalité entre 2015 et 2020. Elle devrait alors remplacer le lanceur européen Ariane 5 pour envoyer des équipages dans l'espace. Le prototype testé samedi a pour caractéristiques une longueur de six mètres, une envergure de 3,9 mètres et un poids de 1,2 tonne. Sa taille est six fois plus petite que celle de la navette envisagée.Guidé par des satellites GPS, la navette prototype a atterri "parfaitement" sur la piste du centre d'essais après un vol de 90 minutes, a précisé Mme Bergström-Roos, ajoutant que la prochaine phase consistera à lâcher l'engin depuis une altitude plus élevée.Ce projet de navette est financé par EADS, premier groupe aérospatial européen et deuxième mondial. Phoenix préfigure le futur système de transport réutilisable "Hopper", sept fois plus gros que Phoenix, si l'ESA accepte de reprendre le projet à son compte. Hopper sera alors capable d'emporter des charges de 7,5 tonnes à une distance de 130 km, celles-ci poursuivant seules leur voyage pour atteindre une hauteur de 500 km.AP : http://fr.news.yahoo.com/040508/5/3se8y.html

Samedi, 15/05/2004 - 00:00
^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Des centrales au charbon sans émissions toxiques
Samedi, 15/05/2004 - 00:00

A l'avenir, les centrales au charbon pourraient fonctionner sans émissions toxiques. Dans la technique de gazéification intégrée du charbon dans des cycles combines (IGCC), le gaz a effet de serre (dioxyde de carbone) pourrait au besoin être sépare relativement simplement, comme il en est fait part dans la dernière édition du magazine de recherche de Siemens "Pictures of the future". Il reste suffisamment de réserves de charbon pour au moins 200 ans, le pétrole se fait par contre de plus en plus rare et de plus en plus cher. Le gouvernement américain encourage donc massivement le développement des centrales au charbon, qui doivent toutefois remplir des exigences strictes en matière émissions et efficacité. Siemens a donc mis au point un concept pour une centrale IGCC de 500 Mégawatts. Les installations IGCC peuvent brûler des mélanges de charbon et de biomasse, de charbon et de petrocoke, et même de bitume liquide. Le combustible est converti dans le système en gaz de synthèse riche en oxygène qui est alors brûle dans une turbine a gaz. La chaleur perdue est utilisée par une turbine a vapeur pour la production énergie supplémentaire. Les experts de Siemens estiment que rien que dans le domaine de la raffinerie, les installations utilisant la technique IGCC pourraient atteindre une puissance potentielle de 120 Gigawatt d'ici 2010. Le grand avantage de la technique IGCC réside dans le fait que le combustible est transforme en dioxyde de carbone en étant tout d'abord gazéifie a oxygène pur, avec de la vapeur d'eau comme agent modérateur de température. Les polluants comme le dioxyde de carbone ou le soufre sont fixes avant la combustion et n'arrivent donc pas dans l'environnement. Le degré efficacité des installations utilisant la technique IGCC élève a 51% alors que les centrales thermiques combinées au gaz atteignent 58%. Les experts de Siemens estiment le potentiel amélioration de la technique IGCC comme encore considérable. Be Allemagne :http://www.adit.fr

Météo-France va étudier la météo urbaine, cette inconnue
Samedi, 15/05/2004 - 00:00

Avec des températures pouvant dépasser parfois de 10° celles de la campagne, le climat urbain présente des spécificités mal connues des météorologues. En lançant à Toulouse la campagne Capitoul, Météo-France se donne un an pour mieux comprendre l'influence des villes sur le climat."Le phénomène est connu depuis la fin du 19e siècle. Il y a déjà eu des campagnes de mesure, mais elles ont toujours été ponctuelles", raconte le chef du projet Capitoul, Valéry Masson. Cette fois, la campagne, débutée en mars, durera un an. Une trentaine de chercheurs et de techniciens y participent. "Notre objectif est d'expliquer quels peuvent être les mouvements des masses d'air sur une zone de 20 km de rayon sur 1 km de haut et comment la ville agit sur l'atmosphère", explique M. Masson. Siège de Météo-France, Toulouse a été en outre retenue pour ses caractéristiques géographiques: située à distance de la mer et de la montagne, elle n'en subit pas les effets. Outre une collecte permanente de données, grâce notamment à un réseau de 21 stations terrestres et à des radars vent, trois périodes d'observation intensive (mars, juin-juillet et novembre-février) permettront d'affiner le dispositif à l'aide de mesures aériennes. Une telle étude devrait permettre d'observer plus précisément le phénomène d'"îlot de chaleur urbain": la nuit, la température en ville est plus élevée que dans les zones rurales avoisinantes. L'écart observé, renforcé en situation anticyclonique, peut ainsi atteindre à Toulouse 8 à 10°. Dans la journée, l'énergie fournie par le soleil est utilisée par les plantes, alors qu'en ville, les matériaux urbains (routes, béton, tuiles...) stockent la chaleur, avant de la restituer progressivement la nuit. Les études menées jusqu'ici sur l'îlot de chaleur urbain ont souvent été réalisées en été. En étalant la campagne sur un an, Météo-France pourra également juger de l'influence sur le climat hivernal du chauffage des bâtiments, qui contribue au réchauffement de l'atmosphère urbaine. Autre question posée par Capitoul: "Est-ce que la "brise urbaine" existe? On y croit tous, mais on ne l'a jamais vu", s'amuse M. Masson. Lors de conditions anticycloniques, la différence de température ville-campagne semble en effet provoquer une brise très légère, de l'ordre de 5 km/h. Capitoul devrait également permettre d'étudier le comportement des aérosols, ces microparticules émises dans l'atmosphère par les pollutions urbaines, et d'observer leur impact sur l'ensoleillement et l'effet de serre. A terme, "cette campagne devrait nous permettre d'inclure la ville dans nos prévisions", selon le météorologue. Il sera alors possible de valider des modèles météo d'une résolution de 2 km contre 10 aujourd'hui. "Dans le futur, ponctue M. Masson, on aimerait faire une campagne sur Paris", mais l'expérience reste difficile en raison de l'interdiction de survoler la capitale.

AFP :http://fr.news.yahoo.com/040512/202/3sowi.html

Samedi, 15/05/2004 - 00:00
^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Tumeur du cerveau : un nouveau traitement prometteur
Samedi, 15/05/2004 - 00:00

Chaque année, près de 4000 personnes développent une tumeur maligne au cerveau et très peu survivent plus de 12 mois. L'utilisation d'une source lumineuse à une longueur d'onde spécifique - la radiothérapie- est le traitement le plus répandu mais son impact est très limité. De même, la chimiothérapie ou la chirurgie sont souvent inefficaces. Des chercheurs de l'Institut national de la santé et de la recherche médicale (INSERM) et du Centre hospitalier universitaire (CHU) de Grenoble (France) ont eu l'idée d'utiliser un rayonnement encore plus lumineux que celui de la radiothérapie pour combattre les cellules cancéreuses. Combiné à une chimiothérapie, ce traitement, appelé l'irradiation synchrotron monochromatique, a permis de faire disparaître la tumeur chez 30% des rats malades.

La première phase a consisté en une injection d'un médicament, la cis-platine, dans le cerveau de rats malades. En s'intercalant dans l'ADN des cellules de la tumeur, le médicament en a limité la prolifération. Ensuite, les animaux ont été exposés au rayonnement. Les zones contenant la cis-platine ont absorbé l'énergie lumineuse et détruit l'ADN des cellules composant la tumeur, les empêchant ainsi de se multiplier. Cette découverte à permis d'augmenter la durée de vie moyenne de 200 jours, soit six fois plus que chez les rats non traités. Plusieurs techniques ont été développées ces dernières années sur ce même modèle animal. Cependant, aucune n'a eu de résultats comparables.ASP :

http://www.sciencepresse.qc.ca/archives/2004/cap1005043.html




Samedi, 15/05/2004 - 00:00
La spiruline, une algue microscopique pour lutter contre la malnutrition
Samedi, 15/05/2004 - 00:00

Les partisans de la spiruline militent depuis trente ans pour que cette algue "exceptionnellement riche en micronutriments indispensables à l'organisme" soit massivement utilisée dans le traitement de la malnutrition, mais les autorités en santé publique restent sceptiques."Si en France, vous parlez de spiruline, on vous rit au nez", déplore le sénateur UMP Hubert Durand-Chastel, interrogé par l'AFP lors d'un colloque international sur les "cyanobactéries" organisé cette semaine par l'Institut pour la recherche et le développement (IRD) et l'Institut océanographique Paul Ricard, sur l'île des Embiez (Var). Cet ancien ingénieur fut l'un des premiers à récolter la spiruline, au début des années 70, au Mexique. Dans sa 86e année, il se plaît à dire qu'il absorbe quotidiennement 10 à 15 grammes de ce minuscule filament vert spiralé, qui "pousse naturellement, depuis deux milliards d'années, dans les lacs de la ceinture tropicale du globe" et peut, dans certaines conditions, être cultivé en bassins. Le Pr Emile Gaydou du CNRS, spécialiste en phytochimie, n'hésite pas à lui donner raison: "Il y a un an, je ne connaissais pas la spiruline, mais maintenant que j'ai analysé sa composition, je suis convaincu de l'intérêt de la consommer", dit-il, évoquant sa "teneur très élevée" en protéines (40-60% par rapport à la matière sèche), en vitamines et en acides gras essentiels. Pour autant, "la spiruline n'est certainement pas un produit miracle", met en garde Loïc Charpy, directeur de l'unité de recherche sur les cyanobactéries à l'IRD. "C'est une source exceptionnelle de micronutriments qui pourrait être intégrée dans les outils pour lutter contre la malnutrition, dit-il, mais ça ne pourra se faire que si les nutritionnistes sont convaincus". Or les mécanismes d'action de cette cyanobactérie ne sont pas encore bien connus et les tests thérapeutiques restent insuffisants. Le Nigérien Herbert Degdey commente avec prudence les résultats d'une étude menée à l'hôpital de Niamey (Niger), sur "56 enfants de 6 à 24 mois présentant une malnutrition sévère". Chacun a reçu quotidiennement, pendant quatorze jours, 10 gr de spiruline en poudre. Il a été constaté que les diarrhées, les oedèmes et les anorexies "s'arrêtaient plus rapidement" et que "la protidémie et l'albuminémie progressaient de plus de 30%". "Je n'ai aucun doute que la spiruline est bénéfique", réagit Denise Ouadrago, venue de Koudougou (Burkina Faso). Les femmes y récoltent l'algue dans des bassins, la pressurent, la font sécher puis la fragmentent en granulés. "Dans les centres de renutrition et les orphelinats, dit-elle, on remarque qu'avec la spiruline, un enfant reprend du poids, retrouve l'appétit et le sourire!". Sceptique, le nutritionniste Jacques Berger, directeur de recherches à l'IRD, liste les priorités: "apporter les preuves scientifiques de son efficacité biologique en publiant des études rigoureuses dans des revues reconnues", "prouver qu'elle ne coûte pas dix fois plus cher à produire qu'un autre complément alimentaire" et "que les populations l'adoptent en conditions réelles". Seules 3.000 tonnes de spiruline seraient actuellement produites. AFP :http://fr.news.yahoo.com/040508/202/3sdcu.html

Les cellules productrices d'insuline pourraient se régénérer
Samedi, 15/05/2004 - 00:00

Contrairement aux idées habituellement admises, les cellules productrices d'insuline situées dans le pancréas peuvent se régénérer, une découverte qui ouvre la voie à la mise au point de nouveaux traitements du diabète sans injection d'insuline. Ces travaux sont publiés jeudi dans la revue scientifique Nature. Le diabète est caractérisé par un taux de sucre dans le sang trop élevé. Dans le diabète de type 1 ou diabète juvénile, le système immunitaire attaque et détruit certains cellules spécialisées, qui fabriquent de l'insuline, l'hormone de régulation du sucre sanguin. Régénérer ces cellules et les maintenir dans le pancréas pourrait aider les personnes atteintes de diabète de type 1 à fabriquer leur propre insuline. Cette recherche, effectuée sur des souris de laboratoire, ne concerne pas le diabète de type 2, le diabète le plus fréquent, qui est lié au surpoids. Les scientifiques cherchent depuis longtemps le moyen de produire une plus grande quantité de ces cellules spécialisées, productrices d'insuline, baptisées cellules bêta. Mais cette nouvelle expérience suggère qu'il n'est pas indispensable de chercher au-delà des cellules elles-mêmes. Des études antérieures avaient évoqué la possibilité, pour les cellules souches embryonnaires ou les cellules souches adultes de produire des cellules pancréatiques béat. La nouvelle étude n'établit aucune preuve que les cellules souches adulte, que certains espéraient utiliser comme alternative aux embryons humains, soient impliquées dans la régénération des cellules productrices d'insuline. "J'ai renoncé à y croire, et nous nous concentrons maintenant sur deux types de cellules", a déclaré le coauteur de l'étude Douglas Melton, chercheur de l'Institut médical Howard Hughes, de l'Université de Harvard Pour d'autres, au vu de certaines expériences, les cellules souches embryonnaires pourraient jouer un rôle important."Nous devons retenir toutes les hypothèses, sans exception", a déclaré Vijay Ramiya, chercheur sur les cellules pancréatiques bêta à l'Université de Floride.Le mécanisme de réplication des cellules bêta en nombre suffisant pour être efficaces demeure par ailleurs mystérieux. On compte environ 171 millions de diabétiques dans le monde dont 10% seulement souffrent de diabète de type 1. AP:http://fr.news.yahoo.com/040507/5/3scil.html

Maladies du coeur : un essai démontre le potentiel des cellules souches
Samedi, 15/05/2004 - 00:00

Un premier essai thérapeutique avec groupe contrôle a permis de mettre en évidence l'intérêt des cellules souches dans le cas de graves défaillances cardiaques. Menée par des chercheurs de l'Ecole de médecine de l'Université de Pittsburgh (Pennsylvanie), l'étude s'est déroulée en Argentine. Vingt patients, tous gravement malades, ont subi une opération chirurgicale afin d'améliorer le flux sanguin dans le coeur. Dix d'entre eux ont en plus reçu des injections de cellules souches, prélevées à partir de leur moelle osseuse, en une vingtaine de points du muscle cardiaque. Avant traitement, la fraction d'éjection - une mesure de l'efficacité de la fonction de pompage du coeur - était en moyenne de 30%, le pourcentage normal se situant aux alentours de 55%. Un mois après, les patients opérés puis traités par les cellules souches ont vu leur chiffre grimper à 42,1% puis à 46% après six mois. Un résultat bien meilleur que celui de l'opération seule (36,4% après un mois, 37,2% après six mois). Bien que les chercheurs ne sachent pas encore vraiment ce que deviennent les cellules transplantées (créent-elles du tissu musculaire neuf ou stimulent-elles le "réveil" des cellules en place ?), il semble qu'elles améliorent nettement la fonction cardiaque. Un essai similaire chez l'homme devrait bientôt débuter aux Etats-Unis ; la Food and Drug Administration (FDA) a en effet récemment donné son aval à un groupe de recherche du Health Science Center de l'Université du Texas. Futura :http://www.futura-sciences.com/sinformer/n/news3653.php

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Des éditeurs français s'alarment des brevets sur les logiciels
Samedi, 15/05/2004 - 00:00

Des éditeurs informatiques français ont demandé à Jacques Chirac que la France maintienne ses réserves sur le projet européen de brevetabilité des logiciels, qui sera examiné les 17 et 18 mai prochains par le conseil des ministres européens. S'il est adopté, ce texte "détruirait de nombreux emplois à valeur ajoutée en France, renforcerait la vassalisation de l'Europe en matière de technologies logicielles et favoriserait les pratiques anti-concurrentielles", ont averti 26 professionnels dans une lettre ouverte au président de la République. "Nous demandons que la France défende ce que le président a toujours dit, c'est-à-dire l'innovation, les PME et la concurrence, qui passe par la non-brevetabilité des logiciels", a déclaré à Reuters Jean-Paul Smets, directeur de la société de conseil Nexedi, un des signataires de la lettre. Dans une nouvelle version, défendue par la présidence irlandaise de l'Union, le projet de directive ouvre la voie au dépôt de brevets sur des techniques ou des idées utilisées dans les logiciels, actuellement protégés par le droit d'auteur. Dans cette hypothèse, les éditeurs craignent une avalanche de procès sur le modèle de ceux qui frappent actuellement plusieurs grandes entreprises informatiques américaines. Ces procès sont le plus souvent initiés par des sociétés n'ayant aucun lien avec la recherche et développement. "Aux Etats-Unis, de plus en plus de sociétés ont développé des portefeuilles de brevets logiciels qui leur servent ensuite à racketter les industriels. C'est clairement ce qui risque de se passer en Europe", a déclaré Jacques Le Marois, président de Mandrakesoft, éditeur d'une des versions les populaires du système d'exploitation Linux. Les éditeurs citent l'exemple de Sony, attaqué sur un brevet sur le format de fichiers graphiques Jpeg, le cas de Sagem, attaqué sur le format vidéo Mpeg2, ou encore la campagne de SCO contre le système d'exploitation Linux et l'un de ses principaux supporteurs, le géant IBM, à qui SCO demande trois milliards de dollars. "Dans le cas de Sony, il s'agit d'un racket pur et simple, une dérive du système qui, au lieu de protéger les entreprises innovantes, les plombe", a ajouté Jacques Le Marois. Pour de nombreux acteurs, au-delà des signataires de la lettre, c'est le principe même de la protection par les brevets qui semble inadapté. "Personne ne conteste qu'il faille protéger le logiciel, mais la protection actuelle par le copyright est largement suffisante", a expliqué Jean-Paul Figer, directeur de l'innovation chez Cap Gemini. "Le copyright est beaucoup mieux adapté à la protection des oeuvres de l'esprit. Ce projet, c'est comme si on brevetait les formules mathématiques et qu'on empêchait les gens de les utiliser sous prétexte que c'est une découverte", a-t-il ajouté. Un appel semblable avait été adressé fin avril au Premier ministre, Jean-Pierre Raffarin, par l'Association française des producteurs d'oeuvres multimédia (Apom), qui a réaffirmé mercredi son opposition au projet de brevetabilité. "Les sociétés de multimédia comptent en général une quarantaine d'employés et n'ont évidemment pas les moyens de faire une recherche de brevets au niveau mondial", a indiqué Romain Poirot-Lellig, un porte-parole de l'association. "Notre industrie dépend massivement des innovations logicielles, l'application de cette directive bloquerait une grand nombre d'innovations et permettrait aux acteurs dominants de l'être encore plus", a-t-il poursuivi. Même son de cloche du côté des indépendants, qui craignent un impact dévastateur. Selon Jean-Baptiste Soufron, juriste et membre du bureau de l'association Le jeu vidéo et son Industrie rassemblent leurs acteurs français (Jiraf): "C'est toute l'industrie européenne du logiciel, et surtout les PME et les indépendants, qui est menacée d'étouffement." Reuters :http://fr.news.yahoo.com/040512/85/3spx4.html

Adoption définitive du texte sur l'économie numérique
Samedi, 15/05/2004 - 00:00

Le Parlement français a adopté définitivement jeudi 13 mai le projet de loi visant à "renforcer la confiance dans l'économie numérique", qui concerne les nouvelles technologies autour d'internet. Le Sénat a voté le texte mis au point dix jours auparavant par une commission mixte paritaire (CMP) Assemblée-Sénat. Les groupes UMP et UDF ont voté pour, l'opposition socialiste et communiste contre. L'Assemblée avait entériné ce texte la semaine dernière. Le texte, qui transpose notamment une directive européenne de juin 2000, propose de moderniser les règles du commerce en ligne, durcit les sanctions contre la cybercriminalité, propose de renforcer la protection des cyberclients et précise la responsabilité des hébergeurs et des fournisseurs d'accès. Il traduit sur le plan législatif la première étape du plan RESO 2007 présenté par le Premier ministre Jean-Pierre Raffarin pour favoriser le développement de "la société de l'information". Il vise à renforcer "la confiance dans le commerce électronique et la lutte contre les publicités indésirables (spamming)", à conforter "la liberté de la communication publique en ligne" en France, à "mieux sécuriser les échanges et amplifier les moyens de lutte contre la cybercriminalité". L'opposition, soutenue par plusieurs associations dont la Ligue des droits de l'homme et Reporters sans frontières, dénonce pour sa part un amendement qui exclut du champ d'application de la loi de 1881 sur la liberté de la presse les publications sur internet. Alors que la loi de 1881 prescrit les délits de presse à l'issue d'un délai de trois mois à compter de la première publication, l'amendement sénatorial prévoit que les personnes s'estimant diffamées ou injuriées par un texte mis directement en ligne - qui n'a pas été publié au préalable sur papier - pourront engager des poursuites dans un délai de trois mois à compter de la date du retrait de l'article incriminé du net et non de la date de publication. L'opposition et les mêmes associations dénoncent également d'autres articles du texte comme celui qui établit une responsabilité civile et pénale pour les hébergeurs et fournisseurs. Cet article renforce la responsabilité des hébergeurs de sites internet mais ne les oblige pas à la surveillance comme le prévoyait le texte initial. Par ailleurs, Pour combler le vide juridique constaté lors de l'affaire Yahoo, hébergeurs et fournisseurs d'accès auront l'obligation de concourir à la lutte contre la diffusion, notamment en matière de pédophilie, d'incitation à la haine raciale et d'apologie de crimes contre l'humanité. Ils auront également l'obligation d'informer "promptement" les autorités de toutes activités illicites qui leur seraient signalées. Ils devront aussi rendre publics tous les moyens qu'ils consacrent à lutter contre ces activités. L'opposition et les associations estiment que cet article laisse le soin aux hébergeurs et fournisseurs "de déterminer ce qui est licite ou illicite". Le texte sur l'économie numérique déclare également la guerre au "spam", ces messages publicitaires sauvages qui inondent les boîtes aux lettres électroniques. Désormais, l'envoi de messages à caractère commercial par e-mail, téléphone ou fax sera interdit sans le "consentement préalable" du consommateur. Il faudra demander par e-mail à l'internaute s'il est d'accord pour recevoir ce type de messages. S'il ne répond pas, son silence vaudra refus.Enfin, pour remédier au problème des zones blanches non couvertes par les réseaux de télécommunications, les collectivités locales sont autorisées à se substituer aux opérateurs privés dans les secteurs isolés.AN :

http://www.assemblee-nationale.fr/12/dossiers/economie_numerique.asp

AP :http://fr.news.yahoo.com/040513/5/3srz7.html

Reuters :http://fr.news.yahoo.com/040513/85/3srrj.html

Recherche&Innovation

Colloques & Manifestations

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top