RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 300
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 01 Septembre 2004
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La France malade de ses TIC ?
Des sénateurs réclament la «sanctuarisation» du budget alloué à l'informatisation de l'État
Nouvel iMac : l'unité centrale se fond dans l'écran
Le "PaperPC" : une alternative aux tablettes et aux PDA ?
IBM met au point des processeurs autorégulés
AMD-Intel : la guerre technologique est relancée
Matière
Matière et antimatière ne sont pas symétriques
Téléportation de photons à grande distance
Des centrales au charbon sans émissions
Vivant
Le lien entre inflammation et cancer se confirme
Brûler plutôt qu'opérer ?
Cancer du sein avancé: une méthode pour prédire l'efficacité du traitement
La Grande-Bretagne autorise le 1er clonage d'embryons humains
Nouvelle molécule prometteuse contre le paludisme
Maladie d'Alzheimer : mieux comprendre pour mieux prévenir
Une protéine pour ralentir la dégénérescence neuronale
La toxicomanie n'est pas un comportement spécifiquement humain
Des neurones humains spécialisés à partir de cellules souches embryonnaires
Homme
Gilles de Robien encourage l'investissement dans le haut débit
Un "bureau virtuel" devrait progressivement équiper les écoles
La fracture numérique s'accroît entre les PME
Edito
Les avancées de la biologie et de la physique remettent en cause le concept d'information



Décidément la science ne prend jamais de vacances. Dans la torpeur de l'été un article publié par la revue « Science », le 29 juillet, est venu remettre en cause l'une des lois fondamentales de la biologie. Stanley Prusiner, Prix Nobel de Médecine, et son équipe, dirigée par Giuseppe Legname, viennent de prouver (http://www.sciencemag.org/feature/data/prusiner/214.shl et http://news.bbc.co.uk/2/hi/health/3936519.stm) qu'une protéine est capable de transmettre une information et de s'autorépliquer sans avoir besoin du matériel génétique (ADN et ARN) d'un virus ou d'une bactérie.

Cette protéine, c'est le prion, à l'origine de la maladie de Creutzfeldt-Jakob, la vache folle et autres encéphalopathies spongiformes transmissibles (EST). Depuis près d'un quart de siècle, le rôle du prion dans ces maladies est l'objet d'une vive controverse au sein de la communauté scientifique. Forme anormale d'une protéine ordinaire nommée Prp, la protéine prion est présent en grande quantité dans le cerveau des victimes de ces EST, dont le mode de transmission est atypique.

En effet, comme l'avait démontré dans les années 60 Carleton Gajdusek (Nobel en 1976), les encéphalopathies spongiformes héréditaires dues à une mutation génétique sont transmissibles, hors la lignée familiale, par injection de cerveau malade à cerveau sain. Le problème c'est qu'aucun virus ni bactérie n'a jamais été isolé chez les victimes d'EST. Quel est donc l'agent infectieux ? Cette nouvelle énigme de la biologie sera résolue par Prusiner qui propose, en 1984, sa théorie de la «protéine infectieuse», abrégée en «prion» la protéine Prp anormale transforme à son contact les Prp normales en anormales.

Cette découverte, qui vaut à Prusiner son Nobel en 1997, est capitale car elle remet en cause un dogme central de la biologie qui veut que seuls les virus et bactéries, faits d'acides nucléiques (ADN ou ARN), soient capables de transmettre une information. Pourtant un doute subsiste encore : les prions provenant des cerveaux malades transmettent la maladie mais il n'est pas impossible qu'ils abritent des virus non encore détectés. Il manque la preuve ultime de la théorie du prion : transmettre la maladie par des prions fabriqués en laboratoire, libres de toute contamination. Prusiner vient de la donner.

Le Dr. Prusiner et ses collègues a produit des fragments de protéine de prion et les a pliées dans de plus grandes structures de protéine appelées fibrilles amyloïdes. Ces prions synthétiques ont ensuite été injectés dans les cerveaux de souris qui ont commencé à montrer des symptômes de la maladie dans leurs systèmes nerveux centraux entre 380 et 660 jours après l'injection de ces protéines synthétiques de prion. Ce prion synthétique élaboré en Californie a provoqué la maladie chez toutes les souris injectées ce qui montre bien qu'une simple protéine peut être infectieuse.

Le co-responsable de cette découverte, Giuseppe Legname souligne que " Pour le première fois, nous avons montré de manière rigoureuse chez un mammifère que les prions se composent seulement de protéine." Le Professeur Moyra Bruce, responsable de l'institut pour la santé des animaux, considère également qu'il s'agit d'une découverte capitale. « Nous discutons depuis des années du rôle exact des prions et de leur vraie nature et nous cherchons à savoir s'il n'y a vraiment aucun matériel génétique impliqué dans la transmission de ces infections par prions.

Les derniers résultats de Prusiner confirment de manière très sérieuse qu'une simple protéine anormale peut véhiculer une information et déclencher une infection. Selon les chercheurs, leur découverte devrait permettre de comprendre comment la forme sporadique de CJD, responsable de 85% de cas de la maladie de prion chez l'homme, se développe spontanément.

Prusiner souligne que les chercheurs ont maintenant un outil pour explorer les mécanismes par lesquels une protéine peut spontanément se plier dans une forme qui entraîne la maladie. Dans le milieu de la recherche biologique on murmure déjà que cette dernière découverte de Prusiner pourrait lui valoir un autre Prix Nobel.Prusiner espère également qu'à terme ces découvertes permettront d'éclairer d'une lumière nouvelle d'autres maladies neurodégénératives, comme la maladie d'Alzheimer et de Parkinson.

Quoi qu'il en soit, Prusiner vient bel et bien de porter le coup de grâce au dogme central de la biologie faisant de l'ADN et de l'ARN le vecteur exclusif de l'information. Il vient également d'ouvrir un nouveau, immense et passionnant champ de recherche pour mieux comprendre et combattre l'ensemble des maladies infectieuses.

Dans le champ de la physique, un article publié le 18 août par une équipe autrichienne (voir article détaillé dans notre rubrique "Matière & Energie" a également fait grand bruit dans la communauté scientifique en validant de manière éclatante, et très concrète, les étranges propriétés de la matière au niveau quantique. Dans cette expérience les chercheurs autrichiens sont parvenus à transmettre instantanément les propriétés quantiques de plusieurs photons (leur polarisation notamment) sur une distance record de 800 mètres, d'une rive à l'autre du Danube. Conformément au principe d'intrication prévu par la mécanique quantique, cette expérience a démontré qu'il était possible de transmettre instantanément, et sur de grands distances, des informations spécifiques sur des particules issues d'une même source et qui restent à tout jamais corrélées. Défiant notre conception et notre perception du temps et de l'espace, cette expérience montre que, dans certaines conditions contrôlées, une action ou une mesure sur une particule entraîne instantanément et immanquablement une action prévisible sur une autre particule, même située à une très grands distance. Tout se passe comme si, dans ce monde de l'infiniment petit, la frontière entre matière, énergie, information espace et temps était abolie. Il est à présent certain que la maîtrise et l'utilisation de ces propriétés quantiques dans le domaine des télécommunications et de l'informatique, tout comme l'extension du concept d'information en biologie, provoqueront des révolutions scientifiques majeures d'ici 20 ans et ouvriront une nouvelle porte dans la compréhension globale de notre Univers.

René Trégouët


TIC
Information et Communication
La France malade de ses TIC ?
Jeudi, 02/09/2004 - 00:00

Selon un rapport de l'Idate et de Rexecode rédigé pour la DiGiTIP, la part de la France dans l'économie mondiale des technologies de l'information et de la communication n'a cessé de régresser au cours des dernières années. Faiblesse de la R & D, fiscalité peu adaptée, coûts salariaux élevés et faiblesse de la consommation nationale sont parmi les facteurs pointés du doigt par les deux instituts d'études.L'un des intérêts des TIC mise en avant par le rapport est leur impact sur la compétitivité nationale. Souvent cités en modèles, les Etats-Unis ont, selon l'étude, connu une forte explosion de leur productivité liée à l'utilisation et à l'investissement dans les TIC. L'accélération de la productivité du travail aux USA (+0.7 % par an de 1995-2001 par rapport à la période 1973-1995) serait ainsi due aux deux tiers à la croissance du capital en technologies de l'information (+0.5 point),. En France, l'effet de la diffusion des TIC sur la productivité horaire du travail serait deux fois moindre. Et l'étude de préconiser un investissement fort dans les TIC pour rattraper le retard français, sous peine de le voir se creuser. Si l'étude note la présence de plusieurs champions nationaux dans le top 10 de leur spécialité (France Télécom dans les services télécoms, Alcatel dans les équipements de télécommunications, Cap Gemini dans les services informatiques et STMicroelectronics dans les composants), elle pointe du doigt l'absence de la France dans les secteurs de l'électronique grand public et des équipements informatiques. Sur ces secteurs, les positions de Thomson et de Bull ne cessent de reculer. Ce recul est d'autant plus grave que les échanges d'équipements de TIC (équipements informatiques, équipements de télécommunications, composants électroniques) ont été multipliés par plus de 3 entre 1991 et 2001, passant de 245 milliards de dollars à 765 milliards de dollars (- dans le même temps, les échanges mondiaux n'ont fait que doubler). Les équipements informatiques représentaient 39 % de ce total en 2001, contre 29,8% pour les composants et 21% pour les équipements de télécommunications.Si la France reste un pays puissant sur le marché des télécoms, le désengagement continu des opérateurs en matière de R & D et sur la période plus récente la réduction de leur niveau d'investissement pourraient se traduire par une perte de compétences, non seulement pour les opérateurs directement mais par effet d'entraînement pour leurs fournisseurs Autre problème à l'horizon, le secteur n'est plus générateur d'emplois. Après avoir cru jusqu'en 2000, l'emploi télécoms est en chute. Et la situation pourrait se détériorer encore dans les mois et années qui viennent. Le rapport milite pour un engagement ciblé des pouvoirs publics, sera autour de domaines préalablement et soigneusement repérés. Il milite aussi pour le développement de pôles et régions d'excellence à l'échelle européenne; à l'image du pôle micro-électronique de Grenoble-Crolles. Enfin, il souligne l'importance plus générale, de stimuler l'innovation et la recherche, via des incitations financières... Autant dire qu'entre l'insistance sur les champions nationaux et l'encouragement des aides ciblées d'Etat, le colbertisme industriel hexagonal a de beaux jours devant lui...

R & T : http://www.reseaux-telecoms.com/news_btree/04_08_30_181640_287/News_view

Des sénateurs réclament la «sanctuarisation» du budget alloué à l'informatisation de l'État
Jeudi, 02/09/2004 - 00:00

Jean Arthuis, sénateur centriste de la Mayenne, s'est penché sur l'informatisation de l'administration publique. Si des gains de productivité réels peuvent être dégagés, il estime qu'ils sont encore trop souvent freinés par des gels budgétaires. Comme chaque année à la fin de l'été, le petit monde de la communication et de la politique se dirige vers Hourtin, en Gironde, pour la traditionnelle Université d'été de la communication. La 25e édition aura lieu du 23 au 26 août. L'occasion pour le ministère de l'Économie et des Finances de mettre une fois encore l'accent sur le développement de l'administration électronique, au travers de son agence dédiée, l'Adae. Ses membres participeront d'ailleurs à une dizaine de tables rondes. Ils auront certainement étudié la communication d'étape que le sénateur centriste de la Mayenne Jean Arthuis, et président de la commission des Finances, a présenté à ses collègues le 20 juillet. Il a mené diverses auditions au sein des principaux ministères au sujet du degré d'informatisation dans les administrations publiques. Premier constat: les dépenses liées à l'informatisation de l'État sont en légère augmentation. Elles se sont élevées à 2,5 milliards d'euros en 2003, soit 0,9% des dépenses nettes du budget général, contre 2,2 milliards d'euros en 2000 (0,85% des dépenses).Dans ces 2,5 milliards: 39% sont consacrés au personnel, 9% aux logiciels, 27% au matériel et 8% aux réseaux. Les 17% restants correspondent à des prestations sous-traitées par l'État. Le sénateur regrette toutefois que ces dépenses soient trop souvent gelées: le taux de consommation des crédits dans ce domaine n'a atteint que 73% en 2002 et 81% en 2003. Et de souligner au passage que le report du chantier Accord 2, le projet de modernisation informatique des dépenses de l'État, risque de faire naître de nombreuses difficultés pour les gestionnaires publics. Des régulations budgétaires d'autant plus regrettables que l'informatisation «permet à l'État des gains de productivité et peut favoriser la réforme de l'Administration et son rapprochement des citoyens», a noté Jean Arthuis. Selon ses observations, les gains de productivité engendrés par la mise en place de systèmes informatiques au sein du ministère de l'Économie «s'établissent à un peu plus de 1% chaque année». D'après ses conclusions, la Direction générale des impôts estime que «les gains issus de la seule procédure de télédéclaration des revenus s'élevaient à environ 140 ou 150 emplois, pour 1,5 million de télédéclarants». D'où la nécessité, affirme le sénateur, de «sanctuariser ces crédits et de prohiber tout gel ou annulation les concernant, dès lors que les retours sur investissements étaient démontrés». Et également de mieux coordonner le développement des différents projets informatiques. Il propose ainsi que «le membre du gouvernement chargé de la réforme de l'État ait le rang de ministre en non de secrétaire d'État actuellement le poste est occupé par Christian Woerth], et que lui soit adjoint un ministre délégué pour les nouvelles technologies et pour l'informatisation de l'État». Toutes ces conclusions ont été validées par ses collègues sénateurs et feront l'objet d'un rapport d'information, dont la date de publication n'a pas encore été fixée.

ZDNet : [http://www.zdnet.fr/actualites/business/0,39020715,39167711,00.htm

Nouvel iMac : l'unité centrale se fond dans l'écran
Jeudi, 02/09/2004 - 00:00

Présenté lors de l'Apple Expo du 20 août à Paris, le nouvel iMac est fidèle à sa réputation. Celle d'un ordinateur prêt à tout pour ne pas ressembler à un ordinateur. La version 2004 se présente sous les traits d'un écran plat de couleur blanche reposant sur un support en aluminium anodisé. L'ordinateur et l'ensemble de la connectique (ports Firewire, USB...) sont intégrés au dos de l'écran. Le tout ne dépasse pas les cinq centimètres d'épaisseur. Ce concept d'ordinateur qui fait corps avec son écran n'est pas nouveau. Il avait déjà été exploré, dans le monde PC, par des constructeurs comme Gateway ou NEC. Cependant, par sa simplicité, son design épuré et les configurations proposées, l'iMac 2004 semble a même de reprendre le flambeau de son prédécesseur (7,5 millions d'exemplaires vendus à ce jour). A partir du 15 septembre, ce nouvel iMac sera décliné en trois versions. Pour un prix allant de 1 399 à 2 059 euros (TTC).L'iMac est équipé d'un écran LCD panoramique de 17 pouces ou de 20 pouces, d'un disque dur de 80 à 160 Go (selon les références) et d'un processeur PowerPC G5 cadencé à 1,6 GHz (1,8 GHz à partir du milieu de gamme), conçu pour exécuter les applications 64 bits de dernière génération. Au delà de sa dimension esthétique ce nouvel iMac combine de réelles innovations techniques. Pour intégrer le processeur 64 bits G5 dans un si petit espace. 'Apple a dû mettre en place un refroidissement spécifique sur le PowerMac G5. On y trouve un disque dur à 80 ou 160 Go, un lecteur optique Combo ou Superdrive, tous les ports de communication habituels (audio analogique et optique), trois ports USB, deux ports FireWire 400 Mbps, l'Ethernet 10/100, le modem 56k, le pré-câblage Airport (la carte Wi-Fi d'Apple est en option) ou bien encore un port VGA. "A présent, nous avons l'ordinateur de bureau le fin au monde", s'est enthousiasmé Phil Schiller, le patron mondial du marketing produit d'Apple. Le produit sera vendu à partir de la mi-septembre en Europe entre 1.399 euros et 2.059 euros. Le nouvel iMac, équipé d'un processeur G5, a été conçu par l'équipe qui a créé le baladeur numérique musical iPod.

Reuters :http://fr.news.yahoo.com/040831/85/414vj.html

Le "PaperPC" : une alternative aux tablettes et aux PDA ?
Jeudi, 02/09/2004 - 00:00

Le clavier n'a pas encore gagné. Partenaire de Clairefontaine et de Verio, la société française MetaLinks, spécialisée dans les interfaces naturelles, présente, à l'occasion du salon du Medpi Hardware/Telecom, ses solutions "PaperPC" basées sur le stylo numérique optique conçu par Anoto. Développées par la société Metalinks pour le Groupe Clairefontaine, ces solutions comprennent des cahiers et des blocs de papeterie aux formats standards, simplement enrichis d'une trame spéciale, et des stylos numériques ultra légers produits par des fabricants leaders comme Sony-Ericsson, Nokia, Logitech et Maxell Hitachi. Conçus par la start-up Anoto, ces stylos intègrent une technologie d'acquisition optique des données sous formes d'images qui peuvent être ensuite envoyées par bluetooth vers un téléphone mobile, un ordinateur de poche ou un véritable PC. Une fois "reconnues" par un logiciel, ces données deviennent un véritable texte faisant de ce simple stylo une alternative crédible aux terminaux nomades comme les smartphones, les PDA ou les Tablettes PC. " Ces produits allient une grande simplicité d'utilisation à une puissance fonctionnelle hors normes ", explique Barthélemy Gilles, C.E.O. de Metalinks. "Ils résultent de plus de deux années de recherches avancées, notamment sur l'étude ergonomique des interfaces. Leur prise en main ne requiert aucune connaissance informatique spécifique et autorise les usages les plus larges, de la simple prise de note personnelle aux applications professionnelles les plus exigeantes. " Associé à l'opérateur Verio, MetaLinks devrait débuter la commercialisation de ses premières solutions couplant le stylo (environ 200 euros), le papier (à partir de 8.5 ? le bloc) et ses propres services à valeur ajoutée. Le "PaperPC" pourrait intéresser les entreprises disposant de salariés nomades (sondeurs, réparateurs, commerciaux, etc...) chargés de collecter des données destinées à être collectées par un système d'information mais préférant le stylo au clavier. Mais MetaLinks vise également les particuliers souhaitant allier la souplesse d'utilisation d'un stylo aux capacités de stockage et de traitement de l'informatique. Le stylo numérique fera t'il son entrée dans les cartables à l'occasion de cette rentrée 2004 ?

Netéconomie : http://www.neteconomie.com/perl/navig.pl/neteconomie/infos/article/2004082312244...

IBM met au point des processeurs autorégulés
Jeudi, 02/09/2004 - 00:00

Des composants électroniques qui s'autocontrôlent et ajustent leurs fonctions pour optimiser leurs performances et leur consommation, le tout sans intervention humaine, voilà ce que IBM cherche à élaborer grâce à une technologie baptisée "eFuse" (que nous traduirons par "fusible électronique"). "eFuse réorganise la logique du composant un peu à la manière du trafic autoroutier que l'on régule en ouvrant ou fermant de nouvelles voies d'accès", explique Bernard Meyerson, vice-président et responsable technologique de la branche Systèmes et Technologie chez IBM. Schématiquement, cette technologie combine programmes informatiques et microfusibles. eFuse permet par exemple à une puce d'adapter sa consommation électrique en fonction des besoins des logiciels, ou encore de prévenir les pannes. "Si la technologie détecte un dysfonctionnement de la puce à cause de circuits individuels qui travaillent trop vite ou trop lentement, , peut-on lire dans le communiqué d'IBM. Cette technologie de "métamorphose électronique" s'appuie sur le phénomène d'électromigration - la migration d'atomes soumis à un courant électrique dans un conducteur. "IBM a perfectionné une technique qui contrôle l'électromigration et l'utilise pour développer un fusible sans endommager le reste du composant", précise le communiqué. Autrement dit, IBM a réussi à maîtriser un phénomène électrique pour l'exploiter à des fins électroniques, une première dans l'industrie des semi-conducteurs.

VNUnet : [http://www.vnunet.fr/actualite/">eFuse] peut moduler l'activité de ces circuits en contrôlant localement le voltage", peut-on lire dans le communiqué d'IBM. Cette technologie de "métamorphose électronique" s'appuie sur le phénomène d'électromigration - la migration d'atomes soumis à un courant électrique dans un conducteur. "IBM a perfectionné une technique qui contrôle l'électromigration et l'utilise pour développer un fusible sans endommager le reste du composant", précise le communiqué. Autrement dit, IBM a réussi à maîtriser un phénomène électrique pour l'exploiter à des fins électroniques, une première dans l'industrie des semi-conducteurs.

VNUnet : [http://www.vnunet.fr/actualite/

AMD-Intel : la guerre technologique est relancée
Jeudi, 02/09/2004 - 00:00

Les processeurs d'Intel vont bénéficier l'année prochaine, avec le passage en 65 manomètres, de la technologie de production la plus évoluée au monde, selon le premier fabricant mondial de semi-conducteurs. Cette annonce conforte la réputation de l'entreprise californienne en matière d'avance technologique au moment où elle cherche à combler un retard dans la sortie de certains de ces nouveaux produits. Plus généralement, cette annonce montre que la vitesse d'évolution des processeurs n'a pas ralenti, en dépit de la difficulté d'introduire toujours plus de transistors dans des circuits intégrés inférieurs à 100 nanomètres, ou 100 milliardièmes de mètre. "C'est la preuve que la loi de Moore fonctionne toujours", a déclaré dimanche soir Mark Bohr, directeur des processus en architecture et intégration chez Intel. En 1965, Gordon Moore, l'un des cofondateurs d'Intel, a prédit que le nombre de transistors présents dans les processeurs doublerait tous les 18 mois. Bohr a précisé qu'Intel avait mis au point un processeur doté d'un demi-milliard de transistors grâce à sa nouvelle technologie de fabrication en 65 nanomètres développée sur son site d'Hillsboro, dans l'Oregon. Intel a indiqué " que ce procédé avait été mis en place avec l'objectif de limiter la consommation électrique et le dégagement de chaleur, grâce notamment à des "transistors dormants" capables de se mettre en veille quand ils ne sont pas utilisés. Intel, qui a consacré des milliards de dollars pour rendre ses usines les plus performantes au monde, assure que sa technologie en 65 nanomètres lui permettra de garder une génération d'avance sur les produits de son principal concurrent Advanced Micro Devices.

Pour autant, ce développement ne peut pas masquer les retards, inhabituels chez Intel, de ses processeurs pour ordinateurs. AMD, vient juste de présenter ses premiers processeurs fabriqués en 90 nanomètres, ce qui le ramène, temporairement au moins, au niveau de son plus grand rival. Un récent comparatif entre les meilleurs processeurs d'Intel et ceux d'AMD a donné un léger avantage au second pour la majorité des applications utilisées par le grand public. L'entreprise de Sunnyvale entend réduire le fossé qui le sépare d'Intel en travaillant en partenariat avec IBM sur un procédé de fabrication en 65 nanomètres et en construisant une nouvelle usine à Dresde, en Allemagne. AMD a également annoncé qu'il comptait présenter un nouveau processeur "dual-core", une puce dotée de deux unités de calcul. Cette nouvelle puce, conçue pour les clients professionnels et qui devrait être disponible au milieu de l'année prochaine, a pour but d'accroître les performances sans pour autant augmenter la consommation électrique et le dégagement de chaleur. On voit donc qu'entre les deux grands rivaux, Intel et AMD.la guerre redouble d'intensité pour le leadership en matière de technologies de microprocesseurs.

Article @RT Flash

Reuters: http://fr.news.yahoo.com/040830/85/4132c.html

^ Haut
Matière
Matière et Energie
Matière et antimatière ne sont pas symétriques
Jeudi, 02/09/2004 - 00:00

Une différence spectaculaire de comportement entre matière et antimatière, qui constitue un nouveau pas dans l'"explication" de la disparition de l'antimatière, vient d'être découverte par les physiciens de l'expérience BaBar, au Centre de l'Accélérateur Linéaire de Stanford (SLAC), en Californie, a annoncé mardi le Centre National de la Recherche Scientifique (CNRS).Ces résultats, signés par les quelque 600 physiciens de la collaboration BaBar, parmi lesquels des Français, devraient être publiés ces jours-ci par la revue Physical Review Letters. Si notre Univers n'est fait que de matière - aucune expérience n'a en effet jamais détecté d'antimatière - et si les antiparticules n'existent que sur Terre (créées artificiellement), à son "origine", matière et antimatière ont existé en quantités identiques : chaque particule est apparue accompagnée de son antiparticule, aux mêmes caractéristiques mais de charge électrique opposée. Moins d'une seconde après le Big-Bang, toutes les antiparticules (tout l'antimonde) avaient disparu, sans avoir laissé de trace. Comme les particules et les antiparticules s'annihilent en se transformant en énergie, une légère asymétrie a donc dû apparaître très tôt pour que la matière prenne le dessus sur l'antimatière, très légèrement mais suffisamment pour donner naissance à notre monde. Alors que l'une semble être le reflet exact de l'autre, il pourrait donc ne pas en être tout à fait ainsi ; c'est ce que les physiciens tentent de mettre en évidence depuis plusieurs décennies. Dans ce but, au SLAC, dans l'accélérateur PEP-II, les physiciens ont donc provoqué des collisions entre des électrons et des positrons (le positron est l'antiparticule de l'électron), qui produisent, par paires, des mésons B et des mésons anti-B (particules formées d'un quark et d'un antiquark). Ces particules se désintègrent à leur tour en particules plus légères telles que les pions et les kaons (des mésons également), que détecte BaBar. En étudiant les désintégrations de plus de 200 millions de paires de B et d'anti-B, les chercheurs de BaBar ont trouvé 910 désintégrations de mésons B en un kaon et un pion, contre seulement 696 désintégrations de mésons anti-B. Ce résultat indique donc de façon claire une asymétrie de comportement entre matière et antimatière. "C'est la première fois, soulignent le SLAC et le CNRS, qu'une différence apparaît dans le simple comptage de désintégrations de mésons B et anti-B, ce qui est la marque du phénomène de violation directe de la symétrie CP ("C" pour conjugaison de charge et "P" pour parité)." Toutes les particules, affirment les physiciens, respectent un même théorème dit "CPT" (outre "C" et "P", "T" pour temps), qui est le produit de trois transformations (ou symétries). Si la première, la symétrie C est respectée, on peut remplacer une particule par une antiparticule ; si la deuxième, la symétrie P est respectée, on peut remplacer une particule par son image-miroir et si la troisième est respectée, on peut dérouler les phénomènes dans le sens inverse de celui dans lequel ils se sont produits. Longtemps, les physiciens ont pensé que chacune de ces symétries était respectée, avant de découvrir que certaines particules, les kaons (de la famille des mésons), violaient l'une d'elles (la symétrie P). Ils supposèrent alors que la symétrie C pouvait aussi ne pas être respectée et que c'était le produit des deux transformations (CP) qui respectait la symétrie. Plusieurs expériences (dont BaBar) ont ensuite infirmé cette hypothèse. Toutes les symétries peuvent être violées ; matière et antimatière n'ont pas le même comportement. Mais les trois violations se compensent et, pour l'instant, leur produit, le théorème CPT, reste valable. Heureusement pour les physiciens, car ils ne peuvent pour l'heure concevoir une physique qui l'ignorerait.

AFP : http://fr.news.yahoo.com/040803/202/3zuf5.html

Téléportation de photons à grande distance
Jeudi, 02/09/2004 - 00:00

Un nouveau pas décisif vient d'être franchi vers la maîtrise de la téléportation quantique de particules, une opération qui consiste à transférer instantanément certaines propriétés d'une particule à une autre particule sans qu'il y ait déplacement physique. Des chercheurs de l'université de Vienne et de l'académie autrichienne des Sciences sont en effet parvenus à réaliser une téléportation quantique de photons d'une rive à l'autre du Danube, sur une distance de 800 mètres, à l'aide d'une liaison optique. L'équipe autrichienne a réussi ce transfert de « qbits » en utilisant une propriété des photons (particule vecteur de l'interaction électromagnétique), connue sous le nom de polarisation. Cette propriété décrit la direction dans laquelle oscillent ces photons. La téléportation de quantum se fonde sur une étrange particularité de la physique appelée "intrication" par laquelle les propriétés de deux particules ont été en contact intime restent corrélées même lorsqu'elles sont très éloignées l'une de l'autre. Cette intrication a permis la téléportation instantanée de propriétés du photon, et donc d'informations, entre l'expéditeur (Alice) et le récepteur (Bob). Dans les ordinateurs du demain, cette information formerait les qbits (la forme quantique de l'information numérique 1 et 0) et permettrait de multiplier par plusieurs milliers la vitesse et la puissance de nos machines, provoquant ainsi une révolution technologique majeure. Cette surprenante propriété de la matière a été imaginée pour la première fois par Einstein et deux de ses élèves, Podolsky et Rosen, et formalisé sous le nom de paradoxe EPR. Dans un article commun datant de 1935, ils identifièrent une propriété nouvelle déductible de la théorie quantique, appelée " non séparabilité ". Cette propriété prévoit que deux particules issues d'une même réaction restent liées quelle que soit leur distance apparente. Pour Einstein, une telle conclusion signifiait la disparition du temps et de l'espace en tant que " données physiques ", ce qu'il ne pouvait admettre. En posant ce paradoxe, il pensait montrer d'une manière évidente la fausseté de la physique quantique. Or, Alain Aspect, au Laboratoire de physique d'Orsay, en 1985, a démontré, grâce à une série d'expériences historiques sur les photons corrélés la véracité de ce paradoxe.L'expérience autrichienne a montré qu'il était possible de téléporter sur prés d'un kilomètre trois états de polarisation distincts de photons entre Alice et Bob par l'intermédiaire d'un câble en fibres optiques. Rupert. Ursin qui dirige ces recherches précise que la prochaine étape vers l'utilisation des communications quantiques va consister à essayer la téléportation de photons par satellite afin de voir si ce principe d'intrication résiste à de grandes distances.

Article @RT Flash

BBC: http://news.bbc.co.uk/2/hi/science/nature/3576594.stm

Des centrales au charbon sans émissions
Jeudi, 02/09/2004 - 00:00

Des centrales au charbon sans émissions Des scientifiques de l'université de Stuttgart développent en coopération avec des partenaires européens de la recherche et de l'industrie un concept innovateur de centrale électrique presque sans émissions. L'institut d'ingénierie des procédés et de technologies des centrales (IVD - Institut fur Verfahrenstechnik und Dampfkesselwesen) de l'université de Stuttgart, qui a une longue expérience dans le secteur des techniques énergétiques, coordonne le projet subventionne a hauteur de 1,9 millions d'euros par l'Union européenne. Le lignite, qui est un porteur d'énergie peu coûteux et présent en Europe en grande quantité, est utilise dans ce projet. Au lieu de brûler simplement le charbon, celui ci est gazéifie par de la chaux brûlée additionnée a de la vapeur d'eau. La chaux absorbe ainsi le CO2 forme et est transformée en calcaire. Suivant la quantité de chaux utilisée, le gaz produit ne contient pas ou très peu de carbone, et avec un dosage, optimal, on peut parvenir a ne produire que de l'hydrogène. Celui-ci peut alors être utilise dans les centrales comportant des turbines a gaz ou a vapeur pour produire du courant sans émissions polluantes (la combustion de l'hydrogène ne génère que de l'eau). Le calcaire produit est quant a lui brûle dans un deuxième réacteur et réachemine en tant que chaux brûlée dans le premier réacteur pour en extraire le CO2. Du cote allemand, les participants au projet sont l'entreprise IVE Weimer de Sindelfingen (M. Weimer est l'initiateur de la technique), le centre de recherche sur l'hydrogene et l'energie solaire de Stuttgart, l'entreprise d'industrie miniere Vattenfall Europe Mining ainsi que l'université de Cottbus (Brandebourg). Au total, 13 partenaires issus de 7 pays européens participent au projet.

BE Allemagne : http://www.bulletins-electroniques.com

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le lien entre inflammation et cancer se confirme
Jeudi, 02/09/2004 - 00:00

Un lien entre l'inflammation chronique et la survenue de cancer, découvert par des chercheurs israéliens, pourrait aider à mettre au point de nouveaux traitements anti-cancéreux.L'équipe d'Yinon Ben-Neriah de Jérusalem, dont les travaux sont mis en ligne jeudi par la revue, ont porté sur des souris atteintes d'hépatite. Alors que la relation de cause à effet entre l'exposition aux cancérogènes (substances chimiques, certains virus etc.) et l'inflammation chronique a fait l'objet d'intenses recherches, les mécanismes moléculaires et cellulaires reliant inflammation et cancer restent largement méconnus, soulignent les chercheurs. On estime que l'exposition aux cancérogènes et l'inflammation chronique sont deux conditions importantes sous-jacentes au développement d'un cancer, cette dernière étant tenue responsable d'environ 20 % des cancers humains. Les chercheurs décrivent un lien manquant potentiel entre inflammation et cancer, une protéine appelée "NF-kappa B" ou NF-kB (NF pour Nuclear factor), marque de l'inflammation fréquemment retrouvée dans les tumeurs. Les chercheurs ont étudié des souris génétiquement modifiées et qui développent spontanément des formes d'hépatites et de cancers du foie. Tandis que les symptômes des rongeurs s'aggravaient, l'inflammation (hépatite) déclenchait l'activation de la protéine dans les cellules du foie. En désactivant ce signal (la protéine), les chercheurs ont pu prévenir la survenue d'un cancer avéré. La protéine NF-kB apparaît essentielle dans cette inflammation associée à une forme de cancer, selon ces travaux, et constitue une cible de recherche thérapeutique. Le cancer du foie est la troisième cause de mortalité par cancer dans le monde. L'activation de la protéine NF-kB est souvent observée dans cette forme de cancer du foie, particulièrement ceux consécutifs à une hépatite chronique. Lors d'une inflammation, de nombreuses substances sont libérées (facteurs de croissance, cytokines). L'étude israélienne suggère que l'une de ces substances, le TNFalpha (pour Tumor necrosis factor) joue un rôle central dans l'activation de la protéine "NF-kappa B" et la protection contre l'autodestruction ou "apoptose" des cellules du foie (hépatocytes) pré-cancéreuses. "Bloquer la protéine NF-kB suffit à induire la destruction des cellules pré-cancéreuses et à stopper ainsi la progression de la tumeur", selon les auteurs de la publication. "La suppression intermittente de signaux majeurs, comme ces deux facteurs ("NF-kappa B" et TNF alpha), pourrait par conséquent être un outil pour faire traîner la phase pré-cancéreuse et inhiber la progression tumorale dans le cas des maladies inflammatoires à haut risque de cancer". On estime que l'exposition aux cancérogènes et l'inflammation chronique sont deux conditions importantes sous-jacentes au développement d'un cancer, cette dernière étant tenue responsable d'environ 20 % des cancers humains.

Nature : http://www.nature.com/news/index.html




Brûler plutôt qu'opérer ?
Jeudi, 02/09/2004 - 00:00

L'ablation de tumeurs cancéreuses par radiofréquence paraît une voie de traitement prometteuse. Sûre et efficace, cette technique s'adresserait notamment aux patients atteints de tumeurs pulmonaires non opérables.Cosmo Gadaleta de l'hôpital de Bari en Italie, a évalué ce traitement sur 18 malades. Plus de 90% n'ont présenté aucune rechute, ce qui en l'absence de toute précision concernant la durée du suivi, paraît remarquable ou à tout le moins, digne d'intérêt. Reposant sur la destruction des tissus cancéreux par l'application de hautes températures, l'ablation par radiofréquence pourrait représenter une alternative intéressante aux autres traitements habituels. Surtout chez les patients dont l'état n'est favorable ni à la chirurgie conventionnelle ni à la chimiothérapie. Comme l'affirme le Dr Gadaleta, " les patients souffrant d'un cancer du poumon éprouvent de tels troubles respiratoires que bien souvent ils ne peuvent supporter la chirurgie. Quant aux chimiothérapies et radiothérapies standards, elles comportent des effets secondaires parfois incompatibles avec l'état du malade ".L'ablation par radiofréquence serait-elle la solution miracle ? " Elle est peu invasive, puisqu'elle nécessite l'emploi d'une petite aiguille ". Autre avantage, elle réduit considérablement la durée de l'hospitalisation. Son coût est donc relativement raisonnable. Mais ses atouts majeurs, ce sont sa bonne tolérance et son efficacité ! Reste à mieux connaître la durée des rémissions qu'elle procure.

DS http://www.destinationsante.com/article.cfm?ContentID=10101

Cancer du sein avancé: une méthode pour prédire l'efficacité du traitement
Jeudi, 02/09/2004 - 00:00

L'analyse du niveau de cellules cancéreuses dans le sang peut prédire l'efficacité du traitement pour des patientes affectées d'un cancer du sein a un stade avancé, selon une étude publiée mercredi aux Etats-Unis.Le cancer progresse plus rapidement chez les femmes dont le nombre de cellules cancéreuses dans le système circulatoire est élevé, entraînant une réduction de l'espérance de vie, ont constaté les auteurs de l'étude. Selon ces travaux, environ la moitié des 177 femmes suivies --dont le cancer avait métastasé et qui débutaient un nouveau traitement-- avaient un niveau élevé de cellules cancéreuses dans le sang, défini comme cinq tumeurs au moins par échantillon sanguin. Parmi ces patientes, 30% avaient un niveau plus élevé encore de cellules cancéreuses dans le sang trois à cinq semaines après le début du nouveau traitement et leur cancer progressait beaucoup plus rapidement que chez les patients dont le niveau de cellules cancéreuses s'était réduit ou qui n'avaient jamais eu un haut niveau de tumeurs dans le sang. "Identifier le nombre de cellules cancéreuses en circulation chez des patientes affectées d'un cancer du sein avec métastases, particulièrement au moment de la première visite après le début d'un nouveau traitement, peut fournir une indication rapide et fiable sur l'efficacité de ce traitement", a commenté le Dr Daniel Hayes, qui a dirigé l'étude. Actuellement, les patientes doivent attendre trois à quatre mois pour savoir si le traitement est efficace. La technique décrite dans l'étude permet de déterminer l'efficacité en quelques semaines, sur la base d'une simple analyse sanguine, économisant un temps précieux pour tenter un autre traitement. Les travaux mené au centre d'étude sur le cancer de l'Université du Michigan à Ann Arbor sont publiés dans la revue américaine New England Journal of Medicine daté du 19 août.

NEJM :http://content.nejm.org/cgi/content/short/351/8/781

La Grande-Bretagne autorise le 1er clonage d'embryons humains
Jeudi, 02/09/2004 - 00:00

La Grande-Bretagne a délivré le 11 août son premier permis de clonage d'embryons humains, plus de trois ans après avoir été le premier pays à autoriser la technique de production de cellules souches pour la recherche médicale. Une équipe de l'Université de Newcastle avait déposé sa demande pour le clonage thérapeutique en mai auprès du comité de recherche de l'Autorité. Elle espère pouvoir créer des cellules productrices d'insuline à transplanter sur des patients diabétiques. La loi oblige les chercheurs à détruire les embryons de 14 jours afin d'éviter toute tentative aboutissant au clonage d'êtres humains, pratique interdite. Après le Royaume-Uni en janvier 2001, le Corée du Sud a autorisé le clonage thérapeutique en décembre 2003. En février dernier, des scientifiques de la péninsule ont affirmé être les premiers au monde à avoir réussi à cloner un embryon humain pour la recherche sur les cellules souches. L'objectif de ces travaux est de parvenir à remplacer des cellules âgées ou abîmées par des cellules jeunes, en utilisant des cellules souches embryonnaires qui, étant indifférenciées, ont le pouvoir de se transformer en différents types de tissus humains. Présentes au premier stade du développement embryonnaire (lesembryonssurnuméraires issus de l'aide à la procréation représentent un réservoir important), ces cellules dites "totipotentes" sont à l'origine des quelque 260 lignées cellulaires de l'organisme. Au cours du développement, elles se transforment en cellules cardiaques, musculaires, cutanées, cérébrales, etc. Les chercheurs espèrent parvenir à orienter leur transformation en laboratoire pour traiter des maladies telles que le diabète, la maladie de Parkinson ou les affections cardio-vasculaires. Les cellules souches existent aussi chez l'adulte, mais les scientifiques pensent qu'elles ne sont pas aussi polyvalentes que les cellules souches embryonnaires. Ils envisagent toutefois d'utiliser le clonage pour créer un embryon à partir d'un patient, de telle sorte que les cellules souches extraites puissent donner un greffon totalement identique.Dans un communiqué expliquant son feu vert, le régulateur britannique précise avoir "considéré avec soin les aspects éthiques, scientifiques, médicaux et légaux de ce projet". Et d'ajouter: "C'est un domaine de recherche très important, et une issue technologique responsable. L'Autorité est là pour s'assurer que toute recherche impliquant des embryons humains est examinée avec soin et contrôlée correctement".En France, la nouvelle est accueillie avec enthousiasme: "C'est quelque chose que tous les chercheurs et tous les médecins attendent depuis longtemps. Nous sommes plein d'espoir", a déclaré sur Europe 1 Jean Rosa, professeur émérite de biochimie et de biologie éthique, membre du Comité national de l'éthique."Il y a d'énormes gardes fous: d'abord il y a la loi, qui est tout à fait claire et mondialement connue", selon laquelle "le clonage d'un individu complet est quelque chose qui serait puni de façon très efficace". Mais, a-t-il ajouté, "techniquement une chose est d'obtenir des cellules-souches sur un embryon qui n'aura pas plus de 14 jours, et une autre chose est d'obtenir un individu entier, on s'en est aperçu pour le clonage des animaux. Nous sommes en général très peu craintifs sur la dérive en terme de clonage humain".Le ministre français de la Santé Philippe Douste-Blazy a de son côté réitéré sa "demande de voir l'ensemble de la communauté internationale s'inscrire formellement contre le clonage à but reproductif en le distinguant bien du clonage à but thérapeutique dans le cadre de la recherche médicale".M. Douste-Blazy a noté que les "embryons humains surnuméraires dans le cadre de procréations médicalement assistées sans projet parental suffisent à effectuer des recherches sur les cellules souches. C'est d'ailleurs la position que vient de prendre le gouvernement et le Parlement français en adoptant la loi sur la bioéthique en juillet dernier".

Human Fertilization and Embryology Authority: http://www.hfea.gov.uk

BBC : http://news.bbc.co.uk/2/hi/health/3554474.stm

Nouvelle molécule prometteuse contre le paludisme
Jeudi, 02/09/2004 - 00:00

Une nouvelle molécule anti-paludisme obtenue entièrement par synthèse et bien tolérée par l'organisme, selon des tests cliniques préliminaires, pourrait devenir une arme majeure contre cette maladie qui touche 600 millions d'humains dans le monde et tue un enfant africain toutes les 30 secondes.La découverte de cette molécule, inspirée d'une substance provenant d'une herbe médicinale chinoise plus que millénaire, l'artémisinine, est décrite dans la revue scientifique britannique Nature par une équipe internationale associant notamment des chercheurs des universités du Nebraska (Etats-Unis), de Monash (Australie), de l'Institut tropical suisse et de la firme pharmaceutique suisse Hoffman Roche. Depuis une quinzaine d'années, des équipes ont tenté en vain de réaliser la synthèse de cette molécule, peu chère à produire, relève dans la revue Paul O'Neill de l'université de Liverpool (Grande-Bretagne) en saluant la réussite de Jonathan Vennerstrom (Etats-Unis), Sergio Witllin (Suisse), William Charman (Australie) et leurs collègues. Baptisée OZ 277, elle est actuellement développée par la firme pharmaceutique indienne Ranbaxy partenaire du MMV (Medicines for Malaria Venture), une organisation sans but lucratif dédiée à la recherche de nouvelles thérapeutiques anti-paludisme peu coûteuses, grâce à des partenariats entre le public et le privé. Dans de nombreux endroits, les parasites responsables de la maladie, transmise par les moustiques, sont devenus résistants aux médicaments utilisés depuis très longtemps. L'OMS recommande donc aux pays où l'on enregistre une résistance aux médicaments conventionnels de passer aux puissantes associations médicamenteuses dérivées de l'artémisine (ACT). Mais même à 2 dollars la dose adulte, ces associations sont dix à vingt fois plus chères que les anciennes monothérapies type chloroquine. D'où l'enjeu de cette recherche. D'autant, soulignent les chercheurs, qu'il n'existe pas de résistance prouvée contre l'artémisinine et ses dérivés. Contrairement aux dérivés semi-synthétiques d'artémisine actuellement disponibles (artéméter, artésunate), l'"OZ" peut être totalement synthétisée à grande échelle à un coût plus abordable pour l'Afrique, sans avoir à recourir aux extraits végétaux d'armoise amère. L'objectif visé est un traitement simple et court, en une seule prise orale par jour pendant trois jours maximum. Les nouveaux produits de synthèses concoctés par l'équipe internationale sont "plus puissants et agissent plus longtemps in vivo que l'artéméter et l'artésunate", note Paul O'Neill. Les tests de sécurité et de bonne tolérance d'"OZ" (pour "ozonide") sont conduits en Grande-Bretagne, indique le MMV. "Les tests d'efficacité sur des patients atteints de paludisme commenceront en janvier 2005", précise cette organisation. "En cas de succès, ce médicament pourrait devenir la prochaine arme majeure pour combattre la maladie" et "la plus puissante arme" pour combattre les problèmes de résistance aux traitements, estime-t-elle. Il pourrait représenter "la plus importante percée thérapeutique anti-paludisme de notre génération", s'enthousiasme le MMV. Le paludisme est une maladie parasitaire que l'on peut traiter. Pourtant, chaque année plus d'un million de personnes en meurent.

BBC: http://news.bbc.co.uk/2/hi/health/3579058.stm

Maladie d'Alzheimer : mieux comprendre pour mieux prévenir
Jeudi, 02/09/2004 - 00:00

A mesure que la recherche progresse on constate à quel point la maladie d'Alzheimer, près de cent ans après sa première description, en 1906 par le médecin allemand Alois Alzheimer, est une affection complexe et multifactorielle qui doit être combattue sur plusieurs fronts en même temps, alimentation, hygiène de vie, médicaments notamment. Actuellement de nombreuses pistes sont explorées pour comprendre et prévenir la maladie d'Alzheimer, et réussir un jour à guérir les patients souffrant de cette forme de démence qui affecte près de 2 % de la population des pays développés. Dans un article publié dans la revue scientifique Nature datée de jeudi 5 août, le docteur Mark Mattson, du National Institute on Aging de Baltimore, avance des pistes de réflexion sur les moyens de prévenir la maladie. Il explique que "même si des médicaments peuvent temporairement améliorer la mémoire, il n'y a actuellement aucun traitement permettant de stopper ou d'inverser le processus inexorable de dégénérescence des neurones". Mais, selon lui, les "progrès rapides" dans la compréhension des altérations cellulaires et moléculaires responsables de la mort des neurones "pourraient bientôt permettre la mise au point de stratégies préventives et thérapeutiques efficaces". Cette maladie neuro-dégénérative frappe quelque 600 000 personnes en France, avec 135 000 nouveaux cas chaque année. L'incidence (nouveaux cas sur une période et une population données) de la maladie, qui entraîne perte de mémoire, déclin des fonctions cérébrales, voire modification de la personnalité, pourrait tripler durant les cinquante prochaines années, souligne Mark Mattson. La maladie d'Alzheimer touche surtout les personnes âgées, la plupart des malades ont plus de 65 ans. Les régions du cerveau impliquées dans les processus d'apprentissage et de mémoire voient leur taille réduite chez les malades d'Alzheimer suite à la mort des neurones. Celle-ci intervient alors que s'accumulent dans ces zones du cerveau des dépôts anormaux ou plaques de protéines (ou peptides) bêta-amyloïdes.Des mutations génétiques prédisposant à la maladie d'Alzheimer ont été identifiées, notamment sur le chromosome 14 où ce défaut serait responsable d'une forme précoce de la maladie bien avant 60 ans. Des facteurs environnementaux sont également invoqués : alimentation riche en calories et en matière grasse, mode de vie sédentaire pourraient accroître le risque de souffrir de cette forme de démence. En matière de prévention, l'exercice physique, la stimulation de l'activité cérébrale, la restriction calorique, l' apport en vitamines B, C et E semblent en mesure de réduire sensiblement les risques de cette mamadie. Enfin, il se confirme que les médicaments anti-cholestérol (statine) et anti-inflammatoires dont l'aspirine, et certains anti-oxydants exercent un effet protecteur puissant contre cette affection.En matière curative, les recherches récentes s'orientent sur la possibilité de susciter chez les patients une réaction immunitaire contre les peptides bêta-amyloïdes, avec des médicaments imitant l'action d'un "vaccin".La protéine Nogo, qui inhibe la régénération des nerfs, pourrait jouer un rôle, selon une étude publiée dans l'édition de septembre du mensuel Nature medicine.La production de bêta-amyloïde dépend de l'activité d'une enzyme dénommée BACE1. D'où l'idée, pour combattre la maladie d'Alzheimer, de trouver des molécules pouvant moduler l'activité de BACE1. Un rôle que peuvent jouer la protéine Nogo et une forme apparentée reticulon-3, selon l'étude réalisée par Yan Riqiang et son équipe du Lerner Research Institute à Cleveland.Ces travaux pourraient permettre de trouver des médicaments à base de "petites molécules" inhibant l'action de BACE1 afin de réduire la production d'amyloïde et "si possible la progression de la démence associée à la maladie d'Alzheimer", concluent les chercheurs. Mais ceux-ci restent réalistes car ils savent que face à une maladie aussi complexe le chemin sera encore long avant de réaliser des percées thérapeutiques majeures.

Nature : http://www.nature.com/

NIA : http://www.nia.nih.gov/news/whatsnew.htm

Une protéine pour ralentir la dégénérescence neuronale
Jeudi, 02/09/2004 - 00:00

Des chercheurs américains ont découvert qu'une protéine liée à l'accroissement de durée de vie de certaines levures et de certains vers pourrait être un remède efficace pour ralentir la dégénérescence des neurones défaillants. Selon les auteurs de l'étude parue dans la revue Science du 13 août, cette molécule pourrait permettre de lutter contre la plupart des maladies neurodégénératives.Le professeur Jeffrey Milbrandt et ses collègues de l'Université de Washington (Etats-Unis) ont constaté que la protéine, baptisée SIRT1, permet de différer la dégradation des fibres nerveuses de rat même après avoir été détachées du corps cellulaire du neurone ou après une exposition importante à un traitement chimiothérapique. Cette étude faite suite à de précédents travaux montrant que la dégénérescence neuronale été due à un mécanisme d'autodestruction des neurones se déclenchant sous certaines conditions.La protéine SIRT1 fait partie de la famille des protéines SIR2, connue pour être liées entre autre à la longévité de certaines levures et du ver Caenorhabditis elegans.Les travaux du professeur Jeffrey Milbrandt devraient permettre d'ouvrir la voie à de nouvelles recherches pour lutter contre les maladies neurodégénératives, comme la maladie de Parkinson et celle d'Alzheimer. En effet, la mort neuronale qui induit ces pathologies est en général précédée de leur dégénérescence.

Science : http://www.sciencemag.org/cgi/content/abstract/305/5686/1010

La toxicomanie n'est pas un comportement spécifiquement humain
Jeudi, 02/09/2004 - 00:00

La consommation volontaire de drogues est un comportement retrouvé dans un nombre importante d'espèces du règne animal. Mais jusqu'alors, on pensait que la toxicomanie, définie comme une consommation de drogue compulsive et pathologique, était un comportement spécifique de l'espèce humaine et de sa structure sociale. Aujourd'hui, les travaux de l'équipe de Pier-Vincenzo Piazza (Directeur Unité Inserm 588 « Physiopathologie du comportement ») montrent que les comportements qui définissent la toxicomanie chez l'homme, apparaissent également chez le rat qui s'auto-administre de la cocaïne. La toxicomanie des hommes et des rongeurs présente des similitudes étonnantes. La découverte d'un comportement de dépendance à la drogue chez ce mammifère modèle suggère fortement que la toxicomanie est une véritable maladie du cerveau qui résulterait non seulement d'une exposition prolongée à la drogue, mais aussi d'une vulnérabilité individuelle forte. Ces résultats devraient permettre de pénétrer les mystères de la biologie de la toxicomanie et, partant, d'améliorer son traitement. L'objectif principal des chercheurs qui travaillent sur les consommations abusives de drogues est de mettre au jour les mécanismes qui mènent à la dépendance ou addiction. L'addiction ne se résume pas à la prise de drogues mais à une consommation compulsive maintenue en dépit des conséquences néfastes engendrées. Ce comportement n'apparaît que chez une faible proportion des consommateurs (15-20%) et possède les caractéristiques d'une maladie chronique, puisque la rechute, même après des périodes prolongées de sevrage, est quasiment la règle (90 % environ). Mais jusqu'alors, aucun véritable modèle n'existait chez l'animal, limitant ainsi fortement la compréhension du phénomène de dépendance. En effet, on pensait que si les animaux montrent une consommation volontaire de la plupart de drogues , la véritable toxicomanie été une spécificité de l'espèce humaine. C'est pourquoi l'équipe de l'Inserm a voulu vérifier si une addiction aux drogues pouvait être observée chez le rongeur. Les résultats de ces études montrent que chez les rongeurs comme chez l'homme un comportement d'addiction se développe progressivement dans le temps. En effet, après un mois d'auto-administration aucun animal ne montre de signes de toxicomanie. Toutefois, entre le deuxième et le troisième mois d'auto-administration les trois critères testés deviennent progressivement positifs chez un certain nombre de sujets. Comme chez l'homme, seul un nombre limité de rats « consommateurs » développe un comportement d'addiction (17% pour le rat, 15 % pour l'homme). Ces rats « dépendants » n'arrivent plus à limiter la prise de drogues et sa recherche (1er critère testé), ils montrent une motivation extraordinairement élevée pour la drogue (2è critère) et continuent à s'auto-administrer la drogue malgré l'association d'une punition à la prise de cocaïne (3è critère). De plus, comme les toxicomanes, les rats qui développent un comportement d'addiction ont aussi une propension beaucoup plus élevée à la rechute, même après une période prolongé de sevrage.Enfin, Pier Vincenzo Piazza et ses collaborateurs montrent que les comportements d'addiction du rongeur sont spécifiques et ne peuvent être imputés à d'autres différences comportementales comme l'activité motrice, une plus grande anxiété ou une consommation plus élevée de drogues. En effet, ces comportements sont identiques chez les animaux qui développent ou ne développent pas de « dépendance ». Les travaux de l'équipe bordelaise suggèrent également que la « toxicomanie » n'est pas uniquement le fait d'une exposition prolongée à la drogue. Elle résulte aussi du degré de vulnérabilité de chaque individu à la dépendance. En effet, bien que tous les animaux consomment strictement la même quantité de drogue, une petite proportion d'entre eux seulement développe des comportements apparentés à la dépendance.« Nos résultats permettent de proposer une vision unifiée de l'origine de la dépendance qui se fonde sur l'interaction entre niveau d'exposition à la drogue et degré de vulnérabilité individuelle. La toxicomanie, paraît donc avoir un statut identique a d'autre maladie du cerveau qui résultent les plus souvent d'une interaction entre un stimulus environnementale pathogène et un terrain de prédisposition », soulignent les chercheurs de l'Inserm en conclusion.

INSERM : http://www.inserm.fr/servcom/servcom.nsf

Des neurones humains spécialisés à partir de cellules souches embryonnaires
Jeudi, 02/09/2004 - 00:00

Des neurones humains capables de sécréter une substance chimique qui fait défaut dans la maladie de Parkinson ont pu être créés à partir de cellules souches embryonnaires, offrant un nouvel espoir thérapeutique à venir pour les malades, selon une étude.publiée par les comptes rendus de l'Académie des sciences américaines (Pnas). L'équipe de biologistes, dirigée par le docteur Lorenz Studer (laboratoire des cellules souches et de biologie tumorale, Sloan-Kettering Cancer Center, New York), vient pour la première fois, de démontrer -in vitro - que l'évolution de cellules souches prélevées sur des embryons humains pouvait être sélectivement dirigée afin d'aboutir à des neurones producteurs de dopamine. Réussir à guider aussi finement la spécialisation ("différenciation") de ces cellules souches embryonnaire, potentiellement susceptibles de donner toutes les variétés de cellules formant notre organisme, est un des grands enjeux pour pouvoir concrétiser leur utilisation thérapeutique, sous forme de greffes par exemple. "C'est une étape-clé. Ce résultat était indispensable à tout test pré-clinique", a indiqué à l'AFP le premier signataire de l'article, le biologiste français Anselme Perrier. Les "résultats ont été confirmés à partir de trois lignées différentes de cellules souches humaines et deux de singes", soulignent les auteurs de la publication. "Le fonctionnement de ces neurones a été testé in vitro (vérification de l'activité électrique des cellules, de la production de dopamine)", souligne le biologiste. "On a maintenant les outils" pour procéder aux étapes suivantes, dit-il. "Il reste à présent à passer aux tests sur les animaux, les rats, puis les singes", poursuit Anselme Perrier actuellement dans le laboratoire de l'équipe renommée de Marc Peschanski (Inserm) pour ses recherches sur le Parkinson. La possibilité de disposer de quantités quasi illimitées de neurones dopaminergiques marque la première étape : "une cellule souche embryonnaire permet d'obtenir dix mille neurones, une boîte de culture (6 cm de diamètre) de ces cellules, un million", selon M. Perrier. Si les essais s'avèrent concluants, pour le traitement des malades "le goulot d'étranglement sera plutôt la chirurgie", estime-t-il. La greffe réparatrice intracérébrale consiste à injecter les cellules ad hoc directement sur place dans une région précise du cerveau. Un geste relevant de la neurochirurgie. De précédentes expériences avaient permis chez la souris d'obtenir des cellules du système nerveux central (astrocytes, neurones...). Mais aucune n'était parvenue à une différenciation aussi précise aboutissant à disposer d'un type précis de neurones humains. Tremblements des membres au repos, rigidité musculaire, rareté et lenteur des mouvements marquent cette maladie neuro-dégénérative - la "paralysie agitante" décrite en 1817 par le médecin britannique James Parkinson - qui touche 1% à 2% de la population de plus de 65 ans. Sa fréquence augmente avec l'âge. Mais elle peut atteindre des sujets plus jeunes. Près de 10 % des parkinsoniens ont moins de 40 ans. La maladie, pour laquelle il existe des prédispositions familiales et génétiques, s'explique chimiquement par la destruction de cellules nerveuses, des neurones qui produisent la dopamine, situés dans une structure cérébrale nommée "substance noire". La dopamine est un messager chimique, servant à la communication entre neurones, qui facilite l'exécution des mouvements.

PNAS : http://www.pnas.org/cgi/content/abstract/0404700101v1

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Gilles de Robien encourage l'investissement dans le haut débit
Jeudi, 02/09/2004 - 00:00

Dans son discours de clôture de la 25e université d'été de la communication à Hourtin (Gironde), Gilles de Robien a encouragé l'intensification de l'investissement dans les réseaux internet à haut débit. "Si nous ne voulons pas que la France prenne du retard dans cet investissement, il faut aujourd'hui investir plus pour cueillir demain", a déclaré aux congressistes le ministre de l'Equipement, des Transports, de l'Aménagement du territoire, du tourisme et de la Mer. Gilles de Robien a évoqué la possibilité de "mettre en place un système financier pour l'aménagement numérique du territoire" afin de "compenser notre retard" dans un secteur en plein développement. L'accès au haut débit concernait 45 millions de Français fin 2003 contre 37 millions fin 2002. En inaugurant l'université, lundi, le secrétaire d'Etat à l'Aménagement du territoire Frédéric de Saint-Sernin avait annoncé qu'un prochain Comité interministériel pour l'aménagement du territoire (CIADT) aborderait l'avenir des réseaux et notamment le très haut débit, qui pourrait bénéficier des mesures de soutien aux pôles de compétitivité. Il avait rappelé que la loi donnait des compétences aux collectivités locales, et qu'en décembre 2003 le gouvernement avait débloqué une enveloppe de 100 millions d'euros à destination des régions. Le délégué à l'aménagement du territoire et à l'action régionale, Nicolas Jacquet, avait présenté mercredi des cartes détaillant pour la première fois les réseaux haut débit sur l'ensemble du territoire, l'évolution entre 2002 et 2003 de la couverture des territoires français et tous les projets des collectivités territoriales. "Cet Atlas accessible à tous par internet permet en effet à la France de se positionner comme leader en Europe en matière de transparence de l'information concernant le déploiement des réseaux de télécommunications et l'offre de services de connexion permanente à internet, une transparence délibérément mise au service de nos concitoyens comme du développement des territoires", avait-il dit. Alors que le haut débit poursuit sa progression (6% de la population abonnée, soit 4,5 millions d'utilisateurs), le nouvel enjeu est désormais celui concernant la couverture très haut débit.

Reuters : http://fr.news.yahoo.com/040826/85/40wxx.html

Un "bureau virtuel" devrait progressivement équiper les écoles
Jeudi, 02/09/2004 - 00:00

Le ministre de l'Education nationale François Fillon s'apprête à annoncer lors sa conférence de presse de rentrée un plan visant à terme à doter chaque élève et enseignant d'un "bureau virtuel", sorte de poste de travail informatisé et personnalisé, selon un responsable du ministère. "Nous avons tous les éléments du dossier pour passer à la prise de décision sur cette mesure qui est demandée par l'ensemble de la communauté éducative", a déclaré Benoît Sillard, sous-directeur des technologies de l'information et de la communication pour l'éducation (TICE) du ministère de l'Education, et délégué aux usages de l'internet. La réalisation du projet se fera en deux phases, une première à la rentrée de septembre avec une dizaine d'académies volontaires qui ont déjà déposé des projets, puis une deuxième, avec l'élargissement progressif à toutes les académies, pour toucher à terme près de 10 millions de personnes, enseignants et élèves. Financé à la fois par l'Etat et les collectivités locales, le coût de ce projet, que le ministère espère réaliser à l'horizon de l'année scolaire 2007-2008, est estimé à 150 millions d'euros, hors personnel. Après le "cartable électronique", le "bureau virtuel" offrira une large gamme d'activités selon M. Sillard, qui s'exprimait dans le cadre de l'Université d'été de la communication d'Hourtin (Gironde). Ce "bureau virtuel" permettra à l'enseignant, depuis un ordinateur, de mettre en ligne des notes et des appréciations à l'intention de ses élèves, à l'élève d'accèder aux banques de données qui lui sont nécessaires, ou se transformera en outil de travail collectif pour un devoir réalisé en commun par plusieurs élèves.

AFP : http://fr.news.yahoo.com/040826/1/40vo7.html




La fracture numérique s'accroît entre les PME
Jeudi, 02/09/2004 - 00:00

La pénétration des technologies ne profite pas à toutes les PME. Selon une enquête de l'Observatoire régional des télécommunications (ORTEL), le fossé numérique s'accroît d'années en années selon la localisation des entreprises dans l'Hexagone. Selon la troisième édition de son Atlas sur les réseaux de communication, l'Ortel observe que le taux de connexion Internet dans les zones urbaines denses est passé de 77 % en octobre 2002 à 85 % en mars 2004, alors que dans le même temps, il continue de stagner entre 65 et 70 % dans les zones à moindre densité. Au total, en mars dernier 53 % des PME étaient connectées à Internet. La progression du nombre de PME connectée est impressionnante puisque ce chiffre n'était que de 3 % lors de la première édition de l'étude conduite par l'Ortel en mars 2001. En conséquence, plus d'une PME sur deux en zone très dense possède un site Internet. A contrario, dans les zones à moindre densité, ce ratio s'effondre pour n'atteindre qu'une PME sur cinq. La qualité des accès est elle aussi disparate. Selon l'indicateur Ortel qui rend compte de la taille de la "bande passante par salarié", la capacité d'accès a été multiplié par deux entre octobre 2002 et mars 2003. L'indice, proche de 1 en mars 2001, passé à 3 en octobre 2002, est désormais supérieur à 6. Toutefois, l'indice en zones à faible densité atteint à peine le niveau moyen de 2002. En revanche, l'Ortel considère que globalement la migration du RNIS vers l'ADSL est "remarquable" et elle indique que le dégroupage à accentué cette migration même si seulement 730.000 étaient dégroupée au moment de l'étude. Enfin, elle souligne que quelle que soit la zone observée, la plupart de ces sites sont généralement institutionnels. Rares sont ceux qui proposent des services de commerce électronique. Au final, ces différences flagrantes de qualité d'accès à Internet apparaissent relativement préoccupantes pour les régions. Car aujourd'hui, un tiers des PME fait de l'accès haut débit l'un des critères prioritaires dans le choix de sa localisation.

JDNet : http://www.journaldunet.com/0408/040825ortel.shtml

Ortel : http://www.ortel.fr./images/2004/Ortel%20Ext%20Enq%20PME%202003.pdf

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top