RTFlash

RTFLASH Recherche & Technologie
NUMERO 401
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Octobre 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'internet première source d'infos devant les médias papier en Europe
Un foyer sur six connecté au très haut débit optique en 2012
Le téléphone mobile de demain sur VoIP
Google s'attaque à l'illettrisme
Free se lance dans la téléphonie hybride GSM-WiFi
La France s'engage vers la radio numérique
La consultation publique sur le développement du très haut débit en France consacre le rôle des collectivités locales
Terre
Contrer l'érosion des plages grâce à la force des vagues
Vivant
Des chiens recouvrent la vue grâce à une thérapie génique
Des chercheurs expliquent la cécité chez les nouveaux-nés
Un premier vaccin contre la grippe aviaire pourrait être efficace
Obésité ou mémoire : il faut choisir!
L'hémorragie stoppée en quelques secondes
Homme
En rachetant YouTube Google devient le géant mondial de la vidéo en ligne
Recherche
Le gouvernement révèle ses 13 projets de réseaux thématiques de recherche avancée
La science en accès libre sur HAL
Edito
Les Prix Nobel 2006 consacrent l'importance de la recherche fondamentale sur le génome



Le prix Nobel de chimie vient d'être décerné à l'Américain Roger Kornberg pour ses travaux qui ont permis de mieux comprendre la machinerie extraordinairement sophistiquée qui permet aux gènes de conduire à la fabrication des protéines, molécules aux multiples fonctions (hormonales, nerveuses, immunitaires...) nécessaires à la vie. Travaillant sur des cellules de levure, aux mécanismes assez comparables à ceux qui interviennent chez l'homme, Roger Kornberg a réussi une grande avancée en "cristallisant", en donnant une vue tridimensionnelle de l'ARN (acide ribonucléique) polymérase", une enzyme essentielle pour l'expression des protéines

La production des protéines est en effet un processus très complexe faisant intervenir de très nombreux éléments. Le génome est empaqueté dans la chromatine, formée d'une succession d'éléments structurés - nucléosomes - qui renferment notamment l'acide désoxyribonucléique (ADN) et des protéines. Mais ce génome est énorme, et seuls 5 % de nos gènes sont reconnus capables d'exprimer des protéines.

Il est donc capital que la cellule soit capable d'identifier et de localiser précisément ces gènes : c'est la mission de l'ARN polymérase, aidée de co-facteurs, qui va, par synthèse, copier l'ADN - une opération dite de transcription. Une fois copiée, l'information des gènes est transférée hors du noyau par l'ARN "messager", vers les parties de la cellule qui produisent les protéines.

Roger Kornberg, en cristallisant cette machinerie complexe, a éclairé son fonctionnement d'une lumière nouvelle. Cette vision tridimensionnelle va en effet accélérer et faciliter la compréhension du fonctionnement de ce processus biologique tout à fait essentiel. L'Académie royale des sciences de Suède a reconnu que "Kornberg est le premier à avoir créé un véritable schéma de ce processus au niveau moléculaire, notamment dans le groupe important d'organismes appelés eucaryotes". "Sa contribution a culminé avec la création d'images détaillées par cristallographie décrivant le mécanisme de la transcription en action dans le cas d'une cellule eucaryote", a-t-elle souligné dans ses attendus.

Certes, les retombées concrètes de cette avancée fondamentale ne seront pas immédiates mais, à terme, si l'on parvient à agir sur le fonctionnement de l'ARN polymérase, il sera possible de moduler l'expression de tel ou tel gène de manière sélective, ce qui constituerait une révolution médicale et thérapeutique immense.

La génétique et la génomique (analyse moléculaire et physiologique complète du matériel héréditaire et étude des fonctions des gènes) sont décidemment à l'honneur pour ces Nobel 2006 puisque le Nobel de médecine, et ce n'est évidemment pas un hasard, a récompensé une découverte des Américains Andrew Z. Fire et Craig C. Mello, elle aussi fondamentale, concernant un fascinant mécanisme biologique : l'ARN interférent (ou ARNi).

En 1998, Fire et Mello ont montré que l'on pouvait réduire spécifiquement l'expression de protéines contenues dans des cellules de Caenorhabditis elegans en introduisant de l'ARN double brin (ARNdb) dans ces cellules. Ce phénomène fut alors nommé ARN interférence. L'ARNdb va reconnaître spécifiquement l'ARN messager (ARNm), ce qui va entraîner une forte réduction de l'expression des protéines correspondantes, voire même leur inhibition totale. Ceci est lié au fait que la reconnaissance ARNdb/ARNm peut avoir deux conséquences : soit la dégradation de l'ARNm, soit l'arrêt de la traduction des protéines. Ces deux chercheurs ont reçu le 2 octobre 2006 le prix Nobel de physiologie et de médecine pour leurs travaux.

Tout commence en 1990 grâce à un biologiste amoureux des changements de couleur des fleurs de pétunias. Le professeur Richard Jorgensen, de l'université de Tucson (Arizona), intervenait alors sur les mécanismes moléculaires de coloration en intégrant dans le patrimoine héréditaire de ces plantes des gènes capables de modifier la lecture des gènes naturellement impliqués dans la coloration. Parvenu à transformer ses pétunias mauves en pétunias blancs, le professeur Jorgensen avait bâti une autre expérience, visant à introduire plusieurs copies du "gène mauve" pour obtenir des fleurs d'un mauve encore plus intense. Il obtint à l'inverse des fleurs d'une totale blancheur.

Restait à comprendre comment les gènes introduits étaient devenus muets tout en rendant silencieux les propres gènes de la plante. En 1994, Wassenegger montra que l'introduction d'ARN double brin dans des cellules d'Arabidopsis thaliana déclenche une méthylation de l'ADN correspondant. Mais il fallut attendre la publication dans Nature - le 19 février 1998 - d'un article signé par Andrew Fire et Craig Mello pour résoudre ce mystère de l'ARN interférent. Dans cette publication, les deux chercheurs démontraient, chez le ver Caenorhabditis elegans, de quelle manière il était possible d'inactiver un gène en interceptant l'ARN messager, maillon essentiel entre l'ADN et les protéines. Les auteurs fournissaient ainsi à la communauté scientifique une clé moléculaire essentielle permettant de comprendre différents phénomènes contradictoires que ne parvenaient pas à expliquer les connaissances d'alors.

Fire et Mello proposèrent de dénommer "interférence de l'ARN" ce phénomène dont le champ d'application apparaît désormais beaucoup plus large qu'on ne pouvait l'imaginer il y a huit ans. On a tout d'abord compris que ce phénomène fournissait un nouvel et remarquable outil expérimental permettant - en leur imposant progressivement une inactivation partielle voire quasi totale - d'étudier la fonction des milliers de gènes qui constituent les génomes des organismes vivants.

Fin juillet 2002, les travaux des équipes du professeur Leonid Gitlin, de l'université de Californie, et du professeur Jean-Marc Jacques, de l'Université du Massachusetts, publiés dans la revue Nature, ouvraient de nouvelles perspectives à la technique de l'interférence de l'ARN : pour la première fois, ce mécanisme s'avèrerait efficace sur des cellules humaines. Il a permis de bloquer in vitro leur infection par les virus du sida et de la poliomyélite. Ces résultats suggèrent donc que les ARN interférents pourraient être utilisés pour contrer des infections virales chez l'homme.

A présent, c'est bien la perspective d'user bientôt de ce phénomène à des fins thérapeutiques qui mobilise les énergies. L'idée centrale est d'utiliser certaines molécules ciblées d'ARN à des fins thérapeutiques. De nombreux travaux sont en cours chez l'animal, qui visent à traiter des affections cancéreuses ou des infections d'origine virale. L'administration de l'ARN étranger peut, comme pour les médicaments, se faire très simplement, par voie intraveineuse ou orale.

L'association de ces deux découvertes fondamentales, celle du prix Nobel de chimie Roger Kornberg et des prix Nobel de médecine Fire et Mello ouvre des perspectives thérapeutiques immenses dans une multitude d'affections et de pathologies dans lesquelles un ou plusieurs gènes sont impliqués. En effet, ces deux percées scientifiques nous laissent entrevoir l'avènement d'une véritable révolution conceptuelle et médicale qui se traduira par la possibilité d'agir directement "à la source" d'une anomalie ou d'un dysfonctionnement de la cellule en désactivant ou en activant de manière sélective un ou plusieurs gènes impliqués dans une maladie.

Mais avant d'en arriver là, il faudra mieux comprendre et mieux maîtriser ce mécanisme complexe de l'ARN interférent et également, en s'appuyant sur la cartographie complète du génome humain, mieux connaître le rôle de chaque gène, les interactions entre gènes et les implications de tous nos gènes dans les diffèrents pathologies, un travail colossal qui prendra encore des années de recherche.

Il reste que ces deux prix Nobel de Chimie et de Médecine confirment de manière éclatante le rôle central de la génétique et de la génomique dans la médecine de demain qui sera totalement personnalisée et permettra de concevoir et de mettre en oeuvre des médicaments et thérapies "sur mesure", en fonction du profil génétique unique de chaque patient. Ces Nobel confirment également l'importance de la recherche fondamentale et d'une vision à long terme, en matière de progrès scientifique et de compétitivité économique.

Dans les sciences de la vie comme en physique ou dans le domaine de l'énergie et des technologies de l'information, il est illusoire d'imaginer que nous resterons compétitifs en misant uniquement sur la recherche appliquée. L'informatique n'a pas progressé en améliorant la lampe mais en inventant le transistor puis en utilisant les nouveaux concepts issus de la mécanique quantique.

De la même façon la médecine ne progressera pas de façon majeure en améliorant les approches et thérapies actuelles mais en développant des concepts et outils radicalement nouveaux et transdisciplinaires qui permettront d'agir directement au niveau cellulaire et génétique sur les causes des maladies.

Parmi ces outils, signalons le moteur de recherche Internet qui permet de mettre en relation des profils de maladies avec ceux de médicaments potentiels. Cet outil gratuit, baptisé "Connectivity Map" et développé par des scientifiques du Broad Institute de Harvard et du MIT, se base sur une caractérisation du changement de profil d'expression des gènes observé lors du développement d'une maladie ou lors de la prise d'un traitement médicamenteux. Il permet une meilleure compréhension du mécanisme d'action du médicament et peut aussi être utilisé à des fins de découverte de traitement pour des maladies. Il a déjà permis la découverte d'une nouvelle piste de traitement pour la prise en charge des leucémies résistantes aux corticoïdes.

Le grand défi des années à venir sera donc pour notre pays de redonner à la recherche fondamentale toute la place qu'elle mérite pour anticiper, et non subir, les prochaines révolutions scientifiques qui vont bouleverser ce siècle.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'internet première source d'infos devant les médias papier en Europe
Vendredi, 13/10/2006 - 00:00

L'internet a, pour la première fois, dépassé les journaux et magazines sur papier comme principal fournisseur d'informations aux lecteurs européens, selon une étude publiée dans le quotidien économique britannique Financial Times. La télévision reste cependant le premier média, les Européens passant encore trois fois plus de temps à regarder ses émissions qu'à surfer sur internet, selon cette étude menée par le cabinet Jupiter Research et portant sur plus de 5.000 personnes interrogées au Royaume-Uni, en France, en Allemagne, en Italie et en Espagne.

En moyenne, les Européens passent quatre heures par semaine sur internet, mais n'en consacrent que trois à lire des journaux ou magazines, selon cette étude. En 2003, ils passaient seulement deux heures par semaine sur internet. "Le fait que la consommation (d'informations sur) internet ait dépassé celle (des médias) papier est un moment important pour l'ancrage d'internet parmi tous les médias en Europe", a estimé Mark Mulligan, le vice-président de Jupiter Research.

"Ce changement dans l'équilibre des pouvoirs va remodeler les stratégies de distribution, l'allocation des sommes réservées à la publicité et les stratégies de communication" en Europe, a-t-il ajouté. Les principaux facteurs affectant l'usage d'internet sont l'âge et l'accès ou non à un réseau haut débit. La France, qui a ainsi le meilleur accès haut débit, enregistre le plus fort taux de consommation d'internet. L'Allemagne est à l'autre bout de l'échelle.

JR

Un foyer sur six connecté au très haut débit optique en 2012
Vendredi, 13/10/2006 - 00:00

La France se fixe pour objectif de connecter quatre millions de foyers à l'internet très haut débit via la fibre optique à l'horizon 2012, annonce François Loos, ministre délégué à l'Industrie. "Nous avons un objectif de quatre millions de foyers français raccordés à l'internet haut débit par de la fibre optique. C'est un objectif pour 2012 ," a-t-il dit en inaugurant le "Broadband World Forum".

Il a souligné que la France comptait à l'heure actuelle plus de 11 millions d'abonnés au haut débit, pour la plupart via l'ADSL (téléphone fixe), l'objectif des dix millions pour 2007 ayant été atteint avec 18 mois d'avance.

La France se trouve ainsi largement au-dessus de la moyenne européenne (taux de pénétration de 14 %), son développement ayant été favorisé par une concurrence acharnée illustrée par la multiplication des offres de téléphonie gratuite basée sur internet ou de télévision via ADSL. Les opérateurs hexagonaux commencent aujourd'hui à investir dans les réseaux de prochaine génération, qui nécessiteront le déploiement de fibres optiques jusqu'au domicile des consommateurs.

Iliad, la maison mère de l'opérateur Free, a ainsi annoncé le mois dernier un milliard d'euros d'investissements dans un tel réseau d'ici à 2012 alors que France Télécom a laissé entendre qu'il adopterait une attitude plus prudente, en attendant d'en savoir plus sur l'évolution de l'offre disponible en contenus. Les analystes estiment que les deux groupes devraient néanmoins investir au même rythme dans les années qui viennent.

Intervenant après le ministre, le président de France Télécom, Didier Lombard, a indiqué que l'objectif fixé par François Loos serait non seulement atteint mais dépassé. Il a toutefois demandé que le cadre réglementaire pour la fibre optique soit rapidement mis en place. "Pour que les investisseurs s'engagent, il faut quand même leur expliquer ce qui va se passer dans les prochaines années et la vitesse à laquelle on est en train de faire la réforme du cadre réglementaire est un peu lente par rapport à la bataille qui est en train de se préparer", a-t-il dit.

NO

Le téléphone mobile de demain sur VoIP
Vendredi, 13/10/2006 - 00:00

L'Institut Fraunhofer SIT présente un prototype de codage des télécommunications mobiles sur VoIP (Voice over Internet Protocol) au salon "Systeme 2006" qui a lieu du 23 au 27 octobre 2006 à Munich. Grâce à la téléphonie fixe sur IP, les entreprises peuvent désormais considérablement réduire leurs frais de télécommunication.

Bientôt, elles pourront également utiliser cette technologie sur des téléphones mobiles. Actuellement beaucoup des solutions VoIP disponibles sur le marché sont relativement faciles à manipuler ou peu sécurisées car les informations linguistiques ne sont généralement pas codées. Il existe déjà quelques appareils qui offrent un codage pour la téléphonie fixe. L'institut Fraunhofer SIT montre que la téléphonie VoIP codée est en principe aussi faisable avec des téléphones mobiles usuels du commerce et des réseaux existants. Tobias Wahl, chef du projet, explique que le prototype garantit une sécurité point-à-point pendant le transfert linguistique VoIP.

Le prototype se base sur l'application J2ME et utilise un algorithme AES pour le codage du canal réservé pour la voix sur IP. La transmission linguistique a lieu actuellement selon le concept Push-to-Talk (utiliser son téléphone portable comme un talkie-walkie pour joindre immédiatement une ou plusieurs personnes) sur des réseaux de données tels que GPRS, UMTS ou WLAN. La qualité linguistique des réseaux mobiles actuels n'atteint pas encore la qualité linguistique de réseaux téléphoniques traditionnels, cependant le prototype ainsi développé permet déjà d'analyser des protocoles cryptographiques et les qualités de fonctionnement des téléphones mobiles.

IF

BE

Google s'attaque à l'illettrisme
Vendredi, 13/10/2006 - 00:00

Selon l'UNESCO (United Nations Educational, Scientific and Cultural Organization), aujourd'hui, plus d'un milliard de personnes dans le monde, âgées de plus de 15 ans, sont considérées comme illettrées. A l'occasion du salon du livre de Francfort, Google a annoncé la création d'un site Internet, rassemblant des livres, des vidéos ainsi que ses services de blog. Google offre ainsi son aide aux éducateurs et autres organisations éducatives afin qu'ils puissent élargir leurs ressources. Nikesh Arora, vice président des opérations Européennes de Google, a d'ailleurs déclaré : "Nous espérons que ce site servira de passerelle entre une meilleure communication et un accès aux informations importantes et à pallier aux problèmes de l'illettrisme".

Ce site a été conçu «à destination des enseignants, des organismes éducatifs et de quiconque s'intéresse à l'enseignement et à la promotion de la lecture». Il permet de consulter toutes les initiatives lancées dans le monde à ce sujet en compulsant des ouvrages ou des textes universitaires sur ce thème.

Google

Free se lance dans la téléphonie hybride GSM-WiFi
Vendredi, 13/10/2006 - 00:00

Après Neuf Cegetel et Orange, Free vient à son tour d'annoncer son offre de téléphonie hybride GSM-WiFi qui combine fixe et mobile. Free va proposer deux téléphones, le premier à la fois GSM et Wi-Fi et le second uniquement Wi-Fi. Vendu 199 euros, ce téléphone hybride se connectera à domicile sur une Freebox version 5, dite « HD ». Et permettra ainsi à l'utilisateur de bénéficier des appels illimités vers les fixes français (ou étrangers dans certains cas) compris dans son forfait triple play. Hors du périmètre du signal Wi-Fi de la box, le client pourra passer des appels GSM, s'il est déjà client d'un opérateur mobile évidemment.

« Nous ne devenons pas MVNO opérateur virtuel, NDLR], précise-t-on chez Free. L'abonné n'a pas à changer d'offre mobile, il continue d'utiliser sa carte SIM. » Free se présente ainsi comme le « seul acteur indépendant de tout opérateur mobile à proposer une offre de convergence ». Du côté d'Orange et de Neuf Cegetel, il faut en effet devenir client de l'offre mobile des deux opérateurs pour bénéficier de la téléphonie convergente.

Pour activer le service, il suffira à l'abonné Free de se rendre sur l'espace gestion de compte, sur le site Internet du FAI. « Il branche ensuite le téléphone Wi-Fi sur le port USB du modem ADSL et le paramétrage est automatique, via la Freebox HD. Après, il n'a plus rien à faire », assure Free, qui ne facture ni service supplémentaire, ni frais d'activation.

A noter qu'à l'inverse de l'offre Unik d'Orange, il sera impossible de commencer une communication en mode Wi-Fi à proximité de sa Freebox et de la continuer dans la rue en mode GSM. Le FAI précise le terminal « permet de savoir très facilement quel réseau (GSM ou Wi-Fi) l'abonné utilise lorsqu'il émet un appel. Il permet également de choisir un réseau prioritaire (GSM ou Wi-Fi) » .

L'autre téléphone vendu sur le site de Free ne sera que Wi-Fi et coûtera 59 euros. Côté services, le FAI met en avant le double appel et une fonction de conférence téléphonique à trois. Côté dépenses, passé l'achat du téléphone, rien à ajouter. Comme pour l'autre modèle, les communications passent par la Freebox et l'utilisateur profite de la téléphonie sur IP incluse dans son abonnement ADSL à 29,90 euros.

Les deux terminaux seront également capables de se connecter à n'importe quelle Freebox HD, qui fait office de véritable borne de téléphonie. Loin de chez lui, chez des amis par exemple, le Freenaute dispose alors de son service personnel de téléphonie illimitée.

[Free

La France s'engage vers la radio numérique
Vendredi, 13/10/2006 - 00:00

Après la TNT, la France décide de s'engager sur le chemin de la radio numérique. Le projet ne dispose d'aucun calendrier définitif à ce jour, mais concernera de près les 84 % des Français qui écoutent la radio chaque jour et qui devront, à terme, changer d'équipement. Mince affaire. Il voit cette semaine son avenir balisé par une consultation publique organisée par Renaud Donnedieu de Vabres, ministre de Culture et de la Communication et François Loos, ministre délégué à l'Industrie, suite à des travaux engagés par le Conseil supérieur de l'audiovisuel (CSA).

L'objet est ainsi de recueillir l'avis des acteurs sur les normes de diffusion de la radio numérique, puisque la loi impose une normalisation dès lors qu'il y a numérisation. Un choix stratégique quant au prix et la disponibilité des technologies, le calendrier de lancement et le nombre de programmes qui pourront être proposés.

Par exemple, il s'agira de connaître l'avis de chacun sur les technologies de diffusion (T-DAB, DRM 30, DVB-T, DVB-H, etc.) et de compression audio existantes, leurs qualités, leurs défauts, leur performance, leur évolutivité. Il faut encore se demander s'il faut privilégier une norme seulement ou plusieurs d'entres elles. Par ailleurs, qui dit radio numérique, dit possibilité de mettre en place un système d'accès conditionnel, verrouillant la diffusion par abonnement ou paiement à l'unité.

« Il ne peut être exclu que les services de radio numérique aient, dans certains cas, recours à des systèmes d'accès conditionnel, que ce soit pour se conformer aux accords relatifs aux droits acquis par les éditeurs (restrictions de couverture liées à la validité territoriale des droits), ou encore en vue de la mise en oeuvre de services de radio numérique payants sur abonnement », indique la consultation. Avec cette prochaine étape, c'est ainsi la fin de la radio analogique pour tous. Déjà, la loi relative à la liberté de communication prévoyait que les exploitants de systèmes d'accès conditionnel ont l'obligation de collaborer avec les industriels pour implanter ce système dans les terminaux qu'ils fabriquent. Du coup, faut-il privilégier un ou plusieurs systèmes d'accès, demandent les ministres ? Faut-il prévoir un texte, à l'instar de la TNT, sur les équipements de réception et quid de l'interopérabilité ?

La consultation publique sera ouverte jusqu'au 24 octobre prochain. Dans le même temps, le Conseil supérieur de l'audiovisuel a lui-même ouvert une consultation afin d'organiser l'appel aux candidatures pour la diffusion radio en numérique.

PCI

La consultation publique sur le développement du très haut débit en France consacre le rôle des collectivités locales
Vendredi, 13/10/2006 - 00:00

Une grande majorité d'acteurs est en ligne avec le diagnostic effectué par l'Idate considérant que la montée en débits est inéluctable, même si le marché potentiel ne devrait se développer que progressivement. Le prolongement de la fibre optique dans les réseaux semble la méthode la plus pérenne pour offrir des services nécessitant des hauts débits, services qui restent pour la plupart encore à imaginer (Vidéoblog, TVHD, stockage des données à distance...). La fibre pourrait néanmoins être utilement complétée sur les zones moins denses par des technologies radios moins coûteuses.

Enfin, plusieurs acteurs estiment qu'il est nécessaire d'envisager dès aujourd'hui une action des pouvoirs publics pour donner une impulsion en faveur du très haut débit afin que la France puisse bénéficier au maximum des retombées industrielles et socio-économiques du très haut débit.

Les possibilités d'intervention évoquées sont multiples :

a) Diminution des barrières à l'entrée pour favoriser la concurrence et réduction des coûts de déploiement : Les acteurs ont conforté dans l'ensemble une intervention en ce sens avec des propositions de facilitation du câblage interne des immeubles, de pré-câblage des logements neufs en fibre, de cartographie des infrastructures existantes, de pose de fourreaux lors des opérations de voirie, de redevances d'occupation du domaine public incitant à l'investissement privé, ou d'autorisation de nouvelles techniques de génie civil (microtranchées) ;

b) Mutualisation du réseau : La quasi-totalité des acteurs considère que des efforts pour la mutualisation sont indispensables.

c) Intervention des collectivités territoriales sous le L.1425-1 : Pour l'ensemble des contributions, une intervention des collectivités est indispensable pour l'accès de tous à la société de l'information. Des nuances apparaissent toutefois sur les niveaux de cette action qui, pour certains doivent plutôt s'en tenir au financement d'infrastructures passives, pour la majorité en évitant les choix technologiques. Plusieurs contributions soulignent par ailleurs que l'Etat devrait venir en appui de l'action des collectivités.

d) Régulation : Les avis diffèrent sur ce point, certain considérant le marché comme émergent et ne devant pas être régulé, d'autres qu'une régulation devrait être prévue pour prolonger le modèle du haut débit, d'autres enfin qu'une réglementation adaptée pourrait permettre l'émergence du très haut débit sans nécessité de mesures correctrices par la régulation. En complément, pour une majorité de contributions, l'accès au génie civil (tranchées, fourreaux, chambres de tirage) devrait faire l'objet d'un contrôle en tant que facilité essentielle. Enfin, quelques contributions suggèrent une approche locale de la régulation en l'adaptant à l'intensité concurrentielle.

e) Développement des usages par un soutien au développement de l'équipement des foyers, la promotion de la formation aux TIC pour les néophytes et l'incitation à l'émergence de services d'e-santé, assistance à domicile, e-administration, etc.

f) Soutien au développement industriel et à l'expérimentation des nouveaux services à très haut débit. L'ensemble des contributions soutient ce point, en mettant un accent particulier sur le développement des services.

Enfin, plusieurs contributions appellent à l'élaboration d'un plan en faveur du très haut débit et à la création d'une mission (ou Forum) chargée de son suivi.

La majorité des acteurs considère que la notion de très haut débit doit être évolutive et définie en fonction des usages.

L'ensemble des acteurs s'accorde sur le fait que le très haut débit doit concerner les technologies de l'après ADSL. L'importance de l'implication de l'Etat ou des collectivités ne transparaît pas assez, notamment avec la prise en charge des coûts de génie civil par la communauté ;

Pour l'ensemble des contributions, l'intervention des collectivités territoriales dans le secteur des communications électroniques est tout à fait légitime et indispensable pour l'accès de tous à la société de l'information.

Des nuances apparaissent toutefois sur les niveaux de cette action qui pour 11 contributeurs doivent plutôt s'en tenir au financement d'infrastructures passives (des fourreaux au moins et selon les cas jusqu'à la fibre noire) en évitant les choix technologiques notamment pour la majorité des acteurs privés alors que seulement trois contributions indiquent que le financement dans l'actif peut être nécessaire.

Quatre contributions de représentants des collectivités insistent pour que l'intervention ne soit pas limitée aux seules zones de faible densité auquel cas l'équilibre économique serait impossible ce qui interdirait tout partenariat public-privé sur le long terme. Par ailleurs, plusieurs contributions soulignent que l'Etat devrait venir en appui de l'action des collectivités par :

? Une prise en compte de la problématique très haut débit dans les contrats de projets Etat/Région

? L'organisation d'une sorte de péréquation nationale pour soutenir les territoires les plus défavorisés ou la création d'un réseau complètement mutualisé pour les zones blanches

? La création d'une instance de coordination de l'action locale

La mobilisation des collectivités territoriales est également indispensable pour :

? veiller à la mutualisation et à la bonne coordination des travaux de génie civil, pour la majorité des réponses. Une contribution demande à ce titre une réduction des délais de réponse aux permissions de voirie

? fixer un niveau de redevance d'occupation du domaine public incitant à l'investissement privé et au partage ou au surdimensionnement des fourreaux lors de la pose par un premier opérateur afin d'accueillir à moindre coût les suivants (exemple inspiré des accords de la Communauté Urbaine de Lyon)

? poser systématiquement des fourreaux lorsque cela est pertinent lors des travaux de voirie avec si nécessaire la création d'un fonds ad-hoc

? le recensement des infrastructures de réseaux de communications électroniques voire de la constitution d'un plan numérique cadastral

? inciter à l'émergence de services d'e-santé, d'assistance à domicile, d'e-administration

Gouvernement

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Contrer l'érosion des plages grâce à la force des vagues
Vendredi, 13/10/2006 - 00:00

Après plusieurs années de tests, la station balnéaire vendéenne des Sables d'Olonne espère tenir l'arme miracle contre l'érosion de sa plage, grâce au procédé d'une petite société nantaise qui pourrait intéresser de nombreuses communes sur les quelque 1.700 km de littoral français touchés par le phénomène.

Le système mis au point par cette société, Ecoplage, utilise la force des vagues qui viennent déposer le sable sur la plage sous laquelle circule une canalisation servant de drain. Grâce à ce drain, l'eau de mer infiltrée dans le sable est aspirée par une station de pompage et peut servir ensuite à alimenter aquariums ou piscines. Mais surtout le sable, au lieu de repartir avec la vague, est fixé sur la plage.

Carl Linderoth, ingénieur nantais d'origine suédoise, a eu l'idée d'Ecoplage après avoir suivi l'expérimentation au Danemark d'un système de l'institut géographique danois, imaginé pour alimenter un aquarium géant et qui avait eu pour effet imprévu de stopper l'érosion de la plage où il était installé. Un "accident de parcours" heureux pour Carl Linderoth, qui a racheté le brevet et l'a développé pour créer Ecoplage.

Le premier test en France a été mené aux Sables d'Olonne, dans un secteur du littoral atlantique au sud de l'embouchure de la Loire où la moitié des plages sont touchées par l'érosion, selon une étude de l'Institut français de l'environnement (Ifen). L'érosion de la grande plage de la ville était estimée à 1.000 m3 par an, notamment à cause des tempêtes hivernales. Ecoplage y a été installé en deux fois, en 1999 puis en 2003."Ecoplage a répondu à nos espérances, nous sommes satisfaits", témoigne le maire des Sables d'Olonne, Louis Guédon, interrogé par l'AFP. "Le principal objectif était l'arrêt de l'érosion de la plage des Sables et nous l'avons atteint. Après 5 ans, on note même un léger réengraissement de la plage, de 30 cm selon les contrôles scientifiques, ce qui n'était pas prévu mais est très agréable". L'université de Nantes, qui a assuré le suivi scientifique, a confirmé l'efficacité du système qui permet, outre de lutter contre l'érosion, d'obtenir un assèchement plus rapide du sable quand la mer se retire, pour le plus grand plaisir des estivants.

Depuis ce premier test, Villers-sur-mer (Calvados) en 2003 puis Saint-Raphaël (Var) en 2004 ont essayé à leur tour le procédé avec succès, selon le suivi scientifique réalisé à chaque fois par les universités locales. Validé sur trois façades maritimes françaises avec trois types de marées et d'érosion différents, Ecoplage devrait prochainement entrer en phase commerciale pour être proposé à toutes les collectivités dont les plages sont menacées. Le marché est vaste : rien qu'en France, un quart du littoral français recule sous l'effet de l'érosion marine, soit 1.720 km de côtes, selon l'Ifen. Et près de 20 % des côtes européennes sont victimes du phénomène.

D'un coût évalué entre 650.000 et 750.000 euros pour 600 m de plage, Ecoplage peut être installé en trois mois. Le coût de fonctionnement est ensuite relativement modeste : quelque 16.000 euros par an, essentiellement pour l'alimentation électrique de la station de pompage. Selon Carl Linderoth, ce procédé est à long terme plus rentable et moins nuisible pour l'écosystème que le réensablement artificiel des plages. Quant aux "épis" perpidenculaires à la côte qui parsèment de nombreuses plages, ils n'ont souvent fait qu'aggraver la situation, fixant le sable en amont pour le perdre en aval selon des études scientifiques européennes.

St Raphael

Ministère de l'Ecologie (p 29)

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des chiens recouvrent la vue grâce à une thérapie génique
Vendredi, 13/10/2006 - 00:00

Les chiens touchés par une maladie génétique héréditaire de la rétine, l'amaurose congénitale de Leber qui concerne 10 à 20 % des enfants aveugles dans les pays développés, soit 1.000 à 2.000 enfants en France, recouvrent la vue grâce à une thérapie génique, selon des chercheurs français.

Leurs travaux ont été publiés par la revue spécialisée Gene Therapy. Le traitement a été testé sur huit chiens et sur un seul oeil pour chacun. Seul un animal, traité après l'âge de 30 mois, n'a pas recouvré la vue, ce qui laisse penser qu'il faut que la maladie n'ait pas trop évolué pour que le traitement soit efficace, remarquent les chercheurs.

La vérification du succès thérapeutique comprend, outre les tests concernant la rétine (confirmation du retour d'une activité électrique au niveau de celle-ci), à soumettre ces chiens Briard à un parcours d'obstacles, pour évaluer leur capacité à les éviter. "Les premières injections intra-oculaires ont eu lieu il y a 18 mois et les chiens font l'objet de tests tous les 3 mois et pour le moment tout va bien", commente Guylène Le Meur. A présent, "nous envisageons des essais cliniques humains qui porteront sur une dizaine de patients âgés de 8 à 18 ans" souligne Fabienne Rolling, de l'Inserm, qui coordonne, à Nantes, l'équipe de chercheurs.

Les chercheurs ont utilisé "une technique de thérapie génique innovante, plus précise et plus sûre que celles utilisées jusqu'à ce jour", selon l'Inserm. "Nous avons verrouillé pour que le vecteur (le transporteur de la thérapie) n'aille que sur les cellules ciblées de la rétine", à l'origine de l'anomalie visuelle "et pas ailleurs, dans le sang ou dans le cerveau", indique Mme Rolling. Ceci afin de limiter le risque d'éventuelles complications.

"Le véhicule vecteur est un tout petit virus, un parvovirus (de type "AAV") qui n'est à l'origine d'aucune pathologie", précise-t-elle. L'amaurose congénitale de Leber entraîne précocement une quasi-cécité chez l'enfant en raison d'une rapide et irréversible atrophie de la rétine (l'activité électrique mesurée au niveau de la rétine est nulle). Les enfants atteints ont des difficultés à fixer et à suivre du regard.

La maladie s'explique par une mauvaise communication entre les cellules réceptrices de la lumière (les photorécepteurs) et la couche la plus profonde de la rétine, appelée épithélium pigmentaire rétinien (EPR), qui sont en contact étroit.

L'EPR accomplit des tâches essentielles pour la vie et le fonctionnement des photorécepteurs. Il recycle et transforme des molécules (dérivées de la vitamine A...) impliquées dans la conversion de la lumière en signal électrique interprétable par le cerveau.

Plusieurs mutations (modifications) de gènes différents (dont 8 identifiés) peuvent être responsables de cette maladie, dont le gène "RPE65" au centre de ces travaux. Sur les 1.000 à 2.000 enfants atteints en France d'amaurose congénitale de Leber, environ 100 à 200 sont porteurs d'une mutation du gène RPE65. Ce gène commande la fabrication d'une enzyme qui recycle une protéine permettant la synthèse d'un pigment indispensable à la vision (un dérivé de la vitamine A).

Les chercheurs ont donc équipé leur vecteur d'un promoteur de ce gène humain pour obtenir cette restauration de la vue. Le promoteur permet de mettre la machine en route et de dire quand lancer la fabrication de l'enzyme utile et en quelle quantité.

Inserm

Des chercheurs expliquent la cécité chez les nouveaux-nés
Vendredi, 13/10/2006 - 00:00

Des chercheurs de l'université McGill de Montréal, associés à des scientifiques néerlandais, ont annoncé avoir identifié le gène responsable de 75 % des cas de cécité héréditaire chez les nouveaux-nés. Le gène, nommé CEP290, serait responsable d'une maladie congénitale connue sous le nom d'amaurose congénitale de Leber (ACL).

Il a été identifié grâce à la collaboration d'une famille de la région de Valleyfield, au Québec, dont les huit enfants sont porteurs de ce gène. D'autres études ont ensuite permis de déterminer que 25 % des patients souffrant de l'ACL en sont aussi porteurs.

Chaque gène identifié est important puisqu'il permet de mieux comprendre le fonctionnement de la rétine et les causes de la maladie, a expliqué le Dr Robert Koenekoop de l'Université McGill, mais l'identification du CEP290 marque une étape majeure dans la compréhension de la cécité héréditaire."On peut maintenant décrire la base génétique de la cécité héréditaire chez 75 % des bébés, et c'est spectaculaire", a-t-il résumé.

Les enfants qui souffrent d'ACL perdent la vue parce que le gène défectueux provoque la mort ou le mauvais fonctionnement des cellules de l'oeil. Cette maladie héréditaire frapperait un nouveau-né sur 30.000, et environ 10.000 personnes en souffriraient au Canada et 150.000 dans le monde. Cette découverte ouvre la porte à un traitement de la maladie par thérapie génique.

Une thérapie de ce genre appliquée à un autre gène lié à l'ACL, le RPE65, a déjà donné des résultats intéressants lors de tests sur des animaux. Le Dr Koenekoop affirme que les couples qui craignent de donner naissance à un nouvel enfant aveugle pourraient faire appel à la fertilisation in vitro, ce qui -en dépit de préoccupations éthiques importantes- permettrait d'éliminer les embryons porteurs du gène défectueux.

AP

Un premier vaccin contre la grippe aviaire pourrait être efficace
Vendredi, 13/10/2006 - 00:00

Un premier essai clinique d'un vaccin à base cellulaire contre la grippe d'origine aviaire a été bien toléré et pourrait s'avérer efficace contre plusieurs variétés du virus H5N1, a annoncé le groupe pharmaceutique américain Baxter International.

«Il s'agit de la première démonstration clinique qu'un vaccin contre le H5N1 peut produire des anticorps capables de neutraliser nombre de variétés de ce pathogène», a déclaré Hartmut Ehrlich, le directeur adjoint de la recherche et du développement des vaccins de Baxter, dans un communiqué. «Ces données préliminaires, qui doivent encore être confirmées par une étude plus étendue, laissent penser que ce vaccin pourrait fournir une protection à un plus grand nombre de personnes avant et durant une pandémie», a-t-il ajouté.

Les premières analyses d'échantillons du sérum obtenu sur les sujets ayant participé à l'essai clinique ont montré une neutralisation du virus H5N1 contenu dans le vaccin aussi bien que d'une large diversité de souches de ce pathogène, dont celui de Hong Kong en 1997 et d'Indonésie en 2005, souligne le responsable de Baxter. Ce vaccin cellulaire a été produit à partir d'un virus H5N1 dit A/Vietnam/1203/2004 et hautement pathogène prélevé sur des malades au Vietnam infectés en 2004 par contact avec des volailles malades.

Baxter

Obésité ou mémoire : il faut choisir!
Vendredi, 13/10/2006 - 00:00

Obésité et mémoire ne feraient pas bon ménage, selon une étude de chercheurs français, parue dans la revue spécialisée Neurology, comparant les performances intellectuelles de personnes en surpoids et normales. Quelques études ont déjà suggéré un lien entre obésité et démences séniles, généralement à un stade avancé de chacun de ces troubles. Mais les chercheurs ont observé une relation linéaire entre l'excès de poids et certaines capacités cognitives à un stade plus précoce, dans une population adulte d'âge moyen en bonne santé.

Des chercheurs de l'Inserm à la faculté de médecine de Toulouse (équipe Jean-Bernard Ruidavets) et du laboratoire Travail et Cognition (CNRS, université Toulouse 2) ont ainsi analysé l'indice de masse corporelle (IMC) et les performances dans des épreuves de mémoire, d'attention, et de vitesse de traitement des informations sur une population de 2.223 hommes et femmes de 32 à 62 ans en bonne santé. Le recueil des données s'est effectué entre 1996 et 2001 dans le cadre de l'étude VISAT (Vieillissement, santé, travail).

L'IMC est un indice de corpulence. Il est dit "normal" entre 18,5 et 25 (kg/m2) et, au delà de 30, on parle d'obésité. Dans l'ensemble des tests, les performances des personnes d'indice de masse corporelle élevé se sont révélées inférieures à celles des individus d'IMC faible. Par exemple, lors du test de mémoire, les sujets dont l'IMC était égal à 20 retenaient en moyenne 9 mots sur 16, alors que ceux dont l'IMC était égal à 30 ne se souvenaient que de 7 mots. De plus, le surpoids ou l'obésité (IMC élevé) semblait également associé à un léger déclin de la mémoire sur 5 ans. Ces résultats ont été obtenus après élimination de nombreux facteurs pouvant les biaiser (niveau d'éducation, diabète, hypertension artérielle...).

Le lien entre l'obésité (IMC) et les fonctions intellectuelles "pourrait s'expliquer par l'action de substances sécrétées par les cellules adipeuses sur le tissu neuronal ou par les conséquences vasculaires de l'obésité, déjà mises en cause dans certaines démences", selon les chercheurs. Ils estiment cependant que ces résultats doivent être interprétés avec "prudence" en attendant d'être vérifiés sur une durée plus longue. Ces "travaux permettent toutefois d'entrevoir la possibilité de prévenir le vieillissement mental en agissant précocement sur les différents facteurs de dérèglement du comportement alimentaire et du métabolisme".

Neurology

L'hémorragie stoppée en quelques secondes
Vendredi, 13/10/2006 - 00:00

Cela ressemble à une solution miracle : en appliquant une solution composée de fragments de peptides sur une plaie ouverte, des chercheurs ont réussi à stopper l'hémorragie en 15 secondes. Cette technique, si elle s'applique un jour à l'homme, pourrait bouleverser certaines pratiques chirurgicales.

Les peptides s'assemblent pour former une sorte de gel qui recouvre la plaie et arrête le flot de sang, expliquent les chercheurs du MIT (USA) et de l'Université de Hongkong. L'équipe de Rutledge Ellis-Behnke et de Shuguang Zhang a fait cette découverte presque par hasard. Zhang a découvert il y a plusieurs années que certains peptides placés dans une solution saline formaient de fines couches. Les chercheurs s'en sont servis pour mettre au point une sorte d'échafaudage nanoscopique permettant à des cellules nerveuses de repousser.

C'est au cours de ces expériences sur des hamsters et des rats qu'ils ont constaté que la solution de peptides arrêtait l'hémorragie. En moins de 15 secondes, alors qu'il faut au moins 90 secondes pour voir le début de la coagulation. Ellis-Behnke et ses collègues ont testé le liquide sur différents organes -cerveau, foie, intestin, peau ou moelle épinière- et obtenu les mêmes résultats. Les chercheurs ne savent pas encore par quels mécanismes les peptides agissent. Ils n'ont pas vu de traces de coagulation et supposent qu'il se forme une sorte de barrière qui peut ensuite se dégrader en acides aminés et être ainsi utilisée par le tissu environnant qui se reconstruit. Ils espèrent pouvoir tester cette solution ''miracle'' sur l'être humain d'ici 3 à 5 ans.

MIT

^ Haut
Homme
Anthropologie et Sciences de l'Homme
En rachetant YouTube Google devient le géant mondial de la vidéo en ligne
Vendredi, 13/10/2006 - 00:00

En annonçant le 9 octobre le rachat de YouTube, Google est tout simplement devenu le géant mondial de la vidéo en ligne, contrôlant à présent plus de la moitié du marché en pleine explosion de la vidéo sur le Net. La transaction est valorisée à 1,65 milliard de dollars, soit à peu près 1,3 milliard d'euros. Elle devrait être bouclée dans le courant du quatrième trimestre 2006. Cette plate-forme a été créée en 2005 par Chad Hurley, Steve Chen, et Jawed Karim, trois anciens employés du service de paiement en ligne PayPal. YouTube, lancé fin 2005, s'est hissé en quelques mois à la 14e place des sites les plus visités du monde, selon le cabinet ComScore, avec 72 millions de visiteurs en août 2006 et 100 millions de vidéos regardées par jour. De quoi attirer les convoitises de tous les grands d'Internet, dont Yahoo!, News Corp., Viacom et Time Warner, qui ont également cherché à le racheter ces derniers mois, selon la presse économique.

Le rachat de YouTube est la cinquième acquisition de Google depuis trois ans. Elle intervient après les prises de participation dans dMArk Broadcasting, une société qui a mis au point des logiciels pour les radios en ligne, en janvier 2006 (investissement de 100 millions de dollars), AOL (prise de participation de 5 % dans le capital, en décembre 2005, pour un milliard de dollars), ou Picasa, qui permet de gérer et partager ses images en ligne (investissement de 4 millions de dollars).

Un bon investissement selon Sasa Zorovic, analyste chez Oppenheimer : " YouTube a une valeur phénoménale en termes de trafic et dans le secteur de l'internet c'est important, de la même façon que l'emplacement est important dans l'immobilier. YouTube a presque 50 pour cent du marché de la vidéo en ligne et combiné à Google Video, ils ont près de 60 % du trafic. "

Steve Neimeth, gérant de fonds chez AIG SunAmerica , un autre intéressé par YouTube, commente : " C'est une très bonne décision stratégique de la part de Google, car cela leur permet de se développer dans un secteur internet où ils n'étaient pas forts : la vidéo. Financièrement, Google est assis sur 10 milliards de dollars de cash et le prix est dans la fourchette des attentes."

Quant au fonctionnement de la société YouTube, basée à San Mateo, en Californie, et à ses employés, Google précise qu'il n'y aura aucun changement de côté-là. L'annonce anticipée par les investisseurs a d'ailleurs profité au titre boursier de Google. Quant à la capitalisation boursière de Google, elle a atteint les 130 milliards de dollars, dépassant celle d'IBM ou d'Intel et faisant de Google la 15e société américaine.

Grâce à ce rachat, Google enrichit son propre site de vidéo en ligne Google Video avec les plusieurs millions de vidéos dont dispose YouTube. Sans oublier bien sûr les quelque 32 millions de visiteurs qui passent chaque mois sur le site de YouTube. A l'heure de ce rachat, on apprend également que YouTube a signé des accords avec Universal, CBS et Sony pour se prémunir contre une avalanche de procès, et la colère des majors. YouTube mettra également des technologies en place pour éviter la diffusion de vidéos illégales, autrement dit, non autorisées par les ayants droits.

Comme un bonheur n'arrive jamais seul, Google a également annoncé lundi 9 octobre un partenariat stratégique avec Sony BMG Music Entertainment, Bertelsmann AG et Warner Music Group visant à permettre aux internautes d'avoir accès au large catalogue de vidéos musicales de Sony BMG sur Google Vidéos. Grâce à cet accord, d'ici quelques mois, il est prévu que les utilisateurs puissent accéder au contenu Sony BMG via les sites partenaires de Google sur le réseau AdSense.

NYT

WP

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le gouvernement révèle ses 13 projets de réseaux thématiques de recherche avancée
Vendredi, 13/10/2006 - 00:00

Le gouvernement a retenu 13 projets de réseaux thématiques de recherche avancée (RTRA) regroupant les universités, grandes écoles et organismes de recherche, a annoncé le 4 octobre Dominique de Villepin. Ces 13 projets mis en place dans le cadre de la loi recherche "ont vocation à devenir les fers de lance de la recherche française", a expliqué le Premier ministre lors de sa 15e conférence de presse mensuelle.

Ils permettront aux universités, grandes écoles et laboratoires de recherche "d'unir leurs forces pour constituer des ensembles de niveau mondial dans les domaines d'excellence française", a ajouté le chef du gouvernement. Il a mentionné "les mathématiques, les sciences de la vie, les sciences de la matière, l'informatique et les sciences humaines, économiques et sociales".

Les fondations de coopération scientifique permettant de soutenir ces réseaux seront mis en place à la fin de l'année. L'Etat contribuera à hauteur de 200 millions d'euros au financement de ces fondations. Treize propositions ont été retenues sur les 37 projets, a précisé François Goulard :

Sciences et mathématiques à Paris

Physique fondamentale à Saclay

Informatique et communication au sud de Paris

Neurosciences à Paris

Biologie, physique et thérapie du cancer à Paris

Chimie à Strasbourg

Infectiologie à Lyon

Nanosciences à Grenoble

Agronomie à Montpellier

Aéronautique à Toulouse

Sciences économiques à Toulouse et à Paris

Centres thématiques internationaux en sciences humaines et sociales. Ce dernier réseau réunira des instituts d'études avancées disséminés à Aix, Lyon, Nantes et Paris.

Ministère de la Recherche

La science en accès libre sur HAL
Vendredi, 13/10/2006 - 00:00

Les grands instituts de recherche français ont décidé de créer une plate-forme commune pour le dépôt d'écrits et de publications scientifiques. Gratuite, pour le dépôt comme pour la consultation, cette plate-forme est un «outil de communication directe» entre les chercheurs. C'est un mouvement de fond auquel la recherche française ne pouvait échapper : l'internet a permis de développer des modes de communication directs et ouverts, hors des circuits traditionnels des publications à comité de lecture, comme Nature, Science, Cell etc.

Les Universités, les Grandes Ecoles et les organismes de recherche (CNRS, Inserm, INRA, Cirad, IRD, INRIA, Cemagref, Institut Pasteur) ont signé un protocole d'accord pour lancer la plate-forme. Elle est construite à partir de HAL (Hyper Article en Ligne), créé au CNRS par le Centre de communication directe (CCSD).

Articles publiés, thèses, textes de conférences ou de séminaires, différents types d'écrits pourront être mis en ligne sur HAL, à condition qu'il s'agisse «d'un travail achevé de recherche, conforme aux usages scientifiques dans la discipline». Il n'y aura pas de relecture au sens où la pratiquent les publications qui soumettent les textes à d'autres chercheurs avant de publier (peer review). Le CCSD effectuera seulement un «examen rapide» du document.

HAL

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top