RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 360
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 25 Octobre 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'homme bientôt dépassé par l'objet dans l'utilisation de l'Internet
Le GPS assisté par téléphone arrive
Tom Tom GO 700 : une nouvelle génération de GPS portable qui intègre le mobile !
Microsoft prépare la télévision haute définition sur PC
Le prototype d'un ordinateur portable à 100 dollars présenté à Tunis
Au Japon, les appartements se visitent sur l'écran d'un téléphone
Japon : NTT propose la nouvelle version d'Internet (IPv6) au grand public
Un portail Web pour mettre en relation l'offre et la demande d'emploi dans la fonction publique territoriale
Les criminels britanniques les plus recherchés présentés sur Internet
Matière
Des piles à combustible pour mieux transformer le charbon en électricité
Espace
Ariane-5 "dix tonnes" signe son deuxième succès
Terre
Le réchauffement du climat modifiera le débit des rivières alimentées par les glaciers
Vivant
La fabrication des gènes observée pour la première fois au microscope
Un capteur de lumière dévoile ses secrets
Un tiers des cancers pourrait être évité
Cancer du pancréas : essais encourageants d'un vaccin expérimental et d'un virus modifié
Sclérose en plaques : une nouvelle approche thérapeutique à l'essai
Le Décryptage du « sens de l'orientation » des cellules permet de mieux comprendre le cancer
Des cellules souches pour fabriquer du cartilage
La chirurgie robotisée est en train de s'imposer dans le domaine cardio-vasculaire
Les allergies : vaincues... dès la naissance ?
Alzheimer : des avancées théoriques et thérapeutiques majeures
Une molécule qui combat le tabagisme dans la tête
Un gène de la peur découvert chez la souris
Plus d'un Français sur deux fument trop, boivent trop ou mangent trop
Homme
Microsoft lance sa console Xbox 360 qui rivalise avec le PC
La consommation de télévision sur portable désormais incontournable
Recherche
En route pour le courant porteur en ligne en voiture
Edito
Il faut évaluer scientifiquement l'impact de la pollution chimique sur notre santé



Selon le dernier rapport du Fonds des Nations Unies pour la Population (FNUAP), la pollution atmosphérique ferait trois millions de victimes chaque année dans le monde. La pollution atmosphérique représente une grave menace pour la santé de la population mondiale. Les composants les plus dangereux pour l'homme seraient le dioxyde de soufre (produit de la combustion du pétrole et du charbon à haute teneur en soufre), les matières particulaires (produits des feux ménagers, centrales thermiques industrielles et moteurs diesel), l'oxyde de carbone et le dioxyde d'azote (produit des gaz d'échappement), l'ozone et enfin le plomb.

Dans nos habitations, l'air intérieur n'est pas meilleur qu'à l'extérieur. Depuis le début des années 1900, l'industrialisation a introduit dans l'environnement près de 100.000 produits chimiques. Certains ont été interdits en raison de leur toxicité, mais seulement quelques uns, car pour la plupart d'entre eux leurs effets sur la santé ne sont pas étudiés. En attendant, ils ont déjà largement pénétré l'air, l'eau, le sol, les aliments et le corps humain.

Durant l'année 2001, le magazine Que Choisir a analysé 855 logements pour en déduire les taux de composés organiques volatils et d'aldéhydes. Le constat est édifiant : dans 90 % des cas, les concentrations d'aldéhydes ont été supérieures aux recommandations de l'Organisation Mondiale de la Santé (OMS) qui est de 10µg/m3 pour les personnes sensibles. Démontré ou fortement suspecté, nombre de produits chimiques sont responsables de fausses couches, de troubles du développement, de maladies ou encore de mortalité infantile. Quant à l'exposition à certains métaux lourds, ils exercent clairement un impact génétique. D'autres composés sont au banc des accusés en tant que causes majeures de troubles de la reproduction et de la fertilité. Il est aujourd'hui urgent de procéder à des essais plus complets et rigoureux afin de mieux cerner cette pollution atmosphérique et de déceler les expositions aux substances nocives.

Enfin, une enquête réalisée par le WWF à l'aide de tests sanguins a permis de détecter la présence de 73 produits chimiques dans le sang de 13 familles européennes sur trois générations : grands-parents, parents et enfants. Le WWF a recherché la présence de 107 produits différents. Le nombre le plus élevé de produits a été détecté dans la génération des grands-mères (63 produits). Cependant, la jeune génération est contaminée en moyenne par un nombre plus élevé de produits chimiques (59) que la génération des mères (49).

Les associations de consommateurs exigent une législation et un contrôle sur ces produits. Quoi qu'il en soit, il faut régulièrement ouvrir ses fenêtres pour échapper à la pollution intérieure. Car les désodorisants et autres bougies ne sont pas les seules sources de cette insidieuse pollution. Les composés organiques volatils (COV), par exemple, sont présents dans les vernis, colles, pesticides, bois agglomérés et contreplaqués ou produits ménagers.

En juin 2004, 76 personnalités de premier plan, scientifiques, médecins, avocats, philosophes, réunies à Paris ont lancé de l'Unesco "l'appel de Paris" afin de combattre la pollution chimique qui constitue une grave menace pour la santé humaine. Le texte de l'appel préconise l'interdiction des produits "dont le caractère cancérogène, mutagène ou toxique pour la reproduction est certain ou probable chez l'homme". Cet appel a eu le mérite de lancer un vrai débat public sur ce problème trop longtemps sous estimé de la pollution chimique diffuse et de ses conséquences à long terme pour notre santé.

Les produits mis en cause sont l'amiante (elle devrait provoquer 250.000 à 500.000 décès en Europe dans les prochaines années), les dioxines (d'où l'inquiétude autour des stations d'incinération des ordures), les hydrocarbures aromatiques polycycliques (COV), les métaux lourds, les pesticides, les additifs alimentaires (colorants et conservateurs), etc. Tous ces produits n'ont pas la même action ni la même dangerosité vis-à-vis de la santé. Certains sont directement toxiques, d'autres s'accumulent le long de la chaîne alimentaire avant de dépasser les doses tolérables, d'autres sont dangereux par leurs produits de dégradation, etc. L'eau, les sols et l'air sont contaminés. Toute la difficulté de la prévention chimique est qu'il se passe parfois plusieurs dizaines d'années entre le moment où un produit est mis sur le marché et le moment où on se rend compte de sa dangerosité.

Depuis 2001, le programme Reach (Enregistrement Evaluation et Autorisation des Produits chimiques), adopté par la Commission européenne, oblige les industriels à une information précise du public sur les risques provoqués par les produits employés. Ce programme doit enfin permettre de répertorier et d'évaluer la dangerosité de 30 000 produits chimiques d'ici 2015.

Le Parlement européen a approuvé le 17 novembre ce projet Reach de nouvelle réglementation des produits chimiques, par une majorité de 407 voix contre 155. Parmi les dispositions adoptées, la principale nouveauté est qu'il n'incombera plus aux autorités publiques de démontrer la nocivité des produits, mais aux industriels de prouver qu'ils sont sûrs. La commercialisation des substances les plus dangereuses sera soumise à autorisation. Le Parlement a en effet voté l'obligation de remplacer les substances dangereuses par des alternatives plus sûres, quand celles-ci sont disponibles. Lorsque ce n'est pas le cas, les autorisations seront délivrées seulement pour cinq ans, pour encourager le développement de substitutions.

Six chercheurs français, Patrick Balaguer (Inserm), Jean-Pierre Cravedi, Frédéric Flamant et Patrick Prunet (Inra), Barbara Demeneix (Muséum d'Histoire naturelle) et Vincent Laudet (Ecole Normale supérieure de Lyon), tous spécialistes des polluants dans la chaîne alimentaire, s'étaient récemment prononcés publiquement pour l'application de cette directive Reach.

Ils soulignaient que la production mondiale, tous produits chimiques confondus, est passée d'un million de tonnes en 1930 à 400 millions aujourd'hui et que pour plus de 80 % d'entre eux, "les connaissances sont insuffisantes pour nous permettre d'évaluer les risques pour la santé et l'environnement". Par ailleurs, en ratifiant la Convention de Stockholm (qui est entrée en vigueur le 17-05-2004) sur les polluants organiques persistants, l'Union européenne est enfin passée à la vitesse supérieure dans le combat mené pour se débarrasser des substances chimiques les plus dangereuses. Cette convention est à ce jour la mesure la plus importante prise au niveau international pour interdire l'utilisation des substances chimiques toxiques. Désormais, c'est donc à l'industriel de prouver la non-toxicité de ses produits.

Le 21 juin dernier, le gouvernement, conscient de la gravité de ce problème, a présenté son Plan national santé environnement. Il a rappelé à cette occasion quelques chiffres terribles : 30 000 décès anticipés par an sont liés à la pollution atmosphérique urbaine, 7 à 20 % des cancers seraient imputables à des facteurs environnementaux, 14 % des couples consultent pour des difficultés à concevoir, des difficultés qui pourraient être liées à des expositions à des substances toxiques pour la reproduction, près d'un million de travailleurs seraient exposés à des substances cancérogènes.

Le gouvernement a donc élaboré un plan quinquennal pour rendre notre environnement plus respectueux de notre santé. Ce plan vise notamment à réduire de 30 % les émissions de particules diesels d'ici à 2010, via notamment un système incitatif de "bonus-malus" en fonction de la pollution des véhicules neufs. Ce plan vise également à passer de 37 à 100 % des captages d'eau potable protégés d'ici à 2010.

Enfin, le gouvernement a admis que l'évaluation des risques liés aux substances chimiques est insuffisante, les capacités d'expertise française trop peu développées. Il est vrai qu'en dépit de cette prise de conscience récente et des avancées législatives et juridiques, un immense travail scientifique reste à accomplir pour identifier, répertorier et évaluer la dangerosité pour l'homme des quelque 100 000 composants chimiques qui constituent notre environnement moderne. Sans faire de procès d'intention à quiconque, ni jeter l'opprobre sur l'industrie chimique, qui a fait des efforts considérables d'information et de réduction de la pollution, nous devons tout de même admettre que certaines pathologies graves augmentent continuellement depuis 30 ans sans que l'on comprenne pourquoi. C'est le cas de certains cancers, (lymphomes, cancers de la thyroïde notamment), mais aussi de l'asthme et des allergies qui ont triplé depuis 30 ans.

S'agissant du cancer, le nombre de nouveaux cas a globalement progressé de 63 % depuis 25 ans, soit 108 000 cas supplémentaires, chaque année en 2004 par rapport à 1980, ce qui est considérable. Or, une fois pris en compte le vieillissement de la population, le tabac, et les progrès du dépistage, il reste encore un tiers des nouveaux cas de cancers inexpliqués. Comme le souligne un récent rapport de l'Inserm intitulé « Cancer : approche méthodologique du lien avec l'environnement » , un nombre croissant de scientifiques suspecte certains produits chimiques présents dans notre environnement d'être directement ou indirectement responsables de ces nouveaux cas de cancers inexpliqués.

Les industriels européens ont été sommés de notifier au niveau européen les biocides qu'ils commercialisent sur le marché. 1 713 substances actives ont ainsi été identifiées, réparties entre 23 catégories. Sachant que chaque substance donne lieu à la formulation de dix produits biocides, on considère qu'au moins 15 000 produits sont concernés.

Au niveau français, c'est le ministère de l'Ecologie et du Développement durable qui est chargé d'organiser la mise en place de cette nouvelle réglementation. Compte tenu des coûts très élevés de dépôt de dossiers (jusqu'à 180 000 euros), on estime que les industriels devraient se contenter de soumettre à l'évaluation environ 400 substances sur 1 713. Les autres, à savoir la grande majorité, seront donc retirées de facto du marché d'ici à 2006.

Une fois ce travail d'évaluation effectué, c'est le ministère qui décidera en dernier ressort d'attribuer ou non l'autorisation de mise sur le marché à un produit. On ne peut que déplorer qu'il ait fallu attendre 2004 pour que l'Europe, comme notre pays, se donnent véritablement les moyens d'évaluer et de prévenir cette pollution chimique. Mais à présent, nous devons mettre en oeuvre le plus rapidement possible un système scientifique rigoureux d'évaluation et d'autorisation pour tous les nouveaux produits chimiques introduits dans notre vie quotidienne, tout en amplifiant notre effort pour mieux évaluer la dangerosité des substances chimiques déjà présentes depuis longtemps dans notre environnement.

Le désastreux exemple de l'amiante, dont l'interdiction totale a bien trop tardé en France (alors qu'on savait depuis quarante ans que l'amiante était cancérigène) et qui va tuer 100.000 de nos concitoyens dans les vingt prochaines années, doit nous servir à jamais de leçon. Le rapport du Sénat sur ce drame sanitaire est accablant (Voir rapport ).

Au cours de ces 20 dernières années, nous avons su prendre des mesures pour diminuer de façon sensible des pollutions identifiées (pollution de l'eau, pollution des véhicules ou des installations industrielles). Il nous faut à présent franchir une nouvelle étape et apprendre à identifier, à évaluer scientifiquement et à prévenir cette pollution chimique diffuse qui est devenue un problème majeur de santé publique.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'homme bientôt dépassé par l'objet dans l'utilisation de l'Internet
Mercredi, 26/10/2005 - 00:00

Les objets vont devenir dans les prochaines années les premiers utilisateurs de l'Internet devant les humains, dans un "meilleur des mondes" fait de détecteurs électroniques qui suivront, via la toile, les mouvements des choses - et donc de leur propriétaire. Dans un rapport intitulé "L'Internet des objets", l'Union internationale des télécommunications (UIT) a présenté au Sommet mondial sur la société de l'information (SMSI) de Tunis la prochaine révolution technologique.

Dans ce monde orwellien, l'homme, l'objet, les appareils électroniques et les bases de données seront reliés entre eux par un Internet radicalement transformé. "La science-fiction devient lentement réalité dans un +internet des objets+ fondé sur un réseau de connexions omniprésentes", prévoit le rapport. "Nous entrons dans une nouvelle ère dans laquelle les 'utilisateurs' de l'Internet se compteront en milliards, mais où les hommes seront peut-être une minorité". L'Internet compte actuellement 875 millions d'utilisateurs dans le monde, un chiffre qui devrait seulement doubler si l'homme en reste le principal vecteur. Mais les experts tablent sur des dizaines de milliards "d'utilisateurs", vivants et inanimés, dans les prochaines décennies.

Ces "internautes" seront liés entre eux par un réseau omniprésent, sans que quiconque doive allumer un ordinateur où que ce soit. Des appareils ménagers télécommandés par ordinateur ont déjà fait leur apparition, ainsi que des prototypes d'automobiles dotés de détecteurs qui permettent d'éviter les collisions. Des téléphones portables peuvent servir de billet de train électronique et la viande exportée par la Namibie, ainsi que des produits destinés au distributeur américain Wal-Mart sont équipés de puces qui permettent de les suivre à la trace.

A l'avenir, l'UIT annonce l'arrivée du réfrigérateur qui communique directement avec le supermarché du coin, le lave-linge avec la chemise, la puce sous-cutanée avec un appareil médical ou encore le stylo avec l'ordinateur. "Nous sommes en train de créer une intelligence qui donne un peu de vie aux objets et permet à ces choses de discuter derrière notre dos", résume John Gage, chercheur de la firme informatique américaine Sun Microsystems. De nouveaux détecteurs placés dans des objets en ligne pourront aussi "rassembler des données de l'extérieur et humaniser la technologie en complémentant, voire en remplaçant, la détection humaine", explique l'auteur du rapport, Lara Srivastava.

Le spécialiste américain en informatique, Nicholas Negroponte, a pris l'exemple d'une poignée de porte, qui, placée à l'entrée de la maison, s'ouvrirait toute seule dès l'arrivée du propriétaire chez lui, les bras chargés de provisions, mais se fermerait en revanche aux inconnus et irait jusqu'à "signer" les recommandés. "Cette poignée serait tellement intelligente qu'elle pourrait laisser sortir le chien mais ne le laisserait pas en ramener cinq autres à la maison", suggère M. Negroponte. "Les téléphones pourront se décrocher tous seuls, deviner si l'appel est ou non important, répondre comme un majordome anglais ou comme une secrétaire de direction et, le cas échéant, alerter la +chose+ la plus proche de vous pour vous prévenir discrètement", ajoute-t-il.

Toute cette évolution est rendue possible par l'apparition des puces équipées de fréquences radio (RFID) qui peuvent être détectées en temps réel. Elle pose d'évidents problèmes de protection de la vie privée et des libertés, d'autant que les puces RFID pourront équiper des passeports, surveiller les habitudes de consommation ou la circulation de l'argent.

AFP

Le GPS assisté par téléphone arrive
Mercredi, 26/10/2005 - 00:00

Une géolocalisation par GPS n'est efficace que si le terminal GPS terrestre reste visible du satellite. Ce qui n'est pas toujours le cas (tunnels, endroit entouré de bâtiments élevés...). Le GPS assisté (A-GPS) - qui allie les capacités du réseau de téléphonie mobile et du réseau satellite - pallie ce problème, dans la mesure où l'opérateur mobile pré localise le terminal. Un mécanisme qu'Orange vient d'expérimenter.

Dans le cadre de ce test, Alcatel a développé pour Orange une solution de GPS assisté de bout en bout. Celle-ci comprend : le serveur de positionnement Alcatel 8608 Enhanced Assisted-GPS, qui transmet au mobile des données dites d'assistance pour qu'il puisse acquérir les signaux GPS plus rapidement qu'un GPS classique, et l'assistant personnel communicant iPAQ hw6515 Mobile Messenger de HP, alliant les modes de transmission radio voix et données à haut-débit sur le réseau Edge et la navigation GPS.

Ces deux équipements utilisent le protocole Secure User Plane Location (SUPL), qui rend la technologie A-GPS accessible à partir de n'importe quel réseau mobile. D'après le constructeur, la plate-forme SUPL est plus économique que les autres solutions basées sur une architecture de contrôle aérien, nécessitant, elles, des adaptations coûteuses pour un réseau mobile. La solution comprend aussi une liaison A-GPS, qui communique directement avec le téléphone portable via un lien IP. Et elle offre la possibilité d'utiliser des téléphones mobiles A1000 de Motorola combinant les fonctions 3G et PDA. L'architecture mise en place autorise l'acquisition des signaux en moins de deux secondes. Cela grâce, notamment, à la performance des données d'assistance fournies par le système satellite européen Egnos (European Geostationary Navigation Overlay Service), précurseur du futur système Galiléo.

L'expérimentation assure une précision de 3 à 5 mètres en extérieur (idéal pour les systèmes de guidage piéton) et d'une dizaine de mètres dans des conditions plus complexes. Car, outre la rapidité d'acquisition des signaux, l'A-GPS autorise la réception des signaux satellites les plus faibles. Ce qui facilite la localisation dans les situations les plus difficiles.

OINet

Tom Tom GO 700 : une nouvelle génération de GPS portable qui intègre le mobile !
Mercredi, 26/10/2005 - 00:00

Le GO 700 représente bien la nouvelle génération de GPS portable avec son utilisation intuitive et conviviale. Son disque dur de 2,5 Go permet un déplacement dans 17 pays d'Europe, sans avoir à effectuer de changement de carte. Il permet les appels « mains libres » via le Bluetooth : une simple pression sur l'écran du GO vous permet d'accepter ou d'établir un appel tout en conduisant, grâce à son microphone et haut-parleur intégrés pour une qualité audio professionnelle. Autre avantage,le GO 700 fonctionne même lorsque votre téléphone se trouve dans votre sac ou dans votre poche. En outre, il est possible de télécharger son carnet d'adresse dans le TomTom GO pour ensuite l'utiliser comme interface avec le téléphone. Connecté au téléphone portable il donne accès aux services TomTom Plus. Toujours simple et convivial avec son écran tactile, mais encore plus confortable à utiliser grâce à la télécommande fournie. TomTom Plus vous fournit en temps réel les informations dont vous avez besoin sur les embouteillages et les conditions météorologiques, tout en vous permettant de télécharger des plans de ville détaillés, des voix supplémentaires, des points d'intérêt.

Tom Tom

Microsoft prépare la télévision haute définition sur PC
Mercredi, 26/10/2005 - 00:00

Microsoft annonce un partenariat avec des câblo-opérateurs pour permettre aux utilisateurs de regarder facilement des émissions en haute définition sur leur PC, leur console de jeu vidéo Xbox et autres matériels informatiques. Le premier éditeur mondial de logiciels a indiqué travailler sur une technologie plug and play (qui ne nécessite pas de configuration) avec CableLabs, un industriel spécialisé dans l'élaboration de standards pour la télévision par câble et les services de données et de téléphonie.

Microsoft et CableLabs développeront des PC capables d'accepter sans difficulté les cartes numériques remplissant les mêmes fonctions que les boîtiers multimédia des opérateurs de télévision, mais tout en étant assez petites pour se glisser dans un téléviseur, dans un ordinateur et autres produits électroniques. Les PC prêts à accueillir ces cartes seront disponibles au second semestre 2006 et utiliseront une version multimédia de Windows avec une interface simplifiée connue sous le nom de Windows Media Center Edition, a ajouté Microsoft.

Reuters

Le prototype d'un ordinateur portable à 100 dollars présenté à Tunis
Mercredi, 26/10/2005 - 00:00

Le prototype d'un ordinateur portable, dont le coût ne devra pas dépasser cent dollars, a été présenté pour la première fois à Tunis au Sommet mondial sur la société de l'information (SMSI). Appelé "la machine verte" en raison de sa couleur, l'appareil a été présenté à la presse par le directeur du Media Lab du Massachusetts Institute of Technology (MIT), Nicholas Negroponte. Il a été conçu dans le cadre de l'association à but non lucratif "Un ordinateur personnel par enfant" présidée par M. Negroponte. Le projet ambitionne de doter chaque enfant, et en particulier ceux des pays en développement, d'un ordinateur portable personnel. "C'est une machine solide, utilisant peu de courant, qui fonctionnera avec des logiciels libres, pourra être reliée à l'Internet et sera disponible dans toutes les langues de nos pays partenaires", a expliqué M. Negroponte.

Le prototype, pas plus grand qu'un livre, est doté d'un microprocesseur de 500 mégahertz et peut être alimenté soit par le courant électrique, soit à l'aide d'une petite manivelle jaune disposée sur le côté droit du clavier. M. Negroponte et son équipe discutent depuis plusieurs mois avec les gouvernements de plusieurs pays pour passer des accords avec leur ministère de l'Education, qui sera chargé de distribuer les ordinateurs. Le chercheur a indiqué qu'il souhaitait dans un premier temps sceller des partenariats avec des pays de grande taille et lancer les premiers programmes dans deux pays d'Amérique latine, deux pays asiatiques et deux pays africains. Les discussions sont avancées avec le Nigeria, l'Egypte, le Brésil, l'Argentine, la Thaïlande, la Chine et l'Inde, a-t-il précisé. Parallèlement, des pourparlers sont en cours avec cinq sociétés susceptibles de fabriquer ces ordinateurs portables à bas prix. "Nous espérons avoir de petites quantités (de l'ordre de quelques milliers) produites courant 2006, et plus de 100 millions de modèles fabriqués d'ici fin 2006 ou début 2007", a déclaré Charles Negroponte.

Wanadoo

Au Japon, les appartements se visitent sur l'écran d'un téléphone
Mercredi, 26/10/2005 - 00:00

Une société nippone de services destinés aux promoteurs immobiliers leur propose un nouvel outil de promotion qui permet de visionner l'intérieur d'un appartement en vidéo sur un téléphone portable, simplement en photographiant une sorte de code-barres associé à la petite annonce. La société UnitedRooms a conçu ce système en s'appuyant sur les "codes à barres en deux dimensions" (QR Code) que savent décrypter les téléphones portables japonais.

"En photographiant avec son téléphone le code, imprimé sur les prospectus ou à côté de chaque petite annonce immobilière, l'utilisateur accède automatiquement à un site Internet mobile spécifique qui diffuse alors une séquence vidéo de l'appartements proposé", explique UnitedRooms. La quasi-intégralité des téléphones portables nouvellement mis en vente au Japon sont compatibles avec les QR Code, et parmi le parc installé (90 millions d'unités), environ un tiers est capable de lire les QR Codes, selon les chiffres du ministère des Télécommunications. Les QR Codes, des carrés tachetés de noir et de blanc, permettent de stocker sous forme cryptée une importante quantité d'informations, y compris en "kanjis" (idéogrammes).

Apposés sur les cartes de visite, ils permettent par exemple une saisie directe des coordonnées complètes d'une personne dans le répertoire d'un téléphone par simple photographie, sans rien saisir à la main. Pour pouvoir interpréter les QR Codes, les téléphones portables doivent être dotés d'un petit programme pré-installé ou téléchargé.

LM

Japon : NTT propose la nouvelle version d'Internet (IPv6) au grand public
Mercredi, 26/10/2005 - 00:00

Une filiale du géant des télécommunications nippon NTT, NTT Communications, a annoncé qu'elle proposerait dès décembre 2005 aux particuliers une offre de connexion à Internet basée sur le protocole de nouvelle génération IPv6, qui améliore la sécurité et les fonctions du net. Moyennant le téléchargement d'une mise à jour du système d'exploitation Windows et un supplément de 300 yens (2,20 euros) par mois, les abonnés pourront se connecter via ce nouveau protocole, a précisé l'opérateur dans un communiqué. Outre une sécurité renforcée, l'IPv6 permet une extension du nombre d'adresses Internet chiffrées disponibles dans le monde. Il autorise ainsi l'attribution d'une adresse fixe à un nombre accru de terminaux de toutes natures, comme les téléphones portables, les distributeurs de boissons et bien d'autres machines. Ces appareils peuvent dès lors plus facilement se connecter au réseau et deviennent, si besoin est, facilement pilotables à distance. L'IPv6 est aussi censé simplifier la création de réseaux domestiques locaux.

Le passage à ce protocole, développé et expérimenté depuis des années, en lieu et place de l'IPv4 communément employé, nécessite toutefois de substantielles modifications de réseaux des opérateurs, d'où un déploiement lent. NTT Communications avait été parmi les premiers fournisseurs d'accès du monde à proposer l'IPv6 aux clients professionnels. Sa nouvelle offre s'adresse cette fois aux 5 millions de foyers abonnés à son service d'accès à Internet à haut débit par fibre optique directe (FTTH) ou ADSL.

NTT

Un portail Web pour mettre en relation l'offre et la demande d'emploi dans la fonction publique territoriale
Mercredi, 26/10/2005 - 00:00

Ce sont deux grosses structures chargées de gérer la bourse de l'emploi dans la fonction publique territoriale. D'un côté le CNFPT, Centre de la fonction publique territoriale, qui est chargé du développement des compétences et de la formation des agents des collectivités locales. De l'autre, le CDG 42, Centre départemental de gestion de la fonction publique territoriale de la Loire qui gère les carrières des fonctionnaires publics territoriaux de toutes les collectivités de moins de 350 fonctionnaires.

Ces structures ont constaté que les collectivités qui recrutaient, s'adressent surtout à la presse spécialisée, et que le public des demandeurs d'emploi avait difficilement accès aux offres en la matière. Pour mettre en adéquation ces offres et demandes d'emplois, le CNFPT et le CDG 42 ont mis en place un site Internet accessible à tous. En cliquant surEmploi Territorial les collectivités passent leurs offres et les demandeurs, après s'être identifiés, peuvent consulter les offres et laisser un CV. Ce service est ouvert aux demandeurs d'emploi déjà en poste dans la fonction publique territoriale et qui souhaitent évoluer dans la fonction ou à ceux qui n'y sont pas : les collectivités locales peuvent en effet proposer des postes à entrée directe, sans concours, pour certains emplois d'exécution. Quant aux collectivités locales, en tant qu'employeur, elles peuvent, à partir de ce site, procéder à toutes les étapes du recrutement et gérer en direct et rapidement leurs offres.

Outil à dimension nationale, www.emploi-territorial.fr est opérationnel pour l'instant dans les départements de la Loire et de l'Isère ainsi que dans ceux de la région Poitou-Charentes. Mais ce portail devrait s'étendre rapidement à toute la France en raison de sa capacité tout à fait nouvelle à mettre en relation l'offre et la demande d'emploi dans les collectivités locales. Il faut noter que cet outil original convivial et dynamique est également sécurisé et que les CV des demandeurs d'emploi ne sont accessibles qu'aux collectivités locales concernées, via un mot de passe.

ET

Les criminels britanniques les plus recherchés présentés sur Internet
Mercredi, 26/10/2005 - 00:00

Photos et CV à l'appui, 22 criminels britanniques recherchés par la police sont présentés depuis peu sur un site Internet créé par Crimestoppers, une ONG britannique qui travaille dans le domaine de la lutte contre la criminalité. Cette liste sur Internet est basée sur le modèle américain des "America's most wanted", créé par le directeur du FBI, Edgard J. Hoover, en 1950. Actuellement, seules 11 des 52 forces de police britanniques se sont associées à cette initiative, dont la Metropolitan Police, alias Scotland Yard. Au fur et à mesure de l'entrée dans le système des différentes forces de police britanniques, le nombre des criminels recherchés présentés sur le site devrait lui aussi augmenter, a précisé Mick Laurie, le directeur de Crimestoppers.

Sur le site, chaque criminel est identifié par sa photo, éventuellement des images de caméras de surveillance le concernant, ainsi qu'un dossier présentant ses caractéristiques physiques ou personnelles et notamment les faits pour lesquels il est recherché. Sur les 22 noms actuellement affichés, sont recensés plusieurs meurtriers, mais aussi plus curieusement des délinquants mineurs, dont deux personnes ayant volé des canettes de bière dans une épicerie... Crimestoppers est une organisation non gouvernementale britannique créée en 1988 et qui a pour but d'aider la police dans ses enquêtes. Depuis sa création, cette ONG a reçu plus de 640.000 appels du public, qui ont permis de conduire à quelque 57.000 arrestations ou inculpations. Chaque mois, Crimestoppers reçoit en moyenne 6.000 appels anonymes, permettant quelque 500 interpellations.

CS

MW.

BB

^ Haut
Matière
Matière et Energie
Des piles à combustible pour mieux transformer le charbon en électricité
Mercredi, 26/10/2005 - 00:00

L'organisme de recherche SRI International développe une technologie de piles à combustible au carbone direct qui permettrait de convertir plus efficacement le charbon en électricité. Le SRI (Menlo Park, Californie) affirme que sa technologie de piles à combustible au carbone direct peut convertir l'énergie chimique du charbon directement en électricité sans recourir à la gazéification.

Cette technologie serait deux fois plus efficace que les centrales au charbon d'aujourd'hui, en réduisant des émissions de dioxyde de carbone, selon le SRI. Elle produirait de l'électricité à un coût compétitif à partir d'une variété de combustibles, y compris le charbon, le coke, le goudron, la biomasse et les déchets organiques, selon l'organisme.

« Le système du SRI mêle les principales qualités de ces deux technologies éprouvées : les piles à combustible à oxyde solide et les piles à combustible à air de carbone en fusion », déclare-t-on. « Le procédé de conversion d'énergie en une seule étape propre et hautement efficace transforme directement l'énergie chimique du charbon pulvérisé (et d'autres combustibles contenant du carbone) en électricité via l'oxydation électrochimique du carbone. »

Les États-Unis, qui disposent de réserves de charbon considérables, continueront d'utiliser le charbon comme leur source principale d'électricité pendant de nombreuses années, selon le SRI.

Toutefois, les centrales au charbon d'aujourd'hui convertissent le charbon en électricité avec une efficacité relativement faible. En outre, le charbon est une source d'émissions toxiques, de gaz à effet de serre et de lourds polluants métalliques lorsqu'il est utilisé dans des centrales électriques traditionnelles.

Pour que les États-Unis gagnent leur indépendance énergétique de manière économique et durable pour l'environnement, il est nécessaire de trouver un procédé propre, efficace et direct pour convertir le charbon en énergie électrique. « Une source d'énergie doit répondre à des critères stricts pour remplacer les centrales au charbon conventionnelles », a déclaré Lawrence Dubois, vice-président du SRI. « Le système de conversion doit utiliser des ressources domestiques économiques, avoir des coûts d'exploitation et un capital comparables ou inférieurs, offrir une meilleure efficacité et capturer en interne les produits d'oxydation de combustible pour atteindre un niveau zéro d'émission de gaz à effet de serre et de gaz toxiques. L'approche de piles à combustible au carbone direct innovante du SRI a le potentiel de répondre à tous ces critères exigeants. »

EET

^ Haut
Espace
Espace et Cosmologie
Ariane-5 "dix tonnes" signe son deuxième succès
Mercredi, 26/10/2005 - 00:00

La fusée Ariane-5 dans sa version capable d'emporter dix tonnes à son bord a placé le 16 novembre sur orbite les satellites de télécommunications américains Spaceway-2 et indonésien Telkom-2 au cours de sa troisième mission, un lancement reporté à deux reprises. La "version lourde" d'Ariane-5 fait ainsi ses preuves avec ce deuxième succès en plaçant sur orbite plus de huit tonnes, un record pour les fusées Ariane. Le premier tir d'Ariane-5 "dix tonnes", en décembre 2002, s'était soldé par un échec.

Le ministre délégué à l'Enseignement supérieur et à la Recherche, en charge de l'Espace, François Goulard, s'est félicité de la réussite de ce lancement. "Ce succès confirme de manière éclatante le retour en vol d'Ariane 5, dans sa version 10 tonnes, après la réussite du vol de qualification le 12 février dernier", a-t-il déclaré dans un communiqué diffusé par ses services. Le décollage de la fusée -une Ariane-5 ECA ou Ariane-5 "dix tonnes"- a eu lieu depuis la base de Kourou en Guyane française.

Les deux satellites qui se trouvaient à bord -soit une charge utile de plus de 8 tonnes au décollage- avaient été placés sur l'orbite visée 33 minutes et 15 secondes plus tard comme prévu. Il s'agissait du quatrième lancement d'une fusée Ariane-5 cette année, et du deuxième d'une Ariane-5 ECA, version la plus puissante des Ariane-5 et des lanceurs commerciaux de satellites à travers le monde. C'était aussi la 168e mission d'un lanceur Ariane depuis leur mise en service en décembre 1979.

Ce tir a été reporté une première fois de 48 heures pour effectuer des "vérifications complémentaires", puis une deuxième fois quelques heures avant le décollage sans qu'une nouvelle date n'ait été immédiatement fixée, cette fois en raison d'une "difficulté intervenue dans la mise en oeuvre du lanceur", selon Arianespace. Le satellite Spaceway-2, avec une masse de 6,1 tonnes au décollage, est l'un des plus gros satellites de télécommunications du monde. Construit par Boeing Satellite Systems, sa mission sera entièrement consacrée à la transmission d'émissions de télévision haute définition en directe aux USA pendant plus de 12 ans.

Telkom-2, de son côté, doit assurer des services de téléphonie, ainsi que des transmissions d'images et de données pour l'Asie du Sud Est et du sous-continent indien pour l'opérateur PT.Telekomunikasi Indonesia Tbk. Pour Ariane-5 "dix tonnes", cette mission revêtait une importance particulière. Revenue dans la course le 12 février dernier après avoir été plus de deux années clouée au sol suite au cuisant échec de sa toute première mission en décembre 2002, Ariane-5 "dix tonnes" devait encore faire ses preuves. Le 12 février, le lanceur a placé sur orbite sans aucun problème le satellite hispano-américain de télécommunications militaires et gouvernementales XTAR-EUR, et le micro-satellite scientifique SLOSHAT-FLEVO. Mais Ariane-5 "dix tonnes" n'avait pas redécollé depuis. Le retour du lanceur Ariane-5 "dix tonnes" doit permettre à Arianespace de conserver sa place de leader mondial sur le marché des lancements commerciaux alors que le poids des satellites fabriqués est de plus en plus élevé.

Ce modèle doit permettre à Arianespace de continuer à procéder par lancement double -deux satellites à la fois-, ce qui rend les missions plus rentables pour les clients qui peuvent se partager les frais d'un tir, au lieu de devoir en supporter seuls le coût. Le prochain lancement d'une fusée Ariane-5 est prévu dans la première quinzaine du mois de décembre, selon Arianespace.

AP

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le réchauffement du climat modifiera le débit des rivières alimentées par les glaciers
Mercredi, 26/10/2005 - 00:00

Un sixième de la population mondiale, soit un milliard de personnes, dépend des glaciers et de la couverture neigeuse pour son alimentation en eau. Mais le réchauffement climatique pourrait modifier de façon sévère la disponibilité de cette ressource, selon une étude parue dans la revue Nature.

Les Américains Tim Barnett, Jenny Adam et Dennis Lettenmaier décrivent un mécanisme implacable : "Dans un monde plus chaud, écrivent-ils, il y a moins de chutes de neige en hiver et la fonte survient plus tôt au printemps." Même si le volume de précipitations restait inchangé, chacun de ces effets se traduirait par l'avancée du pic du niveau des rivières vers l'hiver et le début du printemps, plutôt qu'en été ou en automne, où la demande est la plus haute. "Là où les capacités de stockage sont insuffisantes, la plupart de cette eau de fonte sera immédiatement perdue dans les océans", prédisent les chercheurs, qui précisent que les régions concernées concentrent une bonne part des pays industrialisés et produisent un quart du produit intérieur brut de la planète.

Dans le même numéro de Nature, une seconde étude décrit l'évolution des débits moyens des rivières prédite pour 2050 par un ensemble de 12 modèles climatiques. Ils augmenteraient de 10% à 40 % en Afrique de l'Est équatoriale, dans le bassin de La Plata et les hautes latitudes d'Amérique du Nord et d'Eurasie, mais baisseraient de 10 % à 30 % dans le sud de l'Afrique et de l'Europe, le Moyen-Orient et l'Amérique de l'Ouest. Ces modèles ne prennent cependant pas en compte les phénomènes saisonniers pointés par Barnett, Adam et Lettenmaier.

Ces trois chercheurs citent plusieurs exemples de l'impact de cette modification hydrographique. Dans l'Ouest américain, les modèles climatiques prédisent un réchauffement de 0,8 à 1,7°C d'ici au milieu du siècle. Les précipitations devraient rester proches des niveaux actuels. En revanche, le débit de pointe devrait survenir un mois plus tôt au printemps, et il n'existe pour l'heure pas assez de réservoirs pour stocker cette eau, qui finira à la mer. Les gestionnaires de la rivière Columbia devront choisir : soit réduire de 10 % à 20 % la production hydroélectrique, qui nécessite un soutien d'étiage en été ou à l'automne, soit porter atteinte au saumon, espèce protégée qui vient frayer au printemps et à l'été...

Pour le bassin rhénan, une étude de 2001 indiquait que son régime, actuellement mixte entre les précipitations et la fonte des neiges, dépendrait plus à l'avenir des chutes de pluies. Le fleuve devrait connaître une multiplication des débits de pointe, qui seraient plus élevés, mais aussi des étiages plus longs et plus fréquents. L'impact sera une baisse de la disponibilité de l'eau pour l'industrie et l'agriculture, une hausse des périodes durant lesquelles les navires ne pourront naviguer à pleine cargaison, une diminution de la protection contre les inondations, une perte de revenu hydroélectrique dans certaines régions et... un raccourcissement de la saison de ski.

Les prairies canadiennes pourraient, elles, connaître un accroissement de la fréquence et de la sévérité des sécheresses. Dans cette région, la moitié de l'eau est utilisée pour l'irrigation et principalement tirée de la surface, contrairement aux prairies américaines, où elle est puisée dans le sous-sol. Une compétition accrue entre les divers besoins en eau pourrait donc survenir et certains accords entre Etats, sur le débit des rivières, pourraient être remis en question.

La fonte des glaciers aura aussi des conséquences dramatiques dans la région de l'Himalaya et de l'Hindu Kush, comme le rappelait récemment un rapport du WWF (Le Monde du 23 mars). Elle est déjà sensible : Yves Arnaud (IRD, laboratoire de glaciologie de Grenoble) a analysé les données topographiques et satellitaires disponibles. Elles montrent une diminution de l'épaisseur des glaciers himalayens variant de 0,2 m à 1 mètre chaque année depuis cinquante ans. Dans les Andes aussi, le même phénomène de fonte des glaces dites "fossiles" est en cours - à de rares exceptions près, liées à des conditions locales.

nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La fabrication des gènes observée pour la première fois au microscope
Mercredi, 26/10/2005 - 00:00

L'un des mécanismes fondamentaux de la vie, la transcription des gènes à partir de la molécule d'ADN, a pu être observé directement par des chercheurs grâce à un dispositif ultra-sensible capable de révéler le mouvement d'une seule enzyme le long de la séquence d'ADN. Ce ''microscope'' sans pareil a été mis au point par l'équipe de Steven Block, de l'Université de Stanford, en Californie, qui publie ses travaux dans la revue Nature. Au sein de la cellule, l'information génétique est contenue dans le noyau, où loge l'ADN. Cependant, pour être utilisée, cette information doit quitter le noyau et se rendre dans le cytoplasme qui l'entoure. C'est là que la séquence génétique est traduite en protéine.

Pour quitter le noyau, l'information contenue dans la molécule d'ADN, et composée de plusieurs nucléotides (ou bases) A, T, C et G, doit tout simplement être copiée. C'est la transcription du gène : la séquence d'ADN est reproduite sous la forme d'un brin d'ARN grâce à l'intervention de l'ARN polymérase. Cette enzyme ajoute un à un les nucléotides pour former le brin d'ARN qui va ensuite sortir du noyau. C'est cette construction que Block et ses collègues ont pu observer directement : ils ont traqué les mouvements de l'ARN polymérase le long de l'échelle d'ADN grâce à deux microbilles attachées à leurs extrémités qui renvoyaient la lumière de rayons lasers. Les chercheurs ont ainsi pu confirmer que l'ARN polymérase ne grimpe qu'un barreau de l'échelle à la fois, construisant la copie nucléotide après nucléotide.

Université de Stanford

Un capteur de lumière dévoile ses secrets
Mercredi, 26/10/2005 - 00:00

Capter la lumière, dans ses différentes longueurs d'ondes, est une activité cruciale pour la plante, qui régule ainsi toutes ses activités. Des chercheurs ont réussi à reproduire en 3D la structure de l'un de ces capteurs de lumière essentiels à la plante : le phytochrome. Composé d'une protéine et d'un pigment photosensible, le phytochrome est impliqué dans la perception de la lumière rouge, qui permet à la plante de se situer dans le temps, entre le jour et la nuit.

Les plantes ne sont pas les seules à posséder des phytochromes. Les bactéries et les champignons en sont également équipés. Richard Vierstra (université de Wisconsin-Madison) et ses collègues ont ainsi isolé un phytochrome non pas chez une plante, mais chez une bactérie connue pour sa résistance aux radiations, Deinococcus radiodurans. Les bactéries sont plus faciles à cultiver en laboratoire que les plantes et leurs protéines sont plus faciles à purifier et à synthétiser. Une fois isolé et synthétisé, le phytochrome a été passé aux rayons X pour mettre au jour sa structure cristalline. Ces travaux sont publiés dans la revue Nature.

Le phytochrome est un régulateur très important pour la croissance de la plante, explique Richard Vierstra. Il est impliqué dans la germination, la floraison et la mort de la plante. Ce spécialiste de la génétique des plantes affirme que la connaissance de la structure du phytochrome permettra aux chercheurs de la modifier pour influer sur la croissance des plantes.

Eurekalert

Un tiers des cancers pourrait être évité
Mercredi, 26/10/2005 - 00:00

Neuf grands facteurs de risque, a priori évitables, seraient à l'origine de près d'un tiers des sept millions de décès annuels dus à douze types de cancers, selon une vaste analyse publiée dans The Lancet. Un inventaire certes très large, mais qui pourrait peut-être permettre de mieux cibler les actions préventives à mettre en place ou à intensifier. Excès de poids-obésité, consommation insuffisante de fruits et de légumes, manque d'activité physique, tabac, alcool, pollution de l'air dans les villes, fumées nocives à l'intérieur des lieux d'habitation, rapports sexuels non protégés (d'où risque de transmission de virus cancérigène) et injections contaminées (par le virus des hépatites susceptibles de se compliquer d'un cancer du foie) dans le cadre de soins médicaux se conjuguent pour constituer les neuf grandes causes modifiables de cancers identifiées par l'équipe de Majid Ezzati (Ecole de santé publique de Harvard, à Boston).

Mais avec des différences importantes selon le niveau socio-économique des pays étudiés. Tabac, alcool et obésité sont sans conteste les trois grands coupables dans nos contrées industrialisées. Avec, au premier rang, le cancer du poumon (près de 456 000 décès dont 391 000 attribuables au tabac), suivi par les cancers du côlon et du sein. Dans les pays peu ou moyennement développés, tabac et alcool jouent certes un grand rôle, mais également un faible apport en fruits et légumes. Le cancer du poumon arrive aussi bon premier (près de 771 000 cas mortels dont 466 000 en lien direct avec le tabac, mais 52.000 liés à la pollution), suivi par celui de l'estomac, celui du foie et de l'oesophage.

Les chercheurs mettent l'accent sur la grande fréquence des décès par cancer du col de l'utérus à l'origine de plus de 218 000 cas, essentiellement en Afrique subsaharienne et en Asie du Sud (contre moins de 17 000 dans les pays développés). Des tumeurs liées à la transmission par relations sexuelles du papillomavirus, grand pourvoyeur de lésions précancéreuses du col. L'équipe de Majid Ezzati fait aussi un distinguo entre les cancers du col de l'utérus, du poumon et de l'oesophage, dont les « facteurs attribuables » précités ont un poids déterminant, et les tumeurs du côlon ou les leucémies, pour lesquelles il existe une foule d'inconnues, avec de possibles susceptibilités génétiques majeures. Enfin, dans certains cancers - prostate, rein, lymphomes, entre autres -, les chercheurs reconnaissent qu'ils n'ont pas pu démêler les facteurs liés à l'environnement et ceux liés aux comportements individuels.

Lancet

Cancer du pancréas : essais encourageants d'un vaccin expérimental et d'un virus modifié
Mercredi, 26/10/2005 - 00:00

Un vaccin expérimental contre le cancer du pancréas augmente de manière significative la survie des malades atteints par ce cancer à mauvais pronostic qui est le cinquième cancer le plus meurtrier en Occident. Ce résultat encourageant relance l'intérêt pour la voie de recherche des vaccins thérapeutiques. Ce type de vaccin, comme son nom l'indique, n'a pas une fonction préventive mais curative. Il combat le cancer de trois manières : en stoppant la croissance des tumeurs existantes, en bloquant la récidive du cancer traité, et en tuant les cellules cancéreuses "rescapées" qui n'ont pas pu être éliminées par les thérapies classiques.

Mais la mise au point de ce type de vaccin est très complexe. À la différence des vaccins traditionnels, qui sont conçus pour provoquer dans l'organisme des réactions de défenses contre les infections, ces vaccins doivent identifier de manière très précise certaines cellules de notre propre corps. Or " Le "Cancer peut se développer en contournant les mécanismes immunitaires de surveillance," souligne Dan Laheru, chercheur au centre de recherche contre le cancer de l'université Johns Hopkins à Baltimore.

Les vaccins thérapeutiques contre le cancer sont conçus pour réveiller et amplifier ces mécanismes immunitaires et leur permettre de combattre efficacement les cellules cancéreuses. Le vaccin mis au point par Dan Laheru a été conçu à partir de cellules humaines inactivées de tumeurs. Ces cellules comportent des protéines qui sont caractéristiques du cancer pancréatique. La première phase des essais cliniques, réalisée sur 60 patients, a permis de montrer que 76 % des malades traités étaient encore en vie 2 ans après la vaccination, soit presque deux fois le taux de la survie observée dans d'autres études. Il s'agit donc d'un résultat remarquable quand on sait que le taux de survie moyen à cinq ans du cancer pancréatique reste très faible, de l'ordre de 5%. "Les résultats sont extrêmement prometteurs," souligne Jeffrey Schlom, chef du laboratoire d'immunologie à l'institut national du Cancer de Bethesda (USA). Reste à présent à confirmer ces bons résultats sur un plus grand nombre de malades car d'autres vaccins expérimentaux prometteurs n'ont malheureusement pas confirmé leurs promesses dans le passé.

De leur côté, des chercheurs chinois de l'Université de Shanghai, dirigés par le Professeur Yao-Zong Yuan, ont mis au point une nouvelle thérapie utilisant un virus génétiquement modifié. Ce virus est introduit dans la tumeur et sert de vecteur au gène de la vasostatine, une protéine qui bloque l'angiogénèse (mécanisme de formation de nouveaux vaisseaux sanguins)dans la tumeur. Or, lorsqu'une tumeur cancéreuse dépasse les 2 millimètres cube, elle doit mettre en oeuvre ce mécanisme d'angiogénèse pour pouvoir continuer à se « nourrir » et à se développer. Cette thérapie a été expérimentée sur des souris et elle a permis, 72 heures après l'injection du virus modifié, de stopper la croissance des tumeurs du pancréas en empêchant l'angiogénèse. Reste à présent à confirmer ces bons résultats sur l'homme, ce qui prendra encore plusieurs années.

Article @RTFlash

TR

NS

Sclérose en plaques : une nouvelle approche thérapeutique à l'essai
Mercredi, 26/10/2005 - 00:00

Traiter le plus tôt possible les premiers symptômes de la sclérose en plaques (SEP) pour en freiner l'évolution. C'est l'approche de Benefit, une étude française sur 5 ans fondée sur l'administration à haute dose d'interféron Bêta. Benefit - pour Betaferon in Newly Emerging Multiple Sclerosis For Initial Treatment, n.d.l.r. - est une étude randomisée réalisée en double aveugle contre placebo. Les premiers résultats sur deux ans, des résultats intermédiaires donc, sont encourageants. Près de 500 patients présentant un premier signe évocateur de la maladie ont reçu, un jour sur deux, soit de l'interféron Bêta soit un placebo.

L'interféron Bêta est un médicament mis au point il y a quelques années déjà, et qui permet de mieux contrôler les poussées inflammatoires caractéristiques de la maladie. Pour la première fois donc, il a été administré précocement et à forte dose (250µg à chaque prise). Résultat, seuls 28 % des sujets traités à l'interféron Bêta ont développé une sclérose en plaques, contre un sur deux pour les patients sous placebo. Autre conclusion intéressante, "le traitement a été bien toléré, 95 % des patients choisissant de le poursuivre", précise le Pr Gilles Edan, du CHU Pontchaillou à Rennes, et rapporteur de l'étude.

DS

Le Décryptage du « sens de l'orientation » des cellules permet de mieux comprendre le cancer
Mercredi, 26/10/2005 - 00:00

La division est une étape essentielle de la vie de toute cellule : elle participe à la croissance de l'organisme, à la réparation de plaies ou d'infections et au renouvellement des cellules mortes. 250 000 millions de cellules sont en cours de division dans notre organisme à chaque instant, soit 250 000 millions de cellules mères qui s'apprêtent à former 500 000 millions de cellules filles.

Or, à notre échelle, nous n'observons aucune modification. En effet, chaque cellule dès sa formation a une place bien déterminée. La cellule mère a une place donnée au milieu des autres cellules dans un tissu et, pour ne pas perturber cette organisation, les cellules filles auxquelles elle donne naissance sont, elles aussi, « bien rangées ». Ce positionnement très précis est indispensable pour maintenir la forme de nos tissus et de nos organes. Ce sont les contraintes induites par l'environnement qui influencent la division et le positionnement des cellules filles.

Manuel Théry dans l'équipe CNRS de Michel Bornens a développé une approche originale pour étudier l'influence de l'espace et de ses contraintes sur la division des cellules adhérentes. En utilisant une technique de « micro-pochoir », il impose un même contour aux cellules tout en leur fournissant des zones d'adhésions différentes. Puis il observe par vidéomicroscopie comment se divisent les cellules. Ces contraintes reproduisent les informations spatiales qu'une cellule est susceptible de « sentir » au sein d'un tissu.

Grâce à cette approche, les chercheurs montrent pour la première fois le rôle déterminant des protéines d'adhésion dans l'orientation de la division cellulaire. Ainsi, la division de la cellule s'oriente en fonction de ses points d'adhésion avec l'environnement : la cellule peut adopter une même forme dans des « micro-pochoirs » distincts, mais comme cela implique des points d'adhésion différents, l'orientation de la division n'est pas la même. En effet, les points d'adhésion gouvernent la distribution du cytosquelette d'actine associé à la membrane cellulaire et imposent une orientation spécifique du fuseau : lorsque la cellule se divise, elle change radicalement de forme, mais conserve à sa surface la mémoire des points d'adhésion. C'est grâce à cette mémoire que le fuseau de division s'oriente. Ce travail montre en particulier qu'une protéine, souvent perturbée dans les cellules cancéreuses ayant un fort pouvoir métastatique, est impliquée dans l'orientation de la division, ce qui pourrait favoriser la dissémination des tumeurs.

De cette approche très originale découlent donc de nouvelles données sur la division cellulaire et sur les mécanismes qui permettent son bon déroulement. Ce système permet par ailleurs de vérifier si les cellules répondent correctement à l'environnement au moment de la division, mais aussi de mieux comprendre pourquoi la division des cellules tumorales est perturbée non seulement temporellement mais aussi dans son orientation au sein du tissu.

IC

Alphagalileo

Des cellules souches pour fabriquer du cartilage
Mercredi, 26/10/2005 - 00:00

Décidemment, en cette fin d'année 2005, la médecine régénératrice, qui relevait encore il y a quelques années à peine de la science-fiction, accomplit des pas de géants et devient une réalité. Des chercheurs de l'Université de Londres viennent ainsi de réussir à produire du cartilage à partir de cellules souches embryonnaires humaines, ouvrant ainsi la voie à la fabrication à la demande de cartilage de rechange pouvant être utilisé pour les greffes. Le Docteur Archana, qui dirige ces recherches, souligne que cette percée ouvre d'immenses perspectives thérapeutiques, notamment pour toutes les pathologies articulaires liées au vieillissement de la population.

Expérimenté sur des souris, ce cartilage produit à partir de cellules souches possède une concentration suffisante en collagène et, après avoir été déposé sur un support biocompatible pendant 35 jours, il a pu être transplanté avec succès et se substituer au cartilage d'origine. Les perspectives en matière de chirurgie réparatrice et reconstructive sont considérables, qu'il s'agisse de traiter des accidentés ou encore des patients atteints de cancers de la tête ou du cou qui obligent les chirurgiens à pratiquer des ablations de cartilage. Grâce à cette nouvelle biotechnologie, les chercheurs pensent que d'ici seulement 5 ans il sera possible de traiter une grande variété de pathologies de manière bien plus efficace. Il sera notamment possible, en prévision d'une opération touchant des parties du corps contenant du cartilage, de programmer quelques semaines avant l'intervention la mise en culture de ce cartilage de substitution et d'en fabriquer en quantité suffisante pour pouvoir remplacer les parties lésées.

Article @RTFlash

Alphagalileo

La chirurgie robotisée est en train de s'imposer dans le domaine cardio-vasculaire
Mercredi, 26/10/2005 - 00:00

L'utilisation d'une nouvelle technique de chirurgie robotisée pour la réalisation de pontages de l'artère coronaire, de la pose de stents et d'angioplasties a donné d'excellents résultats selon une communication présentée par le Docteur Mark, directeur du centre de chirurgie cardiaque de hôpital de Richmond, en Virginie, à l'occasion du congrès annuel de l'Association Américaine du Coeur. Cette nouvelle technique, très peu invasive, a été expérimentée avec succès sur 27 patients d'une moyenne d'âge de 59 ans et ceux-ci on pu sortir de l'hôpital au bout de seulement 2 jours et demi, contre 5 jours avec les techniques classiques. En outre, les malades ont pu reprendre leur travail au bout d'une semaine, au lieu des six semaines habituelles de convalescence.

Cette chirurgie robotisée implique de faire trois petites incisions, chacune d'environ 1 centimètre sur le côté gauche du thorax du patient. Un endoscope est introduit dans le coeur par l'incision centrale et les deux incisions latérales permettent l'introduction des bras droit et gauche du robot.

Le système robotique utilisé est la dernière génération du robot daVinci, qui permet au chirurgien de réaliser des interventions complexes à partir d'une console informatique grâce à un puissant système de visualisation en 3D du champ opératoire. Les gestes chirurgicaux sont transmis avec une totale précision par les bras robotiques miniatures à l'intérieur du patient. Comme le souligne le docteur Katz, « Cette chirurgie robotisée est beaucoup moins invasive, douloureuses et traumatisante que la chirurgie classique pour ce type d'intervention cardiaque".

Article @RTFlash

SD

Les allergies : vaincues... dès la naissance ?
Mercredi, 26/10/2005 - 00:00

Pratiquement la moitié des eczémas qui apparaissent avant deux ans pourraient être prévenus ! Et cela tout simplement, en utilisant dès le plus jeune âge un lactobacille pour prévenir certaines allergies, alimentaires notamment. C'est la conclusion d'une vaste étude réalisée par le Dr Marko Kalliomäki et son équipe, de l'hôpital de Turku en Finlande. Leur objectif était d'évaluer l'influence de cette bactérie sur les manifestations "atopiques" comme certaines formes d'asthme, d'eczéma ou certaines rhinites allergiques. Un travail considéré comme essentiel, dans la lutte contre des affections qui se manifestent de plus en plus fréquemment.

Réalisé en double aveugle, le travail s'est étendu sur plus de trois ans ! Les Finlandais ont d'abord sélectionné 159 futures mères qui comptaient - soit elles-mêmes soit leur conjoint - des malades atopiques parmi leurs ascendants ou collatéraux. Durant les deux à quatre semaines précédant la naissance, chacune d'entre elles a absorbé soit une gélule quotidienne de lactobacille, soit un placebo. Les enfants ont également été traités pendant les six mois suivant leur naissance, par un produit actif ou un placebo. Dans les deux premières années de vie, l'incidence de l'eczéma atopique n'a pas dépassé 23 % chez les enfants traités contre... 46 % chez ceux qui appartenaient au groupe témoin. Kalliomäki et ses collègues sont convaincus. A leurs yeux, ces résultats démontrent "que la flore microbienne a des propriétés immunomodulatrices encore largement inexplorées. Lesquelles pourraient s'avérer indispensables dans la lutte contre le développement de l'atopie. Et peut-être d'autres désordres immunitaires".

Lancet

Alzheimer : des avancées théoriques et thérapeutiques majeures
Mercredi, 26/10/2005 - 00:00

Les chercheurs connaissent depuis longtemps le rôle que peut jouer le cholestérol dans le sang. Il est un élément fondamental des neurones et il joue un rôle essentiel dans les connexions intercellulaires nécessaires aux fonctions cérébrales.

Des chercheurs canadiens ont démontré qu'une molécule (alipoprotéine E), qui transporte le cholestérol vers le cerveau, ne fonctionnait pas correctement chez certaines personnes qui souffrent d'Alzheimer. Toutefois, lorsque les chercheurs augmentent l'activité de cette molécule, ils ralentissent la progression de la maladie. Ils ont par ailleurs identifié une molécule qui arrête la progression de la maladie d'Alzheimer en agissant sur le cholestérol. Les essais préliminaires de la molécule probucol sur 12 patients ont permis de démontrer que la molécule avait un impact sur la maladie. «On a découvert que cette vieille molécule, qui servait pour les maladies du coeur, avait arrêté la progression de la maladie», dit le Dr Judes Poirier. Cette découverte fait suite à l'observation d'un nombre plus élevé de cas d'Alzheimer chez les personnes souffrant d'hypertension, de diabète et ayant un taux de cholestérol élevé. Chez ces derniers, le transport de cholestérol entre les neurones est ralenti. «Le cholestérol compose une bonne partie du cerveau, c'est comme un isolant électrique. », souligne le Dr Judes Poirier.

Chez les patients au cholestérol élevé, l'activité est ralentie «, explique-t-il. En fait, 25% de tout le cholestérol de l'organisme se trouve dans le cerveau. C'est à ce moment qu'entre en jeu la molécule probucol, qui active le transport de cholestérol au cerveau. Excités par les résultats, les chercheurs ont mis sur pied une petite entreprise de biotechnologie pour rendre la molécule encore plus performante. Ultimement, ils croient qu'elle pourrait même régénérer certains rebranchements neuronaux et retarder la maladie de cinq à dix ans. «En réduisant l'apparition de dix ans, on éviterait 94 % des cas d'Alzheimer. Les gens mourraient de vieillesse avant de développer la maladie», conclut le Dr Poirier.

Alors que les chercheurs canadiens mettaient en lumière ce rôle majeur du cholestérol dans le développement de la maladie d'Alzheimer, des chercheurs suisses, dirigés parKarl-Heinz Krause de la Faculté de médecine de l'Université de Genève, faisaient une autre découverte fondamentale en identifiant clairement un mécanisme cellulaire impliqué dans la maladie d'Alzheimer. Ce que les chercheurs sont parvenus à démontrer, c'est que le type de globule blanc le plus important du système nerveux central, la microglie, qui a pour rôle de tuer les bactéries en cas d'infection, se tourne, en situation non inflammatoire, contre les neurones présentant les signes caractéristiques de la maladie d'Alzheimer.

Ces recherches menées sous la direction du prof. Krause au sein du Département de réhabilitation et gériatrie expliquent pourquoi, en présence de la microglie, les neurones d'un patient atteint de la maladie meurent, alors que les neurones d'une personne saine restent vivants. Et si les globules blancs «exécutent» les neurones, c'est parce que, dans leur membrane, une enzyme appelée NOX2 (NADPH oxydase de phagocyte) produit des radicaux libres auxquels les neurones sont sensibles, tout comme le sont les bactéries dans une réaction inflammatoire. En résumé, on observe une destruction des neurones du sujet malade parce que la microglie, activée par les plaques amyloïdes, produit massivement des radicaux libres.

Ce mécanisme maintenant élucidé in vitro, les chercheurs de l'UNIGE souhaitent, sans perdre de temps, trouver le moyen de diminuer in vivo l'activité de cette enzyme productrice de radicaux libres. Comme l'expérience a été réalisée au départ de neurones humains (et non de souris), et que le mécanisme de destruction des neurones présentant des plaques caractéristiques de la maladie apparaît aussi clair, l'espoir d'un développement thérapeutique à plus ou moins court terme se structure. «Peut-être un prototype de médicament sera-t-il prêt dans un an, voire deux», laisse entendre le prof. Krause. Ces remarquables résultats obtenus, tant par les chercheurs canadiens que suisses, montrent à quel point une intégration de la recherche fondamentale et clinique peut donner lieu rapidement à des pistes thérapeutiques.

Article @RTFlash

Canoe

SD

UNIGE

Une molécule qui combat le tabagisme dans la tête
Mercredi, 26/10/2005 - 00:00

Ce médicament n'est pas encore commercialisé qu'il suscite déjà les plus grands espoirs chez les fumeurs qui veulent écraser une bonne fois pour toute leur dernière cigarette. Il faut dire que les résultats de la troisième phase d'étude de la molécule, appelée Varenicline, sont impressionnants : ils montrent que "son efficacité pour le sevrage au tabagisme sont supérieurs à tout ce qu'on avait connu jusque là", explique à tf1.fr Ivan Berlin, maître de conférences au service de pharmacologie au CHU Pitié-Salpêtrière, à Paris. Le laboratoire Pfizer, qui a mis au point la molécule, a réuni des volontaires, âgés de 15 à 18 ans et qui fumaient une dizaine de cigarettes par jour. Un groupe a reçu de la Varenicline, un autre du Zyban (un antidépresseur dont on a découvert qu'il aidait à arrêter de fumer) et un troisième du placebo. Au bout de neuf semaines de traitement, l'abstinence tabagique a été constatée pendant quatre semaines consécutives chez 44 % des fumeurs du premier groupe, 30 % de ceux du groupe 2 et près de 18 % du groupe 3. La Varenicline est consommée sous forme de comprimés une à deux fois par jour, précise le docteur Berlin. Avantage de la molécule : "On peut individualiser les quantités prescrites", pointe le pharmacologue. "Il est envisageable de donner le médicament pendant un an ou plus, ajoute-t-il. Les stratégies thérapeutiques doivent changer car les personnes qui arrêtent de fumer rechutent. C'est pour prévenir ces rechutes que les laboratoires font désormais des études à long terme."

La Varenicline est un médicament de type agoniste partiel. En clair, "il y a des récepteurs à la nicotine dans le cerveau et des sous-types de récepteurs, qui sont responsables des effets du tabac", explique Ivan Berlin. "La Varenicline s'accroche au récepteur et a un effet imitant celui de la nicotine, poursuit-il. Quand les gens fument après avoir pris la molécule, la nicotine n'a pas d'effet." Une étude sur les effets du médicament est actuellement en cours en France. La mise sur le marché n'est pas prévue avant 2007.

TF1

Un gène de la peur découvert chez la souris
Mercredi, 26/10/2005 - 00:00

La peur est ce phénomène émotif qui accompagne la prise de conscience d'un danger, réel ou imaginé. Ses origines physiologiques étaient jusqu'à maintenant peu connues. Mais voilà, des chercheurs américains de l'université de Rutgers ont fait des progrès dans leur compréhension de celle-ci. Ils ont identifié un gène qui contrôlerait les formes innées et acquises de la peur chez la souris. Le gène stathmine est présent en grande quantité dans l'amygdale, ce noyau de substance grise situé dans le cerveau.

Les rongeurs privés de ce gène se sont montrés téméraires dans des situations qui devraient instinctivement leur inspirer la peur. Ils ont également montré peu d'angoisse dans des expériences qui s'étaient précédemment avérées désagréables, indiquant un manque de capacité à mémoriser les dangers et, en conséquence, à manifester de la peur. D'autre part, l'altération de ce gène ne paraît pas affecter les souris dans leur comportement général. La découverte pourrait aider les scientifiques à créer de nouveaux médicaments pour traiter des problèmes comme les phobies ou les pertes de mémoire après une expérience traumatisante. Le système cérébral générant la peur est similaire chez les petits mammifères et chez les humains.

RC

Plus d'un Français sur deux fument trop, boivent trop ou mangent trop
Mercredi, 26/10/2005 - 00:00

Selon une étude de l'Insee qui s'appuie sur l'enquête Santé réalisée en 2003 par l'institut, 56 % des femmes et près de 75 % des hommes sont concernés soit par un excès de poids, soit par une surconsommation d'alcool, soit par un tabagisme quotidien. Les hommes sont ainsi davantage exposés que les femmes : "un sur deux fume ou a fumé quotidiennement, la même proportion présente un excès de poids et un sur dix consomme trop d'alcool", soulignent les experts de l'Insee. En comparaison, "le tabagisme passé ou présent concerne 'seulement' une femme sur trois de même que l'excès de poids ; quant à l'alcoolisme, il touche une femme sur trente".

Les classes d'âge ne sont pas touchées de la même façon. D'une manière générale, on fume quotidiennement davantage avant 30 ans qu'après 75 ; on boit trop et on grossit excessivement de plus en plus jusqu'à 60 ans puis la tendance tend à s'inverser. Plus qu'un "effet de génération", les experts y voient "la conséquence d'une dégradation de l'état de santé qui oblige

Les plus diplômés sont moins nombreux à être obèses ou "gros" fumeurs mais "ils apparaissent plus souvent buveurs excessifs". Plus le revenu est élevé, moins on fume beaucoup ; en revanche, l'état du porte-monnaie n'a aucun impact sur la consommation excessive d'alcool. "Et, contrairement à une idée répandue, un bas niveau de vie ne prédispose pas en soi au surpoids : ce qu'on attribue souvent à la faiblesse des revenus est, en réalité, surtout l'effet d'un bas niveau d'études", insistent les experts. Ils notent cependant "chez les femmes une croissance sensible du risque d'obésité au fur et à mesure qu'on descend dans l'échelle des niveaux de vie".

[Insee">les plus de 75 ans] à modifier [leur] hygiène de vie" ainsi qu'un "effet de sélection dû à la surmortalité dans les catégories à risque (le tabac est ainsi la cause d'un tiers de la mortalité des hommes de 35 à 69 ans)". Moins de 1 % des Français fument trop, boivent trop et mangent trop à la fois mais ce sont des hommes dans 9 cas sur 10. En revanche, il est "nettement plus fréquent" de cumuler deux de ces risques (10,5 % de la population). "Là encore, il s'agit principalement d'hommes", selon l'Insee qui précise que "la conjonction la plus fréquente est tabagisme et alcoolisme".

Les plus diplômés sont moins nombreux à être obèses ou "gros" fumeurs mais "ils apparaissent plus souvent buveurs excessifs". Plus le revenu est élevé, moins on fume beaucoup ; en revanche, l'état du porte-monnaie n'a aucun impact sur la consommation excessive d'alcool. "Et, contrairement à une idée répandue, un bas niveau de vie ne prédispose pas en soi au surpoids : ce qu'on attribue souvent à la faiblesse des revenus est, en réalité, surtout l'effet d'un bas niveau d'études", insistent les experts. Ils notent cependant "chez les femmes une croissance sensible du risque d'obésité au fur et à mesure qu'on descend dans l'échelle des niveaux de vie".

[Insee

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Microsoft lance sa console Xbox 360 qui rivalise avec le PC
Mercredi, 26/10/2005 - 00:00

Microsoft vient enfin de présenter sa console de nouvelle génération, offrant des performances équivalentes à un PC et affichant des images en HD. La firme de Bill Gates part la première, loin devant Nintendo, dont la Revolution pourrait sortir au printemps au Japon, et devant Sony, dont la PlayStation 3, prévue pour mi-2006, pourrait être retardée.

En Europe, la Xbox 360 sera disponible le 2 décembre, en deux versions, la Core System et la Premium. La version Premium est vendue 399 euros. Elle comprend une manette sans fil, un câble audio-vidéo compatible HD Composite avec adaptateur Péritel, un câble Ethernet, un microcasque et un disque dur de 20 Go. Tous ces accessoires seront disponibles en option mais le disque dur coûtera à lui seul 99 euros.

Côté fonctions, la Xbox 360 est avant tout une console de jeu, mais elle offre des possibilités qui vont bien au-delà de l'aspect ludique. L'interface principale traduit cette diversité. Elle est divisée en quatre onglets : Système, Jeux, Xbox Live et Multimédia. Dans l'onglet Système, on règle les paramètres d'affichage en fonction du type d'écran (simple ou haute définition) ainsi que le son. C'est aussi dans cet onglet que l'on accède au contrôle parental.

La console reconnaît les données PEGI (classification des logiciels de loisirs par catégorie d'âge) contenues dans les DVD, ce qui permet aux parents d'interdire l'accès à certains jeux. L'onglet Jeux permet d'accéder aux sauvegardes, pour consulter sa progression ou pour les transférer à ses amis via Xbox Live. Ce service en ligne accessible en haut-débit regroupe tous les utilisateurs de Xbox et Xbox 360. On peut y tchater, télécharger des mises à jour et affronter d'autres adeptes. Enfin, l'onglet Multimédia permet de regarder des photos, de lire des fichiers audio et vidéo contenus sur un périphérique USB, un PC ou un PC MediaCenter.

La Xbox 360 se relie facilement à un réseau familial filaire grâce à son connecteur Ethernet, ou en sans fil, par le biais d'un adaptateur WiFi 802.11g disponible en option (80 euros environ). Elle peut alors se connecter à n'importe quel PC (sur lequel on aura préalablement installé le logiciel gratuit Windows Media Connect de Microsoft) et, comme une passerelle PC/TV, afficher sur le téléviseur des images stockées sur le PC ou jouer des fichiers MP3 et WMA - les vidéos étant toujours ignorées.

Mais la Xbox 360 vaut surtout comme « extender » d'un PC Windows Media Center (pourvu de l'édition 2005 du système d'exploitation). Elle peut alors afficher sur le téléviseur tous les fichiers multimédias stockés sur le Media Center, et en particulier les vidéos aux formats Mpeg-1, Mpeg-2, Windows Media Vidéo 7, 8 et 9 ainsi que les films et émissions enregistrées ou captés en direct par le tuner du PC. Mais pas question de copier des fichiers sur le disque dur de la console...

La console intègre trois connecteurs USB qui peuvent aussi servir à connecter un périphérique de stockage amovible. On peut donc brancher tous les appareils photo numériques, lecteurs MP3, disques durs externes. Enfin, la Xbox 360 permet de tchater et de jouer en réseau. Il suffit de connecter la Xbox 360 à Internet (en Ethernet ou sans fil) haut-débit pour accéder directement à Xbox Live. Ce service se décline en deux versions. La Silver, gratuite et la Gold, payante. La première permet de tchater en mode texte ou en audio (avec le micro-casque) avec n'importe quel possesseur de Xbox connecté. La future caméra USB (non disponible au lancement de la console) permettra en plus la vidéoconférence.

Microsoft affiche un objectif de vente au niveau mondial de 3 millions d'exemplaires écoulés dans les 90 premiers jours et de 4,5-5,5 millions le 30 juin 2006, date de clôture de l'exercice fiscal 2005/06. Microsoft compte sur la Xbox 360 pour rattraper le retard pris sur Sony, de loin leader mondial des consoles avec sa PlayStation. Une PlayStation de troisième génération sera commercialisée au printemps 2006. La première Xbox lancée en 2001 n'a jamais réussi à inquiéter la PlayStation, peinant à dépasser les 18 % de parts de marché (contre 67 % au produit de Sony et à 15 % à Nintendo). Selon des estimations non confirmées par le groupe, Microsoft pourrait s'attribuer 40 % du marché mondial des consoles avec la Xbox 360.

OINet

AFP

La consommation de télévision sur portable désormais incontournable
Mercredi, 26/10/2005 - 00:00

La consommation d'images télévisées sur l'écran du portable est désormais en France une réalité incontournable, dont les opérateurs de télécommunications et les diffuseurs de télévision se partagent ou se disputent les profits. Selon Orange, filiale de téléphonie mobile de France Télécom, l'un des principaux opérateurs français, 577.000 personnes avaient souscrit un abonnement au haut débit mobile à la date du 15 novembre. De son côté, SFR a annoncé qu'il comptait fin octobre 515.000 clients à son offre 3G, service de téléphonie de troisième génération qui permet de télécharger et de transmettre des données à haute vitesse. "La moitié des abonnés utilisent leur terminal pour regarder la télévision et consomment plus de 35 minutes par mois", assure Patricia Langrand, directrice exécutive de la division contenus de France Télévisions. "On a aujourd'hui plus de 3 millions de connexions par mois à la télévision ou à la vidéo à la demande à partir du mobile", ajoute-t-elle.

Selon Patricia Langrand, la diffusion de la télévision sur mobile favorise l'individualisation de la consommation. "Le mobile, dit-elle, est utilisé pour consommer de la télévision à d'autres moments, pendant les transports en commun par exemple, mais aussi pour regarder quelque chose de différent de ce que regardent les autres personnes du foyer". La plupart des groupes audiovisuels français ont passé des accords de partenariat avec les différents opérateurs, notamment Orange, pour la diffusion de leurs programmes sur mobiles. Cible prioritaire, les jeunes (15-25 ans) qui sont les plus friands de ce nouveau moyen de consommation, qui a fait ses débuts il y a à peine un an.

Le groupe M6, dont les programmes s'adressent d'abord aux jeunes, a lancé le 9 juin une offre commerciale commune "M6 mobile by Orange", qui fait la part belle aux programmes musicaux, notamment aux clips, particulièrement adaptés par leur brièveté à l'écran du téléphone mobile. Tirant les conclusions de cette expérience, Nicolas de Tavernost, PDG du groupe M6, et Didier Quillot, PDG d'Orange France, parlaient, à la mi-novembre, de "succès". L'objectif de 100.000 abonnés à la fin de 2005 annoncé au moment du lancement a été "atteint et largement dépassé", soulignent-ils. Selon Nicolas de Tavernost, l'écran du téléphone portable est devenu le "quatrième écran" du foyer, après celui des deux récepteurs fixes et de l'ordinateur.

Les rencontres de football, que les usagers peuvent regarder pour une très brève durée, sont un filon convoité. SFR avait notamment obtenu à la mi-octobre les droits en exclusivité pour la France de la retransmission sur téléphones portables du Mondial-2006 de football. Pour chacun des 64 matches, SFR proposera à ses abonnés de visionner chaque but en quasi temps réel et donnera accès, dans les cinq minutes qui suivent le coup de sifflet final, à un résumé des temps forts de la rencontre. Un appel d'offres sera lancé pour la première fois le 17 décembre pour les droits de diffusion sur téléphone portable des rencontres de football de Ligue 1: SFR et Orange doivent en principe participer à ces enchères. Mais rien n'est exclu pour les programmes dédiés, d'une durée inférieure à deux minutes. En partenariat avec Orange, le groupe Canal+ propose depuis le 27 octobre plus de 200 vidéos courtes, spécialement conçues. Moyennant un supplément, certaines appartiennent à la thématique "charme", chère à la chaîne. Enfin, quatre expérimentations, auxquelles participent Orange, Bouygues Télécom et le bouquet satellitaire TPS (détenu à 66 % par TF1) sont en cours en région parisienne pour la diffusion de la télévision numérique sur mobile avec la technologie DVB-H.

Wanadoo

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
En route pour le courant porteur en ligne en voiture
Mercredi, 26/10/2005 - 00:00

On savait que la technologie du CPL (ou courant porteur en ligne) investissait peu à peu les chaumières pour assurer une liaison Internet par exemple, via la ligne électrique. L'on savait moins que la technologie en question pouvait également être utilisée en matière automobile. La société Spidcom Technologies vient ainsi d'annoncer son partenariat avec Valeo, pour lui fournir sa solution CPL. Le premier est une PME française spécialisée dans la conception de circuits intégrés et de modules CPL, le second, dans la conception, la fabrication et la vente de modules pour l'automobile et les poids lourds. L'application phare sera la mise au point de caméras de recul dans les véhicules fonctionnant sur CPL. L'intérêt n'est pas maigre. « L'installation de toute nouvelle fonction électronique induit ainsi l'ajout de câble(s) venant en complément des câbles existants. Ces derniers peuvent alors représenter, sur certains véhicules, une masse totale de 50 kg et mesurer jusqu'à 3 km » explique Spidcom.

La technologie de transmission par courant porteur permet à un même câble de transmettre à la fois des informations et de la puissance électrique. Or, actuellement, les véhicules utilisent deux câbles, ce qui engendre du même coup, des frais de conception et de fabrication plus importants, en sus d'une consommation énergétique non négligeable. Cette technologie convertissant les câbles électriques en médium de communication vient tout juste de remporter le trophée d'argent des Grands Prix Internationaux de la Création Technique lors du dernier salon Equipauto en catégorie Ingénierie et Technologie de pointe. Applicable à tous types de véhicules, elle devrait apparaître sur les modèles de série courant 2007.

PCI

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top