RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 366
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 23 Décembre 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Japon : plus besoin de carte de visite avec la poignée de main "high-tech"
La biométrie utilisée dans une bibliothèque japonaise
Une technologie spatiale pour la sécurité des gares et aéroports
Le DVD holographique véritable successeur du DVD ?
Matière
Une cellule solaire pour réaliser l'électrolyse de l'eau
Le maire de Paris veut le haut débit gratuit pour tous les Parisiens
Espace
L'équation E = mc2 d'Einstein confirmée avec une précision inégalée
Galileo : l'Union européenne à l'assaut de la forteresse américaine dans la navigation par satellite
Les Galaxies grandissent dans des berceaux de matière noire
Terre
La fonte accélérée du permafrost pourrait libérer de grosses quantités de CO2
Vivant
Cancer du sein : des avancées prometteuses
Vaccin, vers une nouvelle approche
La métagénomique ouvre une nouvelle ère dans l'exploration du vivant
Homme
Le premier acte notarié dématérialisé
Le billet d'avion en papier bientôt remplacé par le ticket électronique
France Télécom lance un bouquet gratuit de chaînes TV par ADSL
Préhistoire : les empreintes de mains se donnent un genre
Recherche
Stockholm expérimente une forme inédite de péage urbain high tech
Le MIT réinvente l'automobile!
Les dix avancées scientifiques de 2005
Edito
La télévision sur mobile prend son envol mais cherche son modèle économique



En recevant la télévision et la vidéo, les écrans des téléphones portables sont devenus un media incontournable, qui ne laisse indifférents ni les producteurs de programmes audiovisuels ni les opérateurs de télécommunications mobiles. Au MIPCOM, marché international des programmes audiovisuels qui se tient chaque année à Cannes (Alpes-Maritimes), Endemol, puissante société européenne de production, a annoncé le lancement, en partenariat avec des opérateurs de téléphonie mobile, de deux "chaînes" pour mobile, et vient également de créer une division dédiée au nouveau média.

La France n'est pas en reste. Orange, premier opérateur de téléphonie mobile français (21,4 millions d'abonnés) a en effet annoncé un accord avec le groupe Canal+, qui permettra au groupe audiovisuel d'offrir dans un premier temps, pour quelques euros par jour, près de 200 vidéos.

Le nombre de consultations d'images animées sur portable, qui atteignait quelques milliers début 2005 s'élève aujourd'hui à trois millions par mois. Environ la moitié des abonnés à un téléphone 3G l'utilisent pour regarder des images animées. Sur une base de plus de 500.000 abonnés au 3G fin 2005, et de 2 millions fin 2006, il y aurait un public potentiel d'un million de Français à la fin de cette année. Selon Endemol, son programme de télé-réalité le plus célèbre, "Big Brother", a donné lieu à six millions de minutes de consultation en ligne sur téléphone en 2005 et à 500.000 téléchargements en Australie, en Italie et au Royaume-Uni.

Selon une récente étude de Strategy Analytics, le marché des contenus pour mobile atteindrait 70 milliards de dollars au niveau mondial en 2008, dont 5,7 milliards pour la vidéo sur mobile. Le nombre de téléphones équipés en vidéo devrait passer de 65 millions en 2004 à 712 millions en 2008. Déjà, les industriels ont une image assez précise du nouveau consommateur. En général, un homme jeune, "dans les 20, 30 ans" mais pas nécessairement passionné de haute technologie. Fait remarquable, le taux de pénétration du portable de troisième génération est particulièrement élevé dans les pays pauvres. L'usage de la télévision sur portable est en effet radicalement différent de celui de la télévision fixe. Sur l'écran minuscule du téléphone, les programmes sont nécessairement courts, en général moins de deux minutes.

Si la télévision sur mobile est déjà une réalité en Asie, notamment en Corée du Sud et au Japon, la Grande-Bretagne et la France en sont encore au stade des expérimentations. Tandis que la Grande-Bretagne a commencé ses essais dès cet été, le Conseil supérieur de l'audiovisuel a autorisé le 13 septembre 2005 un bouquet de quatre expérimentations simultanées de télévision "en mobilité" en région parisienne pour TDF, TPS, Canal+ et un consortium constitué par TF1 et VDL.

Le groupe audiovisuel Canal+ et l'opérateur de télécommunications Orange proposent, depuis octobre 2005, une offre commune de programmes vidéos sur téléphone mobile. Plus de 200 vidéos courtes, en général d'une durée inférieure à deux minutes, spécialement conçues pour l'utilisation sur les mobiles, sont disponibles pour les possesseurs de téléphone de troisième génération. L'abonnement se fait à partir du portail Orange World Video selon deux formules, l'accès découverte 24 heures, à 3 euros, et l'abonnement mensuel illimité à 5 euros.

Il reste que la télévision sur portable, encore au stade des expérimentations, est freinée dans son développement par une aberration technologique. Pour transmettre leurs émissions, les opérateurs utilisent l'UMTS ou l'Edge. Or, ces deux normes ont été conçues pour le transfert de la voix, de la vidéo et des données de point à point, autrement appelé "Unicast". Si elles conviennent au téléchargement de vidéos à la demande, elles ne sont donc en aucun cas adaptées à un usage de masse de la télévision, dit "Broadcast". D'où notamment une tarification à la seconde qui rend le suivi d'une émission complète exorbitant.

L'avenir de la télévision pour portable passe donc par l'adoption d'une nouvelle norme. En France, comme dans la plupart des pays européens, le choix tend à se porter sur le DVB-H, dérivé de la TNT, spécialement conçu pour les appareils mobiles.

L'objectif du DVB-H est de diffuser le même signal sur des millions de combinés. Les émissions ne passent donc plus par le réseau 3G de l'opérateur mais par le réseau hertzien. Problème, ces fréquences sont en nombre limité, déjà saturées par la télévision analogique, la TNT ou la télévision locale. En attendant de définir un cadre réglementaire clair, le CSA a délivré quatre autorisations d'expérimentation. La dernière à être lancée, celle de TDF, rassemble la quasi totalité des acteurs du mobile en France. TDF diffuse à Paris pendant neuf mois une trentaine de programmes encodés en MPEG-4 depuis cinq émetteurs, dont la tour Eiffel.

Avec ce procédé de diffusion, la qualité de l'image comme du son paraît nettement supérieure sur la TNT mobile comparé à la 3G. Selon TDF, à la suite d'une expérimentation menée à Helsinki avec Nokia, les testeurs restent en moyenne 20 minutes devant leur très petit écran. C'est peu, comparé aux 3h30 quotidiennes d'un français devant la télévision, mais cela suffit à conférer à ce marché un potentiel énorme et à aiguiser les appétits des opérateurs et des producteurs de contenus numériques.

Il reste que le succès commercial et la généralisation de la télévision sur mobile ne sont pas seulement liés à une offre attractive et formatée de programmes mais dépendent également de l'évolution technologique des mobiles eux- mêmes et notamment de leurs écrans. Tant que l'écran restera physiquement intégré au mobile, sa taille restera limitée pour des raisons ergonomiques et physiques à la taille de l'appareil. Comment associer un écran confortable, c'est-à-dire de grande taille, à un mobile qui doit rester suffisamment petit et compact pour se loger dans la poche ? La solution à cette quadrature du cercle viendra sans doute du découplage physique entre notre mobile et son écran, du moins pour la fonction "téléviseur". Pour parvenir à ce découplage, deux pistes technologiques sont envisagées.

On peut tout d'abord imaginer des écrans flexibles en polymères pouvant être fixés directement sur l'avant-bras ou la manche de notre veste. De tels écrans sont à l'étude dans les laboratoires d'électronique du monde entier et devraient apparaître sur le marché avant la fin de la décennie.

L'autre voie est la virtualisation de l'écran en l'intégrant dans des lunettes spéciales. Ces écrans virtuels donnent la même sensation et le même confort qu'un écran physique d'un mètre de diagonale mais ils sont chers à produire et posent également le problème de l'isolation sensorielle : utiliser de tels écrans dans la rue ou en voiture peut être très dangereux car l'utilisateur est complètement coupé de la réalité et il faut prévoir des dispositifs qui maintiennent un contact sensoriel avec le monde extérieur.

Quoiqu'il en soit, l'arrivée de ces écrans flexibles et virtuels devrait faire exploser la télévision sur mobile et rompre définitivement le lien vieux de plus d'un demi-siècle entre foyer et consommation de la télévision. Mais personne ne peut prédire aujourd'hui quels types de programmes nous aurons envie de regarder avec nos futurs mobiles à écrans virtuels et comment s'équilibreront les fonctions "télévision", "visiophone" et consultation du Web. Il se peut en effet que le désir de convivialité l'emporte et que les mobilnautes aient davantage envie d'utiliser la visiophonie interpersonnelle ou communautaire ou leur messagerie instantanée que de regarder seuls la télévision en mobilité.

On peut s'attendre, comme cela a toujours été le cas tout au long de l'évolution technologique, à ce que l'apparition non prévue de nouveaux usages socio-culturels de ces mobiles polyvalents et universels vienne chambouler les prévisions et modèles économiques d'aujourd'hui, démontrant une fois de plus que l'homme est toujours plus complexe et imaginatif que la technologie et parvient toujours à se réapproprier la technique pour créer de nouvelles formes de convivialité et de sociabilité.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Japon : plus besoin de carte de visite avec la poignée de main "high-tech"
Samedi, 24/12/2005 - 00:00

Le rite de l'échange des cartes de visite va peut-être devenir obsolète grâce à une invention nippone, qui permet à deux personnes de voir s'inscrire automatiquement sur leur téléphone portable le nom et les fonctions de leur interlocuteur rien qu'en se serrant la main. Cette technologie, mise au point par le géant japonais de la téléphonie NTT, consiste à employer le corps humain comme vecteur de transmission de données en faisant circuler dans les membres un courant électrique de très faible voltage.

Deux personnes équipées d'un boîtier spécial d'un poids de 50 grammes pourront ainsi, par simple contact corporel, voir s'afficher les coordonnées de leur interlocuteur sur leur téléphone ou sur leur agenda électronique. "L'information sera datée comme un courrier électronique, ce qui aidera à se souvenir quelles ont été les personnes rencontrées et à constituer un carnet d'adresses", a expliqué à l'AFP Tadashi Monotani, chercheur chez NTT. La technologie, baptisée RedTacton, sera mise en pratique d'ici deux ou trois ans. Selon NTT, elle pourra trouver un grand nombre d'autres applications, comme faire sonner un signal d'alarme au moment où une personne touche une boîte d'un médicament qui lui est interdit.

RT

La biométrie utilisée dans une bibliothèque japonaise
Samedi, 24/12/2005 - 00:00

Fujitsu va bientôt équiper la bibliothèque de la ville de Naka (dans la préfecture d'Ibaraki), dont l'ouverture est prévue pour octobre 2006, de son nouveau système d'identification sans contact basé sur les veines de la main. Les utilisateurs devront enregistrer leur empreinte veineuse lors de l'inscription et il leur sera ensuite possible d'emprunter des livres en passant simplement leur paume au-dessus d'un lecteur, sans aucun contact et sans avoir besoin de transporter une quelconque carte. Les empreintes veineuses sont plus difficilement falsifiables que les empreintes digitales plus couramment utilisées et les utilisateurs sont en général moins réticents à utiliser cette technologie car elle est sans contact. Pour les utilisateurs ne souhaitant pas utiliser le système d'authentification biométrique, une carte à puce sans contact sera toutefois disponible.

BE Japon

Une technologie spatiale pour la sécurité des gares et aéroports
Samedi, 24/12/2005 - 00:00

Une technologie développée pour des projets de communication spatiale va sans doute être utilisée par les forces de sécurité britanniques pour détecter les armes dissimulées dans les aéroports et les gares. Cette technologie, mise au point par la compagnie irlandaise Farran Technology, a d'abord été conçue pour l'Agence Spatiale Européenne dans les domaines de l'astronomie avancée et des communications radio. En ajoutant une technologie scanner, le système de détection Tadar détecte les objets métalliques et non-métalliques cachés sous les vêtements tout en étant sans danger pour les personnes scannées.

Le système fonctionne en mesurant la radiation thermique émise par le corps de la personne scannée, à une longueur d'ondes de 3 mm, contre un panneau à température contrôlée. A cette longueur d'ondes, les vêtements deviennent transparents mais pas les objets plus denses tels que des armes. La présence d'un objet caché entre les vêtements et le corps modifie le rayonnement thermique et grâce à ce contraste, il est possible d'obtenir une image de ces objets en haute résolution. L'intérêt principal de ce système est que tout type d'objet est identifiable car chaque matériau à sa propre réponse fréquentielle et sa propre image. Par exemple, un objet métallique va complètement bloquer le rayonnement thermique du corps tandis que du plastique va en transmettre une fraction.

Ainsi certaines armes terroristes comme les explosifs plastiques, invisibles aux détecteurs de métaux classiques, sont ici identifiables. Outre la possibilité de détecter tous types d'objet, l'autre intérêt du système est qu'il est complètement passif. Le corps est juste scanné, contrairement aux systèmes conventionnels à terahertz ou à rayon X, qui irradient d'abord la personne provoquant des dommages sur le corps. Le système rafraîchit l'image jusqu'à dix fois par seconde. Actuellement, un opérateur doit être présent pour vérifier les objets suspects sur un écran. A l'avenir, le Tadar devrait utiliser des algorithmes de reconnaissance intégrés pour l'analyse des images obtenues.

BE GB

Le DVD holographique véritable successeur du DVD ?
Samedi, 24/12/2005 - 00:00

Alors que la guerre fait rage entre le "Blue Ray" et le « HD DVD » pour imposer au niveau mondial le futur standard qui remplacera l'actuel DVD, une nouvelle technologie bien plus performante pourrait bien mettre tout le monde d'accord et rendre obsolète les deux technologies en compétition avant même que l'une d'elle ne s'impose.

Cette technologie est celle du disque holographique. Maxell, MaterialScience AG et Inphase Technologies ont réussi à créer le premier disque de 300 Go, ils espèrent réussir à en obtenir un de 1.6 To soit 1600 Go, après sept année de recherche et développement. Attendus à la fin 2006, ces nouveaux supports qui s'appuient sur des techniques optiques s'annoncent très prometteurs, notamment dans le domaine de l'archivage. Le seul concurrent, le japonais Optware, proposera des disques similaires dès 2006. Néanmoins, pour l'instant, ce type de support holographique est réservé à l'archivage car les premiers disques ne seront pas réinscriptibles, ce qui en limite leur utilisation.

Le principe de base du disque holographique est ancien, il consiste à écrire en relief plutôt que sur la surface. Ce principe est principalement utilisé pour l'imagerie en relief. Sur ce type de disque, l'information est inscrite sous forme d'hologramme au coeur d'un cristal photosensible (deux couches de photopolymère entre deux disques de plastique conducteur). L'écriture des données nécessite l'emploi d'un laser, dont la lumière est divisée en deux faisceaux lumineux, un servant de référence et l'autre à écrire ou à lire. La capacité de stockage du disque holographique est très importante, ainsi que la vitesse de transfert de l'ordre d'un DVD 16X ce qui demandera un débit constant de 72 Mo par seconde. Actuellement, seuls les disques RAID 0 peuvent atteindre de tels débits. Ce DVD holographique devrait être commercialisé en 2006. Les 300 Go de capacité d'enregistrement permettront par exemple de stocker 700 heures de musique ou bien encore 35 heures de vidéo haute résolution.

Cette technologie pourrait être appliquée également sur des supports mobiles, ainsi sur un timbre poste où l'on pourra stocker 2 Go dès 2006, ou sur des disques au format d'une carte de crédit qui pourront stocker 200 Go, contre 8 Go aujourd'hui ! Un premier standard devrait prochainement apparaître. L'organisme Ecma a créé une cellule dans ce but précis. Elle regroupe des sociétés telles que Sony, IBM, Philips, Hitachi, Panasonic, Toshiba, Inphase et Optware.

InPhase

^ Haut
Matière
Matière et Energie
Une cellule solaire pour réaliser l'électrolyse de l'eau
Samedi, 24/12/2005 - 00:00

La compagnie Hydrogen Solar a reçu des fonds de la part de BOC Foundation (for the environment) afin de développer son système de production d'hydrogène : le Tandem Cell, qui utilisera de l'eau et la lumière solaire, sans émission de dioxyde de carbone. Le système Tandem Cell est composé de deux cellules photocatalytiques en série. La première contient un film nanocristallin semi-conducteur (oxyde métallique) qui va absorber la partie hautement énergétique du spectre solaire : UV et lumière bleue visible. Cette absorption va créer une paire électrons-trous qui va générer un potentiel électrique dans cette cellule.

L'autre partie du spectre solaire, les lumières verte à rouge, traverse la première cellule sans encombre mais est absorbée à son tour par la suivante, appelée cellule de Graetzel. Celle-ci génère un potentiel électrique, pratiquement quelle que soit la lumière incidente. Ces deux cellules, de technologie suisse, sont reliées électriquement et la différence de potentiel obtenue fournit une énergie suffisante pour permettre l'électrolyse de l'eau (séparation des atomes d'hydrogène et d'oxygène).

Le point le plus important de ce système est la capacité des oxydes métalliques à réagir avec la lumière incidente. Des films de haute technologie sont actuellement développés et d'autres recherches sont en cours sur l'ensemble du système. Pour le moment, le composant le plus cher du Tandem Cell est le verre spécial utilisé pour déposer les films nanocristallins. Des matrices de Tandem Cell sont envisagées pour plus d'efficacité et pour un champ d'application plus important. Avec ce financement du BOC, Hydrogen Solar va concevoir, construire et installer un champ de Tandem Cell de 100 m2 afin de produire de l'hydrogène de très haute pureté. Lors de cette phase, la BOC Foundation va fournir son expertise en terme de sécurité et son soutien lors de l'installation. La deuxième phase du projet va être la démonstration de ce panneau sur le site énergétique de Beacon, Leicestershire. Le système devra fournir de l'hydrogène pour des piles à combustibles, et va être utilisé en tant que combustible pour la génération d'électricité et de chaleur dans les bâtiments du site.

HS

BE GB

Le maire de Paris veut le haut débit gratuit pour tous les Parisiens
Samedi, 24/12/2005 - 00:00

Le maire de Paris Bertrand Delanoë (PS) a annoncé mercredi 4 janvier que la Ville allait lancer un "grand appel d'offres" pour équiper la capitale en Internet haut débit, et qu'il souhaitait que celui-ci soit soumis "très rapidement au Conseil de Paris". Lors des voeux au Conseil de Paris pour 2006 devant les maires, conseillers de Paris et d'arrondissements et présidents de groupes, il a précisé que cet appel d'offres devrait permettre que les "entreprises et les ménages, y compris les plus modestes, puissent avoir accès gratuitement au haut débit". "Ce sera une manière de servir Paris, la modernité, la dynamique économique et même la démocratie, et même l'accès à l'information et l'accès à un certain nombre de services comme la télévision en haute définition", a déclaré le maire de Paris dans les salons de l'Hôtel de Ville.

Bertrand Delanoë s'est néanmoins gardé de donner les détails d'un tel projet. Quelle technologie sera utilisée, le sans fil (Wi-Fi, WiMax), l'ADSL ? Qui financera l'opération ? Qui aura le droit à la gratuité ? Quelles incidences sur les acteurs de ce marché ?

Paris

^ Haut
Espace
Espace et Cosmologie
L'équation E = mc2 d'Einstein confirmée avec une précision inégalée
Samedi, 24/12/2005 - 00:00

Un physicien de l'Université Laval (Canada) vient de prouver encore davantage la validité de la célèbre équation d'Einstein E=mc2. Le professeur Simon Rainville explique aujourd'hui dans la prestigieuse revue Nature comment il a mesuré avec une précision 55 fois plus importante qu'auparavant la masse d'un atome. «La précision obtenue équivaut à mesurer la distance entre Québec et Vancouver avec une marge d'erreur de la grosseur d'un cheveu, explique M. Rainville en entrevue téléphonique. La moindre déviation par rapport à cette équation aurait d'énormes conséquences sur notre compréhension du monde. Il est très important de continuer à vérifier que E=mc2 est valide, parce que des technologies importantes du monde moderne, comme les réacteurs nucléaires et les systèmes de positionnement, en dépendent.»

En plus des applications théoriques, la nouvelle méthode de pesée mise au point par M. Rainville permettra éventuellement d'éliminer le recours à un étalon. «Le kilogramme est la seule unité de mesure définie par rapport à un artefact : un bloc de 1 kg conservé au Bureau international des poids et mesures à Sèvres, en France. La livre est définie par rapport au kilogramme. Si on parvient à mesurer la masse de manière plus précise, on pourra définir le kilogramme par rapport à un atome, et ne plus avoir besoin de l'artefact de Sèvres.»

M. Rainville a commencé ses recherches dans le cadre d'un doctorat au Massachusetts Institute of Technology (MIT), terminé en 2002. Auparavant, la masse relative d'un atome était mesurée en comparant sa réaction et celle d'un autre atome quand on les insérait dans un cyclotron. «Mais on devait insérer les deux atomes l'un à la suite de l'autre, et ça créait des changements de conditions ambiantes qui augmentaient l'incertitude des mesures. Nous avons eu l'idée d'insérer les deux atomes en même temps, et de les comparer en faisant bien attention à ce qu'ils n'entrent pas en collision.»

Grâce à cette innovation, M. Rainville et ses collègues ont réussi à réduire de 0,0002 % à 0,00004 % l'incertitude sur la masse de l'atome. En insérant cette valeur dans l'équation E=mc2, en collaboration avec des physiciens de l'Institut national des standards et des technologies au Maryland, ils ont réussi à réduire l'incertitude sur la formule d'Einstein d'environ 10 fois.

L'équation E=mc2 découle de la théorie de la relativité d'Einstein, publiée en 1905. Elle postule que l'énergie (E) d'une particule élémentaire est égale à sa masse (m) multipliée par le carré de la vitesse de la lumière (c, qui équivaut à 300 000 kilomètres par seconde). Avec cette équation, Einstein lie de manière mathématique l'énergie et la masse, en plus d'expliquer comment le noyau des atomes, infiniment petit, peut contenir d'immenses quantités d'énergie.

SD

CP

Galileo : l'Union européenne à l'assaut de la forteresse américaine dans la navigation par satellite
Samedi, 24/12/2005 - 00:00

Le premier satellite du programme Galileo a été lancé le 28 décembre depuis la base de Baïkonour au Kazakhstan, a annoncé l'Agence Spatiake Européenne (ESA). Il s'agit de la première étape du programme européen de navigation par satellite destiné à concurrencer le système américain GPS. Ce premier satellite baptisé "Giove A" a quitté le cosmodrome de Baïkonour à bord d'une fusée russe Soyouz.

Une fois en orbite, ce satellite "démonstrateur" sera chargé de tester les horloges atomiques et les signaux de navigation. "Giove A" devra en outre assurer les fréquences de Galileo dans l'espace et permettre aux scientifiques de vérifier les effets des radiations solaires sur l'engin. Un deuxième satellite "démonstrateur" devrait être lancé au printemps. Deux autres satellites seront lancés en 2008 pour compléter la phase de test. Il faut en effet au moins quatre satellites en orbite pour garantir une position exacte à un moment précis n'importe où sur le globe.

Le système de navigation Galileo, qui se veut plus précis que le GPS, s'appuie sur une constellation de 30 satellites européens, qui devrait être opérationnelle d'ici 2010. Contrairement à son concurrent américain qui dépend fortement de l'armée américaine, Galileo est un projet strictement civil. L'ESA affirme que cela garantit le fonctionnement en tout temps, sauf en cas d'"urgence directe".

Galileo permettra à l'Europe d'acquérir son indépendance dans un domaine stratégique, le positionnement par satellites, devenu indispensable pour la gestion du trafic aérien, maritime et, de plus en plus, automobile. Les premières réflexions sur la nécessité de mettre en place une alternative au GPS américain remontent au début des années 1990. Mais il faudra attendre 2010 - un retard de deux ans sur le calendrier initial - pour voir l'entrée en service commercial de Galileo.

Le coût de la construction de Galileo a été estimé à près de 3,3 milliards d'euros. Le fonctionnement du système coûtera environ 220 millions d'euros par an, y compris le remplacement des satellites. Les applications sont prévues dans les domaines de la navigation personnelle, le transport et la logistique, la finance, et l'agriculture et la pêche.

L'Agence spatiale européenne (Esa), qui copilote la phase de lancement du projet avec l'Union européenne, avance un nombre d'utilisateurs de ce type de service dans le monde de 1,8 milliard en 2010 et de 3,6 milliards en 2020. A cette échéance, le marché mondial devrait représenter plus de 250 mds EUR. Les bénéfices attendus devraient au minimum être 4,6 fois supérieurs aux investissements consentis, ce qui fait de Galileo le projet d'infrastructure le plus rentable engagé par l'Europe, fait valoir l'Esa.

Six pays hors de l'Union Européenne, la Chine, l'Inde, Israël, le Maroc, l'Arabie saoudite et l'Ukraine, se sont joints au programme et des discussions sont en cours avec d'autres pays. Grâce à Galileo et au GPS - les deux systèmes seront compatibles - on pourra aussi retrouver un conteneur perdu, repérer une voiture volée, évaluer le temps restant avant le passage d'un bus, suivre les déplacements d'un délinquant porteur d'un bracelet électronique ou secourir un randonneur perdu.

ESA

Les Galaxies grandissent dans des berceaux de matière noire
Samedi, 24/12/2005 - 00:00

Des astronomes ont découvert des indications très claires selon lesquelles les masses de matière noire, où sont plongées les galaxies, jouent le rôle de crèches, propices à la naissance de nouvelle galaxies, et ceci à une distance de 12 milliards d'années-lumière. Un seul nid peut être le lieu de naissance d'un grand nombre de jeunes galaxies. Ces résultats, obtenus par les chercheurs du Space Telescope Science Institute, de l'observatoire national du Japon et de l'Université de Tokyo, confirment les prédictions de la théorie cosmologique prédominante actuelle, connue sous le nom de modèle de la matière noire froide.

Des études récentes montrent que la matière noire est 7 fois plus massive que la matière ordinaire. Pourtant, sa détection reste très difficile en raison de son interaction plus que limitée avec la matière visible. Invisible à nos télescopes de manière directe, elle révèle pourtant sa présence par ses intenses effets gravitationnels sur les gaz proches, les étoiles et même les galaxies. Dans la liste des phénomènes gravitationnels, il en est un parmi les plus courants : le rassemblement de deux galaxies. En étudiant la manière dans laquelle ils se produisent, il est possible de déterminer la distribution de la matière noire et son influence sur la naissance et la croissance des galaxies. Autrefois, il était extrêmement difficile d'étudier de tels phénomènes avec de jeunes galaxies, car les grandes distances nous séparant d'elles les rendent à peine visibles, de plus en observer un nombre suffisant relevait du challenge.

Durant l'étude, les chercheurs furent également capables de vérifier l'identité spectrale des galaxies avec les télescopes Subaru et Keck. Qui plus est, en comparant ces données aux simulations numériques d'une équipe de l'université de Tokyo sur la croissance des nuages de matière noire froide, il ressort une dernière conclusion : les nuages de matière noire les plus massifs contiennent plus de galaxies brillantes. Il s'agit de la première évidence concrète de la naissance et de la croissance des jeunes galaxies dans des nuages de matière noire, ainsi que le fait que de tels nuages contiennent un très grand nombre de ces jeunes astres.

TS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La fonte accélérée du permafrost pourrait libérer de grosses quantités de CO2
Samedi, 24/12/2005 - 00:00

Le permafrost (ou pergélisol), ce sol perpétuellement gelé des régions arctiques, recouvre actuellement un quart des terres de l'hémisphère Nord, soit une surface d'environ 10,5 millions de km2. Un territoire grand comme l'Europe, qui est aujourd'hui menacé par le réchauffement de la planète dû notamment aux rejets par l'homme de gaz à effet de serre dans l'atmosphère. Ces sols, à en croire David Lawrence et Andrew Slater du National Center for Atmospheric Research (NCAR, Boulder, Etats-Unis), pourraient en effet connaître, d'ici à la fin du siècle, une fonte dramatique sur leurs 3 premiers mètres d'épaisseur.

Dans le pire des scénarios, si les rejets de CO2 atteignent d'ici cent ans, avec l'apport des pays en voie de développement, un niveau de 810 parties par million (ppm) de gaz carbonique dans l'atmosphère, contre 350 aujourd'hui, la superficie du permafrost pourrait, en 2050, ne plus occuper que 2,5 millions de km2 et, en 2100, 1 million de km2. Avec des émissions de CO2 plus maîtrisées (550 ppm), le permafrost resterait présent sur encore 3,75 millions de km2 à la fin du siècle, affirment les chercheurs dans l'édition du 17 décembre 2005 des Geophysical Research Letters.

Le permafrost, qui existe dans les régions où la température moyenne est de 0 degré Celsius, est constitué d'un ensemble de terre, de déchets végétaux et de glace. Il peut atteindre par endroits plusieurs centaines de mètres d'épaisseur et comprend une surface active, épaisse de quelques centimètres à plusieurs mètres, qui fond durant l'été et regèle en hiver. C'est cette partie exposée et fragile qui est aujourd'hui sensible au réchauffement climatique.

L'augmentation des températures depuis les débuts de l'ère industrielle, plus élevée dans les régions arctiques qu'ailleurs, a déjà altéré le permafrost dans certaines régions. Ainsi, en Alaska, il a en vingt ans fondu sur une épaisseur de 2 mètres, constate Vladimir Romanovsky, géologue à l'université de Fairbanks (Alaska). Un phénomène qui a entraîné des affaissements du sol et, par voie de conséquence, la déstabilisation de certaines habitations, le gauchissement des routes et le fléchissement des arbres.

Mais il y a plus grave : selon certains chercheurs, cette fonte pourrait aussi engendrer des perturbations climatiques au niveau mondial. Selon des estimations certes encore imprécises, le permafrost contiendrait 30 % ou plus de tout le carbone stocké dans les sols de la planète. Avec la fonte, il serait alors relâché en grandes quantités dans l'atmosphère et pourrait avoir une influence majeure sur le climat.

Geophysical Research Letters

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer du sein : des avancées prometteuses
Samedi, 24/12/2005 - 00:00

L'efficacité du tamoxifène, traitement de référence du cancer du sein, est contrariée par la présence d'une modification génétique. Selon une équipe américaine, les femmes concernées seraient deux fois plus exposées à une rechute. Le Dr Matthew Goetz de la Mayo Clinic, et son confrère de l'Université du Michigan le Pr James Rae, confirment le rôle du gène CYP2D6, à l'origine d'une baisse de l'efficacité thérapeutique du tamoxifène. "Notre étude démontre que les femmes porteuses d'une modification génétique sur le CYP2D6 et qui souffrent d'un cancer du sein, seraient plus exposées au développement d'un nouveau cancer lorsqu'elles sont traitées par le tamoxifène", précisent les auteurs. Leur travail était centré sur près de 5.200 femmes traitées pendant 5 ans par ce médicament. Cette étude confirme donc au moins deux autres travaux, qui accusent cette mutation génétique, mais aussi certains antidépresseurs d'interférer avec ce traitement. Rappelons que chaque année en France, plus de 11.000 patientes décèdent des suites de cette maladie. Laquelle demeure la première cause de mortalité par cancer chez la femme.

L'autre avancée dans le domaine du cancer du sein concerne un nouveau médicament, issu d'une nouvelle famille thérapeutique, qui a montré plus d'efficacité que le produit de référence, le tamoxifène, dans la prévention des récidives de cancer du sein chez les femmes ayant été traitées tout de suite après avoir été opérées, selon une étude publiée récemment dans le New England Journal of Medicine. Ce médicament, le Femara, devrait obtenir très bientôt le feu vert de la FDA (l'Agence du médicament américaine), notamment pour les femmes ménopausées ayant un cancer du sein au stade précoce. Il a déjà obtenu l'agrément pour les formes avancées.

Le Femara et l'Arimidex, un médicament identique au premier et déjà commercialisé dans les formes précoces de cancer du sein, sont deux inhibiteurs de l'aromatase. Ils bloquent la production d'oestrogènes, hormones qui stimulent la croissance de la plupart des tumeurs se développant après la ménopause. Le tamoxifène agit de façon différente, en freinant la faculté qu'ont les oestrogènes à pénétrer dans la cellule.

L'étude menée par des chercheurs américains, européens et australiens souligne que 84 % des femmes qui reçoivent du Femara étaient encore en vie et sans signe de cancer cinq ans après le début du traitement, alors qu'elles n'étaient que 81% parmi celles qui recevaient du tamoxifène. Ces résultats portant sur 8.000 femmes sont basés sur deux ans de données relatives aux récidives de cancer du sein.

L'étude a été financée par le fabricant du Femara, la firme Novartis. La plupart des chercheurs sont consultants pour Novartis ou pour des laboratoires concurrents, ou encore y possèdent des actions. D'autres études soulignent l'efficacité du Femara et de l'Arimidex lorsqu'ils sont donnés en traitement initial ou après deux ans de tamoxifène. "Ces études qui concernent près de 30.000 participantes, prouvent que le traitement avec un inhibiteur de l'aromatase, qu'il soit pris seul ou après un traitement avec du tamoxifène, est bénéfique", écrit le Dr Sandra Swain, de l'Institut national du cancer dans un éditorial d'accompagnement.

L'objectif maintenant est de déterminer le temps nécessaire de traitement, le choix du médicament, et dans quelle mesure changer de traitement à un moment donné peut être bénéfique, a-t-elle ajouté. Le tamoxifène demeure le produit de référence pour les femmes atteintes d'un cancer du sein avant la ménopause, les inhibiteurs de l'aromatase n'étant pas considérés efficaces à ce stade.

JCO

NEJM

Vaccin, vers une nouvelle approche
Samedi, 24/12/2005 - 00:00

Des chercheurs de l'Université canadienne de Colombie Britannique (UBC) ont mis au point une technique permettant de réduire la toxicité des vaccins en rendant plus efficaces de plus petites doses. Cette méthode permettrait de réduire les effets secondaires qui limitent souvent le développement de nouveaux vaccins. Dans l'étude publiée par le collectif Public Library of Sciences (PLOS), Wilfred Jefferies et son équipe montrent qu'amplifier la production d'un composant du système immunitaire appelé TAP (Transporteur associé à la maturation de l'antigène) permet de réduire les doses de vaccins utilisés. Outre la diminution des effets indésirables, cette technique permettrait de vacciner un plus grand nombre de personnes avec moins de matériel.

Le principe de la vaccination est de stimuler les défenses immunitaires de l'organisme contre un agent spécifique, viral ou bactérien. Les vaccins, qui sont composés d'agents ou de fractions d'agent inactivés (antigènes) fournissent une première exposition inoffensive permettant de développer une immunité de sorte que de futures infections puissent être contrecarrées avant de devenir mortelles. Pour tester leur technique, les scientifiques ont vacciné des souris contre la rage et la rougeole tout en induisant une surproduction de TAP. Cet élément du système immunitaire augmente l'activité du Complexe Majeur d'Histocompatibilité (CMH) chargé de différencier le soi du non-soi et de présenter les antigènes aux différents lymphocytes. Grâce à cette méthode, les souris ont été immunisées avec des doses cent fois plus faibles ! Cette piste, si elle s'avère concluante, permettrait donc de réduire les effets secondaires potentiels des vaccins.

S&A

La métagénomique ouvre une nouvelle ère dans l'exploration du vivant
Samedi, 24/12/2005 - 00:00

En Amérique du Nord, en Asie ou en Europe, plusieurs laboratoires sont en train de se lancer dans le séquençage d'écosystèmes ou de milieux vivants et non plus d'organismes isolés comme l'homme ou la souris. En ce début d'année 2006, on peut parier que ces nouvelles recherches devraient bientôt révolutionner notre connaissance de l'environnement terrestre et du monde vivant.

Vouloir dresser un inventaire des génomes des micro-organismes présents dans tous ces milieux peut paraître une tâche insensée. Il y a des bactéries et des virus partout sur notre planète : dans une pincée de terre, sur un bout de peau ou de paroi intestinale, dans l'eau de mer ou à l'intérieur d'une canalisation d'eau potable. Aujourd'hui, on ne sait rien de ces microbes car on est incapable de cultiver la plupart d'entre eux et donc de les étudier. «On connaît peut-être moins de 1 % de tous ces microbes», assure Jean Weissenbach, responsable du Centre national du séquençage d'Evry. On estime, par exemple, qu'il y aurait sur notre planète dix mille milliards de milliards de milliards (10 puissance 31) d'espèces de virus et autant d'espèces de micro-organismes dans les océans.

Cette nouvelle branche de la génétique porte un nom un peu barbare : c'est la métagénomique. Ce mot-valise a été inventé en 1998 par une équipe américaine à partir de deux termes : la méta-analyse (groupement de plusieurs analyses) et la génomique (étude complète du matériel génétique d'un organisme). Elle s'appuie sur deux techniques différentes qui permettent de jeter des filets dans l'ADN du monde microbien. Ou bien les scientifiques recherchent les fonctions de gènes inconnus en les clonant, ou bien ils dressent au hasard un inventaire des séquences génétiques des micro-organismes présents dans un milieu.

«La vitesse du travail dépend avant tout de la puissance des robots et des financements du laboratoire», reconnaît Dusko Ehrlich, de l'Inra (Institut de recherche agronomique). Depuis plusieurs mois, ce chercheur tente de fédérer un programme international de séquençage du métagénome de l'intestin humain (coût estimé à 100 000 euros). Cette cavité est une niche écologique qui abrite tout un monde bactérien encore inconnu mais pourtant indispensable à la santé humaine. «Etablir le répertoire génétique de tout ce qui existe dans le tractus intestinal pourrait ouvrir un jour des perspectives diagnostiques ou thérapeutiques. Mais rien n'est encore démontré», souligne-t-il avec prudence. Le séquençage de ce métagénome est l'équivalent de dix fois le séquençage du génome humain.

Les initiatives se multiplient dans tous les domaines. Pionnier du séquençage du génome humain, Jean Weissenbach a commencé, il y a quatre ans, à extraire l'ADN du métagénome des flores bactériennes de la station d'épuration d'Evry. «On a trouvé des enzymes dont on ne soupçonnait pas l'existence, explique-t-il. On a aussi trouvé le génome d'une bactérie capable d'oxyder l'ammoniac, ce qui constitue une étape jusqu'alors inconnue du cycle de l'azote.»

Le laboratoire de génomique et biodiversité microbienne des biofilms (CNRS-université Paris-Sud) a lancé deux programmes de métagénomique : le premier sur les virus des sols désertiques (Sahara et Namibie) et le second sur les communautés bactériennes qui tapissent l'intérieur des canalisations d'eau. La métagénomique des écosystèmes qui pourrait avoir des applications agronomiques, voire industrielles, est plus avancée que celle des différentes niches écologiques du corps humain. Mais cette dernière ne va sans doute pas tarder à exploser. «L'homme est un écosystème comme les autres», assure Michael DuBow, Profeseur à l'Université de Paris-Sud.

Figaro

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Le premier acte notarié dématérialisé
Samedi, 24/12/2005 - 00:00

Le premier acte notarié dématérialisé de France a été transmis le 26 décembre 2005 de Vertou (Loire-Atlantique) via Télé@ctes par le président du conseil supérieur du notariat, Maître Laurent Dejoie. Ce premier document dématérialisé, une vente immobilière, a été transmis à la conservation des hypothèques qui enregistre tous les événements juridiques concernant un immeuble a-t-on appris auprès de la direction des services fiscaux de Loire-Atlantique.

Grâce à la transmission via l'Internet, "les droits aux acquéreurs sont ainsi immédiatement confortés" et les paiements immédiatement réalisés par virement électronique, a expliqué Me Dejoie.

Douze études en France testent actuellement ce système de télétransmission et après celle de Vertou, les autres études ont à leur tour transmis des actes notariés par ce système avec succès, a précisé maître Laurent Dejoie. "Dans un contexte d'utilisation des nouvelles technologies cette expérimentation qui débute peut paraître banale mais ce serait oublier qu'en ce domaine la culture de l'écrit et du papier est encore bien ancrée", souligne dans un communiqué Bernard Joyeux, chef de projet de l'équipe Cricom (Comité régional pour l'information et la communication du ministère de l'Economie et des Finances) des Pays-de-la-Loire. Ce premier essai de transmission de document notarié par l'Internet "marque le début d'une expérimentation de six mois, à la suite de quoi Télé@ctes pourra être généralisé à l'ensemble du territoire national", précise M. Joyeux.

Boursorama

Le billet d'avion en papier bientôt remplacé par le ticket électronique
Samedi, 24/12/2005 - 00:00

Le bon vieux billet d'avion en papier n'a plus au maximum que deux ans à vivre avant d'être définitivement remplacé par le ticket électronique, au terme d'une évolution qui doit faire économiser des milliards aux compagnies aériennes. Au jour d'aujourd'hui, 38 % des billets vendus dans le monde le sont via l'Internet et l'Association internationale du transport aérien (Iata) souhaite que ses 265 compagnies membres atteignent le chiffre de 100 % d'ici deux ans au plus tard. "Cet objectif est une obligation. Chaque année, nous imprimons environ 350 millions de billets. Nous n'en imprimerons plus un seul courant 2007", assure Giovanni Bisignani, le directeur général de l'Iata, dont les compagnies assurent environ 90 % du trafic mondial de passagers.

La disparition du support papier doit permettre à elle seule au secteur d'économiser trois milliards de dollars par an, tandis que la généralisation de l'électronique pour l'enregistrement des passagers ou le traitement des bagages et du fret rapporterait encore plus. "Il ne s'agit pas de technologies révolutionnaires, de quelque chose qu'il faudrait encore inventer : ce sont des technologies qui existent déjà", rappelle M. Bisignani. "Elles permettront d'économiser 6,5 milliards de dollars par an et rendront le voyage plus agréable à nos passagers". A l'avenir, l'Iata espère voir disparaître les files d'attente aux comptoirs d'enregistrement, tandis que l'apparition des vignettes électroniques collées sur les valises devrait réduire le nombre de bagages perdus.

Le billet électronique est apparu fin 1995 à la suite de contacts entre la compagnie aérienne britannique British Midland et une filiale de la Sita, une société suisse de services informatiques spécialisée dans le transport aérien. British Midland cherchait alors un moyen de réduire ses coûts de distribution et à vendre ses billets directement à ses passagers sans passer par des agences de voyage. Le premier site de vente sur Internet démarrait le 11 décembre 1995 et le premier utilisateur, qui avait réservé un vol Paris-Londres, a eu droit à une bouteille de champagne, rappelle Richard Stokes, un des responsables de Sita.

A l'époque, l'Internet ne comptait que 40 millions d'utilisateurs, contre 870 millions neuf ans plus tard. En 2005, quelque 400 millions de passagers ont réservé leur billet d'avion en ligne. Mais certaines régions du monde risquent d'avoir plus de mal que d'autres à atteindre l'objectif de l'Iata, comme le reconnaît M. Bisignani. L'Europe et les USA sont largement en tête, avec plus de la moitié des billets d'avion vendus via l'Internet. La réservation directe a modifié le paysage commercial pour les compagnies aériennes établies, en butte à la concurrence de leurs rivales à bas coût comme EasyJet ou RyanAir, qui offrent depuis le départ leurs billets exclusivement sur la toile.

"L'Internet a permis de réduire les coûts des compagnies, mais il a aussi aiguisé la concurrence par les prix et entamé les rendements", observe le directeur de la Sita, Ian Ryder. Après l'introduction des bornes d'enregistrement électroniques par certaines compagnies dans les aérogares, le secteur aérien travaille à la mise en place de normes techniques communes qui permettraient aux aéroports d'installer le même équipement pour tous les transporteurs. Quant à l'enregistrement direct depuis chez soi via l'Internet, il devrait faire son apparition l'an prochain, d'après la Sita.

AFP

France Télécom lance un bouquet gratuit de chaînes TV par ADSL
Samedi, 24/12/2005 - 00:00

France Télécom s'apprête à donner un coup d'accélérateur à MaLigne TV, son offre de télévision numérique par ADSL. En février, l'opérateur historique proposera à ses abonnés un accès, sans surcoût, à une vingtaine de chaînes, révèle Le Figaro. A savoir la plupart des chaînes de la télévision numérique terrestre, plus des programmes internationaux de sport, de divertissement et d'information. En parallèle, un accord pourrait être conclu avec France Télévisions pour la création de cinq canaux exclusifs retransmettant les compétitions des prochains Jeux olympiques qui se tiendront du 10 au 26 février 2006 à Turin. C'est justement à l'occasion de cette compétition que l'offre serait lancée.

Avec ce nouveau bouquet France Télécom rattrapera un retard devenu difficilement tenable sur ses principaux concurrents. Contrairement aux alternatifs, l'opérateur historique s'était rangé il y a deux ans sur une solution originale lors du lancement de MaLigne TV, qui comptait fin 2005 environ 200.000 abonnés. Pour profiter de la télévision par ADSL, en plus d'un abonnement à 7 euros par mois, ses abonnés doivent toujours souscrire obligatoirement un forfait supplémentaire à CanalSat, Canal+ ou TPS. Au final, l'offre « triple play » de base revient ainsi à 24,90 euros pour l'ADSL, 10 euros pour la téléphonie et 18 euros pour la télévision (les 7 euros plus un forfait minimum de 11 euros chez TPS ou CanalSat). Soit 52,90 euros, loin derrière la trentaine d'euros des alternatifs. Grâce à la nouvelle formule, le prix plancher du triple play sera ramené à 40 euros.

Cette initiative ne vise pas à concurrencer les opérateurs de télévision payante que diffuse France Télécom. Du moins par pour l'instant. C'est en revanche un moyen d'attirer vers la télévision par ADSL de nouveaux clients, peu enclins à s'abonner à un bouquet premium. Quitte à se rattraper ensuite sur les services annexes, comme la vidéo à la demande.

Expansion

Préhistoire : les empreintes de mains se donnent un genre
Samedi, 24/12/2005 - 00:00

Jean-Michel Chazine regarde d'un air ému sa feuille de papier A4 couverte de mains, reproduction des empreintes en négatif retrouvées sur la paroi de la grotte préhistorique de Gua Masri II, à l'Est de Bornéo (Indonésie). Il planche encore et toujours sur cet incroyable jeu de piste, sur la signification inconnue de ces mains dessinées selon le principe du pochoir. Mais depuis un mois à peine, un grand pas a été franchi, qui va sans doute bouleverser le monde de l'archéologie préhistorique... « Nous pouvons maintenant dire avec certitude que ces mains-ci appartenaient à une femme et que celles-là étaient des mains d'homme, et cela donne un tout autre relief à la scène ! », s'exclame l'ethno-archéologue CNRS du Centre de recherche et de documentation sur l'Océanie (Credo). Et pour cause... La disposition des mains sur le principal panneau étudié indique en plus une différenciation sexuelle voulue entre les hommes et les femmes. Une découverte qui offre aux chercheurs du monde entier un champ d'interprétations encore insoupçonnées !

Jean-Michel Chazine, lui, est impatient de leur faire partager le tout nouveau logiciel, Kalimain, mis au point en collaboration avec Arnaud Noury : un outil qui permet de déterminer le sexe des mains négatives dessinées dans les grottes. Explications : tout commence en décembre 2004, quand les chercheurs Kevin Sharpe et Leslie Van Gelder, spécialistes des traces de doigts, affirment la possibilité de déterminer le sexe de certaines mains négatives grâce à l'indice de Manning, d'après lequel le rapport de longueur entre l'index et l'annulaire serait représentatif de l'identité sexuelle de tout individu. Dans les premiers mois de la vie du foetus en effet, des hormones différenciées influenceraient directement sur le développement de ces deux doigts. Les oestrogènes pour la croissance de l'index et la testostérone pour celle de l'annulaire ! Un Européen aurait un indice moyen de 0,96 et une Européenne, un indice proche de 1. Cet écart moyen entre les hommes et les femmes se vérifierait toujours.

Jean-Michel Chazine a alors l'idée de transposer cet indice pour décrypter le sexe des empreintes de mains préhistoriques. Il contacte Arnaud Noury, archéologue devenu informaticien. Dix jours plus tard, il reçoit le premier résultat. Ce test est émouvant. Chazine voit apparaître sur son ordinateur le panneau de mains qu'il étudiait depuis des années, mais cette fois-ci, avec des marques rouges pour les femmes, bleues pour les hommes... La paroi parle enfin : il y a une organisation délibérée des mains. Et bien plus, il apparaît clairement sur l'image que mouvements et répartition entre hommes et femmes ne sont pas les mêmes d'un endroit à l'autre. Alors que signifient ces mains ? Le mystère plane toujours.

Une seule chose est sûre... « Les pochoirs répondent à un besoin spécifique, explique Chazine. Prenez la grotte de Masri. Elle ne comporte que des empreintes de mains négatives. Et elle n'a jamais été habitée... Donc si à certains moments des hommes sont venus spécialement là pour y apposer leurs mains, c'est certainement dans un but très précis, et selon certaines règles. Hommes et femmes n'ont d'ailleurs pas mélangé leurs mains. » Mais le chercheur a sa petite idée : ces mains seraient des représentations symboliques et correspondraient sans doute à des rituels thérapeutiques, magiques, religieux ou divinatoires, ou bien témoigneraient de séances d'initiation. Reste encore pour le chercheur et l'informaticien à affiner ce logiciel, pour enfin corréler chronologies et localisations, avec la quantité de mains apposées, leurs similitudes et dissemblances, les liens entre motifs et couleurs. Et déterminer, peut-être, grâce aux différences de répartition sexuelle, certaines ères culturelles de la Préhistoire. En tout cas, grâce à cette nouvelle détermination, c'est un champ immense d'interprétations nouvelles qui s'ouvre, partout où, dans le monde, on a trouvé des empreintes de mains négatives.

CNRS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Stockholm expérimente une forme inédite de péage urbain high tech
Samedi, 24/12/2005 - 00:00

Une forme originale de péage urbain a été mise en oeuvre pour la première fois à Stockholm le 4 janvier 2006, pour une période d'essai de six mois, dans le but de réduire l'engorgement automobile de la capitale suédoise aux heures de pointe et les émissions polluantes.

Les automobilistes qui entreront ou sortiront du centre-ville, entre 6 h 30 et 18 h 29, devront payer une taxe dont le montant variera de 10 à 20 couronnes (1,6 à 3,3 francs), en fonction des horaires de circulation. La limite a été fixée à 60 couronnes (9,8 euros) par jour et par véhicule. En seront exemptés les bus, les taxis et les véhicules de secours, ainsi que les voitures vertes et les véhicules immatriculés à l'étranger. Le mode de tarification retenu est donc sensiblement plus souple que celui retenu à Londres où les automobilistes payent quotidiennement 8 livres (environ 11,7 EUR) quand ils sont dans l'hyper-centre.

Utilisant, comme à Londres, des caméras infrarouge pour identifier les plaques minéralogiques, Stockholm a aussi recours à des boîtiers électroniques. Ces boîtiers peuvent être installés gratuitement dans les voitures et 400.000 boîtiers ont déjà été commandés. Il n'y a pas de taxe le week-end, les jours fériés et la nuit. Quand l'automobiliste franchit l'un des 18 points de passage payants, des capteurs le repèrent et son compte bancaire est débité. S'il n'est pas ainsi équipé, il a cinq jours pour effectuer son paiement, par Internet ou dans certains commerces.

Bien que disposant d'un réseau de transport en commun très dense emprunté par 70% des gens pour se rendre à leur travail, la capitale suédoise de 760.000 habitants, bâtie sur plusieurs îles, souffre régulièrement d'engorgement automobile. La direction des routes et la municipalité de Stockholm se sont fixé comme objectif une réduction de 10 à 15 % du trafic automobile, soit 50.000 à 70.000 véhicules par jour.

De nouvelles lignes de bus et des parkings gratuits en bordure du centre-ville ont été mis en place, pour faciliter la vie des habitants de la capitale. La zone couverte s'étend sur 34,5 km2, soit 18 % de la superficie du Grand Stockholm. Ce secteur compte environ 280.000 habitants et concentre 60 % des emplois de la capitale. Les autorités suédoises ont retenu la solution proposée par IBM et ont investi 3,8 milliards de couronnes (422 millions d'euros) dans ce péage high tech.

Article @RTFlash

Sweden News

La Liberté

Le MIT réinvente l'automobile!
Samedi, 24/12/2005 - 00:00

"Ce n'est pas tous les jours qu'on réinvente le concept d'automobile", s'exclame The Guardian. C'est pourtant ce que vient de faire une équipe d'ingénieurs et d'architectes dirigée par William Mitchell, ancien directeur de l'école d'architecture du Massachusetts Institute of Technology (MIT). Pendant quatre ans, dans le cadre d'un groupe de recherche intitulé Villes intelligentes, ils ont planché sur une nouvelle forme d'automobile en repensant les rapports des gens avec leur véhicule dans des métropoles en expansion continue. "Le groupe Villes intelligentes s'est concentré sur la meilleure façon d'adapter les voitures aux problèmes familiers de la vie urbaine, à savoir la congestion, la pollution et le manque de parkings. Les constructeurs sont déjà conscients de toutes ces questions. Mais, d'après ce groupe de recherche, ils ont raté le coche, même avec l'introduction de voitures urbaines comme l'emblématique automobile à deux places, la Smart, produite par Swatch et Mercedes depuis 1998."

Le modèle élaboré par les chercheurs du MIT "révolutionne la technologie automobile", assure le journal londonien. Dans leur esprit, le moteur traditionnel n'existe plus mais est remplacé par des roues robotisées électriques omnidirectionnelles permettant une liberté de manoeuvre totale. Avec ces roues surmontées d'un chassis, l'engin serait personnalisable à volonté. Autre innovation de taille, ces voitures à deux places du futur sont non seulement partagées par l'ensemble des usagers mais aussi emboîtables comme des caddies. Des voitures sont stockées à des endroits stratégiques, comme les stations de métro, les arrêts de bus ou les aéroports. L'usager se servira de la première voiture qui se trouvera au bout. "Le concept de parcs de vélos communs adopté dans des villes européennes est un précédent à ce genre de moyen de transport personnel mutualisé", rappelle The Guardian. Ce projet de voiture du futur sera remis au début de 2006 à General Motors, qui construira un premier prototype. D'après les chercheurs du MIT, ce type d'automobile écologique, très maniable, emboîtable et partagé pourrait être testé en Extrême-Orient, à Hong Kong ou Singapour.

Guardian

MIT

Les dix avancées scientifiques de 2005
Samedi, 24/12/2005 - 00:00

1. - évolution. Durant l'année 2005, de nombreuses nouveautés comme le séquençage du génome du chimpanzé, ont amélioré notre connaissance de la théorie de Darwin. C'est incontestable, mais le choix numéro un de la revue américaine New Scientist s'explique avant tout par la controverse qui a secoué les Etats-Unis cette année. L'affaire est même allée en justice. Tout au long de l'année on a assisté, en effet, à une offensive en règle des défenseurs de la théorie du dessein intelligent (Intelligent Design). Soutenus par le président George Bush, ces derniers contestent la théorie de l'évolution et affirment que le vivant a été créé par un ou des êtres intelligents. Plusieurs de ces créationnistes appartenant au conseil scolaire de la région de Denver, en Pennsylvanie, avaient obtenu que l'Intelligent Design soit enseigné dans les collèges de la région. Huit familles s'étaient opposées à cette décision et avaient porté plainte en septembre dernier. Elles ont finalement obtenu gain de cause. Le 20 décembre, John Jones, juge du tribunal fédéral de Harrisburg, a estimé que cette théorie est une forme déguisée de croyance religieuse et qu'elle viole la Constitution. Rien ne dit toutefois que cette décision mettra un terme à la polémique. En effet, le créationnisme a été enseigné dans les programmes scolaires jusqu'en 1987.

2. - Exploration planétaire. L'année spatiale a été marquée par le succès de la mission américano-européenne Cassini-Huygens autour de Saturne et l'atterrissage sur sa lune Titan.

3. - Floraison. Plusieurs découvertes affinent notre connaissance des mécanismes biologiques qui permettent l'apparition des fleurs.

4. - Sursauts gamma. Les astronomes ont identifié la source des violents et brefs jaillissements de rayons gamma dans l'univers : des collisions entre des étoiles à neutrons.

5. - Neurologie et génétique. Certaines maladies mentales, comme la schizophrénie, le syndrome de la Tourette et la dyslexie, sont liées à des gènes impliqués dans le développement du cerveau.

6. - Formation de la Terre. Des analyses isotopiques montrent des différences entre des roches terrestres et des météorites : la formation de notre planète a été plus complexe que prévu.

7. - Portail cellulaire. Des biologistes ont percé les derniers secrets d'un mécanisme clé dans la transmission des signaux nerveux : les canaux à potassium installés dans les membranes des cellules.

8. - Changements climatiques. Les preuves du réchauffement de la planète sont de plus en plus fortes, et certains hommes politiques américains commencent à envisager une action face aux émissions croissantes de gaz à effet de serre.

9. - Biologie systémique. L'approche de la génétique «classique» (étude d'un gène qui provoquerait un effet) laisse la place à une approche plus globale, où les biologistes essaient d'aborder les processus cellulaires dans leur ensemble et leur complexité.

10. - Iter. Après dix-huit mois de négociations difficiles entre les partenaires, le futur réacteur expérimental sur la fusion nucléaire sera finalement construit à Cadarache, en Provence.

Figaro

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top