RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 607
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 21 Juillet 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un plan France Numérique 2012 pour le télétravail en entreprise
Un rapport alarmant sur le haut et très-haut-débit en France
Quand le jeu affine la compréhension du langage naturel
3,3 millions d'utilisateurs de Twitter en France
The Aid : une canne munie de capteurs qui analysent la santé de la personne âgée
Smartphones et tablettes en plein essor économique
Une liseuse spécialement adaptée à la librairie numérique de Google
Avenir
Il apprend en temps réel : 4e place pour un robot humanoïde français dans le défi "Open Challenge" de "RoboCup@Home" à Istanbul
Matière
Des neutrinos observés en pleine transformation
Espace
La sonde Dawn en orbite autour de l'astéroïde Vesta
"Manhattanhenge", l'alignement magique du soleil avec les rues de New York
Terre
2010, deuxième année la plus chaude depuis la fin du XIXe siècle
La Bretagne en quête de l'arme idéale contre les algues vertes
Vivant
Publication de la plus vaste étude nationale de surveillance des expositions alimentaires aux substances chimiques
Un Français sur 6 souffre d'une affection longue durée
Cancer du sein: la mammographie vraiment efficace
La chute, possible indice des premiers stades de la maladie d'Alzheimer
Découverte d'un acteur inattendu dans la vaccination : notre propre ADN
Les champs électromagnétiques pourraient influencer la mémoire
Sida : nouveaux espoirs et questions en cascade à la Conférence de Rome
Internet changerait notre façon de penser
Une nouvelle technique pour restaurer le rythme cardiaque
Maladies rares : la HAS recommande un dépistage systématique à la naissance du déficit en MCAD
Le déclin des grands prédateurs bouleverse les écosystèmes
Une greffe de jambes fait débat chez les médecins
Des gènes permettent de prédire l'évolution de l'infection par le VIH
Les femmes sédentaires plus sujettes aux embolies pulmonaires
Edito
Fusion thermonucléaire : nous devons dépasser l'horizon de nos propres vies !



Depuis la deuxième guerre mondiale, la consommation mondiale d'énergie et les émissions humaines de CO2 ont été multipliées par 8. Aujourd'hui le monde consomme 12 gigatonnes d'équivalent-pétrole et émet 8 gigatonnes de carbone par an et chaque terrien consomme en moyenne 1,6 tonnes équivalent-pétrole et émet plus d'une tonne de CO2 chaque année !

En supposant que la demande mondiale d'énergie continue à croître au rythme actuel de 2 %, hypothèse plutôt prudente, l'humanité consommera au moins 30 Gigateps d'énergie en 2050 et en admettant que l'humanité parvienne à stabiliser à son niveau actuel ses émissions de carbone par habitant, celles-ci atteindraient tout de même 15 gigatonnes par an en 2050, sous le simple effet de l'évolution démographique mondiale (il y aura au moins 9 milliards d'habitants en 2050 selon les dernières prévisions de l'ONU).

Notre planète est désormais soumise à un triple défi : le premier est l'épuisement accéléré des réserves de combustibles fossiles (80 % de l'énergie primaire) qui seront entièrement consommées avant la fin de ce siècle, à l'exception du charbon. Le second est climatique : l'immense majorité des scientifiques pensent, en s'appuyant sur des études très solides, que l'accumulation de gaz carbonique dans l'atmosphère (+ 40 % depuis la révolution industrielle) résultant de la consommation d'énergies fossiles est la cause majeure du réchauffement du climat (même si des incertitudes subsistent quant à l'importance de ce mécanisme). Enfin, le troisième défi est la croissance économique très forte des pays émergents tels que la Chine (le premier consommateur mondial d'énergie), l'Inde et le Brésil qui font exploser la demande mondiale d'énergie.

Selon les termes de cette équation redoutable, l'humanité, si elle veut éviter une catastrophe géoclimatique de grande ampleur aux conséquences désastreuses, doit donc absolument stabiliser sa consommation globale d'énergie et décarboner massivement (au moins à 80 %) cette consommation de façon à diviser par deux ses émissions mondiales de CO2 d'ici 2050 et par quatre ou cinq d'ici 2100.

Mais il faut savoir qu'aujourd'hui, l'énergie primaire consommée par les 7 milliards d'habitants de notre planète repose pour 78 % sur l'utilisation des combustibles fossiles, pour 16 % sur celle des ressources renouvelables et pour 6 % sur les technologies nucléaires. Avec une population mondiale de 9 milliards d'habitants en 2050, nous devons donc impérativement réussir à réduire drastiquement l'utilisation des énergies fossiles, tant en proportion qu'en valeur absolue.

Mais quels que soient les efforts que le monde fera pour maîtriser ses besoins énergétiques en réduisant sa consommation à la source partout où cela est possible et en améliorant l'efficacité énergétique de nos systèmes industriels et économiques, il semble illusoire de penser que cette sobriété nouvelle suffira à elle seule, compte tenu de l'évolution démographique, à répondre à la soif mondiale d'énergie et à réduire de moitié nos émissions de CO2 d'ici 2050. Il faudra donc également développer de manière massive l'ensemble des énergies renouvelables existantes (vent, soleil, biomasse et hydraulique) ainsi que celles qui en sont encore à un stade quasi-expérimental mais recèlent un fort potentiel : énergie des mers et solaire spatial notamment. Mais ces énergies renouvelables ne parviendront pas à répondre à elles seules à l'immense soif d'énergie de l'humanité, notamment dans les vastes régions du monde qui connaissent un développement économique sans précédent.

C'est dans ce contexte qu'il faut expliquer à chacun l'immense enjeu que représente la mise au point de la fusion thermonucléaire contrôlée. Si nous parvenons à maîtriser la fusion thermonucléaire, qui repose sur l'équation d'Einstein E=MC2 établissant l'équivalence entre matière et énergie, un gramme de deutérium (isotope naturel de l'hydrogène) fusionné avec un gramme et demi de tritium nous permettra de produire environ 100 000 kWh, autant d'énergie que 10 tonnes de pétrole ou un kilo d'uranium ou encore suffisamment d'énergie pour alimenter 40 foyers français pendant un an en électricité !

Pour parvenir à domestiquer la fusion qui se produit naturellement dans notre soleil (chaque seconde, 600 millions de tonnes d'hydrogène fusionnent et se transforment en hélium, ce qui permet au soleil de dégager la chaleur et la lumière dont nous bénéficions sur Terre), la communauté internationale a uni ses efforts dans un projet unique, le projet Iter (International Thermonuclear Experimental Reactor ou réacteur thermonucléaire expérimental international). Son objectif principal est d'atteindre, d'ici 2030, un gain d'énergie d'un facteur 10 avec la production d'une puissance thermique de 500 MW. Le succès d'Iter devrait ensuite déboucher sur la réalisation d'un prototype préindustriel d'ici 2050. Cette perspective mais également les avancées considérables dans la production de plasmas stables et denses depuis un demi-siècle, a convaincu 34 pays de s'associer dans le cadre de l'Organisation Iter, implantée en France, à Cadarache.

En raison de sa complexité, ce projet ITER a effectivement vu son coût doubler depuis 2001 et la contribution européenne atteint à présent 6 milliards d'euros, ce qui a provoqué il y a quelques semaines une violente polémique au Parlement européen et ravivé l'opposition à ce projet. Il s'agit certes d'une hausse très importante mais le coût annuel du projet pour l'ensemble des partenaires d'Iter représente moins de 0,5 % du budget européen pour 2011 et moins de 0,02 % du marché européen de l'énergie (moins de 0,01 % du PIB de l'Union européenne). Ce coût est-il vraiment excessif si les promesses de la fusion thermonucléaire contrôlée se concrétisent d'ici 2050, ce qui bouleverserait totalement la donne énergétique pour l'humanité et ouvrirait d'immenses perspectives de développement pour notre planète toute entière ?

En 50 ans, la performance des plasmas produits par les machines de fusion a été multipliée par 10,000. En novembre 1991, le JET (Joint European Torus) a démontré la faisabilité de la fusion en produisant de manière contrôlée une grande quantité d'énergie (plusieurs MW) à partir d'un plasma de fusion. Il reste aujourd'hui à multiplier leur performance par moins de 10 pour réaliser un réacteur capable de produire de l'énergie de manière continue.

Ces extraordinaires avancées scientifiques et technologiques démontrent donc, contrairement à ce que veulent faire croire au grand public les opposants irréductibles à la fusion thermonucléaire, que cette technologie est viable et qu'elle peut être maîtrisée. En outre, il faut le rappeler inlassablement, la fusion est radicalement différente, dans ses principes et son fonctionnement, de la fission atomique qui est la voie technologique utilisée par tous les réacteurs nucléaires produisant de l'électricité actuellement en service dans le monde.

La fusion se distingue en effet de la fission sur trois point essentiels : en premier lieu, elle ne nécessite comme combustible que de petites quantités (quelques centaines de kilo par an pour un réacteur) de deutérium dont les réserves sont quasiment inépuisables et de tritium relativement facile à produire.

Le deuxième avantage majeur de la fusion est sa sécurité intrinsèque : seule la quantité de combustible nécessaire au fonctionnement du réacteur (quelques grammes) est injectée dans le réacteur et aucun incident de fonctionnement ne peut entraîner un événement catastrophique de type Tchernobyl ou Fukushima, qu'il s'agisse d'une explosion ou d'émissions massives de radioactivité.

Troisième point, le seul élément radioactif produit par la fusion est le tritium mais son temps de vie, c'est-à-dire la période pendant laquelle il émet des rayonnements potentiellement dangereux, est très courte (environ 12 ans). En outre, la réaction de fusion ne génère pas, directement ou indirectement, de sous-produits radioactifs à très longue durée de vie et les déchets de la fusion seront à la fois très faibles en quantité et faciles à retraiter et à stocker de manière sûre. Il s'agit bien là d'une différence fondamentale car dans les futurs réacteurs à fusion, la question du retraitement et du stockage de déchets radioactifs à très longue vie (plusieurs milliers d'années) ne se pose pas alors que dans la fission nucléaire cette question est majeure et n'a toujours pas trouvé de solutions satisfaisantes.

Enfin, il faut bien comprendre que la maîtrise de la fusion thermonucléaire aura des conséquences immenses, non seulement dans le domaine de l'énergie puisqu'elle permettra la production d'une énergie propre et bon marché, mais également dans l'ensemble des secteurs d'activités économiques et industriels qui bénéficieront des retombées scientifiques considérables liées à cette avancée majeure dans la connaissance et l'utilisation de la matière et de l'énergie.

Pour toutes ces raisons, l'effort international sans précédent de recherche engagé à Cadarache avec le réacteur expérimental ITER est parfaitement justifié et il faut le poursuivre et l'amplifier sur le long terme car il fera franchir à l'humanité et à notre civilisation, comme en son temps la vapeur, le pétrole et l'électricité, une étape décisive de son développement.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un plan France Numérique 2012 pour le télétravail en entreprise
Mercredi, 20/07/2011 - 01:30

Annonce par le ministre de l’Industrie le 19 juillet de la mise en place d’une large étude sur la pratique du télétravail dans les grandes entreprises.

"Pour les salariés, télétravailler permet une souplesse accrue dans l’organisation du travail, d’après Eric Besson. Le télétravail réduit le stress et la perte de temps liés au transport entre le domicile et le lieu de travail". Pourtant, dans le domaine, la France accuse en outre un sérieux retard dans le domaine par rapport à ses voisins européens. Par exemple le taux de télétravailleurs était de 9 % environ en 2010 en France contre 18 % en moyenne en Europe, selon les chiffres du gouvernement.

Partant de ce constat, le ministre de l’Industrie entend donc renforcer la place du télétravail dans les grandes entreprises, car elles y ont aussi un intérêt. "Notamment le télétravail participe à la réduction des émissions de gaz à effet de serre, et soulage la congestion urbaine", selon le discours du ministre.

C'est à travers le plan France Numérique 2012 lancé par le ministre le 19 juillet que le gouvernement entend aller plus loin et pallier les lacunes de la France dans le domaine. Il porte sur plusieurs actions, notamment destinées aux grandes entreprises industrielles. Le ministre a entre autres mandaté le cabinet de conseil Greenworking pour mener une étude sur la pratique du télétravail en entreprise. Sa mission est "d’analyser la variété des situations de travail à distance, repérer et valoriser les meilleures pratiques, et identifier les facteurs de succès".

Plus globalement, le ministre a demandé au Conseil général de l'industrie, de l'énergie et des technologies (CGIET) une étude plus globale sur le télétravail en Europe dans les grandes entreprises. Toutes ces études, destinées à étendre le partenariat entre les entreprises et les salariés sur ce sujet, sont attendues pour la fin de l’année.

Actuellement, une vingtaine d’accords ont été signés en France depuis trois ans, suivant alors l’accord national interprofessionnel de 2005. Le ministre précise par exemple que des dispositifs de télétravail sont déjà en place sur la base du volontariat chez EDF, France Telecom, GDF Suez, Michelin, Microsoft, Renault ou Veolia Environnement.

L'Usine Nouvelle

Un rapport alarmant sur le haut et très-haut-débit en France
Lundi, 18/07/2011 - 01:30

Hervé Maurey a remis à la commission économique du Sénat un rapport sur la couverture numérique du territoire. Le sénateur estime que la France est en train de rater ce virage et demande que l'Etat reprenne un rôle central et fort.

L'élu centriste de l'Eure Hervé Maurey a remis à la commission économique du Sénat un rapport de plus d'une centaine de pages sur la couverture numérique du territoire français.  Le sénateur avait déjà remis, en octobre 2010, un rapport préconisant un prélèvement sur les abonnements mobiles, Internet, fixes, TV et consoles de jeu pour financer la fibre optique. Le présent document relève que, « après avoir été en avance sur le haut-débit, fixe et mobile, notre pays marque le pas et peine à relever le défi du très-haut-débit, qui conditionnera pour les décennies à venir la croissance de ses entreprises et le bien-être de sa population » et que « la France peine à achever sa couverture en téléphonie mobile et en Internet à haut débit. Elle tarde à déployer les réseaux à très haut débit qui leur succéderont, et ce, tout particulièrement dans les espaces ruraux. »

Hervé Maurey note que les collectivités se mobilisent depuis des années, mais ne sont pas assez soutenues par les pouvoirs publics « au plus haut niveau », qui n'ont pas pris la mesure des enjeux et des besoins, réglementairement et financièrement. Déçu notamment par le récent discours du président de la République sur les investissements d'avenir, où le numérique n'a quasiment pas été évoqué, le sénateur appelle à un « indispensable sursaut ». D'autant que « beaucoup de responsables ont aujourd'hui le sentiment qu'en matière de numérique il n'y a plus de pilote dans l'avion ». Il appelle à un « rôle central » de l'Etat.

  • Trente-trois propositions

Le rapport du sénateur formule trente-trois propositions : créer un ministère délégué en charge du Numérique, achever la réalisation du plan de résorption des zones blanches, faire de l'aménagement du territoire un objectif prioritaire pour la 4G, assurer le haut-débit pour tous sur la base de 2 Mbit/s dès 2012, puis 8 Mbit/s en 2015, prendre au plus vite les dispositions réglementaires de la loi Pintat de 2009 contre la fracture numérique, etc.

En matière de très-haut-débit, Hervé Maurey estime que le modèle de déploiement retenu, « qui repose essentiellement sur le “bon vouloir” des opérateurs et n’octroie qu’une marge de manœuvre limitée aux collectivités, n’est pas satisfaisant ». Il propose de remettre les collectivités au cœur du déploiement, en leur donnant «une plus grande liberté d'action ».

Par exemple, il propose « qu’il soit permis aux collectivités (tout comme aux syndicats d’électricité, qui peuvent être porteurs de projets) d’intervenir là où cela leur semble opportun, puis de dresser un bilan d’activité, comme elles le font dans les zones d’activité, et de pouvoir prétendre à des subventions publiques pour les seules zones de déploiement non rentables ». Hervé Maurey formule aussi le besoin d'abonder dès 2012 le Fonds d'aménagement numérique du territoire à hauteur de 500 millions, en reprenant l'idée d'une taxe sur les abonnements et la high-tech.

Les pistes présentées par le sénateur centriste feront-elles mouche auprès du gouvernement, actuel ou futur ? Ou s'agira-t-il d'un énième rapport, destiné à en rejoindre d'autres dans les placards parlementaires ?

01net

Rapport

Quand le jeu affine la compréhension du langage naturel
Dimanche, 17/07/2011 - 01:20

Intégrer un manuel de jeu comme Civilizations à un programme informatique puis plonger ce dernier dans une partie de ce même jeu permet de donner un contexte aux phrases de l'ouvrage.

Les ordinateurs éprouvent encore des difficultés à appréhender le langage humain, à le considérer comme plus qu’un simple code binaire. Pour résoudre cette problématique, des chercheurs du MIT travaillent sur un programme informatique permettant à une machine de comprendre le langage naturel quand il est formulé de manière écrite. Et selon eux, l'un des moyens d'entraîner un ordinateur dans ce sens est de passer par le jeu : ils ont du coup fait jouer un programme au jeu de stratégie Civilizations, dans lequel les joueurs doivent gérer le développement d'une ville sur une longue période. Et les résultats sont là, puisqu’au fur et à mesure des parties jouées, l’ordinateur est ainsi passé de 46 % à 79 % de victoires.

  • Une évolution basée sur le déroulement du jeu

Le principe est le suivant : le logiciel a accès au manuel de jeu dans sa base de données, mais est au départ incapable de faire correspondre son contenu avec le jeu en lui-même. Au début de l’expérience, son comportement est donc totalement aléatoire. Néanmoins, à chaque fois que celui-ci va identifier sur l’écran un mot présent dans ce même manuel, il analysera l’état de la partie (bien engagée/mal engagée), et formulera des hypothèses quand au mot en question, hypothèses qu’il affinera à chacune des apparitions de celui-ci. Petit à petit, il parvient ainsi à donner un sens et un contexte au manuel tout entier.

  • De multiples applications possibles

Pourquoi utiliser des jeux comme outil de test ? "Du fait de leur complexité, imputable au comportement aléatoire de l’adversaire", répond S.R.K Branavan, un des initiateurs du projet. "Le véritable enjeu, c’est la capacité du programme à extraire des informations utiles depuis un manuel". A terme, les créateurs du programme assurent que celui-ci sera adaptable à d’autres domaines, et notamment celui de la robotique.

L'Atelier

3,3 millions d'utilisateurs de Twitter en France
Samedi, 16/07/2011 - 01:10

Une étude de géolocalisation des utilisateurs de Twitter par Semiocast

Une nouvelle étude menée par Semiocast a porté sur la totalité des 263 millions de profils Twitter créés jusqu'au 1er juin 2011. 3,3 millions sont en France, soit 900 000 nouveaux utilisateurs en trois mois. Comme lors de sa précédente étude, Semiocast a mobilisé ses bases de données et ses outils sémantiques multilingues pour identifier la localisation des utilisateurs à partir de toutes les informations disponibles (lieu déclaré par les utilisateurs dans leur profil Twitter, langue utilisée pour envoyer des messages, fuseau horaire, géolocalisation des messages avec coordonnées GPS). Au total, 1,25 % de tous les profils géo-localisés sont en France, soit une très nette progression depuis le 1er mars 2011. Dans le classement des pays par nombre d'utilisateurs de Twitter, la France se place désormais en 16e position, passant devant l'Allemagne. La France reste néanmoins loin derrière les États-Unis, le Japon, le Brésil, l'Indonésie et la Grande Bretagne, premier pays européen.

Après un ralentissement mi-2010, Twitter repart en France avec près de 370 000 nouveaux comptes créés au mois de mai 2011, un record. Si l'importance du débat politique sur Twitter ne suffit pas à expliquer cette croissance, l'affaire DSK a néanmoins marqué un tournant dans la réception de Twitter par les médias français. Au mois de mai 2011, près d'un million de tweets concernaient DSK dont près de 400 000 en français. Au total dans le monde, ce sont plus de 200 millions de tweets qui s'échangent par jour, et un peu moins de 1 % sont émis depuis la France.

Au moins un utilisateur français sur deux est actif

Semiocast a procédé à une analyse précise pour déterminer le taux d'activité des utilisateurs français de Twitter inscrits avant le 1er mars 2011 : au moins 48 % des utilisateurs géolocalisés en France se sont connectés sur Twitter sur les trois derniers mois.

Au total, 36 % des utilisateurs français ont posté un ou plusieurs tweets du 1er mars au 1er juin 2011, et 11 % n'ont pas tweeté mais ont changé leurs abonnements, prouvant une activité de lecture. 1 % ont effectué une autre modification de leur profil sur le site de Twitter, par exemple un changement de photo, de description (biographie) ou la déclaration d'une nouvelle localisation. Semiocast n'a pas enregistré de modification pour 45 % des profils créés avant le 1er mars 2011, mais il est quand même possible que ces utilisateurs se soient connectés sur le site pour lire les messages de leurs amis. Enfin, 7 % des comptes géolocalisés en France n'ont apparemment jamais servi.

Semiocast

The Aid : une canne munie de capteurs qui analysent la santé de la personne âgée
Samedi, 16/07/2011 - 01:00

Le designer lituanien Egle Ugintaite a créé une canne d’aide à la marche tout à fait révolutionnaire. Baptisée The Aid (l’aide en français), cette invention permet en plus d’aider les personnes âgées à marcher, de réaliser en même temps un mini-diagnostic de santé et de programmer les meilleurs itinéraires pour se déplacer en ville ou à la campagne…

On connaissait déjà les cannes Omhu au look design et les cannes Tango qui tiennent debout toutes seules… Désormais, il faudra compter avec « The Aid », la canne du futur.

Pour de nombreuses personnes âgées, sortir de chez elles devient vite un véritable challenge… Surtout quand leur état de santé se détériore. La fatigue qui arrive plus vite, la crainte de tomber, la peur de se perdre, les yeux qui se fatiguent… La liste des raisons de réduire le nombre des sorties est plus longue à chaque année qui passe.

Afin d’épauler ces personnes fragilisées, le designer lituanien Egle Ugintaite a imaginé « The Aid ». Cette canne du futur, qui a reçu récemment le prix du design Fujitsu 2011, permet bien sûr de venir en aide à la marche, mais elle est également dotée de minuscules capteurs qui contrôlent le pouls, la pression sanguine et la température de la personne âgée pendant qu’elle s’en sert.

Quand la main entre en contact avec les capteurs, toutes ces données métaboliques sont affichées sur un écran LCD situé sur la poignée de la canne qui est également équipée d’une touche SOS qui positionne immédiatement le senior lorsqu’il actionne son signal de détresse.

Autre innovation et non des moindres ! De manière à rassurer les personnes âgées et les inciter à sortir de chez elles, cette « canne de demain » leur indique la direction de l’endroit où elles souhaitent se rendre. Au préalable, le propriétaire de « The Aid » entre en contact avec une plate-forme de services qui lui calcule le meilleur itinéraire… Informations qui sont transmises à la canne qui indique ensuite le chemin à suivre dans des écouteurs.

Bref, voici à quoi pourrait ressembler la canne de demain. Un outil d’aide à la marche certes, mais bien plus ! Un petit concentré de nouvelles technologies qui pourrait améliorer la vie des aînés au quotidien.

Senior Actu

Smartphones et tablettes en plein essor économique
Vendredi, 15/07/2011 - 06:20

Dans un contexte global de baisse des ventes de produits de haute technologie, les Smartphones et tablettes affichent des chiffres positifs. Leurs ventes devraient dépasser celles des produits "classiques.

Les Smartphones et tablettes tactiles sont un rayon de soleil dans le ciel gris des ventes de produits électroniques grand public (EGP). Selon l'Institut GFK, qui publie une étude sur ce secteur à la mi-2011, les ventes de ces deux catégories de produits connaissent une forte croissance.

  • Des chiffres en hausse

Pour les mobiles de type Smartphone, la croissance atteint les 80 % en volume, ce qui représente 3,8 millions de pièces vendues entre janvier et fin mai 2011. Cette croissance a ses effets secondaires. La vente d'accessoires, comme les casques, génère ainsi une croissance de 30 %. Une autre conséquence de leur succès est la baisse des prix, un Smartphone coûtant 139 euros en moyenne avec subvention des opérateurs, en 2011. Sur le premier semestre, les Smartphones représentent 50% du chiffre d'affaire total des télécoms.

Les tablettes tactiles, selon GFK, sont également un secteur prometteur de croissance pour l'année 2011. L'étude montre que les ventes dépasseront les prévisions sur l'année, soit plus d'un million de tablettes vendues en France, alors que 350 000 unités ont déjà été écoulées durant les cinq premiers mois de l'année.

  • Des produits qui écrasent la concurrence

L'étude publiée ces jours derniers par GFK fait état des bonnes performances des Smartphones et tablettes, mis en opposition au déclin global du marché de l'électronique grand public en France. L'essor des Smartphones et la baisse significative de leur prix entraîne un déplacement de la clientèle, qui délaisse les téléphones portables de style classique. Les mobiles dits "classiques" enregistrent une chute de leurs ventes de 15 % de volume et de 40 % de valeur. En 2011, les prévisions de GFK montrent que les ventes de Smartphones dépasseront pour la première fois celles des mobiles classiques, à 11.9 millions contre 11.8 millions.

Pour les tablettes tactiles, ce sont les ordinateurs qui pâtissent de leur vente en progression. Les PC de bureau (520.000 pièces vendus depuis le début d’année) et les PC portables (1,93 millions d’appareils écoulés depuis le début de l’année) sont respectivement en fort recul en termes de chiffre d’affaires de -16 % et -4 % par rapport à Janvier-Mai 2010.

  • L'EGP, un secteur en repli

Ces réussites s'inscrivent dans une conjoncture négative du marché des produits électroniques en France. Toujours selon le bilan semestriel de GFK, les ventes ont reculé de 4.1 % sur les cinq premiers mois de l'année 2011. Cela signifie une baisse du chiffre d'affaire total de 9.66 milliards à 9.26 milliards d'euros. Ce repli est expliqué par différents facteurs. Pour le marché de l'informatique, il est logique de ne pas reproduire cette année les bons chiffres de 2010, aidés par la sortie d'un nouveau système d'exploitation (Windows 7). La Coupe du Monde de juin 2010 et le passage au numérique avaient entraîné une forte augmentation des ventes de téléviseurs. Une croissance bien plus faible en 2011 (seulement +2 % de chiffre d'affaire). Ces trois facteurs d'impulsion commerciale ayant disparu, les chiffres en berne de ce premier semestre apparaissent moins alarmants pour GFK. En outre, la morosité économique ambiante est invoquée pour expliquer les mauvais chiffres, car elle engendre un report des décisions d'achats.

La Croix

Une liseuse spécialement adaptée à la librairie numérique de Google
Vendredi, 15/07/2011 - 06:10

Le groupe internet Google vient d’annoncer la sortie d'une nouvelle liseuse électronique particulièrement adaptée à sa librairie numérique Google Books, qui sera vendue à partir du 17 juillet aux États-Unis au prix de 140 dollars, le prix moyen de ses principaux concurrents. L'appareil baptisé Story HD, une petite tablette à clavier ressemblant nettement à l'appareil leader du segment, le Kindle d'Amazon, a un affichage en noir et blanc en «encre électronique», familier aux utilisateurs de cet appareil.

«Avec le Story HD on peut maintenant chercher, acheter et lire des e-livres Google par internet sans fil, plutôt que de les télécharger et les transférer d'un ordinateur à une liseuse avec un câble comme on peut déjà le faire avec plus de 80 appareils compatibles», a précisé un responsable de Google Books, Pratip Banerji, sur le blog du groupe.

Les livres de la librairie Google Books sont en effet déjà lisibles sur les liseuses de Sony ou de la Fnac, par exemple, mais actuellement ils ne sont pas accessibles avec la même facilité que ceux d'autres distributeurs numériques. Ils sont aussi accessibles sur ordinateur et sur des appareils portables fonctionnant sous le système Android ainsi que sur des appareils Apple (iPad, iPhone, iPod).

Google a lancé en décembre sa librairie numérique, accessible sur Internet sur la page books.google.com, qui propose «des centaines de milliers d'e-livres Google en vente et plus de trois millions (d'ouvrages) gratuits», grâce à des partenariats noués avec 4000 éditeurs, entre autres. En revanche, ce fonds numérique ne comprend pas de livres numérisés devenus rares ou introuvables, mais n'étant pas encore tombés dans le domaine public, un accord conclu à ce sujet entre Google et des auteurs et éditeurs américains ayant été retoqué par la justice en mars.

Cyberpresse

^ Haut
Avenir
Nanotechnologies et Robotique
Il apprend en temps réel : 4e place pour un robot humanoïde français dans le défi "Open Challenge" de "RoboCup@Home" à Istanbul
Samedi, 16/07/2011 - 01:30

Grâce aux performances de son robot humanoïde, Nao, une équipe française de chercheurs a obtenu la 4e place dans le défi "Open Challenge" de RoboCup @ Home. Ce challenge est l’un des nombreux défis de la compétition internationale de robotique "Robocup" qui avait lieu du 5 au 11 juillet 2011 à Istanbul. Le secret de ce succès est le système cognitif du robot développé par l’équipe Inserm dirigée par Peter Ford Dominey, chercheur au CNRS dans l’Unité Inserm 846 "Institut Cellule souche et cerveau").

L’objectif de la compétition de robotique "Robocup" est de créer une équipe de football robotisée capable de battre une équipe de football humaine d’ici 2050. En plus de la RoboCupSoccer, d'autres compétitions étaient organisées cette année à Istanbul : la RoboCupRescue, la RoboCupJunior et la RoboCup@Home. Cette dernière est consacrée aux robots domestiques capables d’effectuer des tâches ménagères. Une aubaine pour l’équipe de recherche de l’Inserm qui a pu participer à la compétition et tester ses derniers développements dans le cerveau de leur robot humanoïde.

Nettoyer une chambre à coucher, faire la vaisselle, le ménage…Tout ceci sera peut-être bientôt à portée de main des robots ...Il suffira juste de leur apprendre. Le système cognitif développé par l’équipe Inserm de Peter Ford Dominey, chercheur au CNRS, permet ainsi à leur robot de comprendre un être humain par une simple discussion et d’apprendre de nouvelles tâches. Grâce à son échange avec l’homme, le robot apprend comment effectuer différentes actions utilisant la vision, la langue et la démonstration physique.

Au lieu d'employer des plans préétablis pré-instruits, le robot peut apprendre en temps réel par interaction directe avec un humain. Ce système cognitif a été développé au laboratoire "Robot Cognition Laboratory", dirigé par Peter Ford Dominey, directeur de recherche au CNRS.

"Il suffit d’expliquer à voix haute la tâche à exécuter" précise Peter Ford Dominey. Par exemple : je prends ce jouet, et tu ouvres la boite pour que je le range à l’intérieur. Le robot intègre alors la consigne, la répète et si cela est nécessaire demande à son interlocuteur de préciser (dans ce cas-là "Faut-il refermer la boite après avoir mis le jouet à l’intérieur ?"). Une fois cette première étape intégrée, le robot demande alors à son interlocuteur de lui apprendre à ouvrir et fermer la boite. Le professeur peut lui enseigner en exécutant lui-même la tâche ou en la faisant faire au robot". Après ces deux étapes d’apprentissage, le robot devient parfaitement autonome et capable d’exécuter cette nouvelle tâche.

  • Percer les processus du cerveau humain

Le but de cette recherche est de comprendre les processus de cerveau humain et de les transférer progressivement dans les systèmes cognitifs pour des robots humanoïdes. Une des meilleures manières de tester les robots est de les mettre en compétition avec ceux développés par les meilleures équipes internationales.

"Nous pouvons encore améliorer notre connaissance du cerveau. Notre prochaine étape sera de permettre au robot de comprendre des phrases multiples dans un discours ou un dialogue, de représenter la signification des événements et leurs liens dans l'espace et le temps". Les résultats de ces recherches pourraient également avoir un impact social et médical en proposant par exemple une aide à l’autonomie pour les personnes âgées ou handicapées, conclut Peter Ford Dominey. Le RCL est financé par les projets d'Union européenne CHRIS, Organic et EFAA, et des projets ANR Amorces et Comprendre. Ces projets unissent des laboratoires de recherche de France, d'Italie, du Royaume-Uni, d'Allemagne, de Belgique, et d'Autriche.

INSERM

^ Haut
Matière
Matière et Energie
Des neutrinos observés en pleine transformation
Lundi, 18/07/2011 - 01:20

Surnommées « particules fantômes » en raison de leurs interactions rarissimes avec la matière, les neutrinos sont très difficiles à observer. Or une collaboration internationale de physiciens vient non seulement de le faire mais surtout de détecter pour la première fois la transformation, ou « oscillation quantique de saveur », d’une forme de neutrinos particulière en une autre. Un véritable exploit.

Saveur

Les neutrinos sont des particules principalement issues du coeur des étoiles. Ils existent sous trois formes ou « saveurs » : muonique, électronique et tauique. « Jusqu’à présent, on n’avait jamais observé d’oscillation de neutrinos. On voyait que certains d’entre eux disparaissaient et on en déduisait par le calcul que ces neutrinos disparus oscillaient en une autre saveur. Mais il manquait encore une preuve expérimentale », explique Michel Gonin, physicien à l’Institut de physique nucléaire et de physique des particules (IN2P3) du CNRS et membre de la collaboration T2K à l’origine de ces résultats. Prévu par la théorie, le phénomène d’oscillation devait donc être mis en évidence expérimentalement pour être définitivement accepté.

L’expérience qui a permis cette observation est installée sur deux sites différents. A Tokai, sur la côte est du Japon, des neutrinos muoniques sont produits grâce à un accélérateur de particules qui les envoie à la vitesse de la lumière vers la côte ouest, située à 295 kilomètres. Sur cette côte se trouve le détecteur de neutrinos Super-Kamiokande, une cuve d’eau géante spécialement conçue pour observer ces particules fantômes.

Oscillation

Entre janvier 2010 et mars 2011, Super-Kamiokande a ainsi détecté 88 neutrinos créés par l’accélérateur de particules situé à Tokai. Sur ces 88 neutrinos, 82 étaient de saveur muonique, et six de saveur électronique. L’accélérateur ne produisant que des neutrinos muoniques, ces six neutrinos électroniques étaient donc issus de l’oscillation de six neutrinos muoniques, avec une certitude de plus de 99 %, selon Michel Gonin.

C’est dans l’observation expérimentale de l’apparition de neutrinos électroniques que réside la différence avec les travaux précédents. Des expériences comme Minos aux Etats-Unis ou Opéra en Italie, qui reposent sur le même principe d’émission et de détection de neutrinos, avaient uniquement mis en évidence la disparition de certains neutrinos muoniques. Les physiciens en avaient alors conclu par le calcul qu’ils s’étaient transformés en neutrinos électroniques ou tauiques.

En observant l’apparition de neutrinos électroniques, il ne fait donc plus de doute que le phénomène d’oscillation existe bel et bien. D’ailleurs, les physiciens de la collaboration Minos ont confirmé les résultats de T2K il y a quelques jours, sans toutefois atteindre la même précision.

L’expérience japonaise permet également de confirmer que les neutrinos ont une masse. Le modèle standard de la physique prévoit en effet que ces derniers en soient dépourvus. Or les lois de la mécanique quantique autorisent un phénomène comme l’oscillation uniquement si les particules ont une masse non nulle. L’expérience T2K a été interrompue suite au séisme survenu au Japon le 11 mars dernier. Elle devrait redémarrer d’ici la fin de l’année, avec pour objectif de reproduire tous ces résultats.

La Recherche

^ Haut
Espace
Espace et Cosmologie
La sonde Dawn en orbite autour de l'astéroïde Vesta
Mardi, 19/07/2011 - 01:10

L'engin spatial va tourner autour de l'astre pendant un an avant de se diriger vers un autre objet de la grande ceinture d'astéroïdes située entre Mars et Jupiter : la planète naine Cérès.

La sonde Dawn est devenue samedi 16 juillet le premier engin spatial à entrer dans l'orbite d'un astéroïde lointain. Après un voyage de quatre ans, la sonde Dawn («Aube» en anglais) est arrivée dans la sphère d'influence gravitationnelle de Vesta, le deuxième plus gros objet de la grande ceinture d'astéroïdes située entre Mars et Jupiter. La sonde est ainsi située à près de 350 millions de kilomètres du Soleil, soit plus de deux fois la distance Terre-Soleil (aussi appelée unité astronomique ou UA). Elle a commencé à tourner autour de Vesta à environ 15.000 kilomètres d'altitude et se rapproche peu à peu de son objectif: une orbite basse à moins de 3000 kilomètres du sol.

Les astronomes vont ainsi pouvoir étudier à loisir cet astre qui pourrait apporter de précieux renseignements sur le processus de formation du système solaire. D'un diamètre moyen de 500 km, contre 3500 pour la Lune, Vesta est considéré comme un embryon de planète. Ces «protoplanètes» sont trop petites pour retenir une atmosphère mais assez grosses pour présenter une activité interne.

Outre l'intérêt théorique de ces études - notamment la détermination de la composition chimique de l'astéroïde, l'objectif est de collecter des renseignements en vue d'un éventuel vol habité. «Le président Obama a demandé à la Nasa d'envoyer des astronautes vers un astéroïde d'ici 2025», a souligné le directeur de la Nasa, Charles Bolden. «Dawn collecte des données essentielles à l'organisation d'une mission de ce type», a-t-il ajouté.

Après un an d'étude, un autre voyage attend la sonde qui deviendra le premier engin à orbiter autour de deux astres (la Terre exceptée) au cours d'un même périple. Grâce à son moteur ionique à accélération continue, elle se rendra en effet sur Cérès, l'astre le plus imposant de la grande ceinture. Cette «planète naine» est deux fois plus large que Vesta et pourrait avoir retenu une atmosphère ténue contenant de la vapeur d'eau. Si la présence d'océan de glace est quasi-certaine, les astrophysiciens n'excluent pas l'existence d'eau liquide à sa surface. Il faudra toutefois patienter jusqu'en 2015 pour en avoir le cœur net.

Le Figaro

"Manhattanhenge", l'alignement magique du soleil avec les rues de New York
Samedi, 16/07/2011 - 01:20

Ce phénomène, qui a commencé mardi 12 juillet, se produit quatre fois par an à Manhattan et a été surnommé "Manhattanhenge", en référence au site mégalithique Stonehenge situé dans le sud de l'Angleterre.

Lors du solstice d'été et d'hiver, le soleil y traverse les cercles de pierres selon un axe central faisant penser aux historiens que le lieu était utilisé comme calendrier solaire ou pour des cultes païens. A Manhattan, le phénomène a lieu avant et après les solstices, au moment où le soleil embrase toutes les perspectives qui s'offrent au bout des rues construites d'Est en Ouest.

"Manhattanhenge est peut-être un phénomène qui ne se produit que dans une seule ville dans le monde", estime l'astrophysicien Neil deGrasse Tyson, du Musée d'histoire naturelle américaine, qui revendique la labellisation de ce phénomène.

Adolescent j'ai visité Stonehenge située dans la plainte de Salisbury en Angleterre et j'ai commencé des recherches sur tous les alignements de pierre construits sur les îles britanniques", a raconté DeGrasse Tyson à l'AFP. "Dans un sens, j'ai donc été sensibilisé à l'extraordinaire impact des alignements terrestres avec le Soleil sur une culture ou sur des civilisations". Et cet évènement à New York semble plus inhabituel qu'il n'y paraît, explique-t-il. "Toute ville dont les rues sont quadrillées peuvent connaître des crépuscule où le soleil s'aligne parfaitement avec le tracé des rues. Mais si vous regardez plus dans le détail, très peu de villes s'y prêtent vraiment".

L'homme s'est penché sur la question en 1996. Ce n'est que cinq ans après, en juillet 2001, qu'il photographie l'alignement du soleil avec les rues. En 2002, il publie de nouvelles photos dans une édition spéciale du magazine d'Histoire naturelle. C'est ainsi que le phénomène s'est fait connaître. Cette année, la première apparition du "Manhattanhenge" s'est produite le 30 mai, juste avant le solstice du 21 juin. Il s’est reproduit mercredi 13 juillet avec une apparition partielle la veille. En hiver, il est visible autour du 5 décembre et du 8 janvier mais les conditions météorologiques ne facilitent pas son observation.

La meilleure position pour en profiter est de se placer le plus possible à l'est de Manhattan, conseille DeGrasse Tyson. Les 14e, 23e, 34e et 42e rues offrent d'incroyables perspectives sur l'Empire State building et la tour Chrysler. Pour l'occasion, le Musée d'Histoire naturelle proposait le 12 juillet une visite spéciale organisée au planétarium Hayden.

Orange

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
2010, deuxième année la plus chaude depuis la fin du XIXe siècle
Jeudi, 21/07/2011 - 01:20

2010 a été la deuxième année la plus chaude depuis la fin du XIXe siècle, a indiqué, mardi 28 juin, un rapport de l'Agence nationale des océans et de l'atmosphère américaine (NOAA), qui vient confirmer le réchauffement de la planète. La température terrestre moyenne a été, en 2010, d'environ 0,62°C plus élevée que la moyenne des températures du XXe siècle. L'année 2010 se situe ainsi juste derrière 2005, considérée comme la plus chaude depuis que les températures ont commencé à être relevées, en 1880.

'De multiples indicateurs conduisent à la même conclusion : depuis la plus haute couche de l'atmosphère jusqu'au fond des océans (...), le monde continue à se réchauffer, souligne la NOAA. Plusieurs phénomènes météorologiques saisonniers bien connus comme El Niño, courant côtier chaud au large du Pérou et de l'Equateur, ont une influence significative sur le climat tout au long de l'année, notent les auteurs. Mais une analyse approfondie des indicateurs révèle la poursuite d'une tendance, depuis plus de cinquante ans, à un changement climatique du globe, ajoutent-ils.

Ce rapport annuel réalisé en coordination avec la Société américaine de météorologie (AMS) est une compilation d'observations et de mesures faites par 368 scientifiques dans 45 pays. Il fournit des données détaillées, mises à jour annuellement, d'indicateurs climatiques mondiaux, d'événements météorologiques majeurs et d'autres informations relatives au climat en provenance de tous les continents. L'étude montre ainsi que les températures annuelles moyennes dans l'Arctique ont continué à monter environ deux fois plus vite que dans les latitudes plus basses. La calotte glaciaire du Groenland a, quant à elle, fondu l'an dernier à un rythme qui a été le troisième plus rapide depuis 1958.

NOAA

La Bretagne en quête de l'arme idéale contre les algues vertes
Vendredi, 15/07/2011 - 06:30

Pendant quatre jours, les plages de Saint-Michel-en-Grève et Plestin-les-Grèves, dans les Côtes d'Armor, ont été le terrain d’essai de trois prototypes affectés au ramassage des algues vertes. L’enjeu est de trouver une nouvelle machine pour récolter le "poison vert" avant qu’il ne vienne souiller les plages fréquentées par les vacanciers.

Jusqu'ici, les joggeurs matinaux sur la plage avaient l'habitude de voir le ballet des bulldozers chargés de rassembler les algues vertes échouées sur le sable. Du 28 juin au 1er juillet derniers, c'est un tout autre spectacle qui s'est offert à eux. De drôles de machines ont tourné, les roues dans l'eau, pour ramasser directement la matière verte toxique entre deux eaux.

Une méthode observée de près par les services municipaux commanditaires. Objectif de l'expérimentation : enlever le maximum d'algues vertes présentes dans "le rideau", cette zone d'échouage située juste avant la plage. Toute la difficulté de cette pêche aux algues est l'ampleur de la zone à couvrir. Les ulves (autre nom des algues vertes) se multiplient par fractionnement. La houle les déchire et les démultiplie d’autant. L'idée derrière cette opération est qu’en retirant la "semence", dans l’eau, l’effet de masse serait alors suffisant pour que les algues s’échouent moins sur les plages. Une opération financée à hauteur de 95 % par l'État et l'Agence de l'eau, et de 5 % par Lannion-Trégor-Agglomération. Pour sélectionner les prototypes, Nadine Maréchal a dû faire appel à un avocat spécialisé en procédures des marchés industriels. Elle est responsable du service environnement de Lannion-Trégor agglomération, maître d’ouvrage du ramassage et de l’évacuation des algues. "C’est complètement inédit. Ce sont des codes de marchés publics que les collectivités n’utilisent guère".

L’une des 4 machines sélectionnées a dès le 28 juin déclaré forfait. Les trois qui ont été testées répondent au même principe : plonger dans les vagues un tapis à mailles ajouré sur lequel s’accrocheront les algues, puis une fois celles-ci sorties de l’eau, faire tourner le tapis à une vitesse suffisamment élevée pour que les algues se décrochent et atterrissent dans un bac. Avec quelques spécificités. "J’ai pris pour base motrice une récolteuse de betteraves", indique Pierre Foulon, l’un des trois inventeurs. Son entreprise Axinor est basée dans le Nord-Pas-de-Calais. Ingénieur en machinisme agricole, il compare sa machine à un "char d’assaut", car celle-ci ramasse plus de 80 mètres cubes d’algues par heure.  Soit "l’équivalent deux grosses semi-remorques".

Des millions d'euros en jeu

La machine concoctée par Yves Ledroff, au contraire, est petite et adaptée aux petites plages et aux lieux moins accessibles. Quant à celle de Jean-Marc Poletto, elle est une adaptation au contexte breton des machines qu’il importe du Canada via la société Aquamarine. "Les leaders sur ces machines sont les nord-américains, qui nettoient de leurs algues  les grands lacs depuis des décennies", explique-t-il. Les Hollandais, également, utilisent depuis plus d’un siècle des bateaux appelés faucardeurs pour nettoyer leurs canaux, ajoute l’homme. "Nos machines ne sont autres que des faucardeurs sur roue, ce n’est pas non plus la NASA", plaisante-t-il.

Une vision que ne partage pas Yves Ledroff, déjà lauréat du concours Lépine en 2001 dans le domaine de la récupération des hydrocarbures en mer. "C’est bien plus compliqué que ça n’y paraît", rétorque-t-il, très jaloux de son invention. "S’il suffisait d’acheter 300 000 euros une machine aux Canadiens pour l’utiliser sur les Côtes d’Armor, on le ferait." Critère déterminant, selon lui : le fait d’obtenir de bons rendements.

Les opérateurs des prototypes testés ont beau se montrer curieux, rien ne filtrera de cette expérimentation avant la rentrée. "On est en train d’analyser les résultats des tests", coupe court Nadine Maréchal.

Reste que pour prouver l’hypothèse émise par le Centre d'étude et de valorisation des algues (CEVA) d’un déstockage massif des ulves, "il faudra des années, des milliers de machines, et de gros moyens", grimace un observateur. "Aujourd’hui, c’est l’agence de l’eau qui finance. Mais demain ? C’est des millions d’euros qu’il faudra mettre en jeu. Peu de chances que les collectivités puissent se le permettre. La seule solution, c’est zéro nitrate. Le problème des algues vertes, ça résout sur terre, en amont. Pas en mer".

En attendant, le ballet annuel de l’épandage des algues échouées continue. D’avril à novembre en effet, la communauté d’agglomération mobilise tout un attirail auprès de la PME Gilles Efflam pour retirer en 48 heures maximum les algues vertes des plages. Au-delà, les algues échouées pourrissent et deviennent toxiques.

Au plus haut de la "pointe" d’échouage de mai-juin, trois tractopelles ramassent, puis égouttent, 9 remorques transportent, des épandeurs déposent et nombre d’agriculteurs enfouissent sur leurs terres ces algues vertes, devenues engrais. Une chaîne logistique qui traite 100 à 500 mètres cubes par jour, et représente 300 000 à 700 000 euros de frais pour la collectivité bretonne.

L'Usine Nouvelle

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Publication de la plus vaste étude nationale de surveillance des expositions alimentaires aux substances chimiques
Jeudi, 21/07/2011 - 01:30

Il s’agit de «la plus large photographie jamais réalisée des apports nutritionnels et expositions alimentaires aux substances chimiques de la population en France», selon l’Agence de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) qui a publié le 30 juin ce document volumineux de près de 700 pages. L’étude de l’alimentation totale (EAT2) menée sur 4 ans et qui a couté 5 millions d’euros a été «uniquement financée par l’argent public» précise Marc Mortureux, directeur de l’Anses. Elle vise à déterminer le risque sur le long terme et pour une population générale.

Ainsi, pas moins de 20.000 produits, préparés tels qu'ils sont consommés, ont été passés au crible. 90 % de l’alimentation des adultes et des enfants est couverte par cette étude. 361 substances chimiques différentes ont été recherchées. Des substances qui appartiennent à différentes familles de produits chimiques, comme les contaminants organiques, les minéraux, les dioxines et furanes, les PCB, les composés perfluorés, les retardateurs de flamme bromés, les mycotoxines, les produits phytosanitaires, les additifs et les substances néoformées. Sur les 445 substances recherchées, 283 molécules appartiennent à la famille des pesticides. Mais pour 84 des produits recherchés -38 résidus de pesticides, certains composés perfluorés, le mercure inorganique, etc.- conclure sur le risque a été impossible en raison, notamment, de l’absence de valeurs toxicologique de référence. Pour ces molécules, l’Anses préconise donc de mener des «études toxicologiques ou des développements analytiques au cas par cas afin de lever l’incertitude quant au risque». Enfin, «par manque de moyens métrologiques», le bisphénol A et les phtalates n’ont pas été recherchés, affirme Marc Mortureux.

Quels sont les résultats ? Selon l’Anses, pour 85 % des substances prises en compte, le risque peut être écarté pour la population générale. L’évaluation se basant sur les seuls apports alimentaires. En revanche, pour une douzaine de produits ou familles de substances, le risque excède la valeur-limite. Pour 15 % des substances étudiées par l’Anses, le risque est donc bien réel. Il peut s'agir d'aliments pas nécessairement très contaminés mais très consommés, comme le pain, contenant cadmium, plomb, mycotoxines, les pâtes (aluminium), le café (cuivre, arsenic inorganique, acrylamide), le lait chez les enfants (plomb, arsenic inorganique). On trouve aussi des mycotoxines et trop d'acrylamide dans les frites, trop de sulfite dans le vin. L’Anses a remarqué une augmentation générale des teneurs en cadmium dans les aliments par rapport à la première étude EAT 1. Il est présent dans 35% des céréales et du pain analysés.

Côté polluants organiques persistants, on trouve des dioxines et PCB dans 86 % des produits analysés, mais l'exposition de la population a fortement diminué en 5 ans. Les effets de l’interdiction des PCB se font sentir.  «Il conviendrait de réduire les teneurs de ces contaminants dans les aliments principalement contributeurs, par des réglementations et des actions auprès des filières», estime l’Anses.

«Cette étude montre que les risques tant nutritionnels que chimiques peuvent être minimisés en évitant de consommer régulièrement un petit nombre d'aliments en grandes quantités», conclut l'Anses, qui prône une nouvelle fois une alimentation diversifiée.

Quelle utilisation faire maintenant de ces multiples informations ? Elles confortent les messages antérieurs de l'Anses, notamment en termes de diversification des aliments. Elles permettent d'orienter les recherches, de focaliser sur certaines populations ou groupes de produits.

ANSES

Un Français sur 6 souffre d'une affection longue durée
Jeudi, 21/07/2011 - 01:10

À l'heure actuelle, plus de 9 millions de français (14 % de la population) bénéficieraient d'une prise en charge à 100 % par la sécurité sociale dans le cadre d’une affection de longue durée (ALD). Selon les chiffres du rapport de la Caisse nationale d’assurance maladie (CNAM), en 2009, 340 000 personnes de plus ont été atteintes par une maladie chronique, soit une augmentation de 3,9 %.en un an.

Au-delà de la pathologie et de l'importance de soigner ces patients, dont le combat contre la maladie est de longue haleine, les ALD ont un coût non négligeable pour l'assurance maladie. En effet, ces dernières représenteraient quasiment deux tiers des dépenses de santé remboursées et seraient responsable de 90 % de leur croissance.

Selon le journal Les Échos, le diabète vient de ravir la première place des affections chroniques, passant devant les cancers, avec plus de 1,9 million de malades et un coût avoisinant les 10 milliards d’euros. Cette tendance est en accord avec une étude parue dans The Lancet.

Information Hospitalière

Cancer du sein: la mammographie vraiment efficace
Jeudi, 21/07/2011 - 01:00

L’étude la plus longue jamais réalisée sur le cancer du sein a été publiée mardi 28 juin dans le journal Radiology, raconte Reuters. Cette étude réalisée par Stephen Duffy, professeur à l’université de Londres, montre que la réalisation régulière de mammographies permet de prévenir le cancer du sein et augmente le nombre de vies sauvées au fil du temps. Dépister très tôt ce cancer permet de détecter les tumeurs précoces lorsqu’elles sont encore faciles à traiter.

L’étude a commencé il y a 29 ans et a été effectuée sur 130.000 femmes effectuant des mammographies chaque année en Suède. Leur mortalité a baissé de 30 % au cours de l’étude et continue encore à baisser d’année en année. Le dépistage du cancer du sein présente «encore plus d’avantages que ce que nous avions compris», résume Stamatia Destounis, radiologue à New York. Mais elle raconte à Reuters que pour communiquer sur ce dépistage, les patients mais aussi les médecins ont dû être éduqués.

Longtemps, les dépistages ont été contredits et les patients doutaient des avantages de la mammographie. Les experts n'étaient pas d'accord sur le meilleur âge pour commencer les mammographies ni sur la fréquence idéale de ces contrôles. Parfois, le dépistage était considéré comme injustifié chez les femmes sans antécédents familiaux de cancer du sein (les femmes atteintes ont une mutation génétique associée à la maladie) en raison du risque de fausse alarme, raconte BBC. Mais cette étude fournit maintenant la preuve de l’efficacité d’un suivi régulier et à long terme.

Stephen Duffy explique: «Nos résultats indiquent que sur 1.000 femmes dépistées pendant 10 ans, trois cancers du sein seraient empêchés.» «Cela implique que les avantages à long terme du dépistage, en termes de décès évités, sont de plus du double de ceux souvent cités dans le suivi à court terme.»  Il estime qu’un dépistage tous les 18 mois pour les femmes de 40 à 54 ans et tous les deux ans pour les femmes de plus de 55 ans est un calendrier raisonnable.

Radiology

La chute, possible indice des premiers stades de la maladie d'Alzheimer
Mercredi, 20/07/2011 - 01:20

Les chutes sont plus courantes chez les personnes qui présentent les premiers signes biologiques de la maladie d'Alzheimer, selon une étude récemment présentée à Paris à l'occasion de la Conférence internationale de l'Association Alzheimer (AAIC). "A notre connaissance, c'est la première étude à identifier le risque accru de chutes lié au diagnostic préclinique de la maladie d'Alzheimer", a affirmé sa responsable, le Docteur Susan Stark, maître de conférences en ergothérapie et neurologie à la Washington University à Saint Louis (Etats-Unis).

Cette étude sur 8 mois a suivi 125 adultes âgés, dépourvus de troubles cognitifs, actuellement recrutés dans des études longitudinales de la mémoire et du vieillissement à l'Alzheimer's Disease Research Center (ADRC) de la Washington University. Tous les participants se sont soumis notamment à un examen d'imagerie cérébrale, la TEP ou Pet Scan (Tomographie par Emission de Positrons) avec le marqueur PiB, une molécule fluorescente qui permet de visualiser la présence de plaques amyloïdes associées à l?Alzheimer. Les chercheurs ont trouvé qu'une image avec PiB positive signifiait un risque de chute 2,7 fois supérieur pour chaque unité d'augmentation sur le cliché.

"Les résultats de cette étude illustrent le fait que, chez certaines personnes, les changements qui affectent la marche et l'équilibre peuvent survenir avant la détérioration des fonctions cognitives", a déclaré le Docteur Maria Carrillo, directrice principale des relations médicales et scientifiques de l'Alzheimer's Association.

"Selon cette étude, la chute d'un adulte âgé qui n'est pas par ailleurs prédisposé à tomber, pourrait être un facteur déclencheur d'une évaluation de diagnostic de la maladie d'Alzheimer", a ajouté le Docteur Carrillo, citée dans un communiqué de l'AAIC.

Selon les chercheurs, le résultat "concorde avec des études antérieures sur les problèmes de mobilité chez les personnes présentant des symptômes précoces de la maladie d'Alzheimer ou des troubles légers de la cognition". "Il est urgent de poursuivre les recherches, notamment pour approfondir l'étude de la relation entre les déficits moteurs et les chutes en tant que signes précoces de la maladie d'Alzheimer", a estimé le Docteur Carrillo.

Les Echos

Découverte d'un acteur inattendu dans la vaccination : notre propre ADN
Mercredi, 20/07/2011 - 01:10

Les équipes du Docteur Christophe Desmet et du Professeur Fabrice Bureau du laboratoire de Physiologie Cellulaire et Moléculaire du Centre de recherche GIGA de l'Université de Liège, et du Professeur Ken Ishii de l'Université d'Osaka au Japon, viennent de découvrir un mode d'action inattendu de l'adjuvant vaccinal alun. En effet, il apparaît que, lorsqu'un vaccin contenant de l'alun est injecté, le contact avec l'alun pousse certaines cellules du corps à relâcher leur propre ADN. La présence de cet ADN à l'extérieur des cellules, un endroit où il ne se retrouve pas en conditions normales, agit alors comme un stimulant du système immunitaire et favorise fortement la réponse au vaccin.

L’alun, un sel d’aluminium, est actuellement l'adjuvant de loin le plus largement utilisé. Développé au milieu du 20e siècle, l'alun a largement démontré son efficacité et la bonne sûreté de son utilisation. C'est pourquoi on le retrouve dans de nombreux vaccins. Des dizaines de millions de doses d'alun sont ainsi administrées chaque année, et chaque personne dans nos sociétés occidentales a probablement reçu de l'alun au moins une fois dans sa vie. Pourtant, l'alun a été développé de manière relativement empirique ; la façon dont il aide le système immunitaire à répondre aux vaccins n’était pas bien comprise jusqu’aujourd’hui.

Cette découverte par des chercheurs belges et japonais permet ainsi de mieux comprendre la façon dont fonctionnent les vaccins actuels, et devrait aider à la création de nouveaux adjuvants pour les vaccins du futur. Les mécanismes de réponse à l'ADN mis en évidence dans cette étude permettent notamment d'envisager à terme le développement de nouveaux adjuvants à l'action extrêmement ciblée et efficace.

Les chercheurs publient leurs résultats dans la revue Nature Medicine.

Université de Liège

Les champs électromagnétiques pourraient influencer la mémoire
Mercredi, 20/07/2011 - 01:00

Les champs électromagnétiques peuvent interférer avec les processus d'apprentissage dans le cerveau. Ce rapport est établi par des chercheurs de l'Université de Bochum (Rhénanie-Du-Nord-Westphalie) et publié dans la revue PLoS ONE sur la base d'expérimentations animales. Le téléphone (Le téléphone est un système de communication, initialement conçu pour transmettre la voix humaine.) serait cependant plutôt sûr, du fait de la faible intensité des champs émis, tempèrent les scientifiques. Pour les professions à forte exposition, comme dans certains centres de télécommunications (Les télécommunications sont aujourd’hui définies comme la transmission à distance d’information avec des moyens électroniques. Ce terme est plus utilisé que le...), certains services de sécurité (observation par satellite) ou centres militaires, les limites devraient être vérifiées.

Les champs électromagnétiques à haute fréquence (HEF) sont utilisés pour la radio, la télévision (La télévision est la transmission, par câble ou par ondes radioélectriques, d'images ou de scènes animées et généralement sonorisées qui sont reproduites sur un poste récepteur appelé téléviseur (ou, par abus...), la téléphonie (La téléphonie est un système de télécommunication qui a pour but la transmission de son et en particulier la transmission de la parole.) sans fil, et maintenant le Wifi. Ils peuvent générer de la chaleur (Dans le langage courant, les mots chaleur et température ont souvent un sens équivalent : Quelle chaleur !) dans les tissus de l'utilisateur, proportionnellement à l'intensité du champ (Un champ correspond à une notion d'espace défini:) en question. Les récentes générations de téléphones mobiles UMTS ont l'atout de générer des champs relativement faibles, jusqu'à 4,8 V/m, ce qui limite l'effet thermique (Le thermique est la science qui traite de la production d'énergie, de l'utilisation de l'énergie pour la production de chaleur ou de froid, et des transferts de chaleur suivant différents phénomènes physiques, en...) sur les tissus du cerveau à environ 0,1°C. Les conséquences possibles d'une exposition de 30 minutes ( Forme première d'un document : Droit : une minute est l'original d'un acte. Cartographie géologique ; la minute de terrain est la carte originale, au crayon, levée...) sur la fonction et la structure du cerveau ne sont pas encore claires, ni univoques. Cependant, les chercheurs ont émis l'hypothèse d'une augmentation de la perméabilité de la paroi cellulaire ou d'une apparition de troubles de l'apprentissage.

Ces troubles seraient néanmoins aussi liés à l'augmentation du stress dans les expériences ainsi qu'à d'autres effets non thermiques des HEF, selon les chercheurs de Bochum. Ils ont ainsi étudié des rats exposés à la bande de fréquence UMTS et ont vérifié par des examens électrophysiologiques les processus d'apprentissage au niveau neuronal et les mécanismes de formation de la mémoire (D'une manière générale, la mémoire est le stockage de l'information. C'est aussi le souvenir d'une information.) synaptique. Résultat: le stress de l'expérience affecte les synapses et la mémoire chez les animaux. La comparaison avec les animaux témoins a cependant montré que les champs électromagnétiques forts ont des conséquences sensiblement similaires voire plus marquées.

Ainsi, les champs d'une valeur DAS de 10watts/kg pourraient affecter l'apprentissage et la formation de la mémoire, tandis que les champs d'une intensité de 2watts/kg n'auraient aucun effet négatif mesurable, selon les résultats. Ainsi, l'utilisation du téléphone cellulaire ne serait pas sujette à caution au niveau des effets thermiques sur le cerveau. Des études complémentaires sont en cours.

Techno-Science

Sida : nouveaux espoirs et questions en cascade à la Conférence de Rome
Mardi, 19/07/2011 - 01:30

La conférence sur le sida de Rome a applaudi debout lundi 18 juillet une étude phare qui établit que traiter tôt une personne infectée par le VIH l'empêche dans plus de 96% des cas de transmettre l'infection, ce qui pourrait transformer le visage de l'épidémie.

"Les données prouvent que le traitement du VIH peut conduire à l'éradication de l'épidémie : les preuves sont là !", s'est exclamé Elly Katabira, le président de l'International AIDS Society (IAS), qui organise la conférence. Trois études sur le traitement utilisé en prévention ont été présentées en même temps à la conférence scientifique sur le sida de Rome, où quelque 5.500 scientifiques, médecins et chercheurs discutent des nouvelles avancées dans le traitement de l'épidémie. Ces études ont suscité l'enthousiasme, mais aussi de nombreuses questions sur le financement et sur la façon de mettre leurs enseignements en application sans pour autant oublier les autres moyens de prévention tels le préservatif.

La première étude est celle rendue publique en mai aux Etats-Unis (étude HPTN052), qui établit qu'un traitement d'antirétroviraux fourni tôt à une personne infectée réduit considérablement les risques (plus de 96 %) de transmission au partenaire non infecté. Le traitement a été fourni à 1.763 couples sérodiscordants -un séropositif, l'autre non-, quasi tous hétérosexuels. Il y a eu 29 cas d'infection dont 28 chez les personnes traitées tardivement. Avec un bénéfice pour la personne traitée plus tôt, puisqu'il y a eu aussi dans ce groupe 41 % de moins de maladies opportunistes et de décès.

Les deux autres études, publiées plus récemment, montrent qu'un traitement fourni à une personne non infectée mais à risque la protègerait dans environ deux cas sur trois de l'infection.

L'OMS, qui devait présenter à Rome ses recommandations sur le dépistage et le traitement dans les couples sérodifférents, a retardé cette publication, pour prendre en compte les résultats de ces études.

Pour Médecins sans frontières, il faut maintenant "transcrire cette science en action afin de casser le dos de l'épidémie".

Anthony Fauci, directeur de l'Institut national américain sur les maladies infectieuses (NIAID), a estimé qu'il y avait "changement de donne" et qu'aujourd'hui "on peut avoir un impact majeur sur l'épidémie". Il a souligné aussi que "la prévention marche si les gens respectent ses modalités", et émis des doutes sur la possibilité de fournir le traitement à toutes les personnes à risque : "En Afrique, toutes les personnes sexuellement actives sont à risque".

Pour Michel Kazatchkine, directeur du Fonds mondial de lutte contre le sida, avant de songer à traiter tout le monde dès qu'il est infecté, voire à risque, il faut traiter ceux qui ont besoin d'un traitement et n'en bénéficient pas. L'OMS estime qu'il faut traiter les gens à partir d'un nombre de CD4 (les cellules de l'immunité attaquées par le virus) inférieur à 350. "Aujourd'hui, on a 40 % de couverture des besoins", a-t-il rappelé, estimant qu'il faut, "d'un point de vue de santé publique et d'éthique, commencer par les priorités". Pour lui, "mettre toutes les personnes infectées sous traitement, ce n'est pas envisageable, ni du point de vue des ressources, ni du point de vue opérationnel". Il a rappelé à cet égard que la moitié des personnes infectées ne savent pas qu'elles le sont.

Nombre d'intervenants, dont Gottfried Hirnschall, de l'OMS, ont rappelé qu'il ne fallait pas pour autant oublier le préservatif, et qu'il convenait de "combiner les moyens de prévention", comme le soulignent les études. "Nous ne voulons vraiment pas dire qu'il ne faut plus utiliser les préservatifs", a-t-il souligné. Il a rappelé lui aussi qu'il y avait encore 9 millions de personnes "qui n'ont pas accès au traitement" alors qu'elles en ont besoin.

L'Express

Internet changerait notre façon de penser
Mardi, 19/07/2011 - 01:20

D’après une équipe de psychologues, nous cherchons désormais moins à nous souvenir d’informations que nous savons retrouver sur Internet ou sur un ordinateur. En revanche, nous faisons davantage l’effort de mémoriser l’endroit où se trouve l’information. Bref, on s‘adapte, comme chacun, d’ailleurs, l’aura remarqué…

« Marignan ? euh, non je me souviens plus mais c’est pas grave c’est sur le Web ». L’Homo sapiens a développé de nombreuses stratégies pour retenir des quantités énormes d'informations, un domaine où il excelle, comme par exemple, apprendre en marchant ou aller dormir. Il viendrait d'en ajouter une autre : profiter d'Internet, où l'on trouve tout. C’est ce que concluent Betsy Sparrow, de l’université Columbia, et Jenny Liu, de l’université du Wisconsin-Madison, dans un article qui vient de paraître dans Science et intitulé : Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips, ou encore L’effet Google sur la mémoire : conséquences cognitives de disposer de l’information sur le bout des doigts.

Pour mettre en évidence cet « effet Google », les chercheuses ont placé des étudiants dans différentes situations où ils devaient mémoriser des informations. La première expérience a mis en évidence que les moteurs de recherche sont très présents à l’esprit dès qu’il s’agit de chercher une information. Les étudiants se voyaient interrogés sur des questions ardues de culture générale puis, immédiatement après, devaient réaliser des tests ultrasimples de reconnaissance de couleurs sur des mots. Les temps de réponse étaient précisément mesurés et les auteurs démontrent que des mots liés à des moteurs de recherche, comme par exemple « Google » et « Yahoo », étaient interprétés plus rapidement. Conclusion des psychologues : ces mots-là étaient dans la tête des cobayes, et l’on peut en déduire que face à une question à la réponse inconnue, l’homme moderne pense d’abord à Google et à Yahoo.

  • La fin de l’apprentissage par cœur ?

Dans une seconde expérience, les étudiants devaient faire l’effort de se souvenir d’affirmations, du genre « une bande caoutchoutée est moins longue quand elle est refroidie ». À certains, il était précisé que l’information, qu’ils auront tapée eux-mêmes sur un ordinateur, serait conservée tandis que d’autres apprenaient qu’elle serait effacée. Résultat : ces derniers s’en souviennent bien mieux… Quant à ceux qui savaient que les réponses seraient enregistrées, les auteurs de l’étude démontrent qu’ils se souviennent mieux du dossier dans lequel l’information est censée être sauvegardée que de la réponse elle-même.

Que peut-on conclure de ces conclusions qui n’étonneront personne ? D’après Betsy Sparrow et Jenny Liu, cette adaptation à l’informatique correspond à la « mémoire transactive », décrite par Daniel M. Wegner. Elle consiste en une forme de mémoire collective, où l’on se sert des informations que l’on sait connues de nos proches, conjoints, famille, amis ou collègues de travail. Elle s’étend aux livres et, aujourd’hui, à l’ordinateur et au Web. Selon les auteurs, l’observation montre peut-être que tous ceux qui ont quelque chose à enseigner (professeurs, cadres d’entreprise…) ou à apprendre ont désormais tendance à davantage se focaliser sur la compréhension des mécanismes plutôt que sur les données brutes. Verra-t-on la fin du par cœur ?

Futura Sciences

Une nouvelle technique pour restaurer le rythme cardiaque
Mardi, 19/07/2011 - 01:00

Un choc électrique de grande amplitude, souvent douloureux, est la seule méthode pour traiter certains cas d'arythmie cardiaque chronique. Une nouvelle technique reposant sur des impulsions beaucoup plus faibles a été conçue par une collaboration internationale de physiciens et de cardiologues impliquant notamment Alain Pumir, chercheur CNRS au Laboratoire de physique de l'ENS Lyon (CNRS/ENS Lyon/Université Lyon 1). Testée in vivo, elle s'est avérée efficace pour restaurer le rythme cardiaque chez des animaux souffrant de fibrillations auriculaires (arythmies les plus fréquentes dans le monde). Même s'il reste à la tester sur des patients, ces premiers résultats sont encourageants et pourraient permettre d'imaginer des méthodes de défibrillation indolores. Ces travaux ont été publiés le 14 juillet 2011 dans la revue Nature.

Avec plus de 10 millions de personnes touchées en Europe et aux États-Unis, la fibrillation auriculaire (ou atriale) est le plus fréquent des troubles du rythme cardiaque. Cette arythmie correspond à une action non coordonnée de certaines cellules du muscle cardiaque. Des impulsions électriques peuvent alors se propager de manière chaotique dans le cœur, empêchant les contractions régulières de l'organe, et donc le transport de sang dans l'organisme. Pour réduire la fibrillation auriculaire et tenter de restaurer un rythme cardiaque normal, l'utilisation de médicaments est loin d'être suffisante. La méthode la plus efficace reste l'application d'un choc électrique externe (via un défibrillateur). La défibrillation consiste à faire passer volontairement et brièvement un courant électrique dans le cœur afin de restaurer rythme cardiaque normal. Cette impulsion électrique de grande intensité (champ électrique élevé) peut endommager les tissus et est souvent perçue comme très douloureuse. Jusqu'à présent, il était impossible de réduire son intensité sans prendre le risque que la défibrillation ne fonctionne pas.

Les chercheurs ont tout d'abord étudié les interactions entre le champ électrique et les tissus cardiaques. Imposer un champ électrique élevé (cas des défibrillateurs classiques) permet de générer des ondes dans le tissu cardiaque, principalement à partir des vaisseaux. Cet ensemble d'ondes s'annule ensuite, ce qui permet de restaurer le rythme cardiaque. Avec un champ électrique plus faible, les chercheurs ont supposé que moins de sources seront excitées. Leur hypothèse de travail a été la suivante : il faut réitérer à plusieurs reprises le choc électrique. C'est ce qu'ils ont ensuite vérifié in vivo. Utilisant un cathéter cardiaque classique, les chercheurs ont appliqué une série de cinq impulsions de faible intensité dans le cœur animal. Après quelques secondes, ce dernier battait à nouveau de manière régulière. Baptisée « LEAP » (pour Low-Energy Anti-fibrillation Pacing), leur nouvelle technique fonctionne sur le même principe que les défibrillateurs existants, tout en provoquant une réponse très différente dans le cœur. Peu après le choc électrique, le tissu cardiaque ne peut plus transmettre aucun signal électrique ; l'activité chaotique est terminée. Le cœur reprend alors son activité normale.

LEAP utilisant des champs électriques faibles, cette nouvelle technique serait moins douloureuse et moins dommageable pour le tissu cardiaque que les défibrillateurs existants (réduction de 80 % de l'énergie nécessaire). Autre atout, elle permet de restaurer le rythme cardiaque plus progressivement que les techniques actuelles. Chaque impulsion active davantage de tissus, permettant une suppression progressive de l'activité turbulente du cœur. Les vaisseaux sanguins ou autres « hétérogénéités » cardiaques, comme les défauts d'orientations des fibres cardiaques, agissent comme des centres de contrôle : une fois activés, ils permettent de « reprogrammer » le cœur.

Pour parvenir à ces résultats, les chercheurs se sont donc intéressés à la compréhension fine de l'effet du champ électrique sur le muscle cardiaque. Alain Pumir a apporté son expertise de physicien dans ce travail. Les expériences menées par Stefan Luther et Eberhard Bodenschatz au Max-Planck-Institut en Allemagne, Flavio Fenton et Robert Gilmour à l'Université Cornell aux États-Unis, et leurs collègues se sont appuyées sur des techniques de visualisation à haute résolution temporelle ou spatiale. Complétées par des simulations numériques, elles ont permis d'élucider de manière très précise les phénomènes impliqués.

Démontrés chez l'animal pour des fibrillations auriculaires, ces résultats pourraient également s'appliquer au traitement des fibrillations ventriculaires, une arythmie mortelle. LEAP pourrait alors permettre d'éliminer la douleur, d'améliorer le taux de succès du traitement, et de prolonger la durée de vie des batteries des défibrillateurs implantés ou externes actuellement utilisés. Prochaine étape : tester ce dispositif sur des patients, avant d'espérer développer de nouvelles thérapies pour traiter les arythmies cardiaques.

CNRS

Maladies rares : la HAS recommande un dépistage systématique à la naissance du déficit en MCAD
Lundi, 18/07/2011 - 01:10

Dans le cadre du Plan national « Maladies rares » 2010-2014, la Haute Autorité de Santé a été saisie afin de rendre un avis sur l’extension du dépistage néonatal à une maladie supplémentaire : le déficit en MCAD. Cette maladie métabolique est fréquemment mortelle en l’absence de traitement. Sa prise en charge, très efficace, consiste à observer des règles diététiques simples. La Haute Autorité de Santé recommande le dépistage néonatal de cette maladie car il permet de prévenir des décès facilement évitables chez des jeunes enfants.

Le dépistage néonatal vise à détecter dès la naissance certaines maladies graves afin de mettre en œuvre une prise en charge précoce et adaptée afin d’éviter ou de réduire la morbi-mortalité. Réalisé au 4e jour de vie sur une goutte de sang prélevée au talon et conservée sur papier buvard (le carton Guthrie), le dépistage recherche à ce jour cinq maladies : la phénylcétonurie, l’hypothyroïdie congénitale, l’hyperplasie congénitale des surrénales, la drépanocytose et la mucoviscidose.

La Direction générale de la Santé (DGS), l’Association française pour le dépistage et la prévention des handicaps de l’enfant (AFDPHE), la Société française de biologie clinique (SFBC) et la Société française pour l’étude des erreurs innées du métabolisme (SFEIM) ont saisi la HAS afin d’évaluer l’intérêt de l’étendre au déficit en MCAD, maladie caractérisée par une incapacité de l’organisme à utiliser les graisses comme source d’énergie.

Un dépistage efficace pour prévenir les conséquences graves de cette maladie

Les enfants qui présentent un déficit en MCAD n’ont pas de symptômes à la naissance, mais ils peuvent développer une crise métabolique en période de jeûne (lors d’une infection banale par exemple). Cette dernière peut rapidement entraîner un coma ou la mort. La prise en charge à long terme consiste à éviter les périodes de jeûne et à augmenter l’apport en hydrates de carbone quand les besoins énergétiques augmentent. En l’absence de dépistage, la majorité des enfants atteints développent une crise métabolique qui entraînera la mort dans 20 % des cas. Le dépistage néonatal systématique permettrait de diminuer la mortalité de 75 %. La HAS recommande ainsi d’élargir le dépistage néonatal au déficit en MCAD.

Un dépistage efficient qui nécessite organisation et information

Le dépistage du déficit en MCAD est réalisé sur le carton Guthrie par la technologie de spectrométrie de masse en tandem (MSMS) qui requiert un investissement matériel important et une expertise de haut niveau. Pour des raisons d’efficacité, de qualité et d’efficience, la HAS recommande :

  • la restriction du recours à cette technologie à un nombre limité de laboratoires sur le territoire
  • la réalisation conjointe du dépistage de la phénylcétonurie permis par la technique MS/MS.

La mise en œuvre du dépistage du déficit en MCAD nécessite la formation du personnel et le développement d’une information adaptée aux professionnels de santé, aux parents et au grand public. La HAS recommande enfin la mise en place du suivi et de l’évaluation du programme.

Les recommandations publiées sont issues du premier volet d’une évaluation de l’extension du dépistage néonatal à une ou plusieurs erreurs innées du métabolisme par la technologie de spectrométrie de masse en tandem. Un second volet concernera l’extension du dépistage néonatal à d’autres erreurs innées du métabolisme par la même technologie de spectrométrie de masse en tandem.

Haute Autorité de Santé

Le déclin des grands prédateurs bouleverse les écosystèmes
Lundi, 18/07/2011 - 01:00

Les grands prédateurs comme les lions, les loups ou les requins sont en déclin partout dans le monde et cette tendance perturbe les écosystèmes, ont constaté des chercheurs dans une étude publiée ces jours derniers. «Ces prédateurs et ces écosystèmes préservent au bout du compte les humains. Il ne s'agit pas simplement d'eux, mais aussi de nous», a expliqué William Ripple, professeur de sylviculture à l'Université d'État de l'Oregon et coauteur d'une étude parue dans le journal Science.

La planète Terre vit actuellement la sixième extinction de masse, constate l'étude réalisée par des scientifiques issus de 22 établissements de six pays. Mais celle-ci diffère des cinq précédentes, car elle est entièrement provoquée par les activités humaines, telles que l'exploitation des terrains, la pollution, la chasse, la pêche, le braconnage, et parce qu'elle se concentre sur les prédateurs situés au sommet de la chaîne alimentaire.

«La perte de prédateurs en haut de la chaîne reflète sans doute le plus l'influence grandissante de l'espèce humaine sur la nature», dit l'étude. Les conséquences sont visibles dans les océans comme sur terre. Par exemple, la baisse du nombre de pumas dans l'ouest de l'Utah a conduit à une explosion de la population des cervidés. Or les cervidés mangent essentiellement des plantes ; du coup, la diminution de la végétation a entraîné la dégradation du cours des petits ruisseaux et l'affaiblissement de l'ensemble de la biodiversité dans cette région.

De même, la chasse industrielle des baleines a poussé leurs principaux prédateurs, les orques, à modifier leur régime alimentaire pour se nourrir désormais essentiellement de lions de mer, phoques et loutres, espèces qui ont vu en conséquence leur population diminuer fortement.

Le Devoir

Une greffe de jambes fait débat chez les médecins
Dimanche, 17/07/2011 - 01:10

Des chirurgiens espagnols ont réalisé une première en greffant deux jambes à un amputé. Le monde médical reste sceptique.

Dans la course à laquelle se livrent les équipes chirurgicales en matière de greffes d’organes, l’Espagne vient de marquer un point. Il y a quelques jours, le docteur Pedro Cavadas a greffé deux jambes à un amputé âgé d’une vingtaine d’années. L’opération a été conduite dans un bloc opératoire de l’hôpital La Fe de Valence. Trente-cinq médecins et infirmières ont été mobilisés pour cette première. «Si tout se passe comme nous l’espérons, il serait raisonnable de penser que dans six à sept mois notre patient pourrait marcher», s’est avancé Pedro Cavadas.

  • Chirurgien optimiste

Le chirurgien espagnol est un habitué de ce genre de prouesses médicales. Il a réalisé en 2008 la première double greffe de bras et en 2009 la première greffe de visage en Espagne. Jusqu’à présent toutes les tentatives de greffes de membres inférieurs s’étaient soldées par des échecs. Fort de son succès, Pedro Cavadas se montre optimiste pour l’avenir, allant jusqu’à imaginer le greffé «abandonner ses béquilles» pour marcher. Le monde médical reste cependant partagé. L’expérience a montré par le passé qu’il ne fallait pas crier victoire trop vite. En juin 2009, l’homme qui avait été le premier greffé main-visage par l’équipe du professeur Laurent Lantieri à Paris est décédé d’un arrêt cardiaque deux mois après son opération.

Passé la période critique de six mois qui suit la greffe, la question est de savoir si l’homme opéré pourra utiliser ses nouvelles jambes. Si la connexion aux nerfs sciatiques ne prend pas, il n’aura aucune sensibilité aux jambes et ne pourra donc pas remarcher. A Lyon, le professeur Jean-Michel Dubernard, qui a réalisé la première greffe de la main en 1998, ne minimise pas la part d’incertitudes, mais il estime qu’il fallait essayer.

  • Retrouver la motricité

Dans les colonnes du Figaro, le professeur Laurent Lantieri affiche une position nettement plus sur la réserve. «C’est très différent de transplanter un membre supérieur ou un membre inférieur. Avec les jambes, la consolidation est beaucoup plus longue. Et puis surtout, on ne s’appuie pas sur une main !» explique le chirurgien. Certaines équipes médicales soufflent qu’une greffe de jambe qui revient à relier des vaisseaux sanguins assez gros n’est pas «techniquement» difficile. De fait, le vrai défi est celui de la motricité.

L’homme greffé pourra-t-il se servir de ses jambes ? Les premières médicales portent leur lot d’espoirs et de déceptions. La première greffée du visage opérée en 2005 en France par les professeurs Dubernard et Devuchelle a redonné l’espoir aux personnes défigurées en bougeant ses lèvres et en esquissant un début de sourire quelques semaines après l’opération. Mais il y a aussi des cas de patients qui ont préféré se faire enlever leurs greffons, les jugeant inutiles et le traitement immunosuppresseur trop lourd. On saura dans un an si l’opération a réussi.

Tribune de Genève

Des gènes permettent de prédire l'évolution de l'infection par le VIH
Dimanche, 17/07/2011 - 01:00

Des chercheurs de l'Institut de Recherche pour le Sida (Irsi) de la Caixa ont identifié un groupe de gènes qui permettrait de prédire l'évolution de l'infection par le VIH, et expliquer ainsi pourquoi dans huit pour cent des nouvelles infections le SIDA se développe de manière foudroyante. L'étude correspondante publiée dans la revue Journal of Clinical Investigation le 6 juin dernier regroupe des scientifiques espagnols, suisses et américains et ouvre une nouvelle voie dans le développement d'un vaccin contre le SIDA.

  • VIH, RP, VNP...

Durant la phase chronique de l'infection par le VIH, des taux élevés de multiplication du virus mènent généralement à une immunodéficience sévère. En considérant les cas extrêmes, il existe d'une part des patients pour qui il s'écoule seulement quelques années entre la primo-infection et le SIDA : ces patients sont appelés progresseurs rapides (RP pour les initiales en anglais). A l'extrême opposé, une faible proportion de patients hautement virémiques reste asymptomatique : on les appelle les patients virémiques non-progresseurs (VNP en anglais).

L'étude qui a été menée consiste à comparer le génome, et plus particulièrement le transcriptome d'une soixantaine de patients infectés par le VIH - une trentaine de la région de Barcelone et l'autre moitié originaire de Suisse - notamment dans le but d'identifier des différences génétiques entre les patients RP et VNP. Côté espagnol, l'IrsiCaixa a collaboré avec l'Hospital Clinic de Barcelone, la Banque de Sang et Tissus, le CHU Germans Trias i Pujol ainsi que le département santé de la Généralité Catalane. Du côté suisse, on retrouve principalement les hôpitaux universitaires de Bern, Zurich et Lausanne. Le choix du groupe de patients est le résultat d'une sélection rigoureuse parmi des milliers de sujets infectés par le VIH.

  • Résultats de l'étude

Chez l'homme, il est très difficile de donner une date précise de l'infection par le VIH, ce qui complique ce type d'étude : identifier les patients RP et quantifier leur nombre parmi une population de sujets infectés par le VIH représente donc une avancée importante pour les scientifiques. "Nous avons réussi à recruter le premier et le plus important groupe de suivi de patients chez lesquels l'infection progresse rapidement, et en même temps nous avons été en mesure d'identifier le pourcentage de ces patients, qui est étonnamment élevé" a déclaré le chercheur Martinez-Picado, responsable des travaux d'analyse.

Les résultats indiquent ainsi que huit pour cent des nouvelles infections évoluent très rapidement et qu'après seulement trois ans les patients présentent un système immunitaire très affaibli, ce qui souligne la nécessité de renforcer la prévention et le diagnostic précoce pour limiter les cas de SIDA foudroyant.

Le second et le plus important volet de l'étude concerne l'analyse du génome des cellules immunitaires, qui a été comparé entre les patients RP et VNP. Les scientifiques ont identifié un groupe de six gènes impliqués dans la progression rapide de l'infection : "la connaissance de ces gènes est essentielle pour prédire si le système immunitaire du patient sera rapidement détérioré et pouvoir recommander des traitements avec une plus grande garantie de succès". Ces six gènes étant associés à l'activation du système immunitaire, une voie thérapeutique serait un vaccin génétique contre le VIH capable de stimuler une réponse immunitaire protectrice.

Les vaccins génétiques, également appelés vaccins géniques ou vaccins à ADN, constituent une piste prometteuse qui est en cours de test chez les animaux comme chez les humains. Néanmoins leur application pour le virus du VIH et le traitement du SIDA est une des nombreuses possibilités envisagées pour cette maladie, et qui nécessitera encore des années de mise au point.

  • L'étude du SIDA chez les singes

Pour s'affranchir des problèmes liés à la détermination précise de la date d'infection par le VIH et la difficulté de rassembler des patients RP pour une étude médicale, les chercheurs étudient en parallèle nos cousins les plus proches : les singes. Pour la première fois dans la recherche contre le SIDA, les résultats génétiques obtenus ont ainsi été mis en parallèle avec les modèles génétiques de l'infection par le virus de l'immunodéficience simienne (VIS) chez les primates non humains. Concrètement, les scientifiques ont comparé l'infection par le VIH chez les patients RP et VNP avec l'infection VIS chez les macaques et les mangabeys, eux aussi classés en groupes RP et VNP. L'analyse en cours de cette manne d'informations et les similitudes qui ont été observées pourraient ainsi améliorer la compréhension de la pathogénèse du VIH.

Bulletins Electroniques

Les femmes sédentaires plus sujettes aux embolies pulmonaires
Vendredi, 15/07/2011 - 06:00

Une étude publiée récemment dans le British Medical Journal, affirme que les femmes qui restent longtemps assises après le travail font plus que doubler leur risque de développer une embolie pulmonaire.

Rester assis trop longtemps après le travail aurait un impact inquiétant sur le risque d'embolie pulmonaire, selon une nouvelle étude américaine. Si les scientifiques indiquent depuis longtemps que le manque d'activité physique favorise des maladies comme le diabète ou les problèmes cardiaques, c'est la première fois que des recherches montrent un accroissement du risque de développer une embolie pulmonaire.

Celle-ci intervient quand un caillot sanguin se transporte des veines des jambes jusqu'aux poumons. Ce caillot peut alors obstruer la circulation sanguine et entraîner une attaque cardiaque à l'origine de décès. L'étude, publiée en ligne par le British Medical Journal, suggère ainsi que l'inactivité physique pourrait être un des mécanismes cachés faisant le lien entre les maladies des artères et celles des veines.

  • Un risque doublé

Pour arriver à une telle conclusion, l'équipe de chercheurs américains, dirigée par Christopher Kabrhel du Massachusetts General Hospital de Boston, a compilé les détails de la vie quotidienne de 69.950 infirmières, sur une période de 18 ans. Les résultats ont alors permis de constater que le risque d'embolie pulmonaire faisait plus que doubler chez celles qui, en dehors de leur temps de travail, passaient plus de 41 heures par semaine assises, comparées à celles qui le restaient moins de 10 heures.

Néanmoins, les chercheurs n’en restent pas là et souhaitent désormais que les recherches soient approfondies afin de déterminer si ces résultats valent pour toutes les personnes quels que soient leur sexe et leur origine, indique TV5monde.

Maxisciences

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top