RTFlash

RTFLASH Recherche & Technologie
NUMERO 636
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Janvier 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Fibre optique : accord entre Orange et Bouygues Telecom
Au moins 17 cases pour les sudokus
Avenir
Les robots entrent à l'étable !
Des nano-oreilles pour écouter des cellules, des bactéries et des virus
Un robot-chirurgien pour intervenir sur le cerveau
Des chercheurs italiens réalisent des fils électroniques à partir de fils de coton
Après le nettoyage de nos sols, les robots s'attaquent aux carreaux !
Matière
Produire de l'énergie à partir d'hydrogène en froissant du graphène
L'automobile, énergie du futur !
CES 2012 : Intel dévoile sa plate-forme pour smartphones
Développement accéléré des Energies Nouvelles Réparties : un « investissement », pas un coût
Alstom et SSE développent le plus grand projet d'énergie marine
Sony présente une nouvelle technologie d'écran TV
Matériaux fragiles : les fissures vont moins vite que prévu !
Premier limiteur de courant de défaut supraconducteur résistif
Efficacité énergétique : la grande distribution ferme ses frigos !
Un bit d’information stocké sur 12 atomes
Quand les leds récupérent l'énergie solaire !
Terre
Les Finlandais étudient comment le changement climatique affecte la nature
Le réchauffement climatique risque de réduire la croissance chinoise
L'Amazonie pourrait devenir émettrice de CO2 !
Un nouvel absorbeur de CO2 atmosphérique
L'augmentation de la concentration de CO2 dans les océans perturbe les poissons
Cet homme qui a inventé l'eau solide
Vivant
AKTIL, nouvel essai clinique promu par le Centre Léon Bérard à Lyon
Rester actif pour éviter les problèmes cardiaques
Une maladie rare de la peau découverte grâce à des chiens
Un vêtement pour détecter les mouvements du corps
Récepteur de la vitamine D : première observation 3D en intégralité
Un spray fluorescent pour mieux détecter le cancer de l'oesophage
Cancer du pancréas : attention à la surconsommation de charcuterie
La chauve-souris qui aide à comprendre les mécanismes de différenciation des espèces
Homme
Ces prédictions de 1900 qui se sont révélées exactes
Un art rupestre préhistorique en Afrique du Nord
L’enquête nationale sur l’âge du Bronze : une première dans le domaine de la recherche archéologique en France
Edito
Le pouvoir exorbitant de l'image



Inventée il y a moins d'un siècle, la télévision fait partie de ces innovations de rupture, avec le téléphone et l'ordinateur, qui ont profondément transformé notre civilisation : il y a aujourd'hui au moins 1,5 milliard de téléviseurs en service dans le monde, ce qui correspond à environ 4,5 milliards de téléspectateurs. En France, on estime le parc de téléviseurs à 47 millions, soit presque deux postes par foyer et près de 9 millions de téléviseurs ont été vendus dans notre pays en 2011. Chaque Français adulte passe en moyenne 3h50 devant la télévision, soit 40 minutes de plus que la moyenne mondiale.

Il est incontestable que la télévision, en permettant la circulation et la diffusion des idées et des images à l'échelle mondiale a changé le monde, bouleversant les cultures mais également l'éducation et l'économie. Aujourd'hui, la télévision est partout, elle est omniprésente dans nos vies et se consomme non seulement sur les innombrables téléviseurs qui nous entourent mais également sur les ordinateurs, tablettes numériques et smartphones que nous utilisons quotidiennement.

Pourtant, depuis trente ans, de multiples études scientifiques démontrent que l'utilisation abusive ou inadaptée de la télévision et, plus généralement, la consommation effrénée d'images souvent violentes ou choquantes a un impact considérable sur notre santé physique et mentale.

Il y a quelques mois, une étude de l’université du Queensland, en Australie a fait grand bruit en montrant que les plus gros consommateurs de télévision - plus de six heures par jour -pouvaient perdre jusqu' à cinq ans d'espérance de vie. Selon cette étude, ceux qui passent plus de deux heures par jour devant la télévision réduiraient leur espérance de vie de 22 minutes par heure ! (Voir Etude)

Cette étude confirme les résultats d'une autre étude de l’École de santé publique d’Harvard qui montre que 2  heures de télévision par jour accroît les risques de développer un diabète de type 2 de 20 %, et des problèmes cardiaques de 15 %.

Selon ces études, une consommation excessive de télévision aurait donc un impact aussi néfaste sur la santé que le tabac ! Mais les effets d'une consommation abusive d'images ne se limiteraient pas à notre santé physique. En effet, une autre étude américaine publiée en 2005 dans la revue Brain and Cognition a montré, après pondération des différents facteurs de risques, que chaque heure passée devant la télévision entre 40 ans et 59 ans augmentait de 30 % le risque de développer la maladie d'Alzheimer.

A ces effets très négatifs sur la santé physique et psychique, il faut ajouter l'impact de la télévision sur l'agressivité et différentes formes de criminalité. Cet impact est démontré par une multitude d'études rigoureuses. Le pédiatre américain Brandon S Centerwell a par exemple montré dans une célèbre étude que l'introduction de la télévision avait provoqué, sur une période de 40 ans,  le doublement des meurtres aux Etats-Unis et au Canada ; une autre étude américaine réalisée sur 700 familles de l’état de New York pendant 15 ans a révélé une nette corrélation entre les actes violents et le temps passé chaque jour devant la télévision.

Il faut également évoquer une étude canadienne unique en son genre (Impact of Television : A Natural Experiment Involving Three Communities) publiée en 1979 et qui a étudié pendant 5 ans l'impact de l'arrivée de la télévision dans une petite ville isolée qui n'a reçu aucun programme de télévision jusqu'en 1975. Cette étude montre une augmentation de 160 % des agressions physiques entre le CP et le CE1 au cours des deux années ayant suivi l'apparition de la télévision dans cette petite ville.

Enfin, la consommation excessive de télévision a un impact direct sur les capacités cognitives des enfants, attention, mémoire, imagination notamment. A cet égard, les études du pédiatre allemand Peter Winterstein sont sans appel. Il a constaté, après avoir analysé les dessins de deux mille enfants pendant  dix-sept ans, une corrélation directe entre la précision et la richesse de ces dessins et la faible consommation télévisuelle de leurs auteurs. A contrario, les enfants qui regardaient le plus la télévision produisaient des dessins incohérents et pauvres. Une autre étude néo-zélandaise, portant sur un millier de personnes nés en 1972 et 1973 et suivis pendant trente ans, a mis en évidence un lien très fort entre une surconsommation de télévision pendant l'enfance et un faible niveau d'étude à l'âge adulte.

Une étude récente publiée dans la revue de référence Pediatrics et réalisée par des chercheurs de l'Université de Virginie a montré qu'un groupe de jeunes enfants ayant regardé un dessin animé de dix minutes obtenait ensuite aux tests cognitifs de concentration et de logique des résultats sensiblement moins bons que l'autre groupe soumis à des activités traditionnelles.

Le grand pédiatre américain Dimitri Christakis (Université de Washington à Seattle) confirme ces conclusions et souligne que la consommation de télévision avant deux ans est systématiquement associée à des retards cognitifs et scolaires ultérieurs de l'enfant." La consommation actuelle de télévision sous toutes ses formes est devenu un enjeu majeur de santé publique au niveau mondial ", souligne le Docteur Christakis qui rappelle qu'un adolescent américain moyen passe plus du tiers de sa journée devant un écran, quel qu'il soit !

Face à ces multiples études aux résultats convergents et très préoccupants, une question essentielle se pose : les images télévisées sont-elles intrinsèquement nuisibles à notre santé physique et psychologique ou cet effet dépend-il du contenu de ces images, de l'attitude du téléspectateur et du contexte affectif, éducatif  et culturel dans lequel sont vues ces images. La réponse à cette question est complexe car tous ces facteurs sont intriqués et mesurer leur poids respectif est délicat. Il est cependant admis que la consommation croissante d'images de plus en plus violentes et choquantes par de jeunes enfants peut gravement et durablement perturber leur santé mais également leur équilibre psychologique, social et affectif. Les cas de plus en plus graves et fréquents d'addiction aux jeux vidéo en sont la preuve.

Il ne s'agit pas pour autant de bannir l'image en tant que telle de l'éducation et de la culture car celle-ci, lorsqu'elle est utilisée de manière judicieuse et adaptée à l'âge et à la sensibilité de l'enfant, peut, en complément des autres outils pédagogiques, avoir une influence très positive. Enfin, un autre facteur décisif est à prendre en considération : le degré d'activité et de participation face à l'image. A cet égard, un basculement majeur est en train de s'opérer : les adolescents passent à présent plus de temps sur le Net que devant la télévision ; or, contrairement à la consommation de programmes télévisés qui est passive, l'Internet est interactif et coopératif, ce qui change profondément le rapport à l'image. On regarde la télévision mais on "surfe" ou on "navigue" sur le Web et le simple choix de ces verbes illustre les dimensions active, créative, symbolique et sociale infiniment plus riches et complexes de l'Internet.

Il reste cependant étrange et à tout le moins paradoxal que notre société de plus en plus moralisatrice et hygiéniste, si prompte à combattre le tabac, l'alcool et toutes les drogues en général, reste curieusement si permissive et indulgente en matière d'images alors qu'il est pourtant largement démontré qu'elles ont un effet absolument considérable sur la santé physique et mentale de nos concitoyens. Il me semble pourtant qu'il y a dans ce pouvoir exorbitant de l'image un enjeu social, politique et démocratique majeur qu'il est temps de reconnaître.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Fibre optique : accord entre Orange et Bouygues Telecom
Samedi, 21/01/2012 - 00:30

Orange et Bouygues Telecom ont annoncé, mardi 17 janvier, la signature d'un partenariat portant sur l'organisation du déploiement de la fibre optique pour plus de 10 millions de foyers français. Ce partenariat concerne aussi bien les zones peu densément peuplées, dans lesquelles Bouygues souscrira aux offres de gros d'Orange, et les zones urbaines où Bouygues a souscrit à l'offre de mutualisation de l'opérateur historique concernant la partie terminale du réseau. Les opérateurs français, Orange en tête, se sont engagés à rendre éligibles à la fibre optique 60 % des logements d'ici à 2020.

En novembre, Orange avait déjà signé un accord avec SFR pour se partager le déploiement de la fibre dans 10 millions de foyers situés en dehors des grandes villes, où leurs projets de développement se recoupaient souvent. Au mois de juillet, Orange et Free, du groupe Iliad, avaient également conclu un partenariat pour co-financer les réseaux de fibre dans une soixantaine d'agglomérations situées dans des zones peu et moyennement peuplées.

Le partenariat annoncé mardi 17/01 permet à Orange de réaliser "le Grand Chelem de la fibre en six mois", selon les termes du directeur exécutif de l'opérateur historique, Pierre Louette. "Nous sommes le seul opérateur à avoir signé un accord "global" avec Orange, c'est-à-dire concernant l'ensemble du territoire et non pas seulement certaines zones", a pour sa part déclaré à l'Agence France-presse Didier Casas, secrétaire général de Bouygues Telecom.

Le Monde

Au moins 17 cases pour les sudokus
Vendredi, 20/01/2012 - 05:40

Le nombre minimal de cases préremplies pour que le sudoku n'ait qu'une seule solution a été déterminé.

Quel est le nombre minimal de cases d'un sudoku qui doivent être préremplies si l'on veut que le casse-tête n'ait qu'une seule solution ? La réponse est 17 (sur 9 x 9 = 81 cases). On s'en doutait depuis quelque temps, mais Gary McGuire, du Trinity College de Dublin, en Irlande, aidé par Bastian Tugemann et Gilles Civario, l'a prouvé.

La méthode a consisté à effectuer une recherche systématique, par ordinateur, à l'aide d'un algorithme développé par G. McGuire. Plus précisément, la tâche comportait trois étapes. La première était de cataloguer toutes les grilles de sudokus complètement remplies et qui sont vraiment distinctes (c'est-à-dire qu'elles ne se déduisent pas l'une de l'autre en permutant les lignes, en faisant une symétrie, etc.). Il y a ainsi 5 472 730 530 grilles distinctes, parmi les quelque 6,7 x 1021 grilles possibles. Deuxième étape : écrire un programme, nommé checker, qui recherche efficacement, au sein d'une grille complète donnée, les sudokus à 16 cases préremplies et dont la seule solution est la grille donnée. Troisième et dernière étape : passer en revue toutes les grilles complètes à l'aide de ce programme.

Cette recherche exhaustive n'a trouvé aucun sudoku à 16 cases ayant une solution unique, ce qui prouve qu'un sudoku à solution unique doit avoir au moins 17 cases préremplies. On connaissait effectivement de nombreux exemples de sudokus à 17 cases préremplies et dont la solution est unique, et aucun à 16. Mais cela ne signifie pas pour autant que tous les sudokus à 17 cases préremplies ont une solution unique !

Pour La Science

^ Haut
Avenir
Nanotechnologies et Robotique
Les robots entrent à l'étable !
Mercredi, 25/01/2012 - 00:00

Il y a trois ans, en 2009, Jean-Pierre Le Gonidec et sa femme Véronique ont installé un robot de traite dans leur élevage, l'EARL du Bourg-Blanc. Début 2012, Jean-Pierre tire un bilan positif de son investissement. « Le robot fonctionne vingt-quatre heures sur vingt-quatre. Ça nous soulage et nous laisse énormément de temps libre. » Révolu, le temps de la traite matin et soir. Désormais, la vache se présente quand elle le décide. Le robot la reconnaît grâce à un collier, il sait si elle est déjà venue à la traite ou non. Il détecte la présence de germes ou bactéries dans le lait. « Il peut même trier le lait quand une vache vient d'avoir son veau, le réserver pour le veau ensuite. »

Pour inciter la vache à la traite, une récompense alimentaire est donnée lors de la traite. « C'est pour ça qu'elles reviennent, mais si elle a déjà donné son lait, elle n'est pas traite et n'aura pas d'aliment. » En 2009, l'investissement était de 150 000 €. « J'ai investi sur dix ans, mais si je veux, en deux jours il est vendu. Il y a un marché de l'occasion énorme. Je peux aussi en racheter neuf, avec encore des améliorations. »

La machine fonctionne toute seule. « Il suffit de ne pas se tromper dans la programmation et il n'y a pas de problème. » Pour l'aider et se partager les tâches, Jean-Pierre Le Gonidec a gardé un salarié. « Il y a toujours une permanence assurée. Le robot soulage mais ne remplace pas la présence humaine. »Depuis l'installation du robot il y a trois ans, Jean-Pierre a constaté une meilleure production de lait parmi ses 70 laitières. « La vache est plus calme, la lactation est régulière, l'animal est moins stressé. » La vache se présente à la traite en moyenne plus de deux fois par jour. Elle donne 9 000 litres de lait par an.

« Si le moindre problème est détecté, on est immédiatement prévenu sur le portable, on peut suivre l'activité de l'étable de partout sur Internet, grâce à une caméra. On sait quand une vache va vêler ou est malade. »

Ouest France

Des nano-oreilles pour écouter des cellules, des bactéries et des virus
Mardi, 24/01/2012 - 00:30

Un million de fois plus sensible qu'une oreille humaine, ce microphone invisible à l'œil nu, formé par une particule d'or portée par des faisceaux laser, permettrait d’écouter les bruits émis par des cellules, des bactéries ou des virus. Les écouter donnerait accès à un univers sonore inconnu et offrir un nouveau moyen de les étudier. En médecine, on pourrait par exemple écouter les globules rouges...

L’utilisation de la technologie laser est la source de nombreuses innovations dans les domaines de l'étude du vivant et des nanotechnologies. L’une d’elles a révolutionné la biologie moléculaire. Il s’agit des pinces optiques dont le concept est né en 1986. Un faisceau lumineux monochrome produit par un laser de faible puissance peut maintenir une particule diélectrique en place ou la déplacer sans aucun contact. Les pinces optiques sont communément employées pour injecter puis manipuler de l’ADN à l'intérieur de cellules vivantes.

Elles peuvent également être utilisées pour mesurer des forces agissant sur des corpuscules microscopiques (exprimées en piconewtons). Une fois capturées dans le faisceau lumineux, des instruments peuvent mesurer leurs mouvements éventuels et donc les forces qu’elles subissent.

Le son, lui, a besoin de matière pour se propager. Il provoque des déplacements d’avant en arrière des particules qu’il rencontre dans les milieux qu’il traverse. Pour détecter une onde sonore, il faut donc mesurer ces mouvements d’aller-retour, par exemple sur une particule d’or de 60 nm de diamètre maintenue dans une pince optique. Ce concept a donné naissance aux nano-oreilles développées par Jochen Feldmann et son équipe du groupe de photonique et d’optophotonique de l’université de Munich en Allemagne. Leurs travaux sont publiés dans Physical Review Letters.

  • Nanophones ultrasensibles et directionnels

Ce système de microphones, ou plutôt de nanophones, est un million de fois plus sensible que l’oreille humaine. Il a enregistré des sons jusqu'à -60 dB. Il est aussi directionnel. En faisant passer plusieurs faisceaux laser sur une seule particule, les mouvements vibratoires sont observables en trois dimensions. La direction de propagation du son peut être connue. En utilisant un réseau tridimensionnel de particules d’or maintenues par des faisceaux distincts, il serait possible de déterminer avec précision l’origine du son.

Cette technologie autoriserait l’écoute et l’identification des vibrations acoustiques émises par des cellules, des bactéries ou encore des virus durant leurs déplacements ou leur respiration. Une nouvelle discipline de microscopie acoustique pourrait donc voir le jour. Les méthodes actuelles s'appuient sur le principe des ultrasons médicaux pour voir à l'intérieur de la matière à l’échelle micrométrique. L'emploi des pinces optiques permettrait l’étude non destructive de l’intérieur même des cellules à une échelle pouvant être nanométrique, là où aucune autre technique d'observation n’est utilisable. Il serait par exemple possible de comparer les sons émis par des cellules saines et des cellules malades.

Les applications médicales, bien que prometteuses, n’ont pas encore vu le jour. L’équipe de scientifiques a uniquement réalisé des tests sur des particules d’or en suspension dans de l’eau. Les mouvements d'un corpuscule maintenu par une pince optique ont pu être enregistrés et analysés tandis que d'autres sphères d'or étaient mises en vibration. Les chercheurs ont fait varier les fréquences des vibrations afin de s'assurer qu'ils enregistraient bien le son voulu et non des mouvements de l'eau.

Ils restent optimistes quant à une évolution rapide du procédé vers une application médicale. Les configurations expérimentales doivent cependant être affinées afin de pouvoir discriminer efficacement les nombreux sons qu'une cellule peut produire. Certains se passionnent pour les chants de baleine, d’autres pourront dorénavant se distraire avec les chants de micro-organismes !

Futura Sciences

Un robot-chirurgien pour intervenir sur le cerveau
Mardi, 24/01/2012 - 00:00

Une équipe de chercheurs financée par l'UE a développé un robot capable d'assister des neurochirurgiens pour des micromanipulations chirurgicales dans le cerveau. Ce robot est précis, a une mémoire inouïe et est doté d'une capacité à réaliser 13 types de mouvements (par rapport aux 4 types de la main humaine) ; il offre un retour d'informations «haptiques», des informations physiques permettant aux médecins d'évaluer le tissu et de percevoir la force à appliquer durant l'opération. Le projet ROBOCAST («Robot and sensors integration as guidance for enhanced computer assisted surgery and therapy») a reçu 3,45 millions d'euros au titre du thème «Technologies de l'information et de la communication» (TIC) du septième programme-cadre (7e PC).

Menés par l'université technique Politecnico di Milano en Italie, les partenaires de ROBOCAST ont ciblé le développement de méthodes et techniques scientifiques de TIC pour les micromanipulations chirurgicales cérébrales. Ils ont développé un matériel appelé mécatronique, qui construit le corps et le système nerveux du robot, ainsi qu'un logiciel responsable de l'intelligence du robot. Ce logiciel comprend un robot multiple, un planificateur de trajectoires indépendant, des commandes avancés et un ensemble de capteurs de profondeur de champ.

Le consortium ROBOCAST a développé la phase mécatronique du projet en tant que système modulaire pour deux robots et une sonde biomimétique active. Ces derniers ont été intégrés à un cadre moteur sensoriel pour fonctionner en tant qu'unité.

Le premier robot a la capacité de trouver son compagnon miniature au moyen de six degrés de liberté et se déplace de gauche à droite, de haut en bas et d'avant en arrière. Il peut réaliser trois mouvements rotationnels, en avant et en arrière, d'un côté à l'autre ou de gauche à droite. Tout cela permet de localiser le compagnon du robot n'importe où dans un espace tridimensionnel. Le robot peut également atténuer les tremblements du médecin par un facteur de dix.

Le robot miniature tient la sonde utilisée lors de l'opération. Les partenaires expliquent que des dispositifs de suivi optiques se situent à l'extrémité de la sonde, ainsi que sur le patient. La force appliquée est gérée par le robot, qui contrôle également la position en appliquant une combinaison de capteurs, ce qui permet de déterminer la trajectoire du travail chirurgical.

On a testé la précision du robot au cours d'essais d'opération sur des mannequins. L'équipe pense que le robot peut être utilisé pour assister les chirurgiens à soigner leurs patients atteints d'épilepsie, du syndrome de Tourette et de la maladie de Parkinson. Les chercheurs expliquent que la trajectoire que le robot suit à l'intérieur du cerveau est déterminée sur la base d'un atlas des risques ainsi qu'en fonction de l'évaluation des informations de diagnostic préopératoires.

Cordis

Des chercheurs italiens réalisent des fils électroniques à partir de fils de coton
Samedi, 21/01/2012 - 00:40

Des tissus intelligents qui permettront d'écouter de la musique, ou d'enregistrer le rythme cardiaque, et en même temps faciles à réaliser et simples à porter ont été réalisés pour la première fois. Les chercheurs Annalisa Bonfiglio, Giorgio Mattana (Institut Nanoscience du Conseil National des Recherches et université de Cagliari) et Beatrice Fraboni (Université de Bologne) ont démontré qu'à partir d'un simple fil de coton, il était possible de réaliser des Transistors, ce qui ouvre la voie à la création de vêtements " intelligents ", et " sensibles " et à la possibilité de créer des circuits électroniques en tissus. L'étude a été publiée sur la revue internationale " Organic Electronics ".

Le concept d'" électronique endossable ", depuis l'insertion d'appareil électronique dans les tissus, jusqu'à la réalisation de dispositifs électroniques entièrement en fibres est maintenant vieux de quinze ans. " Il existe déjà sur le marché des " vêtements électroniques ", capables par exemple d'enregistrer le rythme cardiaque de ceux qui le portent, ou bien de détecter d'éventuels facteurs de risques dans l'air ", explique Annalisa Bonfiglio, du centre S3 (nanoStructures et bioSystème de Surface) de l'Institut des Nanosciences du Conseil National des Recherches. " La limite, jusqu'à aujourd'hui, était l'encombrement des dispositifs incorporés dans les tissus et la mauvaise adaptabilité des parties rigides des dispositifs et des connecteurs dans les vêtements. Les tentatives pour réaliser directement des dispositifs électroniques à partir de fibres, se sont en plus heurtées à la faible compatibilité entre les matériels constituants - métaux et semi-conducteurs comme le silicium - et les caractéristiques d'élasticité et de confort nécessaire à un vêtement ".

Le coton, idéal pour réaliser des habits "intelligents" grâce à ses propriétés de flexibilité, d'économie et de commodité, présente la limite de ne pas être conducteur. "Avec nos travaux de recherche, nous avons réussi à obtenir des fibres conductrices à partir de simples fils de coton, tout en préservant le confort et l'élasticité typique de ces tissus", ajoute M. Bonfiglio. "Nous avons atteint cet objectif en développant une technique innovante de revêtement des fils de coton avec une fine couche de nanoparticules d'or et de polymères conducteurs et semi-conducteurs", explique Beatrice Fraboni. "Cet ensemble de couches de différentes matières constitue la structure du transistor, et permet de régler le courant qui circule entre deux électrodes avec la tension envoyée par une troisième électrode. Les transistors se présentent comme de simples fils de coton, et peuvent être reliés entre eux, ou avec d'autres composants de coton, par l'intermédiaire de simple noeuds, les mêmes qui sont utilisés pour tisser le coton". Cette idée a fait l'objet d'un brevet, actuellement en phase de dépôt.

Les applications potentielles sont multiples. "Ces transistors amélioreront la qualité et la réalisation des biocapteurs endossables", conclut Annalisa Bonfiglio. "Dans le futur, nous pourrons obtenir des tissus "intelligents" simples et commodes, capables d'enregistrer le rythme cardiaque, ou la température corporelle, utiles à la réalisation de vêtements pour les travailleurs à risque, les patients et les sportifs".

L'étude commencée à partir des recherches de Mme. Bonfiglio et de Mme. Fabroni, qui effectuaient à l'époque un séjour à l'université américaine Cornell, centre d'excellence sur l'électronique organique, regroupe également Giorgio Mattana et Piero Cosseddu de l'université de Cagliari et la collaboration du Centre Microélectronique de Provence.

Bulletins Electroniques

Après le nettoyage de nos sols, les robots s'attaquent aux carreaux !
Samedi, 21/01/2012 - 00:20

Le robot nettoyeur de vitres e.ziclean Windoro est destiné aux particuliers. Sa sortie est prévue le 1er mars 2012 ; c'est le premier de son genre. Il est décliné en deux modèles, WCR-D001 pour les doubles vitrages (de 16 à 28 mm) et WCR-S001 pour les simples vitrages (de 5 à 15 mm). Si l'épaisseur des vitres est précisée par le constructeur, c'est parce que ce robot "s'accroche" aux parois vitrées grâce à un système magnétique. Une partie se place sur le côté de la vitre à nettoyer, l'autre se positionne de l'autre côté de la vitre. Un puissant système d'aimantation permet au robot de rester accroché sur la paroi. Il pèse tout de même plus de 3 kg (3,2 kg annoncés), d'où l'importance de choisir le modèle adapté à l'épaisseur du vitrage, faute de quoi le robot risque de chuter.

Il se déplace en zig-zag, de la même façon que les aspirateurs robots mais ne propose que ce mode de navigation, contrairement aux aspirateurs qui laissent généralement le choix à l'utilisateur entre trois ou quatre modes. Il suit un parcours en se déplaçant de haut en bas et de droite à gauche. Pour nettoyer, il vaporise une solution nettoyante tout en se déplaçant. Il est équipé de "pads motorisés" qui gèrent le nettoyage de la paroi vitrée et de lingettes microfibres velcro. Selon le constructeur, ce robot serait en mesure de couvrir environ 1 m2 de paroi vitrée en 6 minutes.

Comme les aspirateurs robots, le Windoro dispose d'une base de recharge ; le constructeur promet que l'appareil y retourne automatiquement. E-Zicom annonce une autonomie en nettoyage de 90 minutes et un temps de charge de 150 minutes. La capacité du réservoir du robot est quant à elle de 40 ml. Enfin, si l'émission sonore annoncée par le constructeur se confirme, moins de 60 dB, le robot ne serait pas trop bruyant, moins que la plupart des aspirateurs robots. Il serait donc tout à fait envisageable de le laisser travailler en présence des habitants, sans les déranger.

Les Numériques

^ Haut
Matière
Matière et Energie
Produire de l'énergie à partir d'hydrogène en froissant du graphène
Jeudi, 26/01/2012 - 00:10

Froisser un feuillet de graphène pourrait être la solution pour emmagasiner de l'hydrogène de manière efficace et économique, à des fins énergétiques. Une étude menée par des chercheurs de l'Institut des Nanosciences du Conseil National des Recherches, montre qu'en contrôlant le plissement du graphène, il est possible de lui faire absorber puis libérer de l'hydrogène. Le résultat a été publié dans la revue Journal of Physical Chemistry.

L'hydrogène, qui pourrait être le principal combustible du futur pour une énergie propre et efficiente, est difficile à accumuler et à conserver. Cette problématique occupe de nombreuses équipes de recherche à travers le monde, mais souvent, les solutions proposées se heurtent au problème de la phase finale, lorsque l'hydrogène doit être libéré, car cette manipulation nécessite des pressions et températures très élevées, et entraîne un gaspillage énergétique important.

Valentina Tozzini et Vittorio Pellegrini, du Laboratoire Nest de l'Institut des Nanosciences du Cnr et de l'Ecole Normale Supérieure de Pise, ont démontré grâce à des calculs théoriques et des simulations, que le contrôle du plissement du graphène, matériel formé par une seule couche d'atomes de carbone disposés en nids d'abeilles en treillis (découverte qui a valu le prix Nobel de Physique en 2010 à Andre Geim et Konstantin Novoselov), permet de libérer l'hydrogène, même dans des conditions de pression et de températures normales.

Les calculs des chercheurs indiquent que lorsqu'une couche de graphène est compressée latéralement de manière à former des plis, l'hydrogène adhère chimiquement aux extrémités de ces sinuosités. En décalant les plis, de manière analogue au mouvement d'une vague, les anfractuosités se déplacent et l'hydrogène se retrouve dans une zone concave où l'adhésion est défavorisée. Ce mécanisme combiné à l'effet dynamique de la formation de vagues, provoque la libération de l'hydrogène. " L'hydrogène a une forte affinité pour les zones convexes du graphène, et très peu pour celles concaves ", explique Valentina Tozzini, " car l'énergie du lien est proportionnelle à l'incurvation du treillis atomique. Une fois capturé sur les extrémités, il est possible de libérer l'hydrogène en inversant l'incurvation. C'est un peu comme secouer un tapis de graphène plein de poussière d'hydrogène".

Techniques de l'Ingénieur

L'automobile, énergie du futur !
Jeudi, 26/01/2012 - 00:00

"Le débat sur l'énergie se focalise presque toujours sur la question de la disponibilité. Combien reste-t-il d'énergie fossile disponible ? Combien de foyers une station d'énergie éolienne peut-elle fournir en énergie ? Alors qu'en fait le débat devrait plutôt être orienté vers la question de nos besoins énergétiques quotidiens : comment chauffer correctement une maison, un oeuf à la coque, une tonne d'acier, et quelles sont les manières de répondre à ces besoins en calculant exactement l'énergie produite par ces systèmes, énergie qui pourrait en fait être réutilisée", a déclaré Ad van Wijk, professeur à l'Université de Technologie de Delft. En fait, il n'y a pas de pénurie d'énergie. "Nous pouvons considérablement améliorer l'efficacité énergétique - nous en gaspillons actuellement environ 98 % - et devons garder à l'esprit que le plus important est que les énergies renouvelables sont disponibles indéfiniment."

A la TU Delft, des scientifiques, des étudiants et des entreprises collaborent afin de réfléchir sur l'efficacité des systèmes énergétiques, des énergies renouvelables, et sur leur évolution future. Ces recherches sont rendues possibles grâce au campus vert initié par Van Wijk : "Grâce à un certain nombre de projets innovants, nous développons le campus de la TU Delft en un site où le développement durable dynamique occupe une place essentielle. Il s'agit ici de découvrir, d'apprendre et d'inspirer.

Par exemple, un parking peut servir de lieu de stockage d'énergies durables. Initialement, le parking constitue un lieu de rechargement pour les véhicules électriques ". Van Wijk avance que les piles à combustible qui équipent les véhicules génèrent à leur tour de l'électricité. Pour 500 voitures garées, cela correspond à une centrale de 40 MW. " Un bonus conséquent pour les propriétaires des voitures qui sont alors rémunérés pour stationner leur véhicule ". Van Wijk prédit que la voiture à pile à combustible deviendra dans un futur proche une nouvelle source de production d'électricité, efficace et flexible. "En un an, nous pourrions acheter plus d'électricité produite par nos voitures que la capacité électrique totale des Pays-Bas ".

Bulletins Electroniques

CES 2012 : Intel dévoile sa plate-forme pour smartphones
Mercredi, 25/01/2012 - 00:20

Intel a annoncé sur le CES ses premiers clients pour le marché des smartphones, signalant ainsi son arrivée sur ce segment après des années de lutte acharnée. Lenovo et Motorola lanceront des terminaux mobiles équipés des prochaines puces Atom d'Intel, connues sous le nom de code Medfield, a déclaré Paul Otellini, PDG d'Intel, lors d'une présentation réalisée durant le Consumer Electronics Show. « Le meilleur de la technologie Intel va désormais arriver sur les smartphones », a-t-il assuré.

Le smartphone Lenovo K800 présenté sur scène lors de la keynote sera le premier équipé d'une puce x86 basse consommation. Doté d'un écran de 4,5 pouces capable d' afficher des vidéos en 720 ppp, ce modèle est animé par un processeur Atom Z2460 cadencé à 1,6 GHz. Il sera d'abord commercialisé sur le marché chinois par l'intermédiaire de China Unicom dans le courant du deuxième trimestre de cette année. Ce terminal reposera sur l'environnement Lenovo LeOS. Intel a également annoncé qu'il collaborerait avec Motorola Mobility, désormais dans le giron de Google, sur le marché des smartphones et des tablettes. Le premier terminal de l'américain devrait être annoncé au cours du second semestre 2012.

« La puce d'Intel pour smartphones sera compétitive en termes de puissance et elle excellera en performance », a pour sa part déclaré Mike Bell, vice-président et directeur général de la division wireless mobile d'Intel. D'après lui, les smartphones possédant une puce Z2460 offriront une autonomie de 8 heures pour des appels vocaux en 3G, 6 heures pour le décodage vidéo HD, 5 heures de navigation 3G, et un temps de veille de 14 heures.

Le Monde Informatique

Développement accéléré des Energies Nouvelles Réparties : un « investissement », pas un coût
Mardi, 24/01/2012 - 00:40

Sous-titré « la contribution du Syndicat des énergies renouvelables au débat relatif à la politique énergétique », le Livre blanc des énergies renouvelables, présenté le 19 janvier, souligne en préambule que les ENR « constituent un marché mondial en forte croissance malgré la crise ».

Ce Livre devrait être largement commenté le 7 février prochain, jour du colloque annuel du SER (Syndicat des Energies Renouvelables). En présentant à la presse, jeudi 19 janvier,  son Livre blanc des énergies renouvelables, document très attendu, c’est un message clair et fort qu’a voulu lancer le président du SER, Jean-Louis Bal .

Le développement de ces énergies au-delà de l’objectif de 23 % en 2020 fixé par le Grenelle de l’Environnement aura certes un coût : « 5 milliards d’euros dans l’année 2020 comme contribution à la CSPE », soit, pour le consommateur, une facture d’électricité augmentée de 12 % d’ici à 2020. Certes, mais, a-t-il déclaré avec force, c’est « un investissement qui rapporte » et il ne faut donc pas le considérer comme un coût.

La CRE a évalué tout récemment à 2,2 mds d’euros les charges de service public de l’électricité prévisionnelles pour l’année 2012 dues au développement des énergies renouvelables, dont 1,5 md pour le photovoltaïque. Sur les 66 euros de CSPE totale d’une facture d’électricité moyenne pour 2012, 24 euros devraient représenter la subvention à l’électricité photovoltaïque, a précisé le Médiateur de l’énergie.

  • 1/3 d’énergies renouvelables dans la consommation finale d’énergie d’ici 2030

À la clé, une part de 25 % pour les ENR en 2020, que le SER juge réalisable : 125 000 emplois créés d’ici l’échéance, 3,4 milliards d’euros de solde positif sur la balance commerciale et 20 millions de tonnes de CO2 évitées. Les projections pour 2030 « qui prolongent les courbes entre 2012 et 2020 », suggèrent même que l’on pourrait atteindre une part d’énergies renouvelables d’au moins un tiers dans la consommation finale d’énergie. Mais atteindre, déjà, l’objectif de 2020, suppose, pour le Syndicat, la mise en place de 12 propositions en 49 outils concrets. Donner un nouveau souffle à l’éolien terrestre ; « reconstruire la filière photovoltaïque » – le mot est pesé, dit Jean-Louis Bal – ; franchir les barrages qui menacent le développement de l’hydroélectricité ; amplifier l’essor de la chaleur renouvelable en doublant les 250 millions d’euros alloués au Fonds Chaleur quand le Grenelle préconisait 800 M€.

  • Photovoltaïque : une filière à reconstruire

Le photovoltaïque, on le sait, est mal en point. « Malgré les chiffres impressionnants de puissance raccordée, 2011 a été assez destructrice pour la filière », rappelle le président du SER, chiffres à l’appui. Fin 2010, le secteur employait 25 000 personnes, fin 2011 quelque 18 000. 7 000 emplois détruits ! Le syndicat demande d’inscrire un objectif de 20 000 MW en 2020 dans la prochaine programmation pluriannuelle des investissements (PPI).
Pourtant le bilan 2011 montre une capacité photovoltaïque mise en exploitation de 1 300 MW, selon le bilan de RTE rendu public jeudi  19 janvier. Pour la première fois, la capacité PV 2011 a été supérieure à celle de l’éolien, qui affiche un bien « pauvre » 875 MW (toujours selon RTE). Au total, les parcs installés de photovoltaïque et d’éolien atteints à fin 2011 respectivement 2 230 MW et 6 640 MW. Les taux de couverture de la consommation par la production de ces deux énergies renouvelables ont été respectivement de 0,5 % (0,1 % en 2010) et 2,5 % (1,9 % en 2010).

  • Hydroélectricité : un potentiel fort dans certaines régions

Côté hydroélectricité, les colloques se multiplient sur la procédure de renouvellement des concessions, ironise pour sa part Anne Penalba, présidente de France hydro-électricité. Mais l’atteinte des 3 TWh supplémentaires identifiés comme objectif par le Grenelle à l’horizon 2020 est « très très mal partie ». En raison de la superposition des couches réglementaires (« il s’en rajoute tous les mois sous une forme ou une autre »), d’une part. De la déclinaison régionale des responsabilités d’autre part : les demandes doivent être inscrites dans les schémas régionaux climat-air-énergie, d’un côté, dans la loi sur l’eau, de l’autre (elles relèvent donc alors des comités de bassin). Du fait de la difficulté de mettre en cohérence ces demandes, « nous craignons un blocage total du potentiel », insiste-t-elle. Pourtant, la profession a recensé un potentiel sur certaines régions, les plus propices à cette énergie, de 10,2 TWh à la fois sur des sites vierges et sur des barrages existants.

Le Moniteur

Syndicat des Energies Renouvelables

Alstom et SSE développent le plus grand projet d'énergie marine
Mardi, 24/01/2012 - 00:10

Le groupe industriel français Alstom et le fournisseur britannique d'énergie Scottish and Southern Energy (SSE) vont développer un projet présenté comme le plus grand au monde utilisant l'énergie des vagues, a indiqué Alstom.

Un accord a été signé entre Alstom et SSE Renewables, la branche énergies renouvelables de SSE, pour créer une société commune chargée de développer le projet Costa Head, situé au nord de Mainland, île principale de l'archipel des Orcades en Ecosse, d'une capacité de production de 200 mégawatts (MW), indique le communiqué. Le site, d'une profondeur de 60-75 mètres, exploitera la force des vagues pour produire d'abord 10 MW environ, lors d'une première phase dont la mise en service est prévue en 2016, a précisé un porte-parole d'Alstom. La société écossaise AWS Ocean Energy, dans laquelle Alstom a pris une participation de 40 % en juin 2011, sera chargée de développer la technologie de conversion de l'énergie.

La technologie AWS-III se base sur des convertisseurs composés de cellules interconnectées qui transforment la force des vagues en énergie pneumatique par compression de l'air, cette énergie étant ensuite convertie en électricité. Ce système est immergé, indique le porte-parole d'Alstom.

SSE avait remporté en mars 2010 un appel d'offre aux côtés des groupes d'énergie allemand EON et Scottish Power, filiale du groupe espagnol Iberdrola, en vue d'exploiter des gisements d'énergie marémotrice et marine en Ecosse. Le Crown Estate, agence qui gère le domaine public au Royaume-Uni, avait désigné ces trois groupes pour développer 10 sites situés autour des îles Orcades (dans le nord-est de l'Ecosse).

Depuis plusieurs années, le Portugal teste lui aussi sur différents sites, en collaboration avec des partenaires étrangers, des technologies utilisant l'action du vent sur la mer. Une centrale houlomotrice présentée comme étant la première au monde avait toutefois dû être démontée peu de temps après son inauguration en 2008, à cause de problèmes techniques.

Alstom

Sony présente une nouvelle technologie d'écran TV
Lundi, 23/01/2012 - 00:00

Le géant japonais adapte la technologie d’affichage public à écran électroluminescent à LED à l’univers de la télévision. Une alternative simple et mature à la technologie Oled.

Au CES, le salon d’électronique grand public qui s'est tenu à Las Vegas du 10 au 13 janvier 2012, LG et Samsung ont fait sensation en présentant chacun un téléviseur à écran Oled de 55 pouces, ouvrant la voie à une troisième technologie d’affichage dans la télévision aux cotés des technologies actuelles LCD et plasma.

Sony riposte en dévoilant une autre voie inédite dans l’univers de la télévision : Crystal LED. Elle utilise un écran électroluminescent à LED directes. Cette technologie existe déjà dans les écrans géants d’affichage public, comme ceux utilisés dans les stades, les gares ou les aéroports. Attention, il ne faut pas la confondre avec la technologie actuelle de télévision LCD à rétroéclairage LED que beaucoup appellent à tort télévision LED. Ici, il n’y a ni LCD ni rétroéclairage. Les LED constituent directement l’image. Chaque pixel fait appel à trois LED : une rouge, une verte et une bleue, à partir desquelles toutes les teintes sont formées par mélange.

Curieusement, l’écran de Sony mesure 55 pouces de diagonale, comme chez LG et Samsung. Il réunit 6 millions de LED pour une résolution en pleine définition (1920 x 1080 pixels). Il offre une luminosité de 400 Cd/m2, un angle de vue de 180 degrés (comme dans le tube cathodique et l’écran plasma) et une gamme de couleurs supérieure à 100 % du spectre standard NTSC. Il consommerait seulement 70 W, l’équivalent de la consommation d’un téléviseur à rétroéclairage LED de 40 pouces actuel.

Par rapport à la télévision Oled, cette technologie offrirait l’avantage de la maturité, d’une durée de vie largement supérieure (plus de 40 000 heures) et d’une production a priori plus simple. Le constructeur japonais n’indique ni le coût ni la date de lancement. Seul inconvénient : Sony semble pour le moment être le seul à explorer cette voie.

Industrie & Technologies

Matériaux fragiles : les fissures vont moins vite que prévu !
Dimanche, 22/01/2012 - 00:40

Des chercheurs du CEA-IRAMIS et des laboratoires SVI (CNRS/Saint-Gobain) et LTDS (CNRS/Ecole Centrale de Lyon/Ecole Nationale d’Ingénieurs de Saint-Etienne), viennent de démontrer que lors de la fracture d'un matériau fragile, la vitesse des fissures est quatre fois moins élevée que ce que l’on soupçonnait théoriquement. Tant du point de vue de ses résultats que de la méthodologie employée, cette étude devrait bénéficier aux nombreux travaux en science et ingénierie des matériaux. Elle fait l’objet d’un article qui vient d'être publié dans la revue PNAS.

Les matériaux fragiles, par exemple le verre, se cassent par propagation de fissures. Prévoir le comportement à la rupture de tels matériaux nécessite notamment de connaître la vitesse d'avancée de la fissure et de comprendre les facteurs dont elle dépend. Jusqu’à présent, les connaissances théoriques se fondaient sur une vitesse maximale égale à celle des ondes acoustiques de surface dans le matériau, dite « vitesse de Rayleigh ». Les chercheurs qui ont travaillé à l’étude relatée dans PNAS ont montré que la vitesse des microfissures engendrées sur des défauts du matériau et observées à une échelle suffisamment fine pour pouvoir être isolées les unes des autres, est en fait quatre fois plus faible qu’attendu ! C'est par un effet géométrique de rencontre de ces multiples microfissures que la fracture globale est finalement si rapide.

Pour obtenir ce résultat, les chercheurs ont cassé des échantillons de plexiglas® en variant la force effectivement appliquée pour ouvrir la fissure. Ils observent logiquement que l'échantillon se rompt d'autant plus vite que la force appliquée est élevée. Au-delà d’une certaine vitesse de rupture, la propagation de la fissure s’accompagne de la naissance, sur de minuscules défauts toujours présents dans le matériau, d'une multitude de microfissures en avant du front de fissure principal. Ces microfissures se créent au rythme de centaines de millions par seconde (soit un temps caractéristique de 10 nanosecondes), ce qui rend impossible leur suivi en temps réel au cours de l’expérience. Cependant chaque microfissure laisse son empreinte sur les surfaces de rupture que les chercheurs ont tout le temps d’analyser après l’expérience.

Les chercheurs ont ainsi pu reconstruire en détail la série d’événements ayant amené à une rupture rapide. Il est en effet possible, à partir de la géométrie du réseau d’empreintes, de déterminer le point origine de chacune des microfissures, la chronologie de leurs naissances, et finalement la vitesse à laquelle chacune s'est développée.

Leurs observations remettent en cause la vision classique de la rupture d’un matériau. Surprise, toutes les microfissures se propagent à la même vitesse, d’environ 200 m/s, indépendamment du niveau de force appliquée pour ouvrir la fissure principale (pour une vitesse de Rayleigh de l'ordre de 900 m/s). Ce comportement observé à l'échelle microscopique est très différent de celui observé à grande échelle, où la vitesse de fracture augmente avec la force, et peut atteindre des valeurs bien supérieures pouvant atteindre 500 m/s. C'est en fait par la coalescence des microfissures avec la fissure principale, que la vitesse de fissuration apparente est augmentée. Ces résultats contredisent l’opinion qui prévalait jusque-là dans la communauté scientifique, selon laquelle la génération de microfissures, en dissipant un surcroît d’énergie, ralentirait la fracture.

Cette étude souligne le rôle important que jouent les défauts microscopiques présents dans un matériau sur son comportement en rupture. La prise en compte de ces effets doit permettre de mieux apprécier, et à terme d’améliorer, la résistance à la rupture des matériaux. Au-delà de cet aspect fondamental, la méthodologie développée pour reconstituer en détail l’histoire des événements se produisant au cours de la rupture, pourrait trouver des applications importantes. L’analyse des empreintes laissées sur les surfaces de rupture pourrait fournir, par exemple, des indications sur les causes de l’effondrement d’une structure.

CEA

Premier limiteur de courant de défaut supraconducteur résistif
Dimanche, 22/01/2012 - 00:30

Le spécialiste du câble Nexans, a annoncé récemment avoir mis en service avec succès le premier limiteur de courant de défaut supraconducteur (SFCL) résistif au monde reposant sur des rubans supraconducteurs de 2ème génération.

Un SCFL de première génération, composé de matériaux supraconducteurs massifs, avait été installé par Nexans à Boxberg en 2009 dans le cadre d'un programme de tests de longue durée. Après avoir mené à bien ce projet, le Groupe est de retour à la centrale pour tester un nouveau système SCFL à base de rubans supraconducteurs.

Le SFCL, équipé d'éléments supraconducteurs développés en coopération avec le Karlsruhe Institute of Technology (KIT), a été installé pour le compte de Vattenfall Europe Generation AG afin d'assurer une protection contre les courts-circuits de l'alimentation en moyenne tension des concasseurs de la centrale à lignite de Boxberg en Saxe (Allemagne).

Les rubans réduisent d'environ 90 % les pertes déjà faibles dans le matériau conducteur, et donc les coûts d'exploitation. En outre, ils réagissent encore plus rapidement à un court-circuit que les matériaux de première génération.

« Nous disposons désormais d'une seconde option de matériau supraconducteur pour la fabrication de systèmes d'énergie, ce qui ouvre la voie à un éventail encore plus large d'applications pour nos limiteurs de courant de défaut afin d'aider nos clients à renforcer la sécurité de leur personnel et de leur équipement tout en réduisant leurs coûts d'infrastructure. La modernisation et l'expansion des réseaux d'énergie en vue de répondre aux besoins en évolution rapide de nos clients exigent des solutions intelligentes et de nouvelles fonctionnalités », a expliqué Jean-Maxime Saugrain, Directeur Technique de Nexans. « Cette installation dans une centrale ne constitue que l'une des nombreuses applications potentielles de la technologie SCFL. Par exemple, dans le secteur des énergies renouvelables, la capacité à fournir plus de puissance est souvent bridée par le niveau des courants de court-circuit. »

  • Rapidité de réaction aux courants de court-circuit

Le limiteur de courant fonctionne selon un principe similaire à un disjoncteur basse tension dans les habitations, mais au niveau du réseau moyenne/haute tension. De plus, une fois déclenché, il n'interrompt pas entièrement le flux d'électricité. En temps normal, ses éléments supraconducteurs laissent passer le courant pratiquement sans résistance. Si un niveau critique de courant est dépassé, par exemple en cas de court-circuit, le conducteur quitte son état supraconducteur en l'espace de quelques millisecondes pour se transformer en une résistance électrique élevée. Seul un courant résiduel défini précisément continue alors à passer, ce qui permet au système de protéger l'ensemble des composants en aval, tels que les disjoncteurs, contre une surcharge susceptible de les endommager.

L'un des principaux avantages du SFCL réside dans sa sécurité intrinsèque : en effet, il réagit à un court-circuit sans avoir besoin d'un signal de déclenchement externe. A la différence des systèmes pyrotechniques qui doivent être remplacés après déclenchement, il peut revenir en mode normal dès que le court-circuit a disparu et que le matériau retrouve son état supraconducteur.

Le nouveau SCFL est conçu pour un courant nominal de 560 A à 12 000 V, mais autorise également le bref passage de courants allant jusqu'à 2700 A sans se déclencher. Il s'agit d'une condition essentielle pour que les concasseurs puissent tirer sans problème un courant élevé lors de leur démarrage.

  • Au cœur du limiteur, des conducteurs déposés

Le nouveau limiteur de courant emploie des rubans supraconducteurs en YBCO (oxyde mixte d'yttrium, de baryum et de cuivre), également appelés « conducteurs déposés ». A des températures inférieures à -180°C, la mince couche de céramique devient supraconductrice et offre une conductivité électrique environ 10 000 fois supérieure à celle du cuivre.

Les composants limiteurs de courant à rubans supraconducteurs de deuxième génération ont été développés au cours des deux dernières années dans le cadre du projet ENSYSTROB. Les partenaires du projet sont Nexans SuperConductors GmbH, le KIT, les universités technologiques de Cottbus et de Dortmund ainsi que le groupe énergétique Vattenfall. Le Ministère fédéral allemand de l'Economie et de la Technologie (BMWi) a cofinancé le projet à hauteur d'environ 1,3 million d'euros.

Enerzine

Efficacité énergétique : la grande distribution ferme ses frigos !
Dimanche, 22/01/2012 - 00:00

La distribution alimentaire s'engage pour économiser l'équivalent de la consommation annuelle d'électricité d'une ville comme Lyon ! Nathalie Kosciusko-Morizet, ministre de l'Écologie, et Jacques Creyssel, délégué général de la Fédération du Commerce et de la Distribution (FCD), ont en effet signé récemment une convention par laquelle les enseignes de la distribution alimentaire s'engagent à fermer, d'ici à 2020, 75 % des meubles frigorifiques destinés aux produits frais.

Première source de consommation électrique, la consommation des rayons frais représente près de la moitié de l'énergie consommée par les magasins. Leur fermeture par des portes permettra une réduction de 50 % de leur consommation d'énergie (étude PERIFEM-ADEME), tout en améliorant le confort des clients en leur évitant la sensation de froid dans les rayons.

L'engagement approuvé par Auchan, Carrefour, Casino, Cora, Francap, Monoprix, Simply Market et Système U vaut pour tous les formats de magasins : hypermarchés, supermarchés et commerces de proximité. Les affiliés seront invités à rejoindre la démarche. Cette convention sera également signée par Intermarché dans les prochains jours.

Afin de favoriser le déploiement de la démarche, le Gouvernement a rendu éligible la fermeture des meubles frigorifiques avec des portes en double vitrage aux certificats d'économies d'énergie (CEE), ce qui constitue une incitation supplémentaire à privilégier les solutions énergétiquement les plus efficaces.

Bioaddict

Un bit d’information stocké sur 12 atomes
Vendredi, 20/01/2012 - 05:10

Dans un article publié dans la revue Science, des chercheurs d’IBM ont annoncé être parvenus à repousser les limites de la miniaturisation en stockant un bit (c’est-à-dire un 0 ou un 1) sur 12 atomes. Une densité largement supérieure à celle des disques durs actuels qui requièrent un million d’atomes par bit.

Bien que la technologie actuelle des transistors permette de réduire année après année leur coût, tout en augmentant leur densité et leur efficacité, cette évolution est confrontée à terme à des limites physiques. Les chercheurs d’IBM ont donc décidé de faire le cheminement inverse en partant du plus petit élément disponible : l’atome. En exploitant une forme particulière de magnétisme, appelée ferromagnétisme, les scientifiques pensent qu’il sera possible dans le futur de développer des nanostructures stockant 100 fois plus d’informations dans le même espace.

Déjà utilisés pour le stockage magnétique, les ferro-aimants ne pouvaient être réduits à des dimensions atomiques en raison de l’effet de leur champ magnétique sur les atomes voisins. A l’aide d’un microscope à effet tunnel, les chercheurs ont cependant réussi à regrouper 12 atomes stockant un bit pendant plusieurs heures à basse température, et donc à densifier le stockage sans affecter les atomes voisins.

CH News

Quand les leds récupérent l'énergie solaire !
Vendredi, 20/01/2012 - 05:00

La société Giga-concept est le distributeur exclusif en France du Gigaled (Sphelar), une LED solaire qui contrairement aux panneaux solaires classiques, dispose d'une forme sphérique permettant de produire de l'électricité à toute heure de la journée. Compacte, cette led mesure uniquement 1,8 mm de diamètre et possède de par sa conception une directivité très faible. Par ailleurs, sa forme arrondie lui permet de produire de l'électricité de manière optimale et de résister aux chocs, à la poussière et aux intempéries.

A la différence des panneaux solaires classiques, la Gigaled ne doit pas nécessairement être orientée selon la position du soleil et peut être connectée en parallèle ou en série. Sa surface sphérique lui permet d'atteindre un niveau de rendement très intéressant. En effet, d'après Giga-Concept, le taux atteint 42 % contrairement au panneau solaire classique qui affiche 17%.

Disponible sous plusieurs formes, le Gigaled peut être utilisé seul (Sphelar one), par groupe de 12 (Sphelar F12), sous forme d'un dome (Gigaled dome ou Gigaled mini dome) ou encore en une seule rangée de 6 à 12 leds (Gigaled cylinder).

Le dispositif à LED a été conçu pour faire fonctionner toutes les nouvelles applications mobiles intégrant les nouvelles générations de processeurs à faible consommation d'énergie. Les cellules solaires photovoltaïques Sphelar sont adaptées par exemple pour suivre le rythme cardiaque, évaluer la température ou encore économiser les batteries des appareils portables tels que les téléphones mobiles, les GPS, les tablettes, les lecteurs MP3, etc.

Enerzine

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les Finlandais étudient comment le changement climatique affecte la nature
Jeudi, 26/01/2012 - 00:40

Une équipe de chercheurs de Finlande étudie l'impact du changement climatique sur la nature ainsi que les différentes sphères qui en dépendent, à savoir l'agriculture, la sylviculture, la pêche et le tourisme. L'étude est financée dans le cadre du projet VACCIA («Vulnerability assessment of ecosystem services for climate change impacts and adaptation»), soutenu au titre du programme EU LIFE+. Les résultats de l'étude seront publiés à destination des décideurs politiques, de l'industrie et du public général et offriront à la Finlande le soutien nécessaire pour s'adapter au changement climatique.

Près de 100 experts de l'institut finlandais pour l'environnement, l'institut finlandais de météorologie et les universités d'Helsinki, de Jyväskylä et d'Oulu, ont contribué à cette étude. Ils ont prédit que le climat en Finlande se réchauffera au cours de l'hiver plutôt que pendant l'été.

Pendant les mois d'été, les Finlandais seront confrontés à des jours plus chauds et des périodes de chaleur plus longues. L'hiver thermique, la période telle que déterminée sur la base des températures, sera plus bref. Dans leur étude, l'équipe a mis en évidence plusieurs villes, dont Helsinki et Lahti, ainsi que les centres touristiques de Kuusamo et de Sotkamo. Ils ont également étudié les effets du changement climatique et des possibilités pour le changement dans des divers environnements au sein des régions forestières, agricoles et de bassins hydrographiques. Les chercheurs font remarquer que le tourisme devra s'adapter au manque de neige et de glace dans la région.

«Des précipitations changeantes, des hivers plus courts et plus chauds, ainsi qu'une diminution du couvert neigeux pourrait changer considérablement les conditions préalables pour le tourisme de nature dans le nord de la Finlande», commente le professeur Hannu I. Heikkinen de l'université d'Oulu en Finlande, responsable de la section tourisme du projet. «Les centres touristiques dans le nord, tels que la station de ski Vuokatti près de Sotkamo, se demandent d'ors et déjà si les incertitudes sur le climat hivernal pourraient être réduites en élargissant les solutions couvertes, telles que les tunnels de ski ou les stades de glace», ajoute-t-il.

«On prévoit déjà de produire de l'énergie nécessaire pour un hiver local artificiel, par l'utilisation de chaleur du sol et de la bioénergie. Une autre adaptation évidente serait de développer un tourisme à l'année et les options de programme. Cela améliorerait également l'efficacité du secteur du tourisme tout en atténuant le stress sur l'environnement et la société.»

L'équipe suggère également qu'à mesure que le climat se réchauffe, il sera plus simple de cultiver des espèces et des variétés à haut rendement nécessitant une période de croissance plus longue. Les résultats de l'étude mettent en lumière que le changement climatique affecte la sélection des cultures commerciales, les secteurs de production et l'utilisation d'engrais et de pesticides, entre autres.

«Les conditions climatologiques changeante augmentent la vulnérabilité de l'agriculture», explique le professeur Juha Helenius du département d'agronomie de l'université d'Helsinki. «Les exploitations agricoles ont toujours dû s'adapter aux conditions météorologiques fluctuantes mais, entre agriculteurs, une augmentation de la variabilité des périodes de croissance et la fréquence d'événements climatiques extrêmes nécessite une adaptabilité économique accrue face aux grandes variations en termes de cultures et de qualité de culture.»

Les estimations de modélisations montrent également que la sylviculture et la pêche seront considérablement touchées par ces conditions changeantes.

Cordis

Le réchauffement climatique risque de réduire la croissance chinoise
Jeudi, 26/01/2012 - 00:20

Le réchauffement climatique mondial menace la prospérité de la Chine en limitant les récoltes, en réduisant le débit des cours d'eau et en provoquant davantage de sécheresses et d'inondations, conclut le gouvernement chinois dans sa dernière évaluation des risques écologiques pesant sur le pays. Ces avertissements sont contenus dans le «Deuxième rapport national d'évaluation sur les changements climatiques», qui résume l'état des connaissances de la communauté scientifique sur les conséquences et les coûts du réchauffement mondial pour la Chine - la deuxième économie du monde et le premier émetteur de gaz à effet de serre (GES).

«La Chine est confrontée à une situation écologique et environnementale extrêmement sombre du fait de l'impact du réchauffement climatique mondial et des modifications de l'environnement sur son territoire», lit-on dans ce rapport de 710 pages. Les émissions de dioxyde de carbone par la Chine ne commenceront à diminuer qu'après 2030 environ, et ne baisseront véritablement qu'après le milieu du XXIe siècle, prévoit ce rapport.

Si des mesures efficaces ne sont pas prises pour contrer le réchauffement climatique, la production céréalière de la Chine pourrait diminuer de 5 % à 20 % d'ici à 2050. Une telle diminution pourrait cependant être évitée par une amélioration des pratiques agricoles ainsi que par un surcroît d'irrigation et d'engrais, apprend-on. Le rapport a été rédigé par plusieurs équipes de scientifiques supervisées par des responsables gouvernementaux, et il fait suite à une première évaluation rendue publique en 2007.

Selon les différents scénarios retenus pour ce qui est du niveau des gaz à effet de serre et de leur impact, la température moyenne de la Chine devrait augmenter d'ici la fin du siècle de 2,5 à 4,6 degrés Celsius par rapport à la moyenne de la période 1961-1990. «Les changements climatiques vont entraîner de graves déséquilibres pour ce qui est des ressources en eau de la Chine au fil des années. Dans la majeure partie des régions, les précipitations se concentreront de plus en plus sur les saisons des pluies - l'été et l'automne - et inondations et sécheresses seront de plus en plus fréquentes», lit-on.

«Depuis les années 1950, plus de 82 % des glaciers reculent, à un rythme qui s'est accéléré depuis les années 1990», lit-on à propos des glaciers chinois au Tibet et des zones montagneuses proches, qui alimentent de grands fleuves ou rivières. Dans les zones côtières basses, la montée du niveau de la mer va exercer une pression sur les grandes villes et les régions exportatrices de l'Est chinois, qui sont le fer de lance de l'industrialisation du pays. De 1979 à 2009, le niveau de la mer a monté de 11,5 centimètres sur le littoral proche de Shanghai. Dans les trente ans à venir, il pourrait encore monter de 10 à 15 centimètres. Or, note le rapport, les efforts de la Chine pour protéger les zones côtières vulnérables par des digues ne sont pas adaptés à la situation. Et selon le rapport, leur vulnérabilité aux typhons et aux inondations risque d'augmenter du fait du réchauffement climatique.

20 minutes

L'Amazonie pourrait devenir émettrice de CO2 !
Mardi, 24/01/2012 - 00:20

Selon une étude publiée le 18 janvier 2012 dans "Nature", l'Amazonie, longtemps présentée comme le "poumon vert" de la planète, pourrait devenir contributeur net de CO2 à cause de la déforestation. S'appuyant sur l'ensemble des travaux récents, Eric Davidson, du Woods Hole Research Center, dans l'Etat du Massachusetts (Etats-Unis), souligne que l'Amazonie est entrée dans une phase de en transition sous l'effet des activités humaines : au lieu de rester un gigantesque "puits de carbone", elle pourrait devenir émettrice nette de CO2, ce qui aurait pour conséquence d' accroître sensiblement l'effet de serre et le réchauffement climatique.

Depuis 50 ans, la population de la région de l'Amazonie au Brésil est passée de 6 à 25 millions de personnes, ce qui a entraîné une réduction massive des surfaces forestières au profit de la production de bois et de l'agriculture, explique-il. Le bilan carbone de l'Amazonie – soit la quantité de carbone qu'elle relâche ou prélève dans l'atmosphère – est en train de changer même s'il est difficile de l'estimer précisément. "A cause de la déforestation, le bilan net du bassin de l'Amazone tend à passer de possible puits net de carbone à la fin du XXe siècle à source nette", selon cette étude.

Les forêts tropicales comme celle de l'Amazonie sont des facteurs clés face aux défis du réchauffement climatique. Leurs arbres absorbent le CO2 de l'atmosphère lors du processus naturel de photosynthèse. Mais lorsque les arbres pourrissent ou sont brûlés, ou quand les zones forestières sont déboisées au profit de l'agriculture, le carbone retourne dans l'atmosphère, accroissant l'effet de serre. "La biomasse de la forêt amazonienne contient quelque 100 milliards de tonnes de carbone, ce qui équivaut à plus de dix ans d'émissions mondiales de combustibles fossiles", soulignent les chercheurs.

Le réchauffement climatique, en modifiant les paramètres météorologiques, pourrait conduire à relâcher une partie de ce stock, prévient-il. "L'essentiel de la forêt amazonienne peut résister aux sécheresses saisonnières et modérées, mais cette capacité d'adaptation et de résistance n'est pas infinie", souligne l'étude.

Nature

Un nouvel absorbeur de CO2 atmosphérique
Dimanche, 22/01/2012 - 00:20

Des chercheurs en Californie ont produit un plastique bon marché capable d’enlever de grandes quantités de dioxyde de carbone de l’air. A terme, ce nouveau matériau pourrait permettre le développement de batteries de grande échelle et même de former la base « des arbres artificiels » qui réduisent les concentrations atmosphériques de CO2 dans le cadre des actions menées pour limiter le changement climatique.

Ces objectifs sur le long terme ont attiré les chercheurs, conduits par George Olah, un chimiste de l’Université de Southern California à Los Angeles, d'après un article du journal Science. George Olah, qui a remporté le Prix Nobel de chimie de 1994, a depuis longtemps fait le rêve d’une société future dépendant principalement d’un carburant fabriqué à partir de méthanol, un simple liquide alcoolisé. Dans la mesure où les carburants fossiles deviendront très rares dans les décennies à venir, George Olah suggère que la société pourrait récolter le CO2 atmosphérique et le combiner à de l’hydrogène pour générer un carburant méthanol pouvant servir à un grand nombre d’utilisations.

George Olah et ses collègues travaillent également à la fabrication de batteries bon marché et à base de fer, pouvant stocker l’excès d’électricité générée par des sources d’énergie renouvelable et l’injecter dans le réseau électrique lors des périodes de pic de la demande.

Pour fonctionner, les batteries au fer utilisent l’oxygène contenu naturellement dans l’air. Cependant, si de petites quantités de CO2 sont impliquées dans la réaction, cela tue la batterie. Ces dernières années, les chercheurs ont mis au point de bons absorbeurs de CO2 à partir de solides poreux appelés zéolites. Mais ces systèmes sont très coûteux. C’est pourquoi George Olah et ses collègues ont souhaité mettre au point une alternative moins coûteuse. Les scientifiques se sont tournés vers le polyéthylénéimine (PEI), un polymère bon marché qui a une bonne capacité d’absorption du CO2. Cependant, il n’absorbe le CO2 qu’à sa surface. Pour agrandir au maximum la surface des PEI, l’équipe de l’USC a dissous le polymère dans un solvant de méthanol et l’a étalé sur de la silice fumée, un solide poreux bon marché et industriel produit à base de gouttes microscopiques de verre. Lorsque le solvant s’évapore, cela donne au PEI solide une grande surface et donc une grande capacité d’absorption.

Lorsque les chercheurs ont testé les capacités d’absorption du CO2 de ce nouveau matériau, ils ont découvert qu’à l’air humide –celui présent dans la plupart des conditions ambiantes- chaque gramme du matériel absorbait en moyenne 1,72 nanomoles de CO2. Cela est bien supérieur aux 1,44 nanomoles par gramme absorbés par un autre procédé fait d’aminosilice. Il s’agit de l’un des niveaux d’absorption de CO2 le plus élevé jamais testé, d’après ce que l’équipe a indiqué le mois dernier dans le Journal of the American Chemical Society.

Une fois qu’il est saturé de CO2, le mélange PEI-silice est facile à régénérer. Le CO2 est absorbé une fois que le polymère est chauffé à 85°C. Les autres absorbeurs de CO2 fréquemment utilisés doivent être chauffés à plus de 800°C pour obtenir un tel résultat.

« C’est intrigant. C’est bien que cela fonctionne à des températures plus basses » a déclaré Klaus Lackner, un expert en capture du CO2 pour l’Université de Columbia. Cela pourrait être utile pour capter le CO2 de l’air en plus de protéger les batteries, a déclaré le membre de l’équipe Surya Prakash.

Le polymère pourrait aussi être utilisé pour construire des fermes massives d’arbres artificiels qui auraient pour objectif de réduire les concentrations atmosphériques de CO2 et de prévenir les pires ravages du changement climatique.

Actualités News Environnement

L'augmentation de la concentration de CO2 dans les océans perturbe les poissons
Dimanche, 22/01/2012 - 00:10

Selon une étude australienne, la hausse des émissions de dioxyde de carbone due aux activités humaines peut affecter le cerveau et les centres nerveux des poissons de mer, et menacer leur survie. Les concentrations de dioxyde de  carbone (gaz carbonique, CO2) dans les océans prévues pour la fin de ce siècle vont interférer avec les capacités des poissons à entendre, sentir, tourner dans l'eau et échapper à leurs prédateurs, ajoute cette étude réalisée par le Centre d'excellence pour l'étude des coraux, chapeauté par le Conseil australien de la recherche.

Ses chercheurs ont testé pendant des années les aptitudes des jeunes poissons des coraux, dans des eaux de mer contenant de hauts niveaux de gaz carbonique dissous. "Et il est à peu près certain qu'ils enregistrent une perturbation notable de leur système nerveux central, ce qui amoindrit leurs chances de survie", a déclaré Phillip Munday, un des scientifiques de l'équipe.

Une forte concentration de gaz carbonique dans l'eau de mer perturbe un récepteur clé du cerveau des poissons, ajoute cette étude publiée dans le journal Nature Climate Change. Cette perturbation entraîne des changements dans le comportement des poissons et dans leurs capacités sensorielles. "Nous avons découvert qu'un taux élevé de gaz carbonique dans l'eau peut interférer directement avec les fonctions de neurotransmission des poissons, ce qui représente une menace directe et jusqu'alors inconnue pour la vie marine", a déclaré le professeur Munday.

Lors des expériences, les chercheurs ont constaté que les bébés poissons souffraient plus de ces perturbations que leurs prédateurs. "Nos travaux montrent que l'odorat des bébés poissons était affecté par une hausse du gaz carbonique dans l'eau, ils avaient plus de mal à trouver les récifs de coraux, ou à détecter l'odeur d'un poisson prédateur", a-t-il ajouté. L'ouïe des poissons était également affectée, a montré l'étude. Les poissons perdaient aussi leur instinct pour tourner à droite ou à gauche, un facteur crucial lorqu'ils évoluent en groupe. Phillip Munday a souligné que quelque 2,3 milliards de tonnes de CO2 d'origine humaine se dissolvaient dans les océans de la planète chaque année, provoquant un changement dans la composition chimique de l'environnement marin.

Nature Climate Change

Cet homme qui a inventé l'eau solide
Samedi, 21/01/2012 - 00:00

Un ingénieur chimiste a peut-être trouvé la solution pour résoudre le problème de sécheresse qui dévaste le nord du Mexique.

Rico, ingénieur chimiste mexicain, est l'inventeur de la pluie solide, un procédé très simple qui pourrait révolutionner l'agriculture. Cette technologie relève de l'irrigation agricole. Elle consiste à optimiser l'usage de l'eau de pluie. Depuis une dizaine d'années, le Mexique subit des sécheresses terribles dans le nord du pays. Sergio Rico, sensible aux problèmes de pauvreté, de famine et de migration, a cherché comment mieux utiliser les faibles pluies qui tombent malgré tout sur ces zones arides.

"En travaillant sur la récupération de l'eau de pluie, déclare Sergio Rico au Point.fr, nous avons trouvé le moyen de la solidifier pour lui donner une autre valeur. Je me suis inspiré des couches pour bébés qui permettent d'absorber un liquide dans un minimum d'espace, et c'est à partir de là que j'ai eu l'idée de transformer l'eau de pluie en la gardant sous forme moléculaire dans un acrylate très absorbant dont la caractéristique est d'emmagasiner jusqu'à 500 fois son poids en eau sans en modifier la structure chimique."

L'eau de pluie, captée des toits, est canalisée vers un réservoir dans lequel il suffit de verser une dose de 1,5 gramme de polyacrylate de potassium pour 1 litre d'eau. En 15 minutes, on assiste au processus de solidification de l'eau. Se produisent alors une ionisation et une précipitation qui permettent aux molécules d'eau de se coller aux polymères, ce qui donne de l'eau en grains, à l'état solide. Avec ce procédé, plus besoin de pompes, de tuyaux, d'énergie électrique, de camions-citernes pour transporter le liquide. L'eau solidifiée peut se mettre dans des sacs en plastique que l'on peut stocker facilement jusqu'à en avoir besoin.

  • Les plantes n'ont aucun stress

Le polyacrylate de potassium permet de gélifier les liquides et de les réhydrater autant de fois que l'on veut pendant huit à dix ans. C'est une sorte de poudre blanche qui ressemble à du sucre. Pour le mélange, le chimiste mexicain, qui connaît bien son pays, utilise comme unité de mesure la capsule de n'importe quelle bouteille de boisson gazeuse, car il sait que les paysans des hameaux ou des petits villages auxquels s'adresse en priorité cette technologie ne possèdent pas une balance précise permettant de peser 1,60 gramme de polyacrylate.

Une capsule pleine à ras bord est, par exemple, la dose nécessaire pour solidifier l'eau que réclament trois plants de tomates. Pour un champ de maïs, un sac de 25 kilos permet d'irriguer environ 1 hectare. Pour démontrer la fiabilité de son invention, Sergio Rico a comparé dans l'État du Sonora, où le thermomètre monte facilement au-dessus de 45 degrés, deux systèmes d'irrigation. Avec le système traditionnel, où le paysan attend la saison des pluies pour arroser son champ, le rendement est de 600 kilos de maïs pour un hectare. Dans le champ d'à côté, la même culture avec de la pluie solide a permis une récolte de 10 tonnes par hectare !

Ce système d'irrigation, à la différence des autres comme l'arrosage par aspersion ou le goutte-à-goutte, est le seul qui emploie de l'eau à l'état solide. Les résultats sont incroyables, car la racine des plantes est maintenue humide pendant plusieurs mois et se réhydrate chaque fois qu'il y a une ondée ou un petit arrosage. La plante n'a, d'autre part, aucun stress, car elle sait qu'elle peut compter sur l'exacte quantité d'eau qui lui est nécessaire sans qu'il y ait de déperdition, car l'eau solide ne s'infiltre pas dans la terre ni ne s'évapore. Sur son bureau, Sergio Rico nous montre une magnifique plante verte qui n'a pas été arrosée depuis 176 jours.

  • Nul n'est prophète en son pays

Sergio Rico améliore sa technique depuis cinq ans. Il a déposé un brevet dans le monde entier sous le nom de "Silos de Agua". Sa technique est déjà employée avec succès en Inde pour les cultures de fruits, de cacahuètes, de coton, de blé et palmes. Avec un système traditionnel, ces cultures requièrent une irrigation de 80 litres d'eau par semaine, avec l'utilisation de l'eau solide, il ne faut que 50 litres tous les 3 mois. Un même succès en Colombie, en Équateur, en Espagne et au Portugal où son procédé est utilisé pour les cultures en serres ou dans les programmes de reforestation. "Les agriculteurs, qui connaissent les coûts de production, sont les plus intéressés, car ils voient immédiatement les économies d'eau qu'ils vont faire avec notre produit." Silos de Agua est très bon marché puisque le sac de 25 kilos pour un hectare ne coûte que 400 euros et dure 10 ans.

Autre avantage, l'eau solide se transporte facilement, ce qui est très pratique pour les lieux difficiles d'accès, que ce soit à dos de mule ou en hélicoptère. Les grandes sociétés agricoles mexicaines commencent à s'habituer à cette nouvelle technologie et ont de plus en plus souvent un stock d'eau solide au cas où les pluies cesseraient avant la récolte. C'est également un produit idéal pour arrêter les incendies. En déposant à même le sol des sacs d'eau solide, les feux rencontrent une masse d'humidité qui ne s'évapore pas, ils s'éteignent d'eux-mêmes sans mettre en danger la vie des pompiers.

Le rêve de Sergio Rico serait bien sûr de convaincre le ministre de l'Agriculture du Mexique de lancer une campagne d'information et d'assistance technique pour permettre aux zones les plus touchées par le changement climatique d'optimiser l'usage de l'eau de pluie. Il aimerait voir sa technologie au service des paysans mexicains les plus démunis. Pour l'heure, il ne recueille que des applaudissements, des diplômes et de bonnes paroles. Nominé pour le Prix mondial de l'eau en 2011 par le Stockholm International Water Institute, Silos de Agua espère bien remporter la palme en 2012. Ce serait alors le coup de pouce nécessaire pour une application mondiale.

Le Point

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
AKTIL, nouvel essai clinique promu par le Centre Léon Bérard à Lyon
Mercredi, 25/01/2012 - 00:40

L’essai clinique « AKTIL », conçu et promu par le Centre Léon Bérard à Lyon et financé par l’Association pour la Recherche sur le Cancer (ARC) et l’Institut National du Cancer (INCa) va débuter prochainement. Il permettra aux patients en France d’accéder à une molécule anticancéreuse innovante. Cet essai clinique, issu de la collaboration entre le Centre Léon Bérard, l’INCa et le National Cancer Institute aux Etats-Unis, est conduit par un centre labellisé INCa de phase précoce (CLIP²).

  • Un essai clinique visant à améliorer le pronostic des patients

L’utilisation d’une immunothérapie associée à une chimiothérapie a permis une amélioration de plus de 20 % des taux de rémission des patients atteints d’un lymphome diffus à grandes cellules B. Cependant, environ 40 % des patients ne répondent pas à ce traitement ou rechutent, justifiant la recherche de nouvelles approches thérapeutiques. C’est l’objet de l’essai clinique mené dans le service d’hématologie du Centre Léon Bérard, Centre de lutte contre le cancer à Lyon et Rhône-Alpes. L’ARC et l’INCa cofinancent cet essai qui va durer 42 mois. Le montant global investi s’élève à près de 739 000 euros. Cet essai clinique de phase II concernera 51 patients.

Cette étude s’appuie sur une découverte antérieure. En effet, il a été prouvé qu’une protéine-enzyme intracellulaire(AKT) est anormalement activée dans plus de la moitié des lymphomes diffus à grandes cellules B. Ce phénomène est un facteur de mauvais pronostic car il favorise la multiplication et la survie des cellules cancéreuses. La molécule, qui va être utilisée dans cet essai, bloque l’activité enzymatique de cette protéine kinase et permettrait donc de bloquer la croissance tumorale.

L’objectif de cet essai clinique est d’évaluer l’activité bénéfique et de vérifier l’innocuité de la molécule pour les patients en rechute après deux premiers traitements. Cette molécule fait actuellement l’objet de plusieurs essais clinique dans d’autres types de cancers.

  • La labellisation « CLIP2 » pour favoriser l’accès à des molécules anticancéreuses innovantes aux patients en France

L’INCa a labellisé 16 centres d’essais cliniques de phase précoce en octobre 2010, dans le cadre d’un appel à candidatures destiné aux centres de lutte contre le cancer et aux centres hospitaliers universitaires (CHU). Ces centres sélectionnés de façon compétitive par un comité d’évaluation international et multidisciplinaire, bénéficient d'un soutien logistique et financier afin de se hisser au plus haut niveau international de qualité. Ce dispositif répond à la volonté de favoriser l’accès aux molécules innovantes pour les patients en France et s’inscrit dans une approche personnalisée de lutte contre les cancers à travers la mise à disposition de thérapies ciblées.

Convaincue de l’importance du soutien à la recherche clinique précoce, l’ARC a signé un accord avec l’INCa afin de contribuer au financement du personnel et du fonctionnement de ces centres labellisés.

Dans le cadre d’une collaboration internationale entre l’INCa et le National Cancer Institute (NCI) aux Etats-Unis, les CLIP² peuvent répondre à des appels à projets de recherche clinique académique lancés par le NCI portant sur l’évaluation de molécules de thérapie ciblée. Cette procédure a été approuvée par le Comité de Déontologie de l’INCa. C’est dans ce cadre que l’essai clinique AKTIL est conduit en France, la molécule étant fournie gracieusement par le NCI et le laboratoire propriétaire de cette molécule.

Centre Léon Bérard

Rester actif pour éviter les problèmes cardiaques
Mercredi, 25/01/2012 - 00:30

La nouvelle étude d'un groupe international de chercheurs montre que l'activité physique régulière, pendant les heures de travail et le temps libre, peut aider à réduire les risques d'infarctus du myocarde. Ces résultats diffèrent d'études antérieures en ce qu'elles montrent que cela s'applique autant aux personnes des pays développés que celles des pays en développement. Les résultats de l'étude INTERHEART, publiés dans la revue European Heart Journal, proviennent d'une étude de cas menée auprès de 29 000 personnes de 52 pays d'Asie, d'Europe, du Moyen-Orient, d'Afrique, d'Australie et d'Amérique du Nord et du Sud.

«Jusqu'à présent, peu d'études s'étaient penchées sur les différents aspects de la relation activité physique au travail et pendant le temps libre et risque d'attaques cardiaques», explique le professeur Claes Held, principal auteur de l'étude du centre hospitalier universitaire d'Uppsala en Suède. Il ajoute : «On connaît déjà l'association entre activité physique et risque cardiovasculaire, mais cette étude vient ajouter, entre autres, une perspective globale.» Les résultats de l'étude montrent qu'une activité physique faible à modérée au travail, et tout niveau d'activité physique menée pendant le temps libre réduit le risque de crise cardiaque, indépendamment d'autres facteurs de risque chez les femmes et hommes de tout âge. Ce résultat est un facteur commun dans la plupart des régions du monde et dans les pays à revenus faibles, moyens ou élevés.

Les recherches montrent, de manière surprenante, que le travail extrêmement physique ne réduit pas forcément le risque d'avoir une crise cardiaque. L'étude montre également que les personnes possédant une voiture et une télévision sont bien plus susceptibles de subir un infarctus, et particulièrement celles vivant dans les pays à revenus faibles ou moyens. Le professeur Claes Held explique : «Ces données révèlent l'importance de l'activité physique et confirment l'effet protecteur constant d'une activité physique à tout niveau de revenus de chaque pays en plus des bienfaits reconnus de cette activité sur la modification des facteurs de risque traditionnels tels que le tabagisme.»

Les chercheurs ayant travaillé sur cette étude, originaires du Canada, du Pakistan, de Suède et des États-Unis, ont comparé les habitudes en terme d'activité physique au travail et pendant le temps libre de 10 043 personnes ayant subi une première crise cardiaque par rapport à 14 217 personnes en bonne santé. Ils ont demandé aux participants de décrire leur niveau d'activité, à savoir si leur travail est principalement sédentaire ou extrêmement physique, et s'il implique de la marche à un seul niveau, principalement de la marche en pente, ou de lever des objets lourds.

En ce qui concerne les activités physiques pendant le temps libre, les participants ont été classés dans quatre groupes : les sédentaires (activités assises, notamment la lecture, regarder la télévision), et ceux menant une activité physique faible (yoga, pêche, marche facile), une activité modérée (effort modéré tel que la marche, le vélo ou le jardinage pendant au moins quatre heures par semaine) ou une activité ardue (course, football ou nage intensive). Ils ont constaté que les personnes dont le travail impliquait une activité physique faible ou modérée étaient moins susceptibles de subir une crise cardiaque que celles dont l'occupation était principalement sédentaire. Cependant, le travail extrêmement physique ne réduisait aucunement les risques. Pendant le temps libre, le risque d'un infarctus était moindre pour tout niveau d'exercice physique en comparaison aux personnes sédentaires, réduisant de 13 % pour une activité faible et de 24 % pour une activité modérée ou intense.

Cordis

Une maladie rare de la peau découverte grâce à des chiens
Mercredi, 25/01/2012 - 00:10

À Rennes, des chercheurs ont découvert sur les golden retrievers et sur les hommes, le même gêne porteur de l’ichtyose, une maladie rare de la peau. Une étude, dirigée par Catherine André (CNRS, Institut de Génétique et Développement de Rennes) et Judith Fischer (Institut de Génomique du CEA), vient de mettre en lumière le gène déficient à l’origine de la maladie rare de la peau chez l’humain et sur les golden retrievers.

C’est grâce à « des golden retrievers que nous avons réussi à remonter la piste de cette maladie qui affecte certains bébés dès la naissance », ajoute Catherine André, qui a mené cette étude aussi en collaboration avec Anaïs Grall à Rennes. Il ne leur aura fallu que 40 chiens pour localiser et identifier le gène responsable, en l’occurrence, le PNPLA1.

Pourquoi le golden ? « Ce chien a été artificiellement créé par les humains à partir de quelques ancêtres communs et possède donc une histoire génétique bien connue et lisible », explique la spécialiste. « C’est en étudiant leurs chromosomes que nous avons découvert ce gène déficient à l’origine de la manifestation de cette maladie, particulièrement chez les bébés humains ». A noter qu’aucun chien n’a été expérimenté dans les laboratoires de la faculté de médecine de Rennes. Il s'agit simplement de prélèvements effectués par les vétérinaires.

Chez les humains comme chez les animaux, les ichtyoses regroupent diverses maladies provoquant un épaississement et un durcissement de la peau. « Cela se traduit par des sortes de pellicules sur la peau. Pour le moment, nous ne connaissons pas le lipide qui est touché et qui provoque ces pellicules. Une fois que nous le connaîtrons, nous chercherons comment guérir cette maladie ».

Ouest France

Un vêtement pour détecter les mouvements du corps
Lundi, 23/01/2012 - 00:30

STMicroelectronics présente une tenue à capteurs intégrés qui permet de détecter en temps réel les mouvements du corps humain. Elle pourrait servir à la rééducation physique des patients et à l’amélioration des gestes des athlètes.

Non ce n’est pas une tenue de plongeur. C’est une combinaison "intelligente" qui détecte les mouvements du corps. Ce prototype est dévoilé par STMicroelectronics. Intégrant son nouveau coprocesseur de mouvements iNEMO, il cache plusieurs capteurs pour reconnaître les mouvements complexes effectués par la personne qui le porte, en vue de les traduire rapidement en un modèle numérique précis.

Cette technologie pourrait servir à améliorer les résultats obtenus dans les applications de médecine clinique et du sport, ainsi qu’à enrichir les applications de réalité augmentée où les utilisateurs pourraient, par exemple, courir à côté du champion du monde sur leur piste locale.

Le prototype associe des nœuds multi-capteurs miniaturisés fixés sur chaque bras, avant-bras, cuisse et mollet, plus deux sur le dos. Des nœuds supplémentaires peuvent être fixés aux mains, sur les chaussures ou sur la tête. Il réunit des capteurs magnétiques de mouvements en technologie MEMS, un microcontrôleur 32 bits et un logiciel dédié au sein d’un module électronique miniaturisé de 13 x 13 x 2 mm.

Chaque nœud de capteurs est équipé du logiciel de fusion des données développé par STMicroelectronics. Il constitue une centrale de cap et d’attitude (Attitude and Heading Reference System, AHRS), l’une des plus petites du marché. Tous les nœuds transmettent leurs données à l’unité de contrôle, qui applique les mesures au modèle graphique d’un squelette et affiche les mouvements du corps en temps réel.

D’après les essais effectués par STMicroelectronics, les écarts enregistrés en matière spatiale restent inférieurs à 0,5 cm pendant les mouvements, tandis que le délai nécessaire pour traiter les données détectées et les appliquer au modèle du squelette ne dépasse pas 15 millisecondes.

Les échantillons du coprocesseur de mouvements iNEMO sont disponibles immédiatement.

Industrie & Technologies

Récepteur de la vitamine D : première observation 3D en intégralité
Lundi, 23/01/2012 - 00:20

Pour la première fois, une équipe de l'Institut de génétique et de biologie moléculaire et cellulaire (IGBMC, Université de Strasbourg/CNRS/Inserm) a réussi à photographier en entier, en 3D et à haute résolution, une petite molécule vitale, enfermée au cœur de nos cellules : le récepteur de la vitamine D (VDR).

Appartenant à ce que les biologistes appellent « la grande famille des récepteurs nucléaires », des protéines actives dans le noyau des cellules, dont font aussi partie les récepteurs « stéroïdiens » (récepteurs aux hormones sexuelles, etc.), le récepteur de la vitamine D (VDR pour vitamine D receptor) joue un rôle primordial. Il régule l'expression de gènes impliqués dans diverses fonctions biologiques vitales (croissance des cellules, minéralisation des os,...).

Jusqu'ici, les chercheurs n'avaient pu étudier de près que deux parties de ce récepteur : la région en interaction avec l'ADN et le domaine liant la vitamine D. Ces deux morceaux avaient été produits en laboratoire et leur structure étudiée individuellement avec la technique de cristallographie. Cette méthode n'avait pas permis de visualiser le VDR en entier car il s'est avéré difficile à cristalliser.

Pour relever ce défi - qui mobilise plusieurs équipes dans le monde depuis plus de 15 ans -, les groupes de Bruno Klaholz et de Dino Moras, tous deux directeurs de recherche CNRS à l'IGBMC, ont utilisé une technique innovante : la cryo-microscopie électronique (cryo-ME), qui nécessite un microscope électronique de dernière génération, dit « à haute résolution ». Ce bijou de technologie permet de visualiser des objets biologiques à l'échelle moléculaire, voire atomique.

Concrètement, Bruno Klaholz et ses collègues ont produit en laboratoire de grandes quantités du récepteur VDR humain dans des bactéries Escherichia coli (l'un des modèles les plus utilisés en biologie pour produire des protéines). Puis ils ont isolé le récepteur dans une solution physiologique contenant de l'eau et un peu de sel. L'échantillon contenant le VDR a ensuite été congelé en le plongeant dans de l'éthane liquéfié, ce qui permet un refroidissement extrêmement rapide (en une fraction de seconde, l'échantillon passe de 25°C à environ -184°C). Il a fallu, enfin, prendre 20 000 photos de particules du VDR dans différentes orientations à l'aide du microscope. Ce sont ces images qui, alignées et combinées grâce à un programme informatique, ont fourni, au final, une reconstruction en 3 D du VDR.

Cette image apporte des informations inédites sur le fonctionnement du récepteur. Elle révèle que le VDR et son partenaire RXR (récepteur du rétinoïde X, un dérivé de la vitamine A) forment une architecture ouverte, avec le domaine de liaison de la vitamine D orienté presque perpendiculairement au domaine de liaison à l'ADN. Cette structure suggère une coopération entre les deux domaines, qui agiraient ensemble pour induire une régulation très fine de l'expression des gènes cibles.

CNRS

Un spray fluorescent pour mieux détecter le cancer de l'oesophage
Lundi, 23/01/2012 - 00:10

En étant capable d’identifier, grâce à un spray fluo pulvérisé sur la sonde de l'endoscope, des changements dans l’organisation des molécules de sucre qui tapissent les cellules précancéreuses dans l'œsophage, ces scientifiques du Medical Research Council de Cambridge peuvent désormais détecter et éliminer ces cellules, avant qu'elles ne se développent en cancer de l'œsophage. Ces résultats, publiés dans l’édition du 15 janvier de Nature Medicine, ont des implications importantes pour les patients car ils peuvent contribuer à détecter de manière très précoce, le développement du cancer.

Le cancer de l'œsophage est la 5ème à 8ème cause de décès par cancer selon les pays. Le nombre de nouveaux cas détectés est en augmentation rapide et il est donc urgent de trouver les moyens de le détecter ce cancer le plus tôt possible. Or les personnes qui présentent une lésion précancéreuse connue sous le nom «d’œsophage de Barrett » sont exposése à un risque accru de développer ce cancer de l'œsophage. Au niveau de cette étape nommée dysplasie de Barrett, le cancer peut encore être prévenu par la suppression de ces cellules précancéreuses. Cependant l’identification de ces cellules est difficile car elles peuvent passer inaperçues lors d’une endoscopie ou d’une biopsie.

L'équipe dirigée par le Docteur Rebecca Fitzgerald vient de découvrir un nouveau mécanisme pour identifier ces cellules de la dysplasie de Barrett en pulvérisant sur la sonde un composé fluorescent qui colle aux sucres et permet d’identifier ainsi toutes les zones anormales lors de l’endoscopie. En analysant les sucres présents dans les échantillons de tissus humains prélevés, les chercheurs constatent la présence de différentes molécules de sucre à la surface des cellules pré-cancéreuses. Leur technologie utilise des protéines de germe de blé liant le sucre, connues sous le nom de lectines, capables d'identifier les changements dans ces sucres.

«Nous avons démontré que la fixation d'une protéine de germe de blé, qui est bon marché et non toxique, permet d'identifier des différences dans les sucres de surface des cellules précancéreuses», résume l’auteur. «Couplée avec l'imagerie fluorescente à l'aide d'une caméra endoscopique, cette technique offre une nouvelle technique prometteuse d’identifier puis de pouvoir traiter les patients les plus à risque de développer un cancer de l’œsophage dès cette toute première étape."

Santé Log

Cancer du pancréas : attention à la surconsommation de charcuterie
Samedi, 21/01/2012 - 00:10

Un lien possible entre certains produits à base de viande transformée, comme le bacon ou les saucisses ou encore les "fast food", et le cancer du pancréas est suggéré par cette méta-analyse de 11 études. L’étude réalisée par des chercheurs du fameux Institut Karolinska (Suède) conclut, sur la base de données couvrant plus de 2 millions de personnes, que 50 g par jour « de trop » de viande transformée, soit l’équivalent d’une saucisse, pourrait augmenter le risque de cancer du pancréas de 19 %. Des conclusions publiées dans l’édition en ligne du 12 janvier du British Journal of Cancer.

Le cancer du pancréas est rare mais meurtrier, c’est la 4ème cause la plus fréquente de décès lié au cancer. Ces résultats, soit une augmentation de 19 % du risque équivalent à un risque toujours très faible. Les causes du cancer du pancréas ne sont pas totalement identifiées, 10 % de ces cancers seraient liés à des causes génétiques, d’autres facteurs comme l'âge, le tabagisme, l'excès de poids et les facteurs alimentaires pourraient également être impliqués.

11 études, plus de 2 millions de participants : Cette revue systématique et méta-analyse a porté sur une sélection d’études de cohortes prospectives ou d’études cas-témoins qui comprenaient les termes «viande» ou «aliments» et «cancer du pancréas» ou «tumeur du pancréas» et apportaient des résultats de l'incidence du cancer du pancréas ou sa mortalité. 11 études ont été retenues qui, toutes, examinaient le lien entre la consommation de viande rouge et le cancer du pancréas. Ces études donnaient lieu à un recensement de 6.643 cas de cancer du pancréas. Aucune n'a trouvé aucune association significative globale entre les deux. Cependant, l’analyse des résultats séparée pour les hommes et les femmes montre :

  • une association significative entre la consommation de viande rouge et le cancer du pancréas chez les hommes (RR : 1,29 IC : 95 % de 1,08 à 1,53- 5 études)
  • aucune association significative chez les femmes (RR : 0,93 IC : 95 % de 0,74 à 1,16- 6 études)
  • une augmentation de la consommation de viande traitée de 50g par jour est associée à un risque accru de 19 % de cancer du pancréas (RR : 1,19 IC : 95 % de 1,04 à 1,36- 7 études).

Alors qu’il est prouvé que la consommation de viande rouge peut contribuer à d'autres types de cancer, en particulier au cancer du côlon , cette étude suggère que la consommation de 50 g supplémentaires de viande transformée par jour augmente le risque de cancer du pancréas de 19 %. Ces 19% de risque accru de cancer du pancréas associé à la viande transformée, pour les hommes et les femmes, sont une augmentation du risque relatif, signifiant que les personnes qui consomment des niveaux élevés de viande transformée ont 19 % plus de risque de développer un cancer du pancréas.

Santé Log

La chauve-souris qui aide à comprendre les mécanismes de différenciation des espèces
Vendredi, 20/01/2012 - 05:20

Plus de 150 ans après la publication de L’origine des espèces par Charles Darwin, les biologistes ne comprennent toujours pas vraiment le processus par lequel les espèces se séparent les unes des autres. En étudiant, en Birmanie et en Thaïlande, deux populations distinctes de chauves-souris bourdon qui sont en train de diverger, une équipe internationale a pu démêler certains des mécanismes de la spéciation. Son étude a été publiée dans Nature Communications.

Les biologistes estiment que la manière dont les animaux perçoivent leur environnement et interagissent avec lui, ce que les spécialistes appellent l’écologie sensorielle, joue un rôle majeur dans les processus de spéciation. En effet, si, au sein d’une même espèce, les signaux qu’envoie une population sont modifiés et ne sont plus reconnus par une autre population, ces deux groupes ne se mélangeront plus. Cependant, même dans les exemples les mieux connus de spéciation entraînée par l’écologie sensorielle, les scientifiques ne savent pas bien si les changements de ces signaux sont la cause ou la conséquence de la réduction des échanges génétiques entre les populations.

Ce flou est essentiellement dû au fait que, dans ces recherches, on adopte en général une approche rétrospective, une fois que la spéciation a eu lieu. L’idéal serait donc de prendre une spéciation en cours de route et de voir comment les composantes écologiques, comportementales et génétiques interagissent pour que deux populations d’une même espèce finissent par former deux espèces.

C’est cette approche originale qu’ont adoptée les auteurs de l’étude parue dans Nature Communications, en suivant deux populations du plus petit mammifère du monde, la chauve-souris bourdon. Les chauves-souris sont d’excellents modèles pour ce genre d’études en raison de l’importance qu’occupe, dans leur vie, leur système d’écholocation qui leur permet de s’orienter, de communiquer et de trouver de la nourriture. Les deux populations de cette espèce asiatique, l’une en Birmanie, l’autre en Thaïlande, sont isolées l’une de l’autre et montrent des différences non pas dans leur morphologie mais dans la fréquence des ultrasons qu’elles envoient.

En étudiant aussi bien les facteurs écologiques que génétiques, les chercheurs se sont aperçus que le processus de spéciation entre ces deux populations avait commencé il y a 400 000 ans. En focalisant leur attention sur les colonies qui forment la population thaïlandaise, ils ont montré que, plus que la divergence dans le mode d’écholocation, c’était avant tout la séparation géographique qui était le moteur de ce processus, en restreignant les échanges de gènes.

Science gouv

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Ces prédictions de 1900 qui se sont révélées exactes
Jeudi, 26/01/2012 - 00:30

En décembre 1900, un ingénieur américain nommé John Elfreth Watkins Jr publie dans le supplément féminin du Saturday Evening Post, un article intitulé «ce qui pourrait arriver dans les cent prochaines années». John Elfreth Watkins Jr a demandé à l'aube du XXe siècle «aux esprits les plus sages de nos plus grandes institutions scientifiques» quelles seraient les prochains axes de recherche de leur domaine de compétence «avant la fin 2001». Les résultats sont étonnants et John Elfreth Watkins Jr, dans son article de prospective, a prévu de nombreuses avancées intervenues au cours du XXème siècle ...

L'air climatisé et le chauffage central : «Tout comme nous utilisons les robinets d'eau chaude et d'eau froide pour réguler l'eau de notre bain, nous pourrons régler la température de la maison avec des robinets d'air chaud et froid», écrit John Elfreth Watkins Jr. «Plus besoin de se lever tôt pour nourrir le feu. Les maisons n'auront plus de cheminées, car il n'y aura plus de fumée».

Les plats préparés : «Des plats tout faits pourront être achetés dans des boutiques similaires à nos boulangeries (...) Ils seront préparés dans des laboratoires électriques plutôt que dans des cuisines. Ces laboratoires seront équipés de cuisinières électriques et d'autres ustensiles comme des batteurs à oeufs (...) des lave-vaisselle et des sèche-vaisselle». John Elfreth Watkins Jr imaginait néanmoins qu'une fois le plat mangé, le consommateur aurait à retourner la vaisselle livrée avec afin qu'elle soit lavée et réutilisée pour d'autres clients.

Les appareils photos numériques en couleur : «Les photographies pourront être transmises depuis n'importe quel coin du globe. S'il y a une bataille en Chine, les photos de l'événement pourront être publiées dans le journal une heure plus tard. Les photographies reproduiront toutes les couleurs de la Nature.»

Le TGV : «Les trains parcourront trois kilomètres par minute ; les trains express iront jusqu'à 240 km/h. Il ne faudra qu'un jour et une nuit pour aller de New York à San Francisco en train (...) Il n'y aura plus de fumée et de cendre le long des voies ferrées, car on n'utilisera plus de charbon. Plus besoin non plus de s'arrêter pour remettre de l'eau».

La télévision : «On pourra voir des personnes et des choses de toutes sortes grâce à des caméras connectées électriquement à des écrans à l'autre bout du circuit. Le public américain pourra voir derrière les rideaux des théâtres les cérémonies de couronnement des rois d'Europe ou l'avancée d'une guerre en Orient. Des instruments téléphoniques géants retransmettront le son.»

Le téléphone portable : «Il y aura des téléphones sans fil partout dans le monde. Un mari au milieu de l'Atlantique pourra converser avec sa femme dans son boudoir à Chicago. Nous pourrons appeler vers la Chine aussi facilement qu'un appel local. Les appels seront transmis automatiquement, sans l'aide d'une opératrice».

La mondialisation des échanges : «Grâce à des véhicules réfrigérés se déplaçant à grande vitesse sur terre comme sur mer, nous pourrons avoir des délicieux fruits en provenance des tropiques et de l'hémisphère sud en quelques jours. Durant l'hiver, les fermiers d'Amérique du Sud, d'Afrique du Sud, d'Australie, dont les saisons sont opposées aux nôtres, pourront nous fournir de la nourriture qui ne pourrait pas pousser chez nous.»

Le Figaro

Staticflickr

Un art rupestre préhistorique en Afrique du Nord
Lundi, 23/01/2012 - 00:40

Des gravures préhistoriques trouvées en Égypte prouvent l’existence d’un art rupestre en Afrique du Nord, contemporain de celui qui florissait en Europe au paléolithique.

Lascaux, Altamira, Chauvet : les plus anciennes grottes et parois rocheuses ornées de peintures ou de gravures figuratives se trouvent en Europe, surtout dans le sud-ouest de la France et en Espagne. L’ancienneté des oeuvres s’étend pour l’essentiel de 31 000 ans à environ 10 000 ans. Il en existe dans de nombreuses régions du monde, mais elles sont en général difficiles à dater.

Des gravures d’animaux retrouvées au sud de l’Égypte par une équipe belgo-américaine viennent toutefois d’être datées à plus de 15 000 ans. C’est le plus ancien site d’art rupestre d’Afrique. Les gravures sont situées sur des parois en grès, qui bordent la plaine du Nil. Il y a en tout trois sites, non loin du village de Qurta. Les trois quarts des gravures représentent des aurochs. D’autres animaux sont présents : des oiseaux, des hippopotames, des poissons, des gazelles et des antilopes. Au total, 180 animaux ont été dessinés, de manière assez réaliste.

Par chance, les archéologues ont découvert un moyen de dater ces gravures. Car l’un des panneaux gravés était partiellement recouvert de sédiments déposés par le vent. En examinant ces derniers, les géologues de l’équipe se sont rendu compte qu’ils étaient sans doute très anciens. Ils ressemblaient en effet à ceux que les crues du Nil déposaient il y a plus de quatorze mille ans.

  • Radioactivité

Une technique fondée sur la radioactivité naturelle présente dans ces sédiments a permis de les dater : ils se sont déposés sur la paroi il y a 15 000 ans. Les gravures sont donc forcément antérieures à cette date. Des datations au carbone-14 d’os d’animaux présents dans les sédiments l’ont confirmé. « Les datations sont convaincantes », indique Jean-Loïc Le Quellec, du Centre d’études des mondes africains à Paris. D’après leur patine, les gravures sont probablement plus anciennes de quelques millénaires, autour de 19 000 à 17 000 ans.

Il existait donc un foyer d’art rupestre en Afrique du Nord. Où le trouvait-on ? Dans la vallée du Nil, où il existe quatre autres sites de gravures avec des thèmes similaires, non datés. Sans doute aussi sur les côtes nord-africaines, car un site en Libye présente des dessins d’aurochs très semblables. Mais pas au Sahara, extrêmement aride à cette époque, dont l’art rupestre est plus récent.

Le style des gravures est très proche de celui qui existe en Europe lors de la Préhistoire. « Si ces gravures avaient été retrouvées en Europe, explique le responsable de l’équipe, Dirk Huyge, des Musées royaux d’art et d’histoire de Bruxelles, elles auraient probablement été classées avec celles de la fin de la période magdalénienne, vers 14 000 à 12 000 ans. »

En particulier, on trouve à Qurta, en plus des animaux, quelques dessins schématiques de figures féminines aux fesses proéminentes, comme dans l’Europe de cette période. Le niveau de la Méditerranée étant alors très bas, des contacts via la Sicile par exemple ne seraient pas inenvisageables. Cependant, le type de pierres taillées trouvé en Afrique du Nord n’a pas de lien évident avec celles fabriquées en Europe au Magdalénien.

La Recherche

L’enquête nationale sur l’âge du Bronze : une première dans le domaine de la recherche archéologique en France
Vendredi, 20/01/2012 - 05:30

L’Inrap organisait, les 29 et 30 novembre 2011 à Bayeux, une table ronde consacrée à « L’habitat et l’occupation des sols à l’âge du Bronze et au début de l’âge du Fer en France » pour restituer les premiers résultats de l’enquête nationale consacrée à ce domaine.

L’âge du Bronze a longtemps été considéré comme une période de transition, plus ou moins longue, entre les sociétés néolithiques et les premiers Gaulois de l’âge du Fer. Les recherches conduites ces vingt dernières années, notamment en archéologie préventive, ont profondément renouvelé la documentation disponible et mis en évidence la place de cette période dans la construction des paysages actuels. Toutefois cette documentation restait éparse, mal répertoriée et peu exploitée.

Lancée en 2008 dans le cadre des axes de recherche de l’Inrap, cette enquête avait pour objet la recension et l’analyse des acquis récents en protohistoire ancienne (entre 2200 et 600 avant notre ère), et plus particulièrement les formes du peuplement à l’âge du Bronze. Ce projet réunit plus de 70 chercheurs, issus de l’Inrap et d’institutions partenaires (CNRS, Université, services régionaux de l’archéologie, services archéologiques de collectivités territoriales…). L’analyse détaillée de plus de 1 700 opérations (diagnostics ou fouilles) débouche sur la constitution d’une base de données nationale.

L’âge du Bronze apparaît désormais comme une période décisive de la construction des paysages. L’impact des activités de production agropastorales marque de manière significative l’environnement, même dans des milieux jusqu’alors peu anthropisés comme la montagne. Dans le même temps, l’établissement de réseaux viaires ou de parcellaires révèle des changements de pratiques agraires (petite agriculture attelée). L’habitat, par ses formes, ses fonctions et les réseaux qu’il constitue, dévoile d’importantes mutations et notamment le développement d’une société très hiérarchisée.

L’enquête a aussi permis de souligner le rôle tenu par les espaces funéraires comme marqueurs de l’organisation territoriale. Ainsi, dans le sud de la France, de très grandes nécropoles, dont certaines intégrant parfois plusieurs centaines d’individus, forment de vastes « villes des morts », déconnectées des habitats, et occupent des lieux particuliers (interfluve, etc.). Plus au nord, d’autres monuments, tels de grands ensembles tumulaires occupés dans la longue durée, montrent toute l’importance que revêtent les formes symboliques d’appropriation de l’espace.

Si des changements globaux, comme la croissance démographique, l’importance des changements climatiques caractérisent l’âge du Bronze, période durant laquelle se construit une nouvelle ruralité, seules l’existence d’une plus forte hiérarchisation sociale et la mise en place de territoires aux développements propres peuvent expliquer les profonds décalages observés d’une région à l’autre.

Ce bilan marque une première étape. En effet, la base de données, en cours d’enrichissement, permet aujourd’hui de disposer d’une grande masse d’informations — issues notamment de diagnostics archéologiques et de fouilles de grandes surfaces —, qui reste à exploiter. Il sera tout autant nécessaire de confronter ces tendances avec celles issues d’autres pays européens où l’archéologie préventive a également contribué à renouveler la documentation et les modèles.

L’enquête nationale sur l’âge du Bronze est pilotée par Laurent Carozza (CNRS), Cyril Marcigny et Marc Talon (Inrap). Elle a associé plus de soixante-dix chercheurs, dont une grande majorité d’archéologues de l’Inrap, mobilisant près de 1000 jours de recherche de 2008 à 2011. Ses résultats seront publiés en 2013 dans la collection « Recherches archéologiques » coéditée par l’Inrap et CNRS éditions.

Inrap

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top