|
|
Edito
Dans un avenir, maintenant proche, chacun produira l’énergie dont il a besoin
Lors du long débat présidentiel qui vient de se clore, aucun candidat n’a abordé, sur le fond, la véritable et fondamentale évolution de l’accès à l’énergie, dans ces prochaines décennies.
Certes, il fut souvent question du nucléaire, mais seulement abordé sur un mode polémique pour traiter de ses dangers suite à Fukushima.
Or, après la foudroyante évolution des réseaux, dans ce dernier quart de siècle, je suis convaincu, et je l’ai déjà affirmé à plusieurs reprises dans RT Flash, que notre façon d’accéder à l’énergie, dans ces prochaines décennies, va progressivement abandonner les grands réseaux pyramidaux actuels : de la centrale nucléaire, hydraulique ou thermique, à l’utilisateur final, de la raffinerie à l’automobile pour s’orienter vers la micro production individuelle d’énergie dans nos maisons, nos appartements, nos bureaux, nos locaux commerciaux ou nos ateliers.
Dans les années 1970, des conglomérats très puissants, comme IBM, pensaient atteindre le « graal » en concentrant, dans des calculateurs de plus en plus gros, les données nourrissant des milliers d’écrans fonctionnant en grappes. Il a suffi, alors, que des Steve Jobs, des Bill Gates aient eu l’audace de lancer l’Apple I ou le PC, pour que l’ensemble architectural pyramidal des ces gros mainframes soit moins opérationnel et surtout moins pertinent.
Or, rien ne nous interdit aujourd’hui d’affirmer que l’accès à l’énergie, pour chacun d’entre nous, va suivre la même voie.
Certes, ce ne sont pas les gros conglomérats actuels de l’énergie (EDF et TOTAL en France) qui inciteront nos politiques à poser ces nouveaux schémas pour l’avenir.
Mais les informations que nous diffusons, semaine après semaine, dans RT Flash, nous permettent d’affirmer que cette micro production d’énergie, au niveau de l’unité individuelle de vie, devient de plus en plus crédible.
Pour bien vous faire partager ma conviction, permettez-moi de vous rappeler le sens des mots : « vecteur d’énergie ». Un vecteur d’énergie permet de transporter ou de stocker l’énergie. Les deux vecteurs d’énergie les plus utilisés actuellement sont l’électricité et les carburants (essence ou gasoil). Le vecteur d’énergie de la future micro production d’énergie ne sera plus l’électricité ni un carburant, mais l’hydrogène.
Le producteur individuel d’énergie pourra se fournir en hydrogène, soit en le fabriquant lui-même, j’y reviendrai dans quelques instants, soit en l’achetant sous forme solide (hydrures) ou liquide (borazane).
Le particulier qui achèterait cet hydrogène s’en servirait soit pour produire de l’électricité, en passant par une pile à combustion (PAC), mais aussi pour faire fonctionner son automobile.
Les Japonais, qui sont nettement en avance sur la France, dans cette nouvelle économie de l’hydrogène, ont déjà mis sur le marché plusieurs piles à combustible destinées aux particuliers.
Par ailleurs, Toyota vient d’annoncer, au Salon de l’Automobile de Genève (après Mercedes), qu’il produirait, en grande série, en 2020, des voitures à hydrogène pour Monsieur Toutlemonde.
Cette solution transitoire d’achat de l’hydrogène, sous forme solide ou liquide, permettrait, pendant quelques décennies, d’utiliser les centrales non polluantes en CO², déjà en place, pour fabriquer cet hydrogène par électrolyse massive de l’eau.
Mais, inexorablement, l’individu voudra produire lui-même son hydrogène.
En effet, il ne voudra pas rester prisonnier, comme il l’est actuellement, des producteurs monopolistiques des vecteurs d’énergie, que ce soit l’électricité, le gaz ou les carburants. Il souffre trop, surtout actuellement, de voir sa facture de carburant, de gaz ou d’électricité augmentant mois après mois sans qu’il puisse faire jouer la concurrence pour peser sur les prix. Inévitablement, si le développement de nouvelles technologies lui permet, à des prix raisonnables, dans un automatisme total et en toute sécurité, de produire lui-même son énergie, le particulier choisira alors massivement cette voie nouvelle.
Or, en observant ce qui se passe actuellement dans de très nombreux laboratoires, dans le monde entier, je suis convaincu, que dans moins d’une décennie, chacun d’entre nous aura la possibilité, soit avec le soleil, soit avec la photosynthèse, soit avec le vent, soit avec des bactéries, soit avec de la biomasse, de produire, à des coûts très faibles, de l’hydrogène en séparant les atomes d’hydrogène et d’oxygène de l’eau.
Ainsi serait close la période pénible de la totale dépendance du consommateur envers un méga système monopolistique de distribution d’énergie.
La généralisation de cette production individuelle de l’hydrogène, en partant de l’eau, généralisation qui devrait demander un siècle au moins, est la meilleure réponse que pourrait apporter l’humanité au grave problème du réchauffement climatique.
En effet, à condition, bien entendu, que cet hydrogène soit obtenu avec des moyens naturels, à partir de l’eau et non en partant de pétrole, les rejets en CO², pour les déplacements, pour le chauffage, pour faire tourner les machines, pour s’éclairer, deviendraient nuls, ce qui ramènerait, pour cette pollution aux effets gravissimes, notre Terre à l’ère préindustrielle.
J’ai bien conscience combien l’annonce d’un tel avenir peut passer pour un rêve, tant l’arrivée d’une économie hydrogène bouleverserait les piliers de fonctionnement actuel de nos sociétés : Imaginez-vous une société sans pétrole, sans gaz, sans charbon, sans nucléaire, mais seulement avec de l’eau, du soleil, du vent et de la biomasse.
La réalisation de ce rêve changerait l’avenir de l’Humanité !
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
L’Université Harvard et le Massachusetts Institute of Technology (MIT) lancent un projet de cours gratuits sur le Web pour favoriser l’accès aux études postsecondaires et mieux comprendre comment les étudiants apprennent. « Notre objectif est d’éduquer un milliard de personnes de partout sur la planète », affirme Anant Agarwal, président du projet edX.
Les deux institutions d’enseignement parmi les plus prestigieuses aux États-Unis viennent d’annoncer qu’elles investissaient 30 millions de dollars chacune dans cette initiative. Harvard et le MIT souhaitent ainsi permettre à toute personne ayant un ordinateur et une connexion Internet de suivre des cours universitaires, sans devoir être physiquement sur leurs campus à Cambridge, au Massachusetts.
Ces cours ne se substitueront pas aux cours des deux universités ; les étudiants des deux universités ne pourront pas obtenir de crédits universitaires dans le cadre des cours en ligne. « Pour des frais modestes », les étudiants inscrits au projet edX pourront obtenir un diplôme, qui ne sera toutefois pas délivré au nom de Harvard ou du MIT. Mais en dépit du spectre d’étudiants beaucoup plus large, les universités entendent maintenir la même rigueur dans leur enseignement.
La plate-forme d’apprentissage inclura des espaces d’autoapprentissage, des groupes de discussion en ligne, des pages modifiables par les étudiants pour créer une pédagogie collaborative. Des ressources seront également investies pour évaluer ce moyen d’apprentissage.
Depuis une dizaine d’années, le MIT offre un programme qui permet d’accéder gratuitement, sur le web, au matériel de quelque 2100 cours. C’est d’ailleurs la plate-forme MITx, déjà utilisée par plus de 100 millions de personnes, qui servira au projet edX.
Les premiers cours devraient être dispensés à l’automne, et d’autres universités pourraient rejoindre ce projet.
Radio-Canada
|
|
|
|
|
|
|
|
Depuis le 3 mai, les noms de domaine gérés par l’Afnic (.fr,.re…) peuvent contenir toute sorte d’accents.
Jusqu’à présent, il était possible de composer un nom de domaine (communément appelé adresse Internet) en utilisant des chiffres, les caractères romains non accentués et le "-". Depuis le 3 mai, 30 nouveaux signes peuvent être utilisés par chaque déposant lui permettant de soumettre un nom intégrant notamment des "ç", des "ß", des a et des e dans l’o ainsi que les caractères accentués utilisés en français, mais également dans d’autres langues (é, ê, ý, ö, å,…).
En termes de mise en œuvre, deux phases ont été prévues par l’Afnic. La première, baptisée "Sunrise", est ouverte entre le 3 mai et le 2 juillet 2012. Durant ces deux mois, seuls les titulaires d’un nom de domaine géré par l’Afnic (.fr, .re, .tf, .wf, .pm, .yt) peuvent effectuer des réservations de noms accentués. L’intérêt de cette phase est de limiter les opérations de parasitage en réservant à un titulaire de nom de domaine la possibilité d’en enregistrer les variantes accentuées. L’utilisateur de "muller-strasse.fr" serait ainsi prioritaire pour réserver "müller-straße.fr"). La seconde phase, qui rétablira la règle classique du "premier arrivé, premier servi", débutera le 3 juillet 2012.
Rappel : L'Afnic (Association française pour le nommage internet en coopération) est en charge de la gestion des noms de domaine français. Les extensions dont elle assure l’administration sont : .fr (France), .re (Ile de la Réunion), .pm (Saint-Pierre et Miquelon), .tf (Terres australes et antarctiques Françaises) et .wf (Wallis et Futuna), .yt (Mayotte).
Les Echos
|
|
|
|
|
|
|
|
D'après le Baromètre Santé de l'Inpes, si les Français sont majoritairement favorables à la vaccination, près d'une personne interrogée sur cinq (19 %) estime ne pas être à jour de ses vaccinations et plus d'un quart (27 %) ne connaît pas la nature de la dernière vaccination effectuée. Pour tenter de corriger le problème, les pharmaciens du Groupe PHR offrent désormais la possibilité au patient de créer son carnet de vaccination électronique personnalisé.
Ce carnet « nouvelle génération » est un outil gratuit et accessible à tous. Son objectif est d'assurer un suivi et un accompagnement des vaccinations du patient par le pharmacien. Il devrait donc permettre d'éviter les oublis mais aussi les «sur-vaccinations» assez courantes, notamment pour les rappels de vaccins lors d'un départ à l'étranger.
La mise en place de ce service se situe dans la continuité de la loi HPST (relative aux patients, à la santé et aux territoires) permettant aux pharmaciens d'exercer une mission d'éducation et de prévention auprès de leurs patients.Ce carnet de vaccination électronique, financé par les pharmaciens du Groupe PHR, offre au patient un accès libre aux informations. Le porteur peut alors décider de partager ces données avec son pharmacien, son médecin généraliste et également avec les services d'urgence en cas d'accident.
Pour l'instant au stade d'essai, d'ici quelques mois le service sera généralisé à toutes les pharmacies du groupe en France. Le Groupe PHR couvre aujourd'hui 11 % des pharmacies françaises, soit plus de 2.600 officines.
Les Echos
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Plus que jamais au centre de très nombreuses recherches et études scientifiques ces dernières années, le graphène, matériau « miracle » par excellence, est un cristal bidimensionnel de carbone composé d'une simple couche sans défaut, dont les atomes sont arrangés sous la forme d'un treillage hyper-régulier, de type rayons de nid d'abeille.
L'empilement de ces couches constitue le graphite, existant dans la nature. Le graphène est un des matériaux les plus résistants testés jusqu'à présent, il possède de remarquables qualités de conductivité et d'imperméabilité à la plupart des gaz, ce qui pourrait rendre son utilisation à l'échelle nano très intéressante. Son seul vrai défaut, et pas des moindres : sa production reste encore très problématique, et est particulièrement onéreuse.
Ce sont les fantastiques propriétés électriques de ce cristal bidimensionnel qui ont amené les scientifiques de tous bords à imaginer le futur des circuits intégrés, futur dans lequel le graphène aurait donc une place de choix. Une équipe de chercheurs de l'université de Floride a donc décidé dans cette optique de s'attaquer à l'un des obstacles majeurs à l'utilisation de ces feuilles d'un atome d'épaisseur dans la conception des circuits intégrés, à savoir comment produire le graphène de manière parfaitement fiable et à grande échelle.
L'équipe de scientifiques américains aurait récemment développé une nouvelle technique prometteuse de création de modèles de graphène, dont la précision du tracé pourrait se prêter idéalement à la conception et au dessin complexe d'un circuit intégré, technique s'appuyant sur un minéral presque exclusivement artificiel, le carbure de silicium (SiC). La forme monocristalline du carbure de silicium peut être considérée comme un semi-conducteur, alors que sa forme polycristalline est rangée dans la catégorie des céramiques.
L'obtention du graphène à partir du SiC, que l'on appelle graphène « épitaxié », n'a en soi rien de bien nouveau. Il suffit de chauffer sous vide le carbure de silicium, à 1300 degrés, pour que les atomes de silicium composant les couches externes du SiC s'évaporent, ne laissant alors plus que les atomes de carbone, qui finissent par se réorganiser en fines couches de graphène pur.
Idéale pour créer de grandes feuilles de graphène, cette décomposition thermique présente toutefois des limites lorsqu'il s'agit d'imprimer une forme, un circuit ou un dessin précis après évaporation. Le processus de gravure ou de découpe habituellement utilisé pour la mise en forme a pour inconvénient de réduire la mobilité des électrons dans le matériau, une de ses qualités les plus précieuses.
L'idée de génie de l'équipe américaine pour limiter la croissance du graphène, et ainsi le cantonner dans les limites d'un tracé précis d'une épaisseur d'à peine une vingtaine de nanomètres, fut d'ajouter des ions Or au carbure de silicium, à l'aide d'un « crayon ionique ». Les ions Or ont la particularité de baisser d'une centaine de degrés la température à laquelle le graphène se forme, l'amenant à se former autour de 1200 degrés Celsius au lieu des 1300 degrés requis. Les ions Or laissent donc la possibilité à une fine couche de graphène de se former partout où elle est désirée, une fois le carbure de silicium porté à 1200 degrés (à cette température, le carbure de silicium pur ne forme pas de graphène), respectant ainsi le tracé exact voulu pour le circuit intégré, tracé esquissé par le crayon ionique.
L'utilisation de cette technique par l'équipe de l'université de Floride a permis à de créer, avec succès, des nanofils de graphène, et ce à plusieurs reprises. En affinant encore cette technique, les scientifiques espèrent pouvoir faciliter la formation et la croissance sélective du matériau miracle, mais à des températures encore moins élevées. Ces travaux ont fait l'objet d'une publication dans le journal de l'Institut Américain de Physique, « Applied Physics Letters ».
Techniques de l'Ingénieur
|
|
|
|
|
|
|
|
Une équipe américaine dirigée par Kenneth O et son équipe de u Texas l'Université de Dallas a mis au point une puce électronique capable de voir au travers d’un mur ou d’un vêtement. Ce microprocesseur plutôt bon marché conçu à l’Université du Texas à Dallas (sud), est capable de distinguer une fréquence térahertz du spectre électromagnétique et d’en ressortir une image sur un écran de smartphone.
En clair, ladite puce est capable de voir au travers d’un mur ou d’un vêtement. Pratique pour des médecins qui souhaitent explorer l’intérieur du corps d’un patient, ou pour des ingénieurs à la recherche de clous enfoncés dans des murs. Mais quelque peu angoissant pour le commun des mortels. Pour limiter les inquiétudes inhérentes au respect de la vie privée, M. O et son équipe limitent le champ de leur étude de sorte que cette nouvelle puce ne permette de voir qu’à une distance maximum d’une dizaine de centimètres, a expliqué l’Université dans un communiqué.
En pratique et d’un point de vue très technique, cette puce fonctionne avec un semi-conducteur à oxyde de métal complémentaire (CMOS), d’utilisation courante dans les ordinateurs portables, les téléphones multifonctions, les téléviseurs ou les consoles de jeu. « La combinaison du CMOS et du térahertz signifie qu’on peut mettre cette puce et un émetteur au dos d’un téléphone portable, et en faire un appareil de poche qui peut voir à travers les objets », a expliqué le professeur Kenneth O.
Université de Dallas
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Comment faire face à la contrefaçon de microprocesseurs ? En utilisant des marqueurs génétiques, tirés de l'ADN de plantes, répond IEEE Spectrum, jeudi 3 mai. Selon le site spécialisé, la Defense Logistics Agency, chargée de fournir des composants électroniques pour l'armée américaine, a développé un système de signature avec une entreprise privée.
Avec sa technologie brevetée, l'entreprise fournit aux fabricants une encre spéciale, composée de séquences ADN identifiées, associées à un colorant. L'encre est invisible à l'œil nu, mais une fois appliquée sur les composants, semi-conducteurs, microprocesseurs ou cartes mères, elle devient fluorescente sous une lumière spéciale. D'après les tests réalisés par IEEE Spectrum, l'encre est capable de résister à la chaleur dégagée par les composants électroniques.
Ce n'est pas la première fois que ce type de marquages est utilisé dans une industrie pour identifier des contrefaçons. L'industrie du luxe ou du textile a déjà recours à ces systèmes. Jusqu'à présent, pour vérifier la traçabilité de leurs composants électroniques, les constructeurs procèdent à une vérification des documents administratifs des fournisseurs. Ils peuvent aussi réaliser des vérifications visuelles ou tester des échantillons.
- La chaîne de production, maillon faible de l’authentification
Pour les autorités américaines, l'authentification des composants est devenue un enjeu majeur, surtout dans des secteurs sensibles, tels que l'armement ou la cyberdéfense. En septembre 2010, un scandale lié à de fausses puces, destinées au département de la défense, avait éclaté. D'après un rapport de la chambre du commerce, les douanes auraient saisi 5,6 millions de faux composants, entre 2007 et 2010. Fin 2011, le président Obama a renforcé les mesures pour prévenir les contrefaçons, note iSuppli.
Comme l'indique IEEE Spectrum, l'efficacité d'un marquage ADN sera difficile à évaluer dans une industrie mondialisée comme celle des composants électroniques.
Le Monde
|
|
|
|
|
|
|
|
Des chercheurs du Centre technique du papier de Grenoble ont trouvé la solution pour les personnes sensibles aux ondes électromagnétiques générées notamment par les réseaux WiFi. Ils ont mis au point un tout nouveau papier peint capable de filtrer les ondes qui traversent nos habitations.
L'équipe de chercheurs grenoblois menée par Pierre Lemaitre-Auger a mis au point un tout nouveau papier peint qui devrait soulager les personnes sensibles aux ondes électromagnétiques générées notamment par les réseaux WiFi. Grâce à une encre conductrice déposée sur le papier selon des motifs très précis, ce papier peint filtre donc les ondes électromagnétiques.
"Le motif est formé de séries de lignes par paires ou seules. Une paire de lignes crée une capacité électrique. Une seule ligne crée une inductance. Le mariage des deux crée un filtre pour les ondes", précise Pierre Lemaitre-Auger. Si ce nouveau papier peint laisse passer les ondes radios et les fréquences d'urgence, il peut aussi intéresser certains lieux publics comme les cinémas, les salles de spectacle ou les hôpitaux, en bloquant les ondes émises par les téléphones portables, les rendant ainsi inutilisables dans ces espaces. L'invention qui a été rachetée par le groupe finlandais Ahlstrom sera commercialisée début 2013 à un prix "équivalent à celui d'un papier peint classique de moyenne gamme". Et, pour ceux qui n'apprécient pas forcément son graphisme, il pourrait être posé en sous-couche.
Enviro 2b
|
|
|
|
|
|
|
|
Beaucoup plus rapides, économes en énergie et révolutionnaires par la technologie des transistors utilisés... C'est ce que promettait Intel pour ses puces de nouvelle génération Ivy Bridge, la troisième du nom de la série Core (i5, i7), jusqu'à ce qu'il les dévoile officiellement. Au final, c'est la déception qui domine. Car de l'aveu même du fondeur, les performances s'avèrent seulement supérieures de 5 à 17 % à celles de la génération précédente Sandy Bridge.
Une surprise quand on sait qu'Intel a dépensé 10 milliards de dollars sur ce projet tant pour développer la technologie nécessaire que pour construire les 4 usines capables de graver des puces en 22 nanomètres. Un effort de miniaturisation qui permet concrètement d'intégrer plus de transistors sur une même puce (soit 1,4 milliard contre 1,16 en 32 nanomètres). Et qui a nécessité un nouveau type de transistor baptisé Tri Gate, dont Intel revendique l'invention.
Son architecture en 3D diffère en effet des transistors à deux dimensions développés depuis cinquante ans. Elle permet de les empiler au lieu de les ranger à plat, les uns à côté des autres, ce qui offre l'avantage de mieux contrôler la consommation d'énergie tout en rendant les puces plus rapides. Autre atout, cela réduit les fuites de courant qui ont d'autant plus de risques de se produire que l'on réduit la taille des transistors. Ce qui est justement le cas avec le passage en 22 nanomètres. Mais apparemment, la révolution annoncée ne convainc pas tout le monde.
"Même si Core est la puce X86 la plus rapide du marché, devant AMD, on peut se demander si Intel n'a pas atteint la limite de cette micro-architecture qui date déjà de plus de 7 ans", estime Nathan Brookwood, analyste chez Insight64. La loi de Moore, du nom du co-fondateur d'Intel, prédit en effet le doublement du nombre de transistors sur une puce tous les deux ans, ce qui ce traduit concrètement par un doublement de la performance des processeurs tous les 18 mois. "Avec Ivy Bridge, on en est loin. Sauf si l'on prend en compte l'avancée d'Intel dans le graphisme".
L'Expansion
|
|
|
|
|
|
|
|
Une société néerlandaise spécialisée dans l'économie verte envisage de combiner le vent et la biomasse pour faire des parcs éoliens en mer de véritables petites centrales de production d'énergie.
Le cabinet de conseil néerlandais Ecofys est actuellement en train de tester l'utilisation de fermes éoliennes offshore pour la culture d'algues destinées à la production de biocarburants. Depuis mars, un module de culture est installé dans une zone en mer à l'ouest de l'île hollandaise de Texel, dont Ecofys compte utiliser la première récolte en juin prochain à la fois pour la production de biocarburants, de nourriture animale et d'énergie. Le module de 20 mètres sur 20 est composé de câbles d'acier maintenus à deux mètres sous la surface de l'eau et sert de support à des filets dans lesquels sont cultivés des algues poussant naturellement dans les eaux de Mer du Nord.
L'objectif de l'expérience est à la fois de valider la possibilité de cultiver ces algues en pleine mer, et d'utiliser pour ce faire des fermes éoliennes en mer. Ces fermes étant par définition inaptes à la pêche et au trafic maritime, elles constituent d'excellentes zones de conservation. Les poissons y seraient d'autant plus attirés par la présence des algues.
- Des perspectives pour le soja
Le centre de recherche sur l'énergie néerlandais explore les possibilités de transformer les algues en protéines et en biocarburants. La culture en mer pourrait par exemple remplacer celle du soja, habituellement effectuée sur de grandes surfaces à terre. Pour cette expérience, Ecofys travaille en consortium avec plusieurs entreprises dont l'énergéticien néerlandais Eneco et le centre de recherche sur l'énergie. Le projet est financé par les ministères de l'Economie, de l'Agriculture et de l'Innovation. Ecofys a prévu d'organiser une fête à l'occasion de la récolte prévue fin juin pour médiatiser les résultats du test et discuter des prochaines étapes, qui nécessiteront des financements supplémentaires.
La Tribune
|
|
|
|
|
|
|
|
Depuis 2010, Bekaert, Voestalpine Plastics Solutions et BASF mènent des recherches sur les pièces moulées par injection renforcées par des treillis de ‘‘steelcord’’ (câbles d’acier). L’objectif est de produire des pièces dont l’intégrité structurelle est maintenue en cas de collision, contrairement aux pièces en laminés thermoplastiques renforcés de fibres longues (tôles organiques) et aux structures en carbone ou en fibre de verre et résine.
Le trio d'entreprises a conclu une alliance pour mettre en œuvre et faire évoluer cette nouvelle technologie d’injection baptisée EASI avec plusieurs partenaires dans l'industrie automobile. L'abréviation EASI est un acronyme formé à partir des mots Energie, Absorption, Sécurité et Intégrité.
Dans le cadre de ce projet, Bekaert apporte son savoir-faire dans la fabrication des treillis métalliques ‘‘steelcord’’, tandis que Voestalpine Plastics Solutions est responsable de tout ce qui touche à la technologie de transformation et à la fabrication des pièces. Quant à lui, BASF perfectionne d'une part ses polyamides spéciaux de la gamme Ultramid renforcés en fibres courtes ou longues et optimisés pour les collisions, en vue de leur combinaison avec les pièces de renfort en ‘‘steelcord’’. D'autre part, la société améliore l'expertise prévisionnelle et remanie son logiciel de simulation Ultrasim en y intégrant les méthodes de représentation et les modèles de matériaux pour les nouveaux composites.
Le renforcement ‘‘steelcord’’ dans le concept EASI garantit qu'une pièce en matière plastique conserve son intégrité structurelle. Par conséquent, même dans l'éventualité où elles sont endommagées lors d'une collision, les pièces EASI conservent leur capacité à absorber et transmettre l'énergie. Il s'agit d'une innovation importante, surtout comparée aux pièces en plastique à renforcement conventionnel qui réagissent le plus souvent en se cassant lorsqu'elles sont endommagées. Ses propriétés prédestinent le matériau aux zones destinées à absorber l'énergie et répartir uniformément l'énergie générée lors d'un impact.
Atteindre ce niveau de performances est quasiment impossible avec d'autres types de technologies de renforcement. Les pièces de construction automobile auxquelles peuvent s'appliquer ces propriétés sont celles essentielles pour la cohésion structurelle, comme les traverses de boucliers pare-chocs ou parties frontales, ainsi que les composants de la structure de la caisse.
Industrie & Technologies
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Jupiter est-elle riche en carbone ? C'est ce que propose une équipe internationale de chercheurs pilotée par Olivier Mousis, de l'Observatoire des Sciences de l'Univers THETA de Franche-Comté (UTINAM/CNRS/Université de Franche-Comté), afin d'expliquer la déficience apparente en eau mesurée en 1995 par la sonde Galileo dans l'atmosphère de la planète géante. Ce résultat vient d'être publié dans Astrophysical Journal Letters.
La plupart des planètes géantes extrasolaires découvertes jusqu'ici sont bien plus proches de leur étoile que ne le sont Jupiter et Saturne, les planètes géantes de notre propre système solaire ; ces exoplanètes sont ainsi plus chaudes, et l'oxygène qu'elles contiennent s'avère être plus proche des couches supérieures de leurs atmosphères, ce qui facilite sa détection. C'est ainsi que les astronomes ont pu mettre récemment à jour une nouvelle catégorie de géantes extrasolaires, les "planètes riches en carbone" : celles-ci possèdent plus de carbone que d'oxygène, contrairement aux étoiles autour desquelles elles gravitent où l'oxygène demeure toujours plus abondant que le carbone.
Paradoxalement, la mesure du rapport carbone / oxygène est bien plus difficile dans les planètes géantes de notre système solaire, pourtant bien plus proches de nous : comme elles sont plus froides, l'eau, principal composé comportant de l'oxygène, se situe en profondeur, bien en dessous des couches atmosphériques accessibles aux moyens d'observations.
Mais la sonde Galileo, en pénétrant en 1995 pour la première fois dans l'atmosphère de Jupiter, a permis aux chercheurs de s'affranchir de cette contrainte. Lors de cette plongée, la sonde a détecté alors un taux élevé de carbone, azote, soufre, argon, krypton et xénon, comme le laissaient supposer les principaux scénarios de formation de Jupiter admis jusqu'ici : une planète née, comme tout le système solaire, dans une nébuleuse primitive dont la phase gazeuse avait une composition analogue à celle du Soleil. Mais ces scénarios prévoyaient également un taux élevé d'oxygène ; or Galileo en a détecté très peu. Pour expliquer cette anomalie, les scientifiques ont alors imaginé que la sonde était tombée dans une zone anticyclonique de l'atmosphère de Jupiter.
Mais aujourd'hui, Olivier Mousis et ses collègues émettent une autre hypothèse : la mesure de Galileo reflète, en grande partie, un réel appauvrissement en eau de Jupiter, ce qui aurait pour conséquence de lui attribuer les propriétés d'une planète riche en carbone. Ce phénomène pourrait avoir eu lieu si Jupiter s'est formée dans une zone de la nébuleuse primitive elle-même pauvre en oxygène. L'équipe de chercheurs démontre alors que ce scénario permet d'expliquer les abondances des éléments mesurés par la sonde Galileo dans Jupiter de manière beaucoup plus satisfaisante que tous les scénarios de formation invoqués ces dernières années. Une observation clé permettant de tester l'hypothèse que Jupiter appartient à la famille des planètes riches en carbone sera la mesure de l'eau dans ses couches profondes. Cette observation constituera l'un des principaux objectifs de la sonde JUNO lancée par la NASA en août 2011 et devant arriver à Jupiter en juillet 2016.
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
La réapparition d’habitats oubliés et la résurgence d’espèces invisibles depuis des années constituent l’un des effets inattendus des catastrophes naturelles.
- Des conséquences inattendues
Des chercheurs chiliens et américains ont publié des résultats étonnants concernant les effets des catastrophes naturelles sur les plages de sable à travers le monde. Ils ont pu analyser ces effets au Chili. En fait ils étaient présents sur place pour une étude portant l’impact des digues sur les plages avant le tremblement de terre du 27 février 2010 qui a atteint 8,8 de magnitude et provoqué un tsunami dévastateur. Après le séisme, les scientifiques ont entrepris d’évaluer ses effets sur les plages qu’ils étaient en train d’étudier.
« Comme prévu, nous avons vu une forte mortalité de la vie dans la zone de balancement des marées sur les plages et les rivages rocheux, mais la reprise écologique sur certains de nos sites a été remarquable », a déclaré Jenifer Dugan, biologiste. « Les plantes reviennent dans des endroits où il n'y a plus de végétation, autant que nous le savons, depuis longtemps. Le tremblement de terre a recréé des plages de sable disparues. Ce n'est pas la réponse écologique initiale que vous pourriez attendre après un séisme majeur et un tsunami. »
En fait, sur les plages noyées par le tsunami, les animaux de marnage (petits poissons et crustacés) ont été décimés mais plusieurs plages ont été agrandies par les apports de limon et l'émergence de fonds infralittoraux. Sur celles-là, les scientifiques ont constaté un retour rapide des plantes et animaux qui avaient été chassés par les digues.
« Nous savions que les digues causaient le déclin des plages de sable fin et de la diversité biologique » explique Eduardo Jaramillo, responsable de l’étude publiée dans PLoS One. « Notre étude le confirme et fait apparaître certains effets inattendus des tsunamis. C’est très important à prendre en compte car 80 % des côtes du monde sont des plages de sable. » conclut-il.
Sciences et Avenir
|
|
|
|
|
|
|
|
L’Agence européenne de l’environnement (AEE) a publié, le 3 mai, une série de prévisions climatiques allant jusqu’à la fin du XXIe siècle. Le réchauffement, prévu sur le continent, affectera en particulier la Scandinavie et le pourtour méditerranéen.
Face au réchauffement, le Vieux continent n’est pas logé à la même enseigne. Entre 2021 et 2050, la hausse des températures sera de 1,5°C en moyenne par rapport à la période 1960-1990, mais cette hausse sera inégalement répartie sur le continent. Elle touchera en priorité l’est de la Scandinavie ainsi que le sud et le sud-est de l’Europe (+2,5°C), tandis que l’ouest sera moins affecté (+0,4°C). Les experts ajoutent que les vagues de fortes chaleurs et de sécheresses seront également plus nombreuses, confirmant une tendance déjà observée entre 1976 et 2006 (voir JDLE).
Même écart pour la période 2071-2100 : l’ensemble de l’Europe connaîtra une hausse moyenne de 3°C par rapport à 1960-1990, mais celle-ci atteindra 6°C dans le nord-est scandinave, surtout pendant l’hiver. Certains pays du pourtour méditerranéen seront également fortement touchés, comme le sud-est de l’Espagne et le massif alpin, en particulier pendant l’été.
Les projections sur les précipitations confirment un grand écart entre les régions du nord, qui vont enregistrer une hausse de 15 % par rapport aux moyennes annuelles, et celles du sud qui vont connaître une baisse de 15 %. Ces tendances seront confirmées et accentuées entre 2071 et 2100, précise l’AEE.
La hausse des températures, associée à la baisse des précipitations, sera lourde de conséquences pour l’agriculture méditerranéenne, qui boit jusqu’à 80 % de la consommation d’eau dans certaines régions selon un rapport de l’Agence européenne publié en mars dernier.
Pour réaliser ces prévisions climatiques, les experts de l’AEE ont travaillé à partir des 25 modèles climatiques régionaux différents mis au point dans le cadre du projet européen Ensembles (2004-2009). Ils se sont basés sur les scénarios A1B développés par le Groupe intergouvernemental d’experts de l’ONU sur le climat (Giec), qui prennent en compte une croissance économique rapide, un pic de la population mondiale à 9 milliards d’habitants en 2050 avant un déclin progressif, un rééquilibrage des sources d’énergie pour arriver à une concentration en CO2 limitée à 770 parties pour million en 2100.
Journal de l'Environnement
|
|
|
|
|
|
|
|
La ville «intelligente et douée de sensation» est pour bientôt. D’ici 2015, la PlanIT Valley, une cité de 150.000 habitants devrait sortir de terre au Portugal. Sa particularité ? Près de 100 millions de capteurs seront disséminés dans toutes ses infrastructures, permettant de moduler presque tous les aspects de la vie de ses habitants, explique le site d’information Salon.
Le projet, chiffré à 25 milliards d’euros, prévoit de relier chaque capteur en réseau à un ordinateur central dénommé UOS et construit en partenariat avec CISCO, contrôlant la ville avec le minimum d’interventions humaines possible.
Les promoteurs expliquent que cette technologie sera mise au service de l'écologie. Les capteurs devraient permettent d’utiliser au mieux les ressources naturelles. Les promoteurs annoncent vouloir réduire la consommation d'eau de 80 % par rapport à une ville normale et celle d'énergie de 50 %.
Concrètement, l’UOS gérera de façon automatique la plupart de la PanIT Valley. La température d’un appartement sera automatiquement baissée lorsque son occupant le quittera et en cas de fuite, l’ordinateur sera capable d’appeler de lui-même un plombier. Si un incendie venait à se déclarer dans un immeuble, l’ordinateur serait capable d’appeler les pompiers, de réguler les feux rouges sur leur chemin, de localiser les personnes à l’intérieur de l’immeuble, d’ouvrir et de fermer les fenêtres et même de réserver une place à l'hôpital le plus proche pour les victimes.
L’omniprésence des capteurs dans la vie des habitants pose cependant des problèmes éthiques. Impossible par exemple de mentir en appelant le travail pour dire que vous êtes malade et ensuite partir à la plage. Les capteurs sauront si vous avez quitté votre appartement. Pour Carlo Ratti, le directeur du MIT’s SENSEable City Lab, il n'y a pas lieu de s'inquiéter, du moment «que nous gardons le contrôle des données que le système possède sur nous».
Comme le note Salon, «la ville est par nature imprévisible et les hommes agiront toujours de manière imprévisible même pour le plus intelligent des ordinateurs». Mais les concepteurs de la PlanIT Valley ont tout prévu, le système est censé évoluer en fonction de la façon dont ses habitants se comportent.
Slate
|
|
|
|
|
|
|
|
Selon une étude américaine, les parcs d’éoliennes peuvent avoir une incidence sur les conditions météorologiques locales.
Alors qu’un peu partout dans le monde les fermes à éoliennes se multiplient et fournissent de l’électricité alternative, une étude américaine pourrait remettre en cause cette stratégie de déploiement. Des chercheurs de l’université de New-York ont en effet constaté une hausse des températures nocturnes à proximité des éoliennes. C’est en tout cas ce que révèle l’analyse des images satellites prises pour la période 2003-2011 dans les régions où sont implantées les grandes fermes d’éoliennes aux Etats-Unis.
Selon les scientifiques, qui publient leurs déductions sur le site de la revue Nature Climate Change, la hausse serait de 0.72°c par décennie. « Ce résultat semble assez solide pour moi, il montre que les températures nocturnes ont augmenté d'environ un demi-degré en été autour des parcs d’éoliennes. Les températures diurnes ne semblent pas être affectées. Cela est logique, puisque la nuit le sol devient beaucoup plus froid que l'air à quelques centaines de mètres au-dessus de la surface. Les éoliennes génèrent des turbulences douce près du sol ce qui le réchauffe. Cette stratégie est couramment utilisée par les producteurs de fruits (qui volent en hélicoptères au-dessus des vergers) pour lutter contre les gelées matinales » analyse Steven Sherwood du Climate Change Research Centre.
Bien que le réchauffement observé dans cette étude soit local, les auteurs estiment que ce problème devrait être étudié avec plus d’attention. Selon le principe du battement d’aile de papillon, « cette hausse des températures peut avoir des impacts remarquables sur le climat local et régional » avertissent-ils.
Sciences et Avenir
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Face à un cancer de la thyroïde à faible risque, les quatre stratégies thérapeutiques par l'iode 131 après résection chirurgicale de la glande sont toutes aussi efficaces, selon une étude menée par une équipe de l'Institut Gustave Roussy. Mais l'une de ces approches se distingue des autres par une meilleure tolérance et une moindre irradiation de l'organisme. Elle devrait donc à ce titre devenir le nouveau standard de traitement.
Pour définir la stratégie thérapeutique la plus efficace dans le traitement des cancers de la thyroïde à faible risque, après une chirurgie complète de la thyroïde, le Professeur Martin Schlumberger (chef du service de médecine nucléaire à l'Institut de cancérologie Gustave Roussy, Villejuif) et ses collègues de 24 centres français ont comparé les 4 approches existantes auprès de 752 patients répartis en quatre groupes.
Les patients ont ainsi été traités soit par :
- sevrage en hormone thyroïdienne, puis 100 millicuries d'iode 131 (ce qui correspond au traitement standard);
- sevrage en hormone thyroïdienne, puis 30 millicuries d'iode 131;
- traitement par hormone thyroïdienne, injections de TSH humaine recombinante puis 100 millicuries d'iode 131;
- traitement par hormone thyroïdienne, injections de TSH humaine recombinante puis 30 millicuries d'iode 131.
Il ressort de l'étude que les quatre approches ont une efficacité équivalente en termes de destruction du tissu thyroïdien restant, supérieure à 90 %, indiquent l'IGR dans un communiqué.
Néanmoins, l'approche qui consiste à administrer l'hormone thyroïdienne pour compenser l'absence de thyroïde puis à injecter de la TSH humaine recombinante avant d'administrer l'iode radioactif évite l'hypothyroïdie consécutive au sevrage en hormone thyroïdienne, précisent les auteurs. Qui plus est, l'administration d'une dose de 30 millicuries s'avérant aussi efficace que celle de 100 millicuries, cette approche est la moins irradiante pour l'organisme.
Les auteurs de l'étude, publiée dans le New England Journal of Medicine, doivent prochainement mener de nouveaux travaux utilisant cette nouvelle approche thérapeutique comme nouveau standard dans le traitement des patients atteints d'un cancer de la thyroïde à faible risque.
Doctissimo
Institut Gustave Roussy
|
|
|
|
|
|
|
|
Grâce à de nouvelles techniques de séquençage du génome, des chercheurs de l’Inserm ont pu établir que le code génétique des personnes atteintes d’un cancer du foie présentait souvent des modifications : les bases G étant remplacées par des bases T. Ces base qui constituent l’alphabet génétique sont au nombre de quatre : A, T, C, G. Elles s’apparient toujours paire à paire A avec T et C avec G.
Les mutations identifiées semblent spécifiques et significativement associées aux cancers du foie. Ceci suggère fortement, en dehors d’une cirrhose du foie préexistante, l’implication d’un agent toxique qui entraînerait des mutations dans l’ADN de ces patients écrivent les auteurs de l’étude dans un article publié dans la revue Nature Genetics. Dans les zones tropicales, des composés comme l’aflatoxine B1, une toxine issue d’un champignon tropical, sont déjà bien connus pour de tels effets cancérigènes. De nouvelles données épidémiologiques et toxicologiques restent à établir pour déterminer précisément quels pourraient être ces agents génotoxiques chez ces patients vivant en France.
L’analyse de l’ensemble des mutations observées a révélé quatre nouveaux gènes n’ayant jamais été décrits dans les tumeurs hépatiques et qui présentent pourtant des altérations génétiques récurrentes. Les auteurs estiment que ces gènes constituent une nouvelle cible thérapeutique et estiment que la mise au point de médicaments ciblant ces altérations génétiques permettront de mieux prendre en charge les patients porteur de ces anomalies.
Le cancer du foie est la 3ième cause de mortalité dans le monde. Il apparait souvent chez des personnes dont le foie est déjà touché par des pathologies telles qu’une hépatite B ou C, la consommation excessive d’alcool, des surcharges en fer ou l’obésité ; ces pathologies pouvant conduire au développement d’une cirrhose du foie.
Sciences et Avenir
Nature Genetics
|
|
|
|
|
|
|
|
Des chercheurs américains viennent de confirmer, dans la revue spécialisée Neurology, les effets bénéfiques des acides gras oméga 3 sur le cerveau. Consommés régulièrement et en quantités appropriées, ils diminueraient en effet le taux sanguin de beta-amyloïde, une protéine impliquée dans la maladie d’Alzheimer. « Il n’est pas facile de mesurer la quantité de protéine béta-amyloïde dans le cerveau, en revanche c’est beaucoup plus simple dans le sang" explique le Docteur Nikolaos Scarmeas du Columbia University Medical Center, à New York.
C’est pourquoi les scientifiques ont procédé à des prélèvements sanguins, pour connaître les effets de différents nutriments sur cette protéine. Pour ce faire, ils ont sélectionné plus de 1 200 volontaires de 65 ans et plus, ne souffrant pas de pathologie démentielle. Pendant plus d’une année, ceux-ci ont tenu les chercheurs informés de leurs habitudes alimentaires.
Les auteurs ont retenu une dizaine de nutriments, parmi lesquels les acides gras saturés, monoinsaturés, polyinsaturés (comme les oméga 3 et 6), les vitamines C, D, E, B9 et B12 ainsi que le béta-carotène. Résultat : plus les participants avaient consommé d’acides oméga 3 - contenus notamment dans le poisson gras ou les noix- et moins leur taux de protéine béta-amyloïde était élevé ! « Ces résultats renforcent nos certitudes sur les effets bénéfiques de l’alimentation dans la prévention des démences » conclut le Docteur Scarmeas.
Destination Santé
Neurology
|
|
|
|
|
|
|
|
La propolis, cette substance produite par les abeilles à partir de certains végétaux, aurait la propriété de stopper le cancer de la prostate. C'est ce qu'indique une recherche menée par des scientifiques de l'University of Chicago, qui précise toutefois que la propolis ne permet pas d'éradiquer ce cancer.
Cette substance est fabriquée par les abeilles à partir de la résine végétale extraite de conifères et des bourgeons de certains arbres. Elle est utilisée par ces insectes comme mortier dans la ruche, où elle sert à colmater les brèches et à boucher les fissures, tout en ayant des propriétés antiseptiques et anti-infectieuses. La propolis renferme de l'ester caféique de phénéthyle. Testé sur des souris de laboratoire, ce composé arrête la croissance des cellules du cancer de la prostate et des tumeurs.
«Si on donne aux souris chaque jour de l'ester caféique de phénéthyle, les tumeurs cessent de grossir. Au bout de plusieurs semaines, lorsqu'on cesse le traitement, les tumeurs recommencent à croître», a expliqué l'auteur principal de cette étude, Richard B. Jones. «Cette substance ne guérit donc pas le cancer de la prostate, mais elle stoppe sa progression», a-t-il ajouté. Les résultats de ces travaux ont été publiés dans la revue scientifique Cancer Prevention Research.
Canoe
Cancer Prevention Research
|
|
|
|
|
|
|
|
Un groupe de chercheurs canadiens, écossais et australiens, ont découvert que le salicylate, ingrédient actif de l'aspirine, accroît l'activité de la protéine AMPK (AMP-activited protein kinase) qui joue un rôle important dans le métabolisme et la régulation de la croissance de cellules. L'AMPKT est une enzyme qui joue un rôle dans l'homéostasie énergétique cellulaire, c'est-à-dire qu'elle peut être considérée comme une source d'énergie pour les cellules. La protéine AMPKT est activée par l'exercice physique et le médicament dénommé "Metformin", un antidiabétique couramment prescrit.
Dans cette étude, les chercheurs ont montré que, contrairement à l'exercice physique où la Metformin accroit l'activité de l'AMPK en altérant l'équilibre énergétique des cellules, l'effet du salicylate dépend totalement d'un unique acide aminé, le Ser108, de la sous-unité beta 1. Contrairement à ce qui se passe pour des souris génétiquement modifiées pour lesquelles la sous-unité beta 1 de l'AMPK est absente, le salicylate accroit la destruction des graisses et réduit la quantité de graisse dans le foie chez des souris obèses et génétiquement normales.
Cette découverte est importante dans le domaine du métabolisme et une étude clinique de grande envergure est en cours afin de tester si le salsalate, un dérivé de l'aspirine davantage toléré chez les patients, peut empêcher le diabète de type 2. A la vue d'études récentes semblant indiquer que la Metformin aurait un effet pour la prévention du cancer, les auteurs de cette nouvelle étude s'interrogent sur la capacité de l'aspirine à avoir une portée similaire. Toutefois, d'autres études seront nécessaires afin de vérifier cette hypothèse.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Comment distingue-t-on, en une fraction de seconde, un mot d'une succession aléatoire de lettres ? En lui attribuant un sens, comme le postule la théorie dominante, ou en détectant certaines régularités formelles dans l'enchaînement des lettres ? Pour le déterminer, Jonathan Grainger, de l'Université d'Aix-Marseille, et ses collègues ont appris à des babouins à distinguer des mots écrits de « pseudo-mots » (des séquences de lettres dépourvues de sens) : leurs résultats montrent qu'une telle distinction est possible en se fondant uniquement sur des capacités de reconnaissance des formes et d'analyse statistique, probablement antérieures aux facultés linguistiques.
La plupart des théories admettent que la lecture commence par une phase dite de traitement orthographique, lors de laquelle la forme des lettres et de leurs enchaînements est analysée. Les études d'imagerie cérébrale montrent d'ailleurs que les premières zones du cerveau qui s'activent durant la lecture sont situées sur la face ventrale du cortex occipito-temporal gauche, une zone associée à la reconnaissance des objets et des visages. Mais selon la théorie dominante, on ne peut apprendre à faire un traitement orthographique efficace que si l'on dispose au préalable de connaissances phonétiques (du son produit par les lettres) et sémantiques (du sens des mots). C'est cette hypothèse qu'ont voulu tester les chercheurs.
Pour enseigner un nouveau mot à un babouin, ils lui présentaient des séquences de quatre lettres par tranches de 100 : dans 25 cas, il s'agissait du nouveau mot, dans 25 autres de mots appris précédemment et dans les 50 restants de « pseudo-mots ». Le babouin devait indiquer, en pressant une forme ovale ou une croix sur un écran tactile, s'il était confronté à un mot ou à un pseudo-mot. Il recevait une récompense (des grains de céréales) en cas de bonne réponse. L'animal identifiait donc un mot comme une séquence de lettres qui lui était régulièrement présentée (les pseudo-mots, quant à eux, variaient souvent), sans lui attribuer aucun contenu sémantique.
En un mois et demi, les babouins ont appris plusieurs dizaines, voire centaines de mots. En moyenne, ils ont reconnu ces mots, affichés alternativement avec des milliers de pseudo-mots, dans 75 pour cent des cas. En outre, à mesure des apprentissages, ils distinguaient de plus en plus souvent un pseudo-mot d'un mot dès la première présentation de ce dernier : cela montre qu'ils ne se fondaient plus seulement sur la répétition d'une certaine séquence de lettres pour lui attribuer le statut de mot, mais qu'ils avaient appris à détecter certaines régularités, tels des groupes de deux lettres apparaissant fréquemment, dans l'organisation des mots. La capacité d'extraire une telle information serait donc partagée par l'homme et par certains de ses cousins primates, ce qui suggère qu'elle remonte à l'un de leurs ancêtres communs.
La préexistence de structures cérébrales efficaces de reconnaissance des formes et d'analyse statistique, exploitées par la lecture, expliquerait nos facilités à apprendre à lire. Un exemple illustre bien cette facilité : au début du XIXe siècle, un système d'écriture composé de 86 caractères a été inventé pour transcrire la langue Cherokee, auparavant exclusivement orale ; il s'est répandu dans la population en moins d'une génération…
Pour La Science
|
|
|
|
|
|
|
|
Une nouvelle espèce de bactérie photosynthétique vient d'être mise en évidence : elle est capable de contrôler la formation de minéraux (carbonates de calcium, magnésium, baryum, strontium), à l'intérieur même de son organisme. Publiée dans Science le 27 avril 2012, une étude menée par des chercheurs français révèle l'existence de ce nouveau type de biominéralisation dont le mécanisme est encore inconnu. Cette découverte a d'importantes implications pour l'interprétation du registre fossile ancien.
Les cyanobactéries focalisent depuis longtemps l'attention des scientifiques. Capables de photosynthèse, ces micro-organismes ont joué un rôle majeur dans l'histoire de la Terre, conduisant notamment à l'oxygénation de l'atmosphère. Certaines cyanobactéries sont capables de former des carbonates de calcium à l'extérieur de leur cellule, notamment celles associées aux stromatolites, des roches carbonées qui datent d'environ 3,5 milliards d'années et comptent parmi les plus anciennes traces de vie sur Terre. Des cyanobactéries fossiles pourraient donc se retrouver au sein de ce type de formation. Pourtant, les premières cyanobactéries fossiles datent seulement de 700 millions d'années bien après le début de l'oxygénation de la Terre qui remonterait à 2,3 milliards d'années. Pourquoi un tel laps de temps ?
Une équipe française vient peut-être d'apporter une réponse. Dans des stromatolites recueillis dans un lac de cratère mexicain et cultivés au laboratoire, les scientifiques ont mis en évidence une nouvelle espèce de cyanobactérie, baptisée Candidatus Gloeomargarita lithophora. Ce micro-organisme est issu d'une lignée qui a divergé précocement chez les cyanobactéries. Sa principale caractéristique : grâce à un mécanisme de biominéralisation encore inconnu, cette cyanobactérie fabrique des nanoparticules de carbonate de calcium intracellulaires, d'environ 270 nanomètres (soit 270 milliardièmes de mètres). Si l'on connaissait l'existence de cyanobactéries capables de former du carbonate de calcium extracellulaire au sein des stromatolites, c'est la première fois que l'on révèle une formation à l'intérieur de la cellule. Autre particularité de cette nouvelle espèce : elle accumule le strontium et le baryum pour l'incorporer aux carbonates.
Cette découverte a d'importantes implications pour l'interprétation du registre fossile ancien. En effet, si les cyanobactéries associées aux stromatolites formaient des carbonates à l'intérieur de leurs cellules et non pas à l'extérieur, elles n'auraient pas été préservées dans le registre fossile et pourraient expliquer le laps de temps entre leur apparition (il y a au moins 2,3 milliards d'années) et les plus vieux fossiles retrouvés (il y a 700 millions d'années). Reste désormais à découvrir pourquoi et comment cette cyanobactérie fabrique ce carbonate de calcium.
CNRS
|
|
|
|
|
|
|
|
Un nombre important de personnes âgées prennent trop de traitements ou des médicaments inappropriés, avec des risques d’effets indésirables graves pouvant aller de la chute à l’hémorragie digestive. Des chercheurs de l’Inserm ont fait le point dans la région Provence-Alpes-Côte d’Azur à partir des données de remboursement de l’Assurance maladie et publié leurs résultats dans la Revue d’Epidémiologie et de Santé Publique.
Les personnes âgées présentent des changements physiologiques liés à l’âge dont il faut tenir compte au moment de la prescription d’un médicament ; modification de l’absorption et de l’excrétion de la molécule, pathologies multiples, etc. Ces modifications les rendent plus vulnérables à certains traitements. Or, ces personnes reçoivent souvent un nombre important de médicaments en raison d’un état de santé qui tend à se dégrader. En France, la moyenne est de cinq molécules différentes par jour chez les plus de 80 ans.
- Mieux évaluer les pratiques
Cet usage entraîne des situations à risque, voire des accidents chez un certain nombre de patients. Près de 3,6 % des hospitalisations sont liées à un mauvais usage des médicaments, toute population confondue, avec un taux accru chez les seniors. A ce titre, la Haute Autorité de Santé a mis en place en 2006 un programme d’amélioration de la prescription chez le sujet âgé afin de diminuer ces risques, de favoriser le bon respect des traitements et d’éviter les prescriptions inutiles. Pour évaluer les pratiques dans le temps et l’efficacité de la prévention, des indicateurs sont aujourd’hui nécessaires. Les données de remboursement de l’Assurance maladie pourraient constituer l’un de ces indicateurs. Des chercheurs de l’Inserm l’ont évalué dans la région Provence-Alpes-Côte d’Azur.
- Connaître la consommation médicamenteuse chez les plus de 70 ans
Les chercheurs se sont intéressés aux patients de 70 ans et plus et ont analysé la prise de plusieurs classes de médicaments pouvant présenter un danger potentiel : les psychotropes, les anti-inflammatoires non stéroïdiens (AINS), les anti-vitamines K et les antiagrégants plaquettaires. Pour cela, l’Assurance maladie a fourni les données de remboursement pour ces médicaments chez les patients âgés. Cela ne présage pas de leur consommation réelle, mais d’une utilisation très probable. Les auteurs ont ensuite étudié plusieurs situations à risque comme l’excès de traitements, les prescriptions inappropriées ou encore l’absence de coprescriptions nécessaires.
- Un mésusage fréquent chez les personnes âgées
Les résultats montrent que parmi les prescriptions potentiellement inadaptées, l’absence de coprescription d’un protecteur gastrique avec un anti-inflammatoire non stéroïdien est très fréquente (28,1 %), ainsi que les traitements au long cours par benzodiazépines (21,5 %), la prescription de benzodiazépines à demi-vie longue plus lentes à s’éliminer (14,9 %) ou encore les traitements au long cours par AINS (11,6 %). Ces derniers peuvent provoquer des hémorragies digestives notamment après 65 ans. La prise doit donc être ponctuelle pour soulager une douleur et doit impérativement s’accompagner d'un protecteur gastrique, apparemment oublié dans plus de 28 % des ordonnances.
Quant aux benzodiazépines, elles sont souvent utilisées en cas d’anxiété et de dépression. Ces molécules s’accumulent davantage dans l’organisme avec l’âge et entraînent un risque accru de chute aux conséquences souvent graves chez la personne âgée.
Globalement, les auteurs notent que ces prescriptions potentiellement inadaptées augmentent significativement avec l’âge, sont plus élevés chez les femmes et les personnes souffrant d’affection de longue durée mais sont de fréquence variable au sein des départements étudiés.
Inserm
|
|
|
|
|
|
|
|
Des neurochirurgiens de l'Hôpital de l'Ile à Berne ont mis au point une technologie permettant de retirer des tumeurs du cerveau jugées inopérables jusqu'ici, situées dans la région responsable du mouvement.
Encore récemment, les tumeurs du cortex moteur primaire étaient considérées comme inopérables en raison des risques de paralysie du patient. Mais désormais, la méthode est au point et des critères de sécurité ont été établis, vient d’indiquer l'Hôpital de l'Île dans un communiqué. Une centaine de patients ont été opérés depuis 2009.
Une étude a été réalisée sur 14 patients, avec un taux de réussite de 93 %, selon des travaux à paraître de la revue Neurosurgery. Cela fait de cette technique un outil permettant d'opérer ces tumeurs avec un niveau élevé de sécurité, a indiqué Andreas Raabe, directeur de la clinique de neurochirurgie de l'hôpital universitaire bernois.
La méthode consiste à utiliser une sonde large d'un millimètre émettant des micro-impulsions électriques afin de stimuler la zone du cortex moteur autour de la tumeur. Les chercheurs ont constaté qu'il y avait un lien direct entre la force du courant - qui déclenche des mouvements des bras et des jambes du patient - et la distance séparant la sonde des neurones.
Ce «radar de distance» permet aux chirurgiens d'opérer des tumeurs situées à deux millimètres seulement du cortex moteur. Les méthodes utilisées jusqu'ici ne permettaient d'évaluer que grossièrement cette distance.
Tribune de Genève
|
|
|
|
|
|
|
|
Hossaim Haick et ses collègues de l’Institut technologique israélien, Technion, ont mis au point un prototype de « nez artificiel » capable d’analyser la composition de notre haleine, à la recherche de marqueurs chimiques bien précis. En quelques minutes, le système permettrait de diagnostiquer précocement la présence d’un cancer de la tête et du cou, ou des poumons. Afin de vérifier l’efficacité de leur machine, les chercheurs l’ont testée sur 80 volontaires.
Les premiers résultats confirmeraient l’efficacité de ce « nez articiel ». En effet, le système a permis de détecter les 22 participants atteints d’un cancer de la tête et du cou, et les 24 qui avaient développé un cancer des poumons. Si ce capteur de nouvelle génération n’a montré aucune défaillance, les chercheurs estiment qu’une étude de plus grande ampleur sera nécessaire pour valider la fiabilité du concept. Avant de passer de l’état de prototype à celui de véritable test de diagnostic utilisable par les médecins, il faudra de nombreuses années…
Information Hospitalière
SDM
|
|
|
|
|
|
|
|
Transgene a annoncé avoir atteint une preuve de concept préclinique avec TG1050, un nouveau candidat vaccin thérapeutique contre l’infection chronique par le virus de l’hépatite B (« VHB »).
Les données précliniques obtenues soutiennent la poursuite du développement du produit. A ce stade, les résultats clés sont :
- Une forte et large réponse immunitaire (réponse cellulaire de type T) dans des modèles précliniques après une ou plusieurs injections ; - Un puissant effet in vivo de lyse cellulaire (cytolyse1) contre plusieurs épitopes2 ; et - La stabilité génétique du candidat vaccin.
En dépit de l’introduction au cours de la décennie de nouveaux médicaments efficaces, les analogues de nucléosides (« NUCs ») et l’interféron alpha pégylé (PEG-IFN?), pour traiter l’hépatite B chronique (HBC), ces traitements ne parviennent que rarement à l’élimination de l’infection, c’est-à-dire à la disparition de l’antigène de surface du VHB (« HBsAg ») en même temps qu’une réponse anticorps mesurable contre ce même antigène, ou séroconversion3 contre l’HBsAg.
En combinaison avec le traitement standard, TG1050 pourrait augmenter le niveau de séroconversion contre l’HBsAg par comparaison avec les traitements actuels, offrant ainsi une nouvelle option pour guérir cette maladie. Un développement clinique est attendu en 2014.
« L’avènement d’un nouveau candidat vaccin contre l’hépatite B chronique disposant d’une preuve de concept préclinique, associé aux récentes données d’efficacité clinique obtenues avec TG4040, notre vaccin thérapeutique contre l’hépatite C, apporte à nouveau la preuve de l’excellence de la recherche de Transgene dans le domaine des maladies infectieuses» a indiqué Philippe Archinard, Président-Directeur Général de Transgene. Il a ajouté : « Bien que le traitement de l’HBC ait été considérablement amélioré au cours des dix dernières années, l’infection est rarement éliminée dans la durée et les patients doivent rester sous traitement pendant des décennies. Nous pensons qu’un traitement combinant TG1050 avec le traitement standard pourrait contribuer à éliminer l’infection, apportant la guérison à des millions de patients. »
Information Hospitalière
|
|
|
|
|
|
|
|
Cette étude observationnelle a cherché l’association entre aspirine et amélioration de la survie chez des patients diagnostiqués avec le cancer du côlon, l'un des cancers les plus fréquents dans le monde, avec 1 million de nouveaux cas et 600.000 décès chaque année. Les données ont été extraites à partir du registre du cancer pour la région sud des Pays-Bas et des registres de population. Les participants ont été classés en non-utilisateurs d’aspirine ou autres AINS, en utilisateurs ponctuels avec prescription d’au moins 14 jours, en utilisateurs fréquents avec au moins 3 prescriptions dans les 9 derniers mois, puis en utilisateurs avant, après et avant et après le diagnostic.
4.481 patients ont été diagnostiqués avec un cancer de l’intestin de 1998 à 2007, dont 62 % avec le cancer du côlon. Sur les 4481 diagnostics de cancer de l'intestin, 26 % n'avaient jamais eu de prescription pour l'aspirine ou autres AINS, 47 % avaient eu une prescription avant et après le diagnostic et 27 % avaient eu une prescription après le diagnostic. La majorité des prescriptions sont sur la base d’une dose quotidienne de 80mg. Les chercheurs constatent que :
- les utilisateurs d'aspirine après le diagnostic ont une chance accrue de 33 % de survivre pendant au moins 9 mois (RR : 0,77 IC : 95 % de 0,63 à 0,95).
- Une fois les patients regroupés par type de cancer, les chercheurs constatent que le bénéfice de survie n'est vérifié que pour le cancer du côlon (RR : 0,65, IC : 95 % de 0,50 à 0,84).
- Pour les utilisateurs fréquents, le gain de survie associé à l'utilisation d'aspirine est accru de 39 % par rapport aux non-utilisateurs (RR : 0,61, IC : 95 % de 0,46 à 0,81).
- Les utilisateurs d’aspirine à la fois avant et après le diagnostic ont un risque de décès réduit de 12 % vs les non-utilisateurs.
- En revanche, l’utilisation d'autres AINS est associée à une survie diminuée (RR : 1,93, IC : 95 % de 1,70 à 2,20).
L'utilisation d'aspirine après un diagnostic de cancer du côlon est donc associée à un risque plus faible de la mortalité globale. Cependant, alors que la plupart des participants de cette étude prenaient de l’aspirine prescrite en traitement de maladies cardiaques plutôt que directement pour le cancer du côlon, des essais contrôlés comparant des utilisateurs d'aspirine à des non utilisateurs seront encore nécessaires pour prouver ce bénéfice de l'aspirine spécifiquement pour le cancer du côlon.
Santé Log
British Journal of Cancer
|
|
|
|
|
|
|
|
Des chercheurs de TWINCORE, le Centre d'infectiologie expérimentale et clinique commun à la Faculté de médecine de Hanovre (MHH, Basse-Saxe) et au Centre Helmholtz d'infectiologie (HZI, Brunswick, Basse-Saxe), ont découvert que le flovanoïde ladanéine, extrait de la plante Marrubium peregrinum L, peut empêcher le virus de l'hépatite C (VHC) d'infecter des cellules de foie. Ils voudraient à présent utiliser cette propriété à des fins thérapeutiques.
L'hépatite C est l'une des infections les plus fréquentes dans le monde : 160 millions de personnes sont porteuses du virus. En Allemagne, un demi-million de patients vivent avec l'hépatite C. Le virus est souvent latent, et l'infection asymptomatique, mais mène dans 70 % des cas à une infection chronique du foie. Ce dernier peut alors développer une cirrhose (fibrose cicatricielle) et/ou des tumeurs. La seule solution restante est une transplantation de foie : les infections chroniques du foie dues au VHC font d'ailleurs partie des causes les plus courantes de transplantation de foie. Le VHC détruit cependant en principe le nouveau foie encore plus rapidement que le premier, laissant le patient à court de solution.
C'est ici qu'intervient la ladanéine : Sibylle Haid et le groupe "Infectiologie expérimentale" de TWINCORE prévoient d'injecter le flovanoïde ou un de ses dérivés au nouveau foie juste après sa transplantation pour éviter son infection par le virus resté dans le corps. Ceci fonctionne déjà en culture cellulaire. La substance atteint rapidement le sang après absorption par voie buccale ou par injection, elle est bien tolérée par les souris et reste active même en présence d'immunosuppresseurs, qui sont automatiquement prescrits après une transplantation. De bonnes conditions sont donc réunies pour en tirer une nouvelle thérapie et Thomas Pietschmann, chef du groupe, prévoit d'étudier la ladanéine plus en détails : "Nous voulons mieux comprendre comment la ladanéine empêche l'infection. Il est à noter qu'elle évite l'intrusion d'autres virus possédant, comme le VHS, une enveloppe lipidique sensible à la ladanéine." (le VIH fait partie de la même famille de virus). Il s'agit là peut-être d'une des clés pour comprendre le fonctionnement de la molécule.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Des chercheurs de l’Institut national de recherches agronomiques (INRA) viennent de montrer que le lycopène (substance que l’on trouve principalement dans la tomate et qui lui donne sa couleur) aurait un effet anti-inflammatoire s’exerçant sur le tissu gras ou tissu adipeux. Cette propriété permettrait de réduire l’état inflammatoire associé à l’obésité et favorisant le diabète de type 2.
En plus de son rôle de stockage de lipides, le tissu adipeux sécrète une grande quantité de protéines appelées adipokines (qui incluent les cytokines et les chimiokines), qui participent à la physiologie générale de l’organisme. L’obésité, caractérisée par un développement massif du tissu adipeux, conduit à une inflammation de bas niveau due notamment à une production accrue de ces cytokines et chimiokines. Cet état inflammatoire contribuerait au développement de la résistance à l’insuline, à l’origine du diabète de type 2.
Le lycopène est un caroténoïde rouge, qui donne sa couleur notamment à la tomate. Toutefois, on le trouve dans différents fruits (pastèque, pamplemousse, papaye, goyave,…) mais également dans les produits transformés à base de tomate (dont le célèbre ketchup !).
Le lycopène possède des propriétés antioxydantes et anti-inflammatoires avérées. Récemment, des études ont démontré que des rations alimentaires riches en lycopène étaient associées à un tour de taille plus petit et à une masse corporelle grasse plus faible, ce qui suggère qu’il aurait un impact sur le métabolisme du tissu adipeux. Or, le lycopène est stocké essentiellement dans le tissu adipeux. Compte tenu de ces effets anti-inflammatoires, les chercheurs ont donc émis l’hypothèse que ce caroténoïde rouge pourrait réduire la production de cytokines et de chimiokines par le tissu adipeux, ce qui pourrait limiter la survenue des pathologies associées à l’obésité.
Pour tester cette hypothèse, des chercheurs de l’INRA de Marseille (Bouches-du-Rhône) ont cultivé des explants (petits morceaux) de tissu adipeux de souris nourries avec un régime riche en graisse en présence de lycopène. Cette incubation a permis de montrer que cette substance était capable de réduire la production de cytokines et de chimiokines pro-inflammatoires produites par le tissu adipeux.
Conclusion : il ressort que les deux types cellulaires répondent à un traitement par le lycopène par une diminution de l’expression des cytokines et des chimiokines. Les mêmes résultats ont été reproduits avec des cellules de tissu adipeux humain en culture.
Pour la première fois, les chercheurs ont donc démontré l’effet anti-inflammatoire du lycopène sur le tissu adipeux et sur les adipocytes et préadipocytes, en particulier. Ces résultats permettent d’expliquer, du moins en partie, les effets bénéfiques pour la santé du lycopène, notamment pour limiter la prévalence des pathologies liées à l’obésité, telles que l’insulino-résistance qui constitue un facteur de risque des maladies cardio-vasculaires.
En 2007, des résultats publiés dans le Journal of Gerontology montraient que des niveaux faibles de lycopène et de zéaxanthine étaient associés à de moindres performances cognitives. Les chercheurs suggèrent donc que la diminution des taux plasmatiques de ces composés antioxydants favoriserait le stress oxydatif du cerveau et donc la dégradation des cellules nerveuses, entraînant ainsi le déclin des fonctions cognitives.
Senior Actu
|
|
|
|
|
|
|
|
Le cerveau des insectes est capable de fabriquer et de manipuler des concepts abstraits. Il peut même utiliser simultanément deux concepts différents afin de prendre une décision face à une situation nouvelle.
Ce résultat totalement inattendu a été obtenu par l'équipe du professeur Martin Giurfa au centre de recherches sur la cognition animale (CNRS/Université Toulouse III - Paul Sabatier). Cette capacité, que l'on croyait propre aux humains et à quelques primates, montre que des analyses cognitives sophistiquées sont possibles en l'absence de langage et malgré une architecture neurale miniaturisée. Ces travaux, publiés dans la revue PNAS, remettent en cause de nombreuses théories dans des domaines tels que la cognition animale, la psychologie humaine, les neurosciences et l'intelligence artificielle.
La cognition humaine, et notamment nos capacités mathématiques et linguistiques, se base sur notre capacité à manipuler des concepts" ? Dans la vie de tous les jours, les concepts qui relient des objets distincts par des règles de relation de type « même », « différent », « plus que », « au-dessus de », prennent une place prépondérante. Par exemple, l'automobiliste est guidé par un réseau complexe de concepts : codes couleur, flèches, panneaux... L'utilisation de tels concepts, que l'on a souvent crue propre à l'homme et à quelques primates, pourrait être en fait beaucoup plus répandue dans le règne animal.
Les chercheurs ont en effet montré que les abeilles sont capables de générer puis de manipuler des concepts afin d'accéder à une source de nourriture. Pour cela, ils ont pris un groupe d'abeilles qu'ils ont entraîné à pénétrer dans une enceinte, afin de récolter de la solution sucrée. Dans cette enceinte, les abeilles rencontraient deux stimuli placés chacun sur une cloison. Chaque stimulus était composé de deux images distinctes soit l'une au-dessus de l'autre, soit l'une à côté de l'autre. Au milieu de ces paires d'objets était placé un orifice délivrant, soit une récompense, de l'eau sucrée, soit une punition, une goutte de quinine. Ainsi, les abeilles étaient récompensées sur un concept (par exemple « au-dessus de ») et punies sur l'autre (« à côté de »). Les images variaient constamment tout en maintenant les relations « au-dessus de » et « à côté de » ainsi que leurs associations respectives à la récompense et la punition. Au bout d'une trentaine d'essais les abeilles reconnaissaient sans faute la relation qui les guiderait vers l'eau sucrée.
L'un des tests consistait à placer ces mêmes abeilles devant de nouvelles images. Le seul point commun avec les figures de l'entraînement était leur disposition : « l'une au-dessus de l'autre » et « l'une à côté de l'autre ». Les abeilles, bien que n'ayant jamais vu ces nouvelles images, ont choisi correctement la cible en fonction de cette relation d'ordre abstrait. Mais ce n'est pas tout : lors de l'entraînement, les images au milieu desquelles se trouvait la récompense étaient toujours différentes entre elles. Pour savoir si les abeilles avaient aussi appris cette relation de différence, les chercheurs ont confronté les abeilles à des stimuli nouveaux où les images constituantes respectaient la relation récompensée (par exemple « l'une au-dessus de l'autre ») mais qui étaient soit différentes, soit identiques. Les abeilles ont ignoré les stimuli faits d'images identiques, montrant qu'en plus des concepts « au-dessus / au-dessous » et « à côté », elles manipulaient simultanément le concept de « différence » pour prendre leur décision.
Cette étude remet en question l'idée que des cerveaux mammifères (dont le nôtre), plus importants en taille, sont nécessaires à l'élaboration d'un savoir conceptuel. Elle démontre aussi que la formation de concepts est possible en l'absence de langage. D'un point de vue philosophique, elle apporte de nouveaux éléments à la discussion sur ce qui serait propre à l'homme. A l'heure actuelle, l'équipe de Martin Giurfa s'attelle à l'identification des réseaux neuronaux responsables de cette conceptualisation.
CNRS
|
|
|
|
|
|
|
|
Apprendre et se souvenir, voilà deux qualités que nous partageons avec tous les animaux et que nous exploitons sans même y prêter attention. Les mécanismes neuronaux qui se cachent derrière ces phénomènes demandant à la fois de la stabilité et de la flexibilité restent pourtant méconnus. Une étude réalisée par un professeur de la Faculté de Médecine de l'Université de Genève (UNIGE) et des chercheurs américains a ouvert une nouvelle fenêtre sur ces mécanismes étonnants. L'équipe a en effet réussi à suivre optiquement l'activité du même ensemble neuronal pendant des semaines d'apprentissage. Ces résultats sont publiés dans le magazine Nature.
Que se passe-t-il au niveau neuronal lorsque l'on apprend ? Une question qui intéresse le neurobiologiste Daniel Huber, nouvellement arrivé au Département des neurosciences fondamentales de l'UNIGE. Pendant son séjour aux États Unis, il a travaillé avec son équipe d'arrache pied à mieux comprendre ce mécanisme fondamental. "Que fait un neurone au quotidien ? Est-ce qu'il participe toujours aux mêmes fonctions ? Comment change sa réponse pendant l'apprentissage ?" questionne le professeur. L'une des façons de répondre à ces interrogations consiste à suivre en direct l'activité d'un grand nombre de neurones durant un apprentissage avec le but d'établir un modèle capable de mettre en évidence le lien entre les changements comportementaux et les changements des représentations neuronales.
- Quand la souris se concentre
Il est actuellement impossible et même illusoire de suivre l'activité d'un grand nombre de neurones individuels en direct chez un être humain. Mais les chercheurs se sont rendus compte que la souris pouvait constituer un excellent sujet pour ce genre d'investigation. "Ces petits rongeurs nous ont surpris par leur capacité à apprendre rapidement des tâches précises et complexes et à se concentrer pendant des heures explique Daniel Huber. Il est cependant important de les motiver et de les récompenser continuellement. C'est exactement comme pour nous."
La tâche des souris, placées sous le microscope, consistait à balayer l'espace devant elles avec leurs moustaches en quête d'un objet. Parfois l'objet était atteignable, parfois il ne l'était pas. Chaque fois que le rongeur réussissait à détecter l'objet correctement avec ses moustaches, il devait répondre avec un mouvement de la langue et recevait en récompense une goutte d'eau à boire. "Ce dispositif met en relation un circuit sensoriel, le toucher des moustaches, avec un circuit moteur, celui du mouvement de la langue, pour signaler la détection de l'objet au bon moment et collecter la récompense ensuite" précise le neurobiologiste.
Restait à suivre l'activité dans le cortex cérébral des souris pendant cet apprentissage particulier. Les chercheurs ont alors remplacé une petite partie de l'os au-dessus du cerveau par une minuscule fenêtre en verre aux mêmes dimensions. Cette fenêtre a permis à l'équipe de Daniel Huber de filmer quotidiennement l'activité des mêmes 500 neurones grâce à un microscope à deux photons. Les cellules nerveuses sous la fenêtre ont été préalablement modifiées par des moyens génétiques pour exprimer un marqueur fluorescent changeant d'intensité en fonction de leurs activités.
"Nous avons ensuite corrélé l'activité individuelle de ces neurones avec toutes les actions de la souris, les différents mouvements des moustaches et de la langue. Un peu comme si on synchronisait la bande son d'un film !" ajoute le neurobiologiste. Les chercheurs ont confié cette masse de données à des programmes algorithmiques dont le but était d'établir un lien entre les activités au niveau neuronal et toutes les informations sensorielles et moteur, de façon à les modéliser le plus fidèlement que possible.
Le programme a semble-t-il rempli son rôle puisque, grâce à lui, Daniel Huber et ses collègues disposent désormais d'un outil de décodage neuronal efficace et fiable. Ils ont réussi à construire une carte fonctionnelle des neurones enregistrés qui décrit leur implication dans les différents aspects de la tâche comportementale.
- Un effet lié à la récompense
Cette carte leur a révélé plusieurs points fondamentaux : "Alors que les mouvements des moustaches deviennent de plus en plus efficaces et précis pendant l'apprentissage, leur représentation neuronale reste relativement stable, autrement dit, on ne constate pas de modifications fondamentales dans l'activité de neurones concernés. Par contre, la représentation neuronale de la récompense se démarque de plus en plus nettement". D'une façon simpliste, on pourrait dire que même si la souris devient experte dans différents aspects moteur de la tâche comportementale, les traces de cette expérience s'inscrivent sélectivement dans une population de neurones précise, celle qui active le mouvement de langue pour récolter la goutte d'eau.
D'autres analyses ont relevé que les neurones individuels restaient fidèlement liés à un certain aspect du comportement, mais que la plupart gardait une grande flexibilité et pouvait rester silencieux pendant des journées entières. Cette stabilité fonctionnelle, malgré une flexibilité à participer (ou pas) dans une certaine représentation neuronale au quotidien, a été d'ailleurs prédite dans différents travaux théoriques sur le sujet de l'apprentissage.
"Est-ce que ces caractéristiques sont un aspect particulier de la région moteur enregistrée ou est-ce une règle générale qui s'impose partout dans notre cortex cérébral ?" se demande Daniel Huber. C'est d'ailleurs une des questions qu'on étudie actuellement dans mon laboratoire à Genève".
Techno-Science.net
|
|
|
|
|
|
|
|
Une récente étude confirme que les hommes sont les premières victimes des cancers. Le constat s'applique à tous les types de cancers. Seules exceptions : ceux qui touchent les organes génitaux (utérus...) et la thyroïde.
Une inégalité qui peut s'expliquer par des comportements différents entre les sexes. Prenez le cancer du poumon, largement lié au tabac. Les hommes fumaient plus que les femmes, mais l'écart est en train de se réduire avec l'augmentation du tabagisme féminin. D'autres cancers prédominants chez les hommes sont aussi attribués au tabac : les cancers de la vessie, de l'oesophage ou du larynx. Pour ceux-là, le rapport homme-femme est élevé et ne change pas.
La proportion de cancers de l'anus et du rectum augmente aussi chez les hommes. Le cancer de l'anus et celui du larynx ont, en partie, une cause. Le virus papilloma ou HPV se transmet via les rapports sexuels. Ce qui justifierait de réfléchir à un remboursement de la vaccination pour le virus HPV à l'origine de tout ou partie de ces cancers chez les hommes. Le HPV provoque aussi les cancers du col de l'utérus chez les femmes, et le vaccin est déjà remboursé pour les jeunes filles de 14 ans.
Le cancer du foie est aussi plus fréquent chez les hommes. Il est généralement le résultat d'une association entre des troubles métaboliques dus à l'alcool, au sucre et/ou à l'obésité, et les virus des hépatites B ou C. Or la France souffre d'un retard en termes de couverture vaccinale contre le virus de l'hépatite B. Pour le mélanome, la proportion de femmes - qui étaient les plus concernées - diminue sans explication. Reste la fréquence très grande, chez les femmes, des maladies de la thyroïde, dont les cancers, mais là aussi l'énigme reste entière.
Le fait que le cancer soit plus commun chez l'homme est d'autant plus paradoxal que la longévité masculine est plus faible alors que la fréquence des cancers augmente avec l'âge. Les comportements à risques, plus fréquents chez les hommes, ne suffisent pas à expliquer cette différence. Par ailleurs, les stratégies de prévention efficaces telles que les vaccins ne sont pas mises en place. L'investissement n'est - comme souvent - pas à la hauteur des enjeux.
Le Point
Unboundmedline
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Des globules rouges ont été identifiés dans les plaies d’Ötzi, cet homme dont la momie vieille de 5000 ans a été conservée par la glace.
D’Ötzi, on connaît à peu près tout : Son ADN a été décodé, le contenu de ses intestins a permis de connaître le menu de son dernier repas et les circonstances de sa mort semblent avoir été élucidées. La seule chose qu’il manquait aux scientifiques était un échantillon de sang de cet homme mort il y a 5000 ans environ. L'examen de son aorte n'avait donné aucun résultat. Mais, récemment, une équipe de scientifiques italiens et allemands a réussi à localiser des globules rouges dans les plaies Ötzi, découvrant ainsi les plus anciennes traces de sang connues. Cette découverte a fait l’objet d’une publication dans le Journal of the Royal Society Interface.
Les chercheurs ont utilisé un microscope à force atomique pour étudier des coupes de tissus d’une plaie causée par une flèche reçue dans le dos. Il en est ressorti une image de globules rouges en forme de disque biconcave ou de beignet classique, exactement comme chez les personnes saines d'aujourd'hui. « Jusqu'à présent, il y avait eu une incertitude sur la durée durant laquelle le sang pourrait survivre. Sans parler de l’incertitude sur la forme des cellules sanguines humaines de la période chalcolithique, l'âge de cuivre » explique Albert Zink, de l’Académie Européenne.
L’examen de la plaie a également révélé d’autres détails qui contredisent le scénario de la mort d’Ötzi. Le dernier en date indiquait que l’homme des glaces avait été abattu par derrière d’une flèche qui a perforé le poumon gauche et sectionné une artère près de l’épaule, provoquant une hémorragie. Ce qui signifie une mort rapide en quelques minutes ou heures. Or, les scientifiques ont identifié de la fibrine, une protéine impliquée dans les processus de cicatrisation des plaies. Ötzi n’aurait pas donc succombé immédiatement à ses blessures mais quelques jours après avoir été attaqué.
Sciences et Avenir
|
|
|
|
|
|
|
|
Un spinosaure, dinosaure à « gueule de crocodile », aurait pour la première fois été découvert en Asie.
Égypte, Angleterre, Niger et Brésil : ce sont les seuls pays où l'on avait découvert des spinosaures, dont le célèbre baryonyx, des dinosaures carnivores au museau allongé et muni de dents proches de celles des crocodiles. Dès lors, on imagina que le continent asiatique n'avait hébergé aucun de ces reptiles. C'était une erreur ! Ronan Allain, du Muséum national d'histoire naturelle (CNRS/UPMC), Thiengkham Xaisanavong, du Musée des dinosaures de Savannakhet, au Laos, et leurs collègues ont mis au jour un spinosaure à Tang Vay, au Laos.
L'animal est nommé Ichthyovenator laosensis, soit « le chasseur laotien de poissons », en référence à son régime piscivore. Outre leur « gueule de crocodile », les spinosaures se distinguent le plus souvent par une voile, à fonction que l'on suppose décorative, portée par des prolongements osseux (des épines neurales) des vertèbres dorsales et caudales. Cette spécificité a conduit les paléontologues à l'identification du fossile.
Précisons que cette découverte, qui prouve la présence de spinosaures en Asie, et donc dans le monde entier, valide les travaux du paléontologue français Eric Buffetaut : avec Rucha Ingavat, il avait formulé cette hypothèse dès 1986, sur la base de dents mises au jour en Thaïlande.
Pour La Science
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|