|
|
|
|
|
NUMERO 1061 |
|
|
|
|
|
|
|
Edition du 24 Juillet 2020
|
|
|
|
|
Edito
La Chine relance la compétition vers le solaire spatial
Il y a maintenant bientôt un siècle, en 1925, le génial scientifique russe Konstantin Tsiolkovski, père de l’astronautique moderne, après avoir imaginé le concept d’ascenseur spatial dès 1895 et, en 1903, les voyages dans l’Espace à l’aide de fusées, proposait l’idée d’une centrale solaire spatiale, capable de capter en permanence une grande quantité d’énergie en provenance du soleil et de la renvoyer sur Terre, sous forme d’un faisceau d’ondes.
En 1968, Peter Glaser, un ingénieur d’origine tchèque, réfugié aux Etats-Unis, reprit l’idée de Tsiolkovski dans un article, devenu célèbre, de la revue Science. Il imagina de mettre sur orbite une centrale énergétique composée de vastes ensembles de panneaux solaires. Glaser voyait grand et sa structure de 50 000 tonnes, pour 50 km2, était conçue pour disposer d’une puissance de 5 GW, équivalente à quatre réacteurs nucléaires. L’électricité produite par ces panneaux spatiaux devait être renvoyée sur Terre par une antenne d’un km de diamètre, sous forme d’un faisceau de micro-ondes, puis, une fois réceptionnée au sol par une antenne de sept km de diamètre, cette énergie reçue sous forme d’ondes courtes devait être reconvertie en électricité, de manière à pouvoir alimenter les réseaux de distribution…
Dans les années 1970, les scientifiques de la NASA démontrèrent qu’il était techniquement possible de construire une telle centrale dans l’Espace pour produire de l’électricité et la transmettre par rayonnement, micro-onde ou laser, à une antenne réceptrice sur Terre. Mais il y a 50 ans, un tel projet n’était pas envisageable sur le plan économique. Un demi-siècle plus tard, les technologies du photovoltaïque et celles de transfert d’énergie sans fil ont fait des progrès si considérables que ce projet de centrale solaire spatiale est récemment ressortie des cartons et suscite un réel intérêt de par le Monde, surtout dans le contexte énergétique et climatique actuel.
Autre facteur décisif : l’industrie spatiale a réussi, grâce à l’arrivée de nouveaux acteurs privés, comme SpaceX, a abaisser de manière sensible les coûts de lancement et d’acheminement sur orbite liés à la réalisation d’une telle station spatiale productrice d’énergie solaire. Aujourd’hui, SpaceX a profondément bouleversé, en seulement quelques années, la donne spatiale et propose des tarifs allant de 4 700 à 12 600 dollars par kilogramme. Son principal concurrent, Arianespace, facture ses coûts de lancement entre 8 300 et 18 700 dollars par kilogramme en utilisant son lanceur Ariane 5. Mais l’entreprise européenne espère pouvoir réduire la facture à 10 000 dollars par kilogramme, grâce à son futur lanceur Ariane 6. A plus long terme, l'Agence spatiale européenne, ArianeGroup, et le CNES travaillent sur le projet « Ariane Next » de lanceur réutilisable à l'horizon 2030. Cette nouvelle fusée, grâce à ses moteurs réutilisables, permettrait de diviser encore par deux le prix du kilo en orbite par rapport à Ariane 6 : 5.000 dollars le kilo au lieu de 10.000.
Toutes ces ruptures récentes, ou en cours, ont relancé les recherches visant à développer le solaire spatial dans de nombreux pays, USA, Japon, Inde et Chine notamment. En 2009, l’Agence spatiale japonaise (JAXA) a lancé un ambitieux projet, s’appuyant sur la coopération de dix-sept entreprises, dont Mitsubishi Electric, Nec, Fujitsu et Sharp. Le projet nippon vise à produire de l’électricité en 2030, grâce à une centrale de 1.000 MW (soit l'équivalent d'un gros réacteur nucléaire), au tarif très économique de 6 centimes d'euro par kilowatt-heure, inférieur à celui du coût actuel moyen du kWh produit à partir de charbon. En 2015, la JAXA a franchi une nouvelle étape, en annonçant la réussite de ses premiers essais de modules solaires spatiaux en laboratoire.
La même année, l’Institut de Technologie de Californie (Caltech) a lancé « l’initiative pour l’énergie solaire spatiale », un grand projet de recherche financé par le groupe Northrop Grumman et conduit par les professeurs Harry Atwater, Ali Hajimiri, et Sergio Pellegrino. En 2018, le Caltech a annoncé la réalisation d’un premier prototype intégrant la collecte de l’énergie solaire et sa transmission sans fil. Le prototype actuel a la forme d’un module de base de 16,5 cm de long sur 10 cm de large et 1,2 cm d’épaisseur. Il intègre un ensemble de miroirs optiques pour concentrer les rayons du soleil, un panneau photovoltaïque pour convertir l’énergie solaire en électricité et des circuits intégrés qui transforment l’énergie électrique produite en énergie de fréquence radio. Les derniers modules mis au point pour ce projet sont d’une légèreté remarquable, (0,8 kg/m2)) et ils ont été conçus pour être mis à plat, ce qui réduit leur volume et permet d’abaisser encore les coûts de lancement. L’idée des chercheurs est de déployer dans l’Espace 2500 de ces modules ultra légers pour former une surface utile de 9 kilomètres carrés, qui pourra capter l’énergie du soleil en permanence, puis la renvoyer sur Terre, sous forme d’ondes radio où elles seront reconverties en énergie électrique.
L’énergie solaire spatiale pouvant être diffusée vers n’importe quel endroit sur terre, les scientifiques du Caltech pensent qu’il sera possible d’alimenter directement d’innombrables stations au sol qui redistribueront l’énergie aux réseaux électriques locaux. Selon ces chercheurs, on peut tout à fait imaginer de placer des antennes réceptrices sur les toits des entreprises ou des particuliers pour capter les ondes envoyées par la centrale spatiale et les convertir en électricité pour les usages industriels ou domestiques. Il est même possible d’intégrer cette réception d’énergie sous forme de faisceaux d’ondes dans des installations existantes, comme les panneaux solaires terrestres qui deviendraient ainsi opérationnels en permanence.
Mais pourquoi vouloir capter l’énergie solaire dans l’Espace, alors qu’on peut l’exploiter, avec un rendement qui a triplé en 40 ans, directement sur Terre. Pour une raison simple, qu’il faut rappeler ici : dans l'Espace, l'énergie solaire est omniprésente. Le rayonnement solaire n’est atténué, ni par l’atmosphère, ni par les nuages. Par rapport à la surface de la Terre, ce rayonnement par unité de surface est quatre fois supérieur dans l'Espace. Mais il y a plus : à condition que la station se trouve suffisamment loin de la Terre, elle peut ne jamais passer dans l'ombre de notre planète et rester constamment en lien direct avec le Soleil. C'est ce qui se passerait avec une centrale qui serait placée en orbite géostationnaire stable, au-dessus de l’Equateur, à 35.780 kilomètres au-dessus de la surface terrestre. Une telle installation pourrait récupérer, au total, huit fois plus d’énergie, à surface comparable, qu’une centrale au sol.
Mais après les Etats-Unis et le Japon, la Chine a récemment annoncé qu’elle avait, elle aussi, la ferme intention de réaliser, d’ici le milieu de ce siècle, ses premières centrales solaires spatiales. C’est la revue chinoise Science and Technology Daily China, directement rattachée au ministère chinois des Sciences et Technologies, qui a révélé ce projet aussi ambitieux que novateur. La centrale solaire en orbite qu'imaginent les scientifiques chinois reprend le concept d'origine mais en combinant toutes les ruptures technologiques récentes, notamment en ce qui concerne la question-clé de l'acheminement vers la Terre de l'électricité produite, sous forme de faisceaux d'énergie dirigée. Pour cela, l’énergie doit être convertie en micro-ondes ou bien en un faisceau laser. Ces deux solutions techniques restent pour l’instant en compétition et présentent chacune des avantages et inconvénients qui restent à évaluer précisément. C’est ce que vont faire les scientifiques chinois, dans leur futur centre expérimental, en construction à Chongqing dans le sud-ouest du pays. Les autorités chinoises précisent qu’un essai devrait avoir lieu entre 2021 et 2025 dans la stratosphère avant qu’une installation solaire d’un mégawatt ne soit assemblée dans l’Espace d’ici 2030.
Pour mettre en orbite une centrale solaire spatiale d’une capacité d’un mégawatt, les ingénieurs chinois vont devoir relever des défis immenses, qui supposent de véritables ruptures technologiques. Une telle installation suppose en effet l’assemblage de plus de 5 km2 de panneaux solaires, ce qui représente une structure de plus de 1 000 tonnes, soit deux fois et demi l’imposante station spatiale internationale (420 tonnes), qui a nécessité 13 ans d’effort et 115 milliards de dollars pour sa réalisation. C’est pourquoi il est envisagé de recourir à la technologie de l’impression 3D ainsi qu’à un système robotisé afin de construire directement dans l’Espace, et de manière progressive, les différentes parties de la centrale.
Pour mieux comprendre ce pari chinois, très audacieux, en faveur du solaire spatial, il faut rappeler les immenses défis énergétiques auxquels est confronté ce géant économique et démographique, qui consomme un quart de l’énergie mondiale, produit 28 % de l’électricité planétaire… et émet 30 % du CO2 d’origine humaine. Selon une étude de l’ONG Global Energy Monitor (GEM), publiée fin 2019, la Chine, pour accompagner son développement économique soutenu, a de nouveau été obligée d’accroître depuis 2018 le nombre de ses centrales électriques fonctionnant au charbon. Elle peut désormais produire 1027 gigawatts au moyen de cette matière fossile, ce qui représente une hausse de 4 % en un an de sa consommation de charbon.
Pour la Chine, qui reste à la fois le 1er producteur mondial de charbon (46 % de la production mondiale), le 1er consommateur (50,5 % du total mondial), ce retour à la hausse de la consommation de charbon est intenable sur le long terme, à la fois pour des raisons économiques, sanitaires et environnementales. La Chine avait d’ailleurs réussi à stabiliser en 2013 sa consommation de charbon, puis à la diminuer légèrement jusqu’en 2017. Mais à partir de 2017, sa consommation de charbon est repartie à la hausse, en raison d’une progression plus forte que prévue de la demande d’électricité, tant de la part de l’industrie que des ménages.
En 2019, la Chine a consommé 4,6 milliards de tonnes de charbon, soit une croissance de 3,3 % sur un an, le niveau le plus élevé depuis cinq ans, précise le département chinois de l’énergie. La consommation d'énergie propre, y compris le gaz naturel, l'hydroélectricité, le nucléaire et l'éolien, a représenté, pour sa part, 22 % de la consommation d'énergie l'an dernier, en hausse de 1,3 % par rapport à 2017. Quant à la consommation totale d'électricité, elle a progressé de 6 % en 2019, ce qui ne fait qu’augmenter encore les besoins en charbon qui assurent encore les deux-tiers de la production électrique, malgré un développement massif des énergies renouvelables. On mesure encore mieux le poids du charbon dans l’économie chinoise en rappelant que sa consommation est passée de 440 millions de tonnes par an, en 1990, à sans doute plus de 4 milliards de tonnes par an cette année, soit une multiplication par presque dix en seulement 20 ans…
Obsédée par son indépendance énergétique, la Chine a certes l’intention de diversifier de manière considérable son mix énergétique. Elle veut notamment atteindre 10 % d’électricité nucléaire en 2035, ce qui implique la construction d’une centaine de réacteurs en 15 ans, et se fixe l’objectif d’au moins 50 % d’énergies renouvelables en 2040 dans sa production d’électricité. Mais, quels que soient les efforts déployés par la Chine pour décarboner à marche forcée sa production d’énergie, de nombreux experts prévoient que le charbon représentera encore 40 % de l’énorme production d’électricité prévue en Chine, à l’horizon 2040 (8 100 TWh par an, soit 22 % de la production mondiale d’électricité prévue à cette échéance).
L’option du solaire spatial répond donc pour la Chine a sa volonté très forte de réduire sa dépendance et ses importations d’énergie. Mais elle répond également à sa volonté, qui est dans son intérêt bien compris, de respecter ses engagements climatiques (passant notamment par une stabilisation, puis une baisse de ses émissions de CO2 d’ici 2030) en explorant de nouvelles solutions de production d’énergie, comme les nodules métalliques sous-marins, l’éolien marin, ou encore l’exploitation de l’hydrogène naturel.
Mais la Chine souhaite également réduire plus rapidement ses émissions de CO2 et sa pollution atmosphérique liée à l’énergie pour des raisons sanitaires. Une étude publiée par le « British Medical Journal » en 2017 et dirigée par Zhou Maigeng, du Centre de contrôle des maladies de Pékin, a en effet montré que les conséquences désastreuses pour la santé de la pollution de l’air en Chine avaient été largement sous-estimées. Selon ces recherches, si la Chine réduisait sa pollution atmosphérique au niveau recommandé par l’Organisation mondiale de la santé (OMS), elle pourrait éviter, non pas un million, mais au moins 3 millions de décès prématurés.
Pour parvenir à ces conclusions, les chercheurs ont étudié pendant trois ans - de 2010 à 2013 - une quarantaine de grandes villes du pays. Résultat : la concentration quotidienne de particules fines PM10 (émises par le chauffage, les transports et l’agriculture) atteignait en moyenne 92,9 µg/m3 dans les villes visées par l’étude, alors que l’OMS recommande de ne pas dépasser la limite de 20µg/m3 en moyenne annuelle. L’étude montre également qu’une hausse de la concentration en PM10 de seulement 10µg/m3 se traduit par une augmentation journalière des décès de l’ordre de 0,5 %.
Le coût humain économique et social de cette pollution de l’air, longtemps minimisé par le régime de Pékin, risque donc de devenir insupportable pour la société chinoise, et pourrait à terme menacer la stabilité même du régime politique chinois qui doit donc résoudre une redoutable équation : assurer le développement économique global et l’amélioration du niveau de vie de ses habitants, tout en maîtrisant sa consommation d’énergie et en décarbonant plus rapidement son mix énergétique.
Cette volonté chinoise de maîtriser la production d’énergie solaire spatiale, et son acheminement vers la Terre, répond également à un objectif géostratégique majeur d’affirmation de puissance. En effet, si la Chine parvient, d’ici 20 ou 30 ans, à construire de grandes centrales solaires spatiales opérationnelles, elle fera d’une pierre trois coups : elle réduira sensiblement sa dépendance énergétique sans impacter le climat mondial, elle se positionnera comme fournisseur mondial incontournable d’énergie propre, à la demande et en n’importe quel point du globe, et enfin elle profitera de son savoir-faire technologique pour le décliner dans le domaine militaire, sans doute en plaçant sur orbite des bases plus petites, armées de redoutables systèmes d’armes à faisceau d’énergie dirigée, capables de repérer et de détruire presque instantanément les missiles les plus rapides, mais également les systèmes de communications électroniques, voire les blindés les mieux protégés…
Bien sûr, la réussite d’une telle entreprise est loin d’être assurée, tant les défis scientifiques, techniques et industriels à surmonter restent immenses. Mais la Chine a pour elle ses compétences humaines et technologiques, ainsi qu’une volonté politique sans faille qui s’inscrit dans la durée. Il faut souhaiter que notre vieux continent prenne vite conscience de l’importance majeure que représente le solaire spatial et sache surmonter ses divisions et ses hésitations, pour bâtir, lui aussi, un projet ambitieux dans le temps long, qui vise à faire de la production d’énergie solaire spatiale une réalité dans le paysage énergétique mondial de la seconde moitié de ce siècle.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
La Commission européenne a annoncé qu'un consortium financé par l'UE avait obtenu des résultats prometteurs pour un médicament générique déjà existant, utilisé contre l'ostéoporose. Il s'agit du raloxifène, une molécule utilisée dans le médicament du même nom de la société pharma Teva. C'est Exscalate4CoV, un consortium de recherche, dont fait partie l'université catholique de Louvain (KULeuven), qui a examiné cette molécule parmi quelque 400.000 autres, en étudiant son comportement avec des supercalculateurs.
Des centres européens de recherche bénéficiant d'un tel superordinateur ont en effet été associés au projet. Selon la Commission, les résultats de l'étude virtuelle des milliers de molécules de la "bibliothèque chimique" du projet ont permis aux chercheurs d'en sélectionner 7.000, qui ont ensuite été examinées et testées en laboratoire.
« Le raloxifène offre des perspectives intéressantes : selon les résultats du projet, il pourrait être efficace pour bloquer la réplication du (corona)virus dans les cellules et, dès lors, enrayer la progression de la maladie. Selon les chercheurs, cette molécule présente entre autres avantages un degré élevé de tolérance chez les patients, une grande sécurité et un profil toxicologique bien établi », commente la Commission européenne.
Pour passer à l'étape des essais cliniques, le consortium doit désormais s'accorder avec l'Agence européenne des médicaments. Le projet, qui comprend des analyses biologiques effectuées en Belgique et en Allemagne, ne s'arrête d'ailleurs pas là : l'étude va étendre son champ d'action à 5 millions de molécules.
Article rédigé par Georges Simmonds pour RT Flash
La Libre
|
|
|
|
|
|
|
|
La directrice E-commerce, Data et Transformation Digitale du groupe Carrefour a présenté une fonctionnalité co-conçue avec Google pour faire ses courses par la voix. Elle est le fruit de la collaboration stratégique entre le distributeur français et la société américaine entamée il y a deux ans, et est opérationnelle dès aujourd’hui pour les utilisateurs français.
Ce nouveau service permet aux clients de faire leurs courses alimentaires à la voix via Google Assistant, disponible sur smartphones, enceintes et écrans connectés compatibles. 27 000 références sont disponibles. « En s’appuyant sur l’intégration technologique entre Google et Carrefour et sur les avancées de la reconnaissance vocale et de l’intelligence artificielle, ce nouveau service, qui continuera d’évoluer, simplifie et personnalise l’expérience d’achat pour l’e-commerce alimentaire », résument les deux partenaires.
Ce service combine "plusieurs avancées technologiques", poursuit Amélie Oudéa-Castéra. Concrètement, le client peut élaborer sa liste de courses en disant "Ok Google, je veux faire mes courses" puis en énumérant à haute voix les produits souhaités. Les mots courants – "lait", "beurre", mais aussi des expressions comme "comté 18 mois" ou "fromage Carrefour" – sont transformés en produits disponibles à la vente sur carrefour.fr. Une traduction en temps réel de Google Assistant, qui est connecté à l’inventaire e-commerce de Carrefour pour associer chaque mot à un produit. L’utilisateur peut énoncer les produits à la volée, sans répéter à chaque fois une formule.
Cette liste de courses est ensuite transformée en une proposition de panier de références précises et personnalisées. La recommandation personnalisée est l’un des points forts du service. Elle intègre des données comme l’historique des achats ou les préférences (produits locaux, bio, marques…) si le client a déjà acheté le produit chez Carrefour. Les quantités proposées sont également définies par les habitudes d’achat du client, ainsi que les promotions pertinentes. Mais des données de Google sont également prises en compte. « Pour que l’expérience fonctionne et permette à l’utilisateur de se voir proposer des produits pertinents, il doit associer son compte Google et son compte Carrefour », précisent les deux sociétés.
Dans le cas ou l'utilisateur n'a pas d'historique d'achats chez Carrefour, les recommandations de Google Assistant sont déduites d’après un autre critère : les meilleures ventes Carrefour. Sur ce point, Google s’appuie sur un ensemble de commandes passées par un échantillon de 50 000 clients sur une période de 6 mois, dont les données ont été anonymisées. Google a mis au point un algorithme pour déterminer les produits qui se vendent le plus chez le distributeur et le meilleur prix qui s’y rapporte. « C’est sur ces critères que Google définit les produits les plus populaires, puis affine ses résultats pour un utilisateur donné », poursuit-on chez Carrefour.
Enfin, le client confirme son créneau et son mode de livraison (drive, drive piéton ou livraison à domicile), puis effectue son paiement et peut alors faire jouer ses avantages Fidélité. Parmi les autres fonctionnalités mentionnées, la liste de courses partagée entre un client et les personnes de son choix, comme les membres de sa famille par exemple. Pour ceux qui préfèrent demeurer le seul utilisateur de leur liste, une fonctionnalité optionnelle d'authentification biométrique, baptisée "Voice Match", indique à l’Assistant de ne se fier qu’à leur propre voix. Par ailleurs, Carrefour fait en sorte de ne pas imposer ce nouveau canal à ses clients. Les achats effectués par commande vocale se retrouvent facilement dans l’interface classique. « Il y a une intégration complète des deux environnements », poursuit la directrice du digital.
Reste l’épineuse question des données personnelles. Sur ce sujet, très sensible, les deux acteurs sont catégoriques et assurent opérer « dans un cadre protecteur des données personnelles des utilisateurs ». A tout moment, le client peut retirer son consentement et dissocier ses comptes. Le partage de l'historique d’achats avec Google est alors interrompu et Google supprime les données transmises. Il en va de même automatiquement si l’expérience n’est pas utilisée pendant une période de 30 jours. François Loviton, Directeur Marques & Commerce chez Google France, précise que « ces données ne seront pas utilisées à des fins publicitaires, ni pour d’autres de nos services ».
Article rédigé par Georges Simmonds pour RT Flash
Usine Digitale
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Fruit d'une collaboration entre Intel et l’Uuniversité de Californie à Berkeley, le robot Motion2Vec peut imiter les mouvements de suture chirurgicale à partir de vidéos qu’il a regardées.
Les opérations chirurgicales ne sont jamais simples. Certaines pratiques peuvent en effet durer des heures et fatiguer les médecins. C’est pourquoi les efforts des chercheurs ont été concentrés dans la robotique. À l’avenir, les robots pourraient combler certaines tâches et diminuer la charge de travail des êtres humains.
Motion2Vec est formé par apprentissage semi-supervisé. Parmi les tâches du Motion2Vec, on compte la suture, le passage d’aiguilles, l’insertion d’aiguilles et la réalisation de nœuds. Les chercheurs ont programmé ce robot grâce à des vidéos d’entraînement et à de véritables opérations chirurgicales. À titre de test, le programme a été installé sur un robot Da Vinci à deux bras passant une aiguille à travers un tissu dans un laboratoire.
Les résultats sont globalement satisfaisants, avec un taux de réussite de 85,5 %. Malgré tout, les chercheurs assurent pouvoir remédier aux lacunes, notamment le décalage récurrent d’un point à suturer.
Article rédigé par Georges Simmonds pour RT Flash
Siècle Digital
|
|
|
|
|
|
|
|
Une équipe de l'Empa et de l'EPFL a développé le plus petit moteur du monde, qui ne comporte que 16 atomes et tourne de manière fiable dans un sens. Il pourrait permettre de récolter de l'énergie au niveau atomique.
« Cela nous rapproche de la taille limite des moteurs moléculaires », explique Oliver Gröning, du Laboratoire fédéral d'essai des matériaux et de recherche (Empa). Le moteur mesure moins d'un nanomètre, c'est-à-dire qu'il est environ 100 000 fois plus petit que le diamètre d'un cheveu humain.
En principe, une machine moléculaire fonctionne de la même manière que son homologue dans le monde macro : elle transforme l'énergie en un mouvement dirigé. De tels moteurs moléculaires existent également dans la nature, par exemple sous la forme de myosines, des protéines motrices qui jouent un rôle important dans les organismes vivants pour la conduction des muscles et le transport d'autres molécules entre les cellules.
Comme un moteur à grande échelle, le moteur à 16 atomes se compose d'un stator et d'un rotor, c'est-à-dire d'une partie fixe et d'une partie mobile. Le rotor tourne sur la surface du stator, composé de six atomes de palladium et six de gallium. Le rotor est une molécule d'acétylène symétrique composée de quatre atomes.
Le minuscule moteur peut être alimenté à la fois par de l'énergie thermique et électrique. L'énergie thermique fait en sorte que le mouvement rotatif directionnel du moteur se transforme en rotations dans des directions aléatoires. A température ambiante, par exemple, le rotor tourne dans un sens et dans l'autre de manière complètement aléatoire à plusieurs millions de révolutions par seconde. En revanche, l'énergie électrique générée par un microscope à balayage électronique, dont la pointe est alimentée par un petit courant, peut provoquer des rotations directionnelles.
Les scientifiques ont même pu observer des phénomènes ressortant de la physique quantique, notamment une fréquence de rotation constante dans une direction sans apport thermique ou électrique. Ainsi, les particules peuvent "creuser un tunnel" et le rotor continuer à tourner même si son énergie cinétique est insuffisante au sens de la physique classique. Selon les auteurs, le moteur pourrait ainsi permettre d'étudier les raisons de la dissipation d'énergie dans les processus dits de "tunnelage quantique".
Article rédigé par Georges Simmonds pour RT Flash
Swissinfo
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Le solaire, l'éolien et l'hydrolien sont appelés à jouer un rôle croissant dans la production décarbonée d'électricité. La start-up allemande Sin Power a décidé de développer une plate-forme qui combine les trois, pour un maximum de rendement.
La plate-forme est entièrement modulable, ce qui permet d'y ajouter les éléments (solaire, éolien ou hydrolien) souhaités sans être encombré par ceux non désirés. Bien sûr, les trois types peuvent être installés ensemble. L'entreprise espère d'ailleurs convaincre les fabricants de panneaux photovoltaïques d'engager des partenariats avec elle, à la suite d'une démonstration qui devrait avoir lieu durant l'été non loin de l'île crétoise d'Héraklion. « La conception modulaire, élément clef depuis le début du développement, permet une grande variété d'applications », explique au magazine Forbes le Docteur Philipp Sinn, PDG de Sinn Power. « La plate-forme maritime peut fournir de l'énergie renouvelable aux îles et aux parc éoliens offshore du monde entier ».
Chaque plate-forme peut être dotée de quatre convertisseurs hydrauliques qui produisent de l'énergie grâce aux vagues. Dans les régions maritimes où celles-ci se font rares, le module peut alors être équipé de panneaux photovoltaïques de 20 kW. Peuvent s'ajouter à cela les quatre petites éoliennes de 6 kWp et, comme déjà mentionné, tout peut être combiné ensemble pour maximiser les rendements.
Des capteurs électriques résistant à l'eau (de norme IP68) transmettent en temps réel des informations à un centre de diagnostic, afin de détecter anomalies et défaillances. À force d'analyses continues, le système pourrait même finir par devenir capable d'anticiper les dommages graves potentiels et de suggérer les réparations adéquates pour les éviter.
Basée non loin de Munich, Sinn Power, qui possède donc une base d'essai en Crète, aura réussi la prouesse de passer du brevet au prototype en seulement deux ans. Le projet aurait déjà attiré l'attention d'investisseurs européens. Après l'essai de l'été, la start-up espère démarrer la commercialisation du système dès l'automne prochain.
Article rédigé par Georges Simmonds pour RT Flash
Science alert
|
|
|
|
|
|
|
|
Des scientifiques israéliens de l'Université de Tel-Aviv ont réussi, au terme de plusieurs années de travaux, à produire de l'électricité à partir de plantes, montrant que ces végétaux peuvent être une source d’énergie « propre ».
Cette étude a été menée par le Professeur Iftach Yacoby, directeur du laboratoire des énergies renouvelables de la Faculté des sciences de la vie de l’Université de Tel-Aviv, en collaboration avec le Professeur Kevin Redding, de l’Université d’Arizona, aux États-Unis. Elle montre que les plantes possèdent des capacités de production électrique particulièrement efficaces, basées sur le processus de photosynthèse. Selon M. Yacoby, toutes les plantes vertes – feuilles, herbes ou algues – contiennent de véritables panneaux solaires et savent prendre un rayon de lumière pour le transformer en un courant d’électrons. Le défi restait d’extraire ce courant de la plante, d'après ce professeur.
Pour relier un appareil à l’électricité, il suffit de le brancher à une prise de courant. Dans le cas d’une plante, nous ne savions pas où nous brancher. Nous avons cherché une nanoprise en travaillant sur une microalgue, dans laquelle nous avons injecté à l'aide d'un bioréacteur une enzyme qui fabrique de l’hydrogène, explique-t-il. La microalgue a alors développé des cellules contenant la nouvelle enzyme et les chercheurs en ont conclu qu’elle produisait bien de l’électricité. Le Professeur Yacoby s'est dit convaincu qu'il pouvait s'agir d'une nouvelle ère dans l'agriculture qui, après avoir permis de nourrir des gens pendant des millénaires, va pouvoir être utilisée pour produire de l'énergie.
Article rédigé par Georges Simmonds pour RT Flash
Radio Canada
|
|
|
|
|
|
|
|
Dans le monde de la science des matériaux, des découvertes de premier plan peuvent être réalisées de manière inattendue. En travaillant sur la résistance d’un certain type de Delafossite - un métal en strates portant le nom de PdCoO2 - des chercheurs du Laboratoire des matériaux quantiques de l’EPFL se sont aperçus que les électrons de leur échantillon ne se comportaient pas exactement comme ils s’y attendaient.
Soumis à un champ magnétique, ils gardaient certaines propriétés d’ordre quantique, notamment la signature de leur nature d’onde, observable même dans des conditions de températures et à des tailles relativement élevées. Ces résultats surprenants, obtenus avec le concours de plusieurs institutions académiques, pourraient s’avérer utiles pour la réalisation d’ordinateurs quantiques.
Pour appréhender cette réalité, il est nécessaire de se transporter mentalement dans le monde de l’extrêmement petit, celui de l’atome. Même s’ils nous semblent instinctivement très denses, les métaux sont, à cette échelle, faits de nombreux vides. Lorsque les électrons se déplacent dans ces espaces, ils ont une double nature, se comportant à la fois comme des particules et comme des ondes.
D’ordinaire, leurs mouvements dans une structure métallique peuvent être facilement observés sous leur forme de particule, les informations tenant à leur caractère d’onde étant bien trop ténues et brouillées par différentes autres interactions. Celles-ci ne peuvent être captées que dans des conditions expérimentales bien spécifiques, et notamment à de très basses températures, comme l’ont démontré les expériences menées par Richard Webb et ses collègues.
L’échantillon étudié, le PdCoO2, qui est utilisé notamment comme catalyseur en chimie, présente une structure électronique très proche de la 2D et est extrêmement pur. Les chercheurs ont été surpris de pouvoir y observer des oscillations particulièrement longues et régulières. Or, cette cohérence typique de ce qu’il se passe à l’échelle quantique était détectable dans des conditions qui, selon des principes physiques de base, ne devraient pas le permettre. Dans ce cas précis, il s’agissait de températures de plus de 60 kelvin et de tailles allant jusqu’à 12 microns.
«C’est véritablement surprenant », réagit Philip Moll, qui dirige le Laboratoire des matériaux quantiques de l’EPFL. « C’est tout simplement la première fois que cet effet quantique est observé dans une pièce de métal de si grande taille. Douze micromètres semblent très petits, mais à l’échelle d’un atome, c’est gigantesque ! C’est l’ordre de grandeur de la vie biologique, celle des algues ou des bactéries par exemple».
Il s’agira maintenant, dans une seconde étape, de mieux comprendre comment le phénomène est possible à de telles échelles. Mais les chercheurs voient déjà s’ouvrir tout un champ de possibilités inédites, notamment dans le domaine de l’informatique quantique.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Si le Modèle standard de la physique est basé sur le postulat que la matière noire structure l’Univers, les scientifiques n’en ont jamais détecté la preuve formelle par l’observation. C’est à cette mission que sont dédiées certaines expériences, dont fait partie XENON1T. Installé à 1 500 mètres sous le sol d’une montagne, en Italie, ce détecteur n’a pas encore repéré la moindre particule de matière noire. En revanche, l’équipe de scientifiques derrière l’expérience vient d’annoncer avoir détecté un « excès d’événements » qui, en plus d’être un fascinant mystère, pourrait bien être l’indice de ces particules.
Puisque l’on ne connaît pas précisément la nature de la matière noire, il existe plusieurs particules théoriques « candidates ». Si le XENON1T a été construit pour détecter l’une des candidates les plus probables (les WIMP — particules massives à faible interaction), le laboratoire est sensible à d’autres particules potentielles. Il s’agit d’un bac rempli avec trois tonnes d’un gaz appelé xénon, dans un état pur et liquéfié, à –95 degrés Celsius. Le cylindre est entouré de capteurs : en cas d’interaction entre le gaz xénon et des particules, les atomes du gaz sont « excités », et cet événement provoque une scintillation (un flash de lumière) et une ionisation (une libération d’électrons).
Le XENON1T est conçu pour interagir le moins possible avec les particules connues et le « bruit de fond » qui persiste est prédit puis éliminé des calculs. L’idée est donc de détecter des sursauts, des événements / interactions « en excès » qui s’opèrent au sein du détecteur. Un excès massif serait un signal important vers l’observation de la matière noire.
Et c’est là où les choses sont récemment devenues très intéressantes : à un moment où 232 événements étaient prédits, ce sont finalement 285 événements qui ont été détectés. Soit un excès de 53 événements. Ce chiffre n’a rien d’anodin, il est suffisamment élevé pour relever d’un mystère apte à apporter des clés déterminantes.
Dans leur papier de recherche, les scientifiques qui pilotent le XENON1T avancent trois explications différentes. La première explication relève donc tout simplement d’une possible erreur de calcul dans la prédiction du fameux bruit de fond de particules connues. En l’occurrence, cela pourrait provenir d’hypothétiques quantités infimes de tritium (isotope radioactif de l’hydrogène) présentes dans le détecteur. L’excès observé pourrait correspondre à l’effet produit par une telle présence. Mais rien ne confirme ou n’infirme actuellement cette présence.
Les deux autres hypothèses ont quant à elle le potentiel pour faire office de petites révolutions dans la physique. L’une de ces alternatives est la confirmation de l’existence des hypothétiques particules que sont les axions. D’après les règles théoriques liées aux axions, l’excès observé correspond assez exactement à la quantité d’axions potentiellement produite par le Soleil.
La découverte d’une nouvelle particule serait en soi une avancée fondamentale pour notre compréhension de l’Univers, mais, qui plus est, les axions font partie des possibles constituants de la matière noire : « les axions produites dans l’Univers primitif pourraient être la source de la matière noire », rappellent les scientifiques du XENON1T.
La troisième explication est toute aussi exaltante que celle des axions : de nouvelles propriétés, jusqu’alors inconnues, des neutrinos. Ces particules-ci nous traversent sans cesse, par milliards, mais elles sont pour autant définies comme des « particules fantômes » car elles interagissent peu avec la matière. Si cet excès détecté dans le XENON1T correspond aux neutrinos, alors ce serait une « une piste importante vers une autre physique pour réussir à l’expliquer ». Car cela voudrait dire que le moment magnétique des neutrinos (leur intensité magnétique, en résumé) est supérieur à celui admis dans le modèle habituel des particules élémentaires.
Pour les scientifiques du XENON1T, « l’excès observé est le plus cohérent avec un signal d’axion solaire ». C’est ici une question statistique. On calcule en sigmas le taux de probabilité que ce soit un pur hasard sans signification particulière. En l’occurrence, la probabilité que ce soient des axions solaires est de 3,5 sigmas, quand celle que ce soit une erreur due à du tritium ou bien des neutrinos est de 3,2 sigmas. L’écart est faible, toutes les explications restent donc viables.
On ne peut donc pas en conclure que les axions sont confirmés, ni que l’on vient d’enregistrer le premier indice observé concrétisant la matière noire. Il faudrait un niveau de probabilité de 5 sigmas pour associer ces résultats à une preuve. Pour s’approcher d’une telle certitude, les scientifiques misent sur une nouvelle version du détecteur : le XENONnT. Son volume en xénon sera plus grand, sa sensibilité également, comme sa capacité à gommer le bruit de fond. D’ici quelques années, il sera donc possible de savoir laquelle des trois explications est la bonne.
Article rédigé par Georges Simmonds pour RT Flash
Numérama
|
|
|
|
|
|
|
|
Selon des chercheurs américains, les molécules organiques complexes comme celles qui ont prévalu à l'émergence de la vie sur Terre seraient présentes au sein des “nuages moléculaires”, ces nuages froids de gaz et de poussières dans lesquels naissent et meurent des générations d'étoiles, et ce, quelques centaines de milliers d'années avant même l'apparition de jeunes étoiles et leur éventuel cortège de planètes.
Cette équipe de l'Université d'Arizona, à Tucson (États-Unis) a mené ses recherches à l'observatoire de Kitt Peak, en Arizona. Ce résultat, qui repose sur 500 heures d'observation, montre ainsi que la formation des molécules organiques complexes est un processus courant et le milieu interstellaire en contient, sans que la formation d'étoiles n'ait débuté. En particulier, le flux de chaleur des étoiles jeunes n'interviendrait donc pas dans la formation de ces molécules complexes, comme le précisaient certaines théories.
Les chercheurs ont observé, en direction du nuage moléculaire du Taureau, une région de gaz et de poussières denses situés au sein de notre galaxie, à 440 années-lumière de la Terre. L'équipe s'est focalisée sur 31 noyaux denses qui peuvent être considérés comme le tout premier stade de la formation d'étoiles.
Ils ont traqué particulièrement deux spectres bien connus : deux composés plutôt classiques, le méthanol (CH3OH) et l'acétaldéhyde, aussi appelé éthanal ou aldéhyde acétique (CH3CHO). Le premier était présent dans 100 % des cas, tandis que le second dans 70 % des cas. L'hypothèse des chercheurs est que l'acétaldéhyde, plus complexe, provient progressivement du méthanol, plus simple.
Avant la présente étude, seuls les abords d'une dizaine d'astres avaient été scrutés pour la recherche de molécules organiques complexes. Désormais, l'équipe poursuit un autre objectif : non seulement confirmer la présence, mais aussi déterminer les abondances de ces molécules dans les régions où naîtront des étoiles. Un pas de plus pour comprendre comment et dans quelles conditions les molécules organiques peuvent évoluer en briques élémentaires du vivant.
Article rédigé par Georges Simmonds pour RT Flash
Université d'Arizona
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs d’AgResearch, un institut de recherche public en Nouvelle-Zélande, se sont intéressés à une protéine complexe, le cétuximab, un anticorps monoclonal (mab) essentiellement utilisé contre les cancers colorectaux, commercialisé sous le nom d’Erbitux. A l’heure actuelle, ce médicament est produit par des cellules de souris génétiquement modifiées dans le but de fabriquer un anticorps monoclonal spécifique. Cependant, comme de grandes quantités sont nécessaires pour traiter un patient, cela coûte très cher.
Pour rendre ce processus plus rapide et moins coûteux, les chercheurs ont eu l’idée de modifier génétiquement des chèvres afin que leur lait puisse produire directement la protéine. Ils ont donc introduit un gène portant les informations nécessaires pour produire cette protéine dans les glandes mammaires dans des embryons de chèvre. Ces derniers ont ensuite été transférés dans des utérus de chèvre pour cinq mois de gestation.
Résultat : leur période de lactation arrivée, les femelles issues des embryons modifiés ont produit environ 10 grammes de cétuximab par litre de lait quand elles ont commencé leur lactation. « Étant donné que les chèvres produisent environ 800 litres de lait chaque année, cela signifie que chacune pourrait fabriquer plusieurs kilos de cétuximab en un an », explique le site scientifique New Scientist. Mieux encore : leur mab semble moins immunogène que ceux actuellement commercialisés. La réponse immunitaire induite serait donc moins importante.
Qui plus est, cette modification n’aurait aucunement affecté la santé des chèvres, assurent les chercheurs. « Ainsi, la génération de ces lignées d'animaux, capables d'une production de haut niveau, pourrait fournir une source rentable d'une version nouvelle et améliorée de cetuximab », se félicitent-ils dans leur étude.
Il s’agit donc maintenant de s’assurer que le mab dérivé du lait de chèvre correspond aux mêmes normes et niveau de pureté que celui issu de cellules. « Si ce lait obtient l’agrément pour une utilisation humaine, cela pourrait rendre le médicament meilleur marché et plus accessible », s’enthousiasme Goetz Laible.
Article rédigé par Georges Simmonds pour RT Flash
New Scientist
|
|
|
|
|
|
|
|
Deux études américaines menées par le National Institute on Aging (NIA/NIH) ont montré que la combinaison de 4 principes d’un mode de vie sain permettait de réduire jusqu’à 60 % les risques de développer un Alzheimer. C’est ici l’analyse des données de près de 3.000 participants à 2 études (le Chicago Health and Aging Project – CHAP) et le Memory and Aging Project – MAP), qui conclut que la combinaison de 4 à 5 types de comportements sains permet une réduction jusqu’à 60 % du risque d'Alzheimer.
Ces comportements comprennent la pratique de l'activité physique, l’absence de tabagisme, une consommation d'alcool légère à modérée, une alimentation de qualité et la poursuite d’activités cognitives. L’étude, observationnelle apporte des preuves sur l’impact positif de comportements modifiables sur la réduction du risque de maladie d'Alzheimer, explique le Docteur Richard J. Hodes, directeur du NIA.
L'équipe de recherche a examiné les données des 2 études longitudinales portant sur différents facteurs de mode de vie, dont le régime alimentaire, mais aussi « la génétique » et les évaluations cliniques de la maladie d'Alzheimer. A chaque participant a été attribué un score basé sur 5 facteurs de mode de vie sain : 150 minutes par semaine d'activité physique d'intensité modérée à intense, l’absence de tabagisme, une consommation d'alcool légère à modérée, un régime alimentaire de type méditerranéen, MIND (aliments à base de plantes liés à la prévention de la démence), ou DASH (qui combine le régime méditerranéen et des approches diététiques pour réduire l'hypertension), et enfin, l’engagement dans des activités cognitives, à l’âge avancé.
L'équipe a ensuite comparé les scores aux données de diagnostic clinique de la maladie d'Alzheimer. L’analyse constate que par rapport aux participants n'ayant aucun ou 1 seul facteur de mode de vie sain, le risque d'Alzheimer est réduit de 37 % chez les participants réunissant 3 facteurs de mode de vie sain, et de 60 % plus faible chez ceux réunissant 4 à 5 facteurs de mode de vie sain.
Article rédigé par Georges Simmonds pour RT Flash
Neurology
|
|
|
|
|
|
|
|
Les médicaments opioïdes sont capables de bloquer la douleur. Ils agissent sur les récepteurs opiacés et permettent d’empêcher la transmission des messages nerveux liés à la douleur. S’ils sont efficaces, ils peuvent avoir de nombreux effets secondaires. La science cherche de nouvelles pistes de traitement pour diminuer ces risques. Des scientifiques du Luxembourg Institute of Health ont justement développé une nouvelle molécule, LIH383, capable d’agir sur le système opioïde.
L’équipe du Docteur Chevigné s’est appuyée sur la découverte récente d’un récepteur opioïde dans le cerveau, appelé ACKR3. « Nous avons constaté qu’ACKR3 ne déclenche pas la chaîne de signalements moléculaire qui produit normalement un effet antidouleur », explique Max Meyrath, co-auteur de l’étude. « ACKR3 fonctionne plutôt comme un piège, il séquestre les opioïdes, alors que ceux-ci doivent, en principe, se lier aux récepteurs classiques ».
La molécule LIH383 est capable de bloquer ce “nouveau” récepteur, cela permet de moduler le niveau des peptides opioïdes produits par le système nerveux central. Ces protéines, dites neuro-modulatrices, sont impliquées dans la douleur mais aussi dans la gestion des émotions comme l’euphorie, l’anxiété, le stress et la dépression.
Les chercheurs espèrent pouvoir utiliser cette nouvelle molécule dans le traitement du cancer. ACKR3 est capable de se lier aux chimiokines, de petites protéines sécrétées par les cellules immunitaires et impliquées dans l’apparition des tumeurs et des métastases.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des chercheurs de l'Université d'Irvine, en Californie, ont découvert une protéine, APOBEC3A, responsable des mutations génétiques qui « font » les cellules cancéreuses et plus largement entraînent toute une variété de cancers. Elle pourrait être la clé de nouvelles thérapies anticancéreuses plus efficaces qui ont déjà donné lieu au développement d’un test PCR pour détecter les tumeurs APOBEC3A-positives.
Chaque jour, rappellent les scientifiques, des dizaines de milliers d'événements moléculaires et de dommages se produisent dans l’ADN des cellules humaines. Dans les cellules cancéreuses, l'expression de la protéine APOBEC3A est l'une des sources les plus courantes de dommages et de mutations de l'ADN. Si ces mutations causées par la protéine dans les cellules cancéreuses contribuent à la croissance de la tumeur, elles ouvrent également « une faille » dans l'ADN, et donc une vulnérabilité des cellules cancéreuses.
Retourner cette vulnérabilité contre le cancer : ainsi, les scientifiques font l’hypothèse surprenante que cibler les cellules cancéreuses avec des niveaux élevés de APOBEC3A va perturber la réponse aux dommages à l'ADN causés par APOBEC3A et peut donc être la clé de thérapies anticancéreuses plus efficaces. L’auteur principal, le Docteur Remi Buisson, professeur de chimie biologique, ajoute : « pour exploiter la vulnérabilité des cellules cancéreuses, il est essentiel de mesurer d'abord l'activité de la protéine dans les tumeurs ».
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
En étudiant 88.047 cellules cérébrales de 422 échantillons de 33 zones du cerveau, une équipe internationale de recherche en est arrivée à la conclusion que les oligodendrocytes et les astrocytes, deux types de cellules nerveuses, apparaissent comme des clés de l’évolution de notre cerveau. En réalisant une cartographie au niveau unicellulaire des gènes du cerveau chez l'homme et d'autres primates, ces scientifiques démontrent dans la revue Genome Research, que les oligodendrocytes et les astrocytes ont en effet beaucoup plus évolué chez l’Homme que les neurones et en comparaison avec nos cousins primates.
Si le cerveau humain est incroyablement complexe, et son évolution est un sujet de recherche de toujours, identifier les changements évolutifs les plus importants qui caractérisent le cerveau de l’homme moderne de celui de nos ancêtres, et rendent les humains si différents des autres espèces, contribue à expliquer notre humanité.
Ce consortium de recherche international (Russie, Chine, Allemagne et Suisse) a procédé à l’étude génomique de 422 échantillons de cerveau prélevés dans 33 régions cérébrales différentes chez l'homme, les chimpanzés, les macaques et les bonobos. Les scientifiques ont examiné l'expression des gènes en se concentrant sur le fonctionnement de gènes spécifiques dans ces régions et ont analysé un total de 88.047 cellules cérébrales individuelles en utilisant une méthode d’analyse monocellulaire. L'étude a permis d'identifier les régions du cerveau qui sont les plus distinctives et caractéristiques chez l'homme et, qui, par conséquent, suivent une évolution plus rapide.
Ces zones comprennent le cortex cérébral, l'hypothalamus et la matière grise et la substance blanche cérébelleuse. Autre conclusion majeure, les oligodendrocytes et les astrocytes, notamment, présentent plus de différences dans la lignée évolutive humaine que les neurones par rapport à des cellules similaires chez les primates.
Article rédigé par Georges Simmonds pour RT Flash
Genome Research
|
|
|
|
|
|
|
|
Le cancer du sein est le cancer le plus fréquent chez les femmes dans le monde. Il représente par ailleurs 16 % de l'ensemble des cancers féminins. D’après l'OMS, il aurait tué 519 000 femmes à l'échelle mondiale en 2004. Parmi tous les cancers du sein, le plus redoutable est nommé triple négatif (jusqu’à un cinquième des cas). Contrairement à la majorité des cancers du sein, l'œstrogène et la progestérone n'alimentent pas la croissance des tumeurs triple négatives. C’est pourquoi les médicaments qui bloquent ces hormones ne fonctionnent pas. Selon une nouvelle découverte, une molécule éteignant un gène particulier dans ces tumeurs pourrait servir d’alternative thérapeutique prometteuse.
Habituellement, une hormonothérapie est proposée en cas de cancer du sein avec des récepteurs hormonaux positifs (ER+, PR+ ou les deux) au stade précoce et dont le risque de récidive est faible ou localement avancé, avancé ou récidivant. Le type d’hormonothérapie proposé dépend de la ménopause. Les anti-CDK 4/6 sont des molécules qui apportent un espoir nouveau dans le cancer du sein métastasé HER2+.
Cette fois, lors de leur étude, les chercheurs de la faculté de médecine de l'Université Tulane à la Nouvelle-Orléans (Etats-Unis) ont travaillé avec des cultures d’une lignée de cellules cancéreuses triple négatif provenant d'une patiente traitée en 1973 à Houston au Texas. Ils ont alors désactivé deux gènes connus du cancer du sein, Rab27a et TRAF3IP2. Résultat : arrêter TRAF3IP2 perturberait davantage les voies métaboliques associées au cancer dans les cellules. Les scientifiques ont ensuite pu confirmer cette découverte dans un modèle de souris atteinte du cancer du sein.
Si arrêter Rab27a a bien ralenti la croissance des tumeurs chez les rongeurs, un très petit nombre de cellules cancéreuses se sont propagées, ou “micrométastasées”. Cependant, quand les chercheurs ont désactivé TRAF3IP2, cela a non seulement supprimé la croissance de nouvelles tumeurs, mais a également empêché la formation de métastases sur une période pouvant s’étendre à un an. Mieux encore, le traitement a réduit les tumeurs existantes jusqu'à ce que celles-ci deviennent indétectables, décrivent les auteurs de l’étude. « Cette découverte passionnante a révélé que TRAF3IP2 peut jouer un rôle en tant que nouvelle cible thérapeutique dans le traitement du cancer du sein », se félicite le docteur Reza Izadpanah, professeur adjoint de médecine à la faculté de médecine de l'Université de Tulane, chargé des recherches.
Cette nouvelle voie du blocage du gène TRAF3IP2 pourrait également fonctionner contre plusieurs cancers ainsi que pour prendre en charge l'insuffisance cardiaque. En effet, ce gène est connu pour activer diverses voies cellulaires qui favorisent l'inflammation.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
A3, le centre d'innovation d'Airbus, a annoncé avoir réalisé des atterrissages autonomes avec un A350-1000 de démonstration. Ces essais menés à l'aéroport de Toulouse-Blagnac sont réalisés dans le cadre de son projet ATTOL pour Autonomous Taxi, Takeoff and Landing ("roulage, décollage et atterrissage autonome"). Ce projet, lancé en 2018, vise notamment à voir de quelle façon le pilotage complètement autonome peut affecter les avions.
Pour réaliser ces atterrissages autonomes, le logiciel Wayfinder d'Airbus a été embarqué sur l'A350-1000 à la manœuvre. Ce logiciel guide l'avion grâce à un système de reconnaissance d'images couplé à des algorithmes de machine learning. L'A350-1000 n'a donc pas eu besoin d'utiliser les outils au sol, et le pilote présent dans l'avion n'a pas non plus été sollicité pour en reprendre le contrôle.
Il s'agit de la première fois que Wayfinder a été utilisé pour guider l'avion, assure A3. De manière plus globale, le projet, mené par le centre d'innovation d'Airbus, a pour mission de développer les solutions de vol et de machine learning pour permettre aux aéronefs de voler de manière autonome.
Article rédigé par Georges Simmonds pour RT Flash
Free News
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|