|
|
|
|
|
NUMERO 758 |
|
|
|
|
|
|
|
Edition du 04 Juillet 2014
|
|
|
|
|
Edito
Les réseaux sociaux vont-ils vaincre le crime ?
On se souvient du remarquable film d’anticipation de Steven Spielberg « Minority Report », inspiré d’un roman de Philip K.Dick et qui imaginait une société futuriste (l’action se déroule en 2054) dans laquelle des « Précogs », sorte de mutants aux pouvoirs mentaux extraordinaires, étaient utilisés par la police et la justice pour prévoir les crimes avant qu’ils ne surviennent.
Il se pourrait que ce scenario de science-fiction se réalise bien avant le milieu de ce siècle, si l’on en croit les dernières recherches scientifiques. En effet, en analysant les messages publiés par les quelque 140 millions d’utilisateurs de Twitter à travers le monde, l’équipe de Matthew S. Gerber, qui travaille au sein du Predictive Technology Lab de l'Université de Virginie, a développé un programme informatique, utilisé depuis peu par la ville de Chicago, qui vise rien moins qu’à prédire les différents types de crimes et délits et à les empêcher « à la source ».
Pour mettre au point cet outil informatique, les chercheurs ont obtenu le droit de collecter toutes les données relatives aux crimes et délits commis entre le 1er janvier et le 31 mars 2013. Ils ont complété ces informations par une base de données concernant plus d’1,5 million de "tweets" accompagnés de la position GPS de l’utilisateur au moment de la publication.
En se livrant à une analyse sophistiquée de l’ensemble de ces données et en recourant notamment à la technique dite d'estimation par noyau (KDE), qui intègre et hiérarchise différents paramètres de temps et d'espace, les scientifiques sont parvenus à identifier et à visualiser rapidement les zones à risques où il existait une très forte probabilité qu’aient lieu rapidement certaines crimes…
Pour parvenir à ce résultat étonnant, les chercheurs ont dû apprendre à « décoder » les formes d’expression utilisées dans les tweets, pour y repérer des indices indirects faisant allusion à différents types de criminalité. Résultat : sur les 25 types de crimes étudiés par les chercheurs, les tweets se sont révélés utiles pour 19 d’entre eux. Matthew S. Gerber souligne que son modèle de prédiction pourrait s’avérer très utile aux responsables politiques, qu’ils soient locaux ou nationaux, pour préparer et mettre en œuvre leur politique en matière de lutte contre la criminalité et la délinquance.
Autre exemple de système informatique de prévision de la criminalité, le logiciel "MaSC" déjà utilisé avec succès par les services de police de grandes métropoles américaines, comme Los Angeles, Memphis et New-York.
Cet outil repose également sur l’analyse et le traitement d’une immense quantité de données et il permet de localiser les sites les plus criminogènes d'un espace donné et d'y établir une "feuille de route" pour les patrouilles afin d'intervenir le plus rapidement possible. L’intérêt de ce système est qu’il permet non seulement de « prédire » à quel moment et où tel ou tel type de délinquance risque de se produire mais il peut également préconiser une affectation optimisée des moyens de police en les concentrant là où ils vont être les plus dissuasifs et donc les plus « productifs », en terme de rapport coût-résultats.
Les cambriolages et agressions sont les moins difficiles à analyser pour un système automatisé. Ce type de criminalité est facilement cartographiable et identifiable : pour voler un véhicule, il est fort probable que vous vous rendiez dans des lieux peu éclairés, avec peu de passage, et à des heures creuses. Idem pour les cambriolages qui sont souvent concentrés sur des quartiers et des horaires spécifiques. Il s'agit là encore une fois d'une optimisation des probabilités et non pas d'un don de voyance.
Mais un autre type de programme informatique baptisé "FAST" (Future Attribute Screening Technology) veut aller encore plus loin et vise la prédiction de "l'intention de nuire », de manière à pouvoir agir, comme dans le film de Spielberg, avant que les criminels n’aient eu le temps de passer à l’acte…
Cet outil a pour ambition d’appliquer mathématiquement les recettes qui font le « flair » et l’intuition du bon policier, capable d’évaluer, en observant le comportement d’un individu, sa propension à commettre un délit ou un crime.
La ville californienne de Santa Cruz a été la première à se doter, depuis 2011, du programme PredPol, l'abréviation de predictive policing, un outil développé à l’issue de six ans de recherche en coopération entre les universités de Californie, d’Irvin et le département de police local. Ce programme très élaboré analyse une gigantesque base de données à l’aide d’un algorithme soigneusement tenu secret.
Classé au palmarès des meilleures inventions de l'année 2011 par le magazine Time, PredPol a été adopté par plusieurs grandes villes américaines : Los Angeles, Memphis (Tennessee) et New York notamment. A Los Angeles, Predpol a permis de réduire d’un tiers en un an les agressions et de 21 % les crimes violents et, depuis l’année dernière, plusieurs villes britanniques ont, elles aussi, décidé d’expérimenter ce système.
Dans cette course technologique dans la lutte prédictive contre le crime, l’Europe n’est pas en reste et serait même en avance sur les Etats-Unis, selon certains spécialistes.
En septembre 2013, un logiciel baptisé « Key Crime » et mis au point après 7 ans de recherche par un officier de police de Milan, Mario Venturi, a fait la une des journaux italiens (Voir Corriere della Sera).
Cet outil informatique révolutionnaire a en effet permis de prévoir l’attaque d’une pharmacie située boulevard Monte Rosa, dans le centre de Milan. Les deux malfaiteurs, bien connus des services de police, étaient attendus par des agents de la brigade mobile de Milan et ont été arrêtés en flagrant délit !
Bien que la police milanaise ne connaissait pas leur identité jusqu’au jour de l’agression, elle avait réussi à recueillir suffisamment d'informations sur ces individus pour savoir exactement où, avec quelle arme, quel jour et à quelle heure ils allaient commettre leur nouveau forfait. Si la police milanaise a réussi cette prouesse, c’est que « Key Crime », ne se contente pas, comme ses cousins américains, d’analyser uniquement les données historiques concernant les délits, il se focalise surtout sur les auteurs de ces actes délictueux et recherche leur « signature » criminelle, c’est-à-dire leur mode opératoire spécifique.
Comme l’écrivait Agatha Christie au début du siècle dernier, un crime est un excellent révélateur de la personnalité de son auteur pour celui qui sait « lire » les indices disponibles. La technologie actuelle est devenue suffisamment puissante pour exploiter ce vieil adage policier et les hommes de la préfecture de police de Milan ont mis au point un système informatique sans équivalent qui compile environ 20 000 données pour chaque vol. Il devient ainsi possible d’obtenir une foule de détails sur un malfaiteur, comme sa démarche particulière mais également son accent ou même son odeur particulière…
Grâce à Key Crime, le taux d’élucidation des attaques à main armée est passé de 27 % à 45 % à Milan et cet outil est d’autant plus efficace qu’il permet également de relier les affaires non élucidées entre elles et de les imputer à un même auteur.
Il y a un an, Giovanni Mastrobuoni, économiste expert en sécurité, professeur au Collegio Carlo Alberto de Turin et à l'Université de l'Essex, en Grande-Bretagne, a présenté « Key Crime » devant le groupe américain de travail sur les aspects économiques du crime, une force rattachée au Bureau national de recherche économique du Massachusetts. Selon cet expert, si ce système était généralisé à toutes les agglomérations d’une taille équivalente à celle de Milan, il pourrait sans doute éviter au moins 1 000 attaques à main armée par an dans chacune de ces villes !
Mais curieusement, ce remarquable outil cybernétique de prévention et de lutte contre la criminalité reste circonscrit à la métropole de Milan et son usage peine à être étendu à d’autres grandes villes italiennes. Selon certains responsables de police milanaise, les raisons de cet attentisme ne sont pas technologiques mais plutôt culturelles et politiques. En effet, la généralisation d’un tel outil à l’ensemble du pays pour l’ensemble des crimes et délits provoquerait un réel bouleversement du travail policier mais également, en amont, des missions de la justice et des politiques gouvernementales en matière de sécurité…
Autre obstacle de taille à la généralisation de ces systèmes de prédiction du crime, l’utilisation pour le moins inattendue des réseaux sociaux qu’ils impliquent ne va pas sans susciter certaines réserves et interrogations, notamment parmi les associations de défense des libertés individuelles et de la vie privée qui pointent régulièrement du doigt les « dérives » ethniques ou sociales de ce type d’outil pouvant conduire à de nouvelles formes de racisme ou à la mise en place insidieuse d’un contrôle social des individus.
Il ne fait cependant pas de doutes que des systèmes comme « PredPol » ou « KeyCrime » sont appelé à un développement rapide et deviendront des outils absolument irremplaçables, non seulement dans la lutte contre la délinquance et le crime mais plus largement dans la prévention globale en matière de sécurité, que ce soit dans le domaine industriel, celui des transports ou encore en matière de prévention des catastrophes naturelles par exemple.
Il faudra cependant être particulièrement vigilant pour éviter que la puissance prochaine qu'acquerront ces outils, lorsqu'ils seront combinés à des systèmes informatiques d’intelligence artificielle, comme l'ordinateur Watson d’IBM, ne permette l’hégémonie insupportable de systèmes de contrôle tyranniques et autonomes de type « Big Brother », tel que celui imaginé par Orwell dans « 1984 ».
Face à cette technologie ubiquitaire et omniprésente, nos sociétés vont également devoir apprendre à repenser les concepts de responsabilité individuelle, de punition et de libre arbitre. Mais en dernier ressort et quelles que soient la puissance et l’efficacité de ces technologies anticriminelles, l’homme restera toujours confronté à une décision personnelle aussi ancienne que fondamentale : celle de devoir choisir entre le bien et le mal…
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Le groupe japonais Softbank et la start-up française Aldebaran ont annoncé le 5 juin la commercialisation, au Japon, d'un "robot personnel", baptisé Pepper et doté de fonctions lui permettant de tenir compagnie et de rendre service à des humains.
Mesurant 1,20 mètre de haut, Pepper a pris la parole lors de la conférence de presse avec une voix de jeune garçon. Il a été développé pour reconnaître des émotions, évaluer les situations et apprendre certaines tâches.
Ce robot est connecté au Cloud de manière à partager des données susceptibles de lui permettre de développer ses capacités. Il ne communiquera par contre aucune donnée personnelle sur les individus avec lesquels il sera en interaction, a assuré Masayoshi Son, responsable du programme. Développé par Aldebaran, dont Softbank est actionnaire depuis 2012, Pepper sera fabriqué par le groupe taïwanais Hon Hai Precision Industry.
Pepper devrait être commercialisé au prix de 1 400 euros environ hors taxes au Japon, pays où le marché de la robotique est estimé à environ 860 milliards de yens en 2012 et devrait atteindre 2 850 milliards de yens (20,4 milliards d'euros) en 2020 selon un rapport du Ministère japonais du Commerce.
Confronté au vieillissement inéluctable de sa population, le gouvernement nippon mise sur une "révolution robotique" dans l'archipel avec pour objectif de multiplier par 20 la présence des robots dans le secteur de l'agriculture et par deux leur poids dans l'industrie manufacturière.
Article rédigé par Georges Simmonds pour RT Flash
IEEE Spectrum
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Une équipe de recherche internationale, associant notamment le Conseil national de recherches (CNR) et le Politecnico de Milan, a mis au point une nouvelle technique révolutionnaire de fabrication de mémoires numériques (tels que les disques durs), qui permet d'augmenter considérablement leur efficacité et de réduire leur consommation énergétique.
Cette avancée a été possible grâce au synchrotron Elettra de Trieste qui a permis la magnétisation d'un matériau avec une impulsion électrique. Elle ouvre la voie à une nouvelle génération d'appareils ayant une consommation électrique plus de mille fois inférieure à celle des appareils basés sur les technologies existantes.
"Le stockage d'information dans les systèmes de mémoire, tels que les disques durs, est encore aujourd'hui effectué par un petit électro-aimant qui magnétise la surface du disque : un processus long et coûteux", explique Piero Torelli, physicien de l'Istituto officina dei materiali du CNR de Trieste. Celui-ci poursuit "Induire cette magnétisation par un champ électrique va permettre de surmonter les limitations actuelles et de réduire la consommation énergétique d'un facteur mille."
Cette technologie utilise deux couches de matériaux facilement disponibles et peu coûteux : une de fer et une d'oxyde de baryum et de titane, qui une fois superposées réagissent en formant un oxyde de fer très mince dans la zone d'interface. Ces recherches ouvrent donc une nouvelle voie vers une électronique bien plus performante, combinant les avantages de la ferroélectricité (faible coût d'écriture des informations) et ceux du magnétisme (durée des informations stockées).
Article rédigé par Georges Simmonds pour RT Flash
Galileo
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut Fraunhofer de recherche appliquée sur les polymères (IAP) de Potsdam (Brandebourg) travaillent actuellement avec un nouveau matériau de support pour les cellules solaires en polymères ultraminces et produites par impression : ils cherchent à intégrer les modules solaires dans un verre ultra-mince. "Le verre est non seulement un matériau d'encapsulation idéal, mais il résiste également à des températures de traitement allant jusqu'à 400 degrés", explique Danny Krautz, chef de projet au département de matériaux fonctionnels et composants à l'IAP.
Dans le cadre des travaux de recherche, un verre spécial de l'entreprise Corning Inc. est utilisé. Grâce à ses propriétés physiques particulières, des couches de 100 microns d'épaisseur peuvent être réalisées. Cela correspond à peu près à l'épaisseur d'une feuille de papier. Avec ce matériau, les chercheurs ont déjà pu réaliser des premiers modules solaires organiques fonctionnels.
Cette technique devrait permettre de produire ces modules par procédé roll-to-roll, de façon similaire à l'impression de journaux, au cours duquel le substrat de support est enroulé sur une bobine. Grâce à cette technologie, des modules solaires organiques performants et robustes pourraient à l'avenir être réalisés pour différentes applications, allant de minuscules cellules solaires dans les téléphones mobiles à des modules photovoltaïques sur de grandes surfaces.
Article rédigé par Georges Simmonds pour RT Flash
Fraunhofer
|
|
|
|
|
|
|
|
La ville de Turlock, située dans la vallée centrale de Californie, a inauguré le 23 mai la première centrale solaire couplée à une batterie en flux redox. La technologie a été développée par la société Enervault dont le siège se situe à Sunnyvale dans la baie de San Francisco. Cette société, créée en 2008, a pour objectif de fournir des solutions de stockage des énergies intermittentes (solaire, éolien) en vue de répondre aux pics de consommation du réseau électrique.
La centrale de production et de stockage de Turlock est constituée d'un ensemble de panneaux photovoltaïques reliés à une batterie en flux redox capable de stocker et de produire 250 kW pendant 4 h (1 MWh). La production d'électricité est utilisée pour alimenter les pompes du système d'irrigation des amandiers qui consomment 225 kW en période d'irrigation (entre midi et 18h).
L'alimentation en énergie est assurée par des panneaux photovoltaïques dont la puissance est limitée à 185 kW en pointe ; les batteries en flux redox assurent le complément et permettent d'éviter de recourir au réseau pendant la journée, lorsque le coût du kWh est le plus élevé. Les batteries sont ensuite rechargées sur le réseau pendant la nuit pour bénéficier d'un tarif plus avantageux du kWh.
Selon le DOE, cette installation est la plus importante de ce type dans le monde utilisant la technologie redox Fer-Chrome, initialement développée par la NASA. Les électrolytes sont stockés dans des citernes de grande contenance dont le volume est fonction de la quantité d'énergie à stocker.
La Californie souhaite atteindre 33 % de production électrique à partir d'énergies renouvelables d'ici à 2020. Pour faire face aux contraintes d'intermittence inhérentes à ces sources d'énergie, la Commission de régulation de l'énergie en Californie a demandé aux sociétés de distribution d'investir fortement dans les capacités de stockage de l'énergie, avec un objectif de 1,3 gigawatts installés en 2020, de manière à couvrir la consommation électrique moyenne d'un million de foyers à n'importe quel moment de la journée.
Les technologies de stockage utilisant des batteries en flux redox, couplées à la production d'énergies renouvelables, constituent à terme des alternatives prometteuses et concurrentielles vis-à-vis de technologies traditionnelles utilisant des turbines à gaz pour répondre à des pics de consommation.
Article rédigé par Georges Simmonds pour RT Flash
Enervault
|
|
|
|
|
|
|
|
Des chercheurs français ont réussi à fabriquer une LED composée d’une seule molécule. La source lumineuse ponctuelle mise au point par des chercheurs de l’IPCMS de Strasbourg, en collaboration avec une équipe de l’Institut Parisien de Chimie Moléculaire (CNRS/UPMC), fonctionne à partir d’un brin de polythiophène.
Il s’agit d’un conducteur composé d’hydrogène, de carbone et de soufre. Fixé à la pointe d’un microscope à effet tunnel, le brin émet de la lumière quand les électrons migrent de cette pointe vers la surface en or située de l’autre côté. En revanche, si le sens de déplacement des électrons s’inverse, alors il n’y a quasiment plus d’émission de lumière.
Ces travaux ont démontré que l’émission de lumière provient de la recombinaison d’un électron avec un trou à l’intérieur du brin de polythiophène, émettant ainsi un photon. Les chercheurs ont comptabilisé un photon émis tous les 100 000 électrons recombinés dans le nanofil, photon dont la longueur d’onde se situe dans le rouge. Ce dispositif, source de lumière ponctuelle, est un nouvel outil à disposition des chercheurs pour mieux comprendre les interactions matière-lumière ; il ouvre également une nouvelle voie vers le concept de l’ordinateur moléculaire.
Article rédigé par Georges Simmonds pour RT Flash
PRL
|
|
|
|
|
|
|
|
Les hologrammes vont envahir notre vie quotidienne et conquérir nos smartphones. Ostendo, une start-up, vient en effet de présenter une technologie économique et miniaturisée capable de projeter des images de très haute qualité en 3D.
Ostendo Technologies, une start-up californienne, a mis au point une puce capable de projeter des images holographiques d'une qualité inégalée à l'heure actuelle, et qui ne nécessite pas de lunettes spécifiques. Cette technologie, baptisée Ostendo Quantum Photonic Imager, pourrait conduire à une banalisation de ce type d'affichage. Elle associe un processeur d'images à des micro-LEDs sur une même plaquette de silicium, le tout appuyé par une composante logicielle qui aide au rendu des images.
Le Wall Street Journal a récemment pu voir une démonstration d'un prototype du système d'Ostendo, composé de six puces travaillant ensemble pour projeter une image en 3D de dévers tournant dans le vide, parfaitement visibles en permanence suivant n'importe quel angle de vue. Le projecteur employé a la taille d'un tic-tac, et produit des images d'une résolution de 5 000 ppi (pixels par pouce), ce qui promet une qualité hors du commun. A titre de comparaison, l'écran 1080p du Samsung Galaxy S5, n'a qu'une résolution de 432 ppi.
La puce contrôle la couleur, la luminosité et l'angle de chaque rayon lumineux sur un champ d'un million de pixels. Une puce seule est capable de projeter une image sur une surface d'une diagonale de 48 pouces (121 cm), mais plusieurs puces combinées entre elles permettent d'obtenir des images beaucoup plus grandes et beaucoup plus complexes. L'intégralité du système n'étant pas plus grand que le bloc photo d'un smartphone, il est de plus adapté aux appareils portables. L'entreprise ne le réserve cependant pas à un type d'appareil particulier et vise tous les marchés : TVs, smartwatches, mobilier...
Ostendo, qui emploie 115 personnes, travaille depuis neuf ans sur cette technologie et prévoit la sortie d'une version commerciale courant 2015. Le coût d'une puce pour le consommateur serait d'environ 20 euros d'après la société.
Article rédigé par Georges Simmonds pour RT Flash
Ostendo
|
|
|
|
|
|
|
|
Des chercheurs suisses de l'EPFL, dirigés par Gabor Laurenczy, ont développé une technique qui permet de transformer de l'hydrogène gazeux dans un combustible liquide moins inflammable qui peut être stocké et transporté en toute sécurité. L'hydrogène est souvent présenté comme le carburant de l'avenir mais ce gaz très volatil est très inflammable et doit être stocké et transporté sous pression dans des conteneurs spécialisés et coûteux.
Ces scientifiques de l'EPFL ont développé un système simple basé sur deux réactions chimiques. La première réaction de l'hydrogène se transforme en acide formique, un liquide qui est facile à stocker et moins inflammable que l'essence, tandis que la seconde réaction effectue l'opération inverse et restitue l'hydrogène.
Mais cette technique peut avoir une autre application : utiliser l'atmosphère en CO2 pour synthétiser un certain nombre de produits chimiques utiles. L'équipe de Gabor Laurenczy a déjà mis au point un procédé de transformation de l'acide formique dans de l'hydrogène gazeux, actuellement en cours de développement industriel. Mais cette nouvelle avancée permet également le processus inverse : transformer l'hydrogène en acide formique.
Les chercheurs ont réussi à synthétiser de l'acide formique en une seule étape, à partir de l'hydrogène et de l'atmosphère en CO2. Les deux réactions chimiques - hydrogène en acide formique et retour à l'hydrogène - sont catalytiques : l'avantage est que rien n'est perdu dans la transformation.
Ces avancées permettent d'envisager de petites unités de stockage d'énergie, dans lequel le courant provenant des cellules photovoltaïques produit de l'hydrogène par électrolyse, qui est ensuite transformé et stocké sous forme d'acide formique, et finalement transformé à nouveau en un atome d'hydrogène pour produire de l'électricité pendant la nuit.
Une autre application possible de cette technologie serait d'utiliser l'atmosphère en CO2, un gaz à effet de serre, comme un élément constitutif de la synthèse chimique. L'acide formique est la base de nombreuses synthèses organiques, par exemple dans l'industrie du textile
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon une étude réalisée par l'Ecole de santé publique d'Harvard et dirigée par Samuel Myers, la hausse du CO2 dans l'atmosphère terrestre n'a pas seulement un impact majeur sur le réchauffement climatique, elle constitue aussi une menace directe pour la production agricole, qui va subir une diminution sensible de certains nutriments nécessaires pour la croissance des végétaux.
Avec les niveaux élevés de dioxyde de carbone attendus à l'horizon 2050, ce sera notamment le cas du zinc et du fer, indispensables à l'alimentation humaine, dont la concentration va diminuer de manière inquiétante dans certaines céréales et légumineuses. L'étude souligne "Qu'environ deux milliards d'individus souffrent déjà de carences en zinc et en fer, ce qui se traduit chaque année par 63 millions de décès liés à la malnutrition, il s'agit de la menace sanitaire associée au changement climatique la plus importante jamais identifiée".
Des expériences menées en laboratoire ou sous serre avaient déjà démontré l'effet néfaste du CO2 sur les qualités nutritives des produits agricoles. Mais cette fois, les biologistes américains ont passé en revue les données recueillies sur sept sites ouverts, au Japon, en Australie et aux Etats-Unis, et portant sur 41 variétés différentes de céréales et de légumineuses. La concentration en CO2 sur tous ces sites était comprise entre 546 et 586 parties par million (ppm), une valeur similaire à celle prédite par les experts du climat dans les 40 à 60 ans à venir, même si des mesures sont prises d'ici là pour juguler les émissions de gaz à effet de serre.
Les chercheurs ont mesuré la teneur en nutriments des parties consommables de blé et de riz, de maïs et de sorgho, ainsi que de soja et de pois. Leurs résultats montrent une nette baisse de la teneur en zinc, en fer et en protéines dans les céréales dites "en C3", comme le blé et le riz qui fixent le carbone contenu dans le CO2 sous forme d'un composé à trois atomes de carbone. Le blé cultivé sous forte concentration de CO2 contenait par exemple 9,3 % de zinc en moins, 5,1 % de fer en moins et 6,3 % de protéines en moins qu'un blé cultivé dans l'air ambiant (environ 400 ppm de CO2 actuellement).
Les chercheurs d'Harvard ont toutefois constaté que la teneur en zinc et en fer pouvait varier considérablement d'une variété de riz à l'autre, ce qui pourrait permettre de développer des variétés de riz plus résistantes aux fortes concentrations en CO2. Les légumineuses "en C3", comme le soja et le pois, accusaient elles aussi une "baisse significative" en zinc et en fer, mais pas en protéines.
Selon cette étude, environ le tiers de la population mondiale reçoit au moins 70 % de l'apport en zinc et en fer en consommant des plantes de type C3, en particulier dans les pays en développement. Les plantes "en C4" (maïs et sorgho), apparues plus récemment sur terre et qui fixent différemment le carbone atmosphérique, semblent moins affectées par un taux de CO2 élevé.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs américains de l'Université de Géorgie Regents viennent de montrer l’efficacité d’un vaccin contre le cancer du foie chez la souris. Le cancer du foie est l'un des plus meurtriers avec un taux de survie à 3 ans de 17 % et ce candidat vaccin, basé sur une protéine exprimée par les cellules du cancer du foie, représente une piste prometteuse.
Cette protéine, l'alpha-fœtoprotéine (AFP) est exprimée à un taux élevé au cours de la grossesse dans les tissus embryonnaires et dans les maladies du foie, dont le cancer du foie. Ainsi, AFP est exprimée par environ 80 % des cellules de cancer du foie mais pas chez les adultes en bonne santé. C’est donc un biomarqueur reconnu de cancer du foie. Mais cette protéine, présente au cours du développement embryonnaire, n’est pas considérée comme un antigène et donc ne déclenche pas de réponse du système immunitaire. C'est pourquoi les chercheurs de l’Université Regents Cancer Center ont modifié la protéine de manière à ce que le système immunitaire puisse la reconnaître.
Ces chercheurs ont acheminé la protéine AFP via un lentivecteur aux cellules de souris modèles de cancer du foie et ils ont constaté que ce vaccin permettait de bloquer le développement de la tumeur dans 90 % des cas. Il reste toutefois à vérifier l'efficacité de ce vacin dans la durée pour empêcher la récidive malheureusement fréquente du cancer du foie.
Article rédigé par Georges Simmonds pour RT Flash
Hepatology
|
|
|
|
|
|
|
|
L’arthrose est une affection qui se traduit par une destruction progressive du cartilage, le tissu qui entoure la tête des os au niveau des articulations. Cette pathologie fréquente chez les seniors peut devenir très douloureuse et invalidante.
En raison de la douleur ressentie aux moindres mouvements, il était jusqu’à présent admis que moins on sollicitait l’articulation, mieux on la préservait. Mais en fait, une étude américaine récente, menée par Daniel White de l’Université du Massachusetts et portant sur les habitudes de marche de 1788 Américains atteints d'arthrose du genou, remet en cause cette croyance.
Selon ces recherches, le fait de faire plus de 6 000 pas par jour permettrait au contraire de réduire les risques de survenue d’arthrose du genou chez les personnes susceptibles d’être atteintes à plus ou moins long terme, mais aussi de maintenir la souplesse de l’articulation chez celles qui sont déjà affectées.
Cette étude montre enfin que le fait de marcher 1 000 pas de plus permettait une baisse de 16 % à 18 % des incidents fonctionnels liés à l’apparition de cette maladie du cartilage.
Article rédigé par Georges Simmonds pour RT Flash
Express
|
|
|
|
|
|
|
|
Pour la première fois, des chercheurs du CNRS et de l'Université de Bordeaux viennent de produire et d'observer un comportement d'anxiété chez l'écrevisse, qui disparaît lorsqu'on lui injecte une dose d'anxiolytique.
L'anxiété peut être définie comme une réponse comportementale au stress consistant en une appréhension durable des événements à venir. Elle prépare les individus à détecter les menaces et à les anticiper de façon adaptée. Elle favorise donc leur survie. Cependant, lorsque le stress est chronique, l'anxiété devient pathologique et peut conduire à un état dépressif.
Jusqu'à présent, l'anxiété non pathologique n'avait été décrite que chez l'homme et quelques vertébrés. Pour la première fois, elle est observée chez un invertébré. Pour y parvenir, les chercheurs de l'Institut de neurosciences cognitives et intégratives d'Aquitaine (CNRS/université de Bordeaux) et de l'Institut des maladies neurodégénératives (CNRS/ université de Bordeaux) ont d'abord exposé les écrevisses à un champ électrique de façon répétée durant trente minutes. Ensuite, ils ont placé les écrevisses dans un labyrinthe aquatique en forme de croix. Deux des bras étaient éclairés, ce qui naturellement rebute les écrevisses, et deux étaient dans l'obscurité, ce qui, au contraire, les rassure.
Ces travaux ont montré que les écrevisses rendues anxieuses ont eu tendance à rester dans les parties sombres du labyrinthe, contrairement aux écrevisses témoins, qui ont exploré l'ensemble du labyrinthe. L'anxiété des écrevisses est corrélée à un accroissement de la concentration de sérotonine dans leur cerveau, un neurotransmetteur impliqué dans de nombreuses régulations physiologiques tant chez les invertébrés que chez l'homme.
Ces recherches ont également montré qu'en injectant un anxiolytique d'usage courant chez l'humain (benzodiazépine), le comportement d'évitement de l'écrevisse est aboli. Ces recherches montrent donc que les mécanismes neuronaux responsables du comportement anxieux sont apparus tôt dans l'évolution et se sont bien conservés au cours du temps.
Article rédigé par Georges Simmonds pour RT Flash
Phys Org
|
|
|
|
|
|
|
|
Une étude européenne dirigée par Tatiana Bonaldi (Institut Européen d'Oncologie) a permis de clarifier l'efficacité d'une nouvelle molécule anti-cancer, appelée E-3810, en découvrant des cibles possibles pour le médicament, jusque-là inconnues, et qui ouvrent les portes à de nouvelles applications thérapeutiques importantes.
Ces travaux ont utilisé une nouvelle technique : la protéomique chimique, ou chimio-protéomique. Cette nouvelle approche de la recherche pharmacologique permet de comprendre plus précisément le mécanisme d'action moléculaire des médicaments à l'étude. La protéomique chimique est une combinaison de différentes méthodes expérimentales qui offre la possibilité de tester simultanément le lien de toutes les protéines cellulaires avec une molécule biologiquement active (le médicament) en utilisant des conditions très proches de celles physiologiques.
L'étude en question a montré l'action du médicament E-3810, un inhibiteur multiple des récepteurs Tyrosine- chinasiVegfrs, Fgfrd et Pdgfrs. Il s'agit de protéines présentes sur la membrane cellulaire, qui en cas de dysfonctionnement peuvent contribuer au développement de tumeurs, en stimulant l'apparition de nouveaux vaisseaux sanguins. E-3810 a l'avantage de bloquer simultanément plusieurs récepteurs, ce qui présente à la fois une activité de non-prolifération et anti-angiogénique, ciblant ainsi la tumeur sur plusieurs fronts.
L'approche chimio-protéomique a également permis de découvrir une nouvelle gamme de protéines cibles, dont un récepteur Tyrosine kinase intéressant, qui avaient échappé aux examens traditionnels, et donc qui ne figuraient pas dans la bibliothèque d'enzymes initialement utilisées pour tester la molécule.
Article rédigé par Georges Simmonds pour RT Flash
Galileo
|
|
|
|
|
|
|
|
Selon une étude du Kings College de Londres, qui a suivi pendant dix ans des centenaires britanniques, les centenaires, qui seront trois millions dans le monde en 2050, auraient une résistance toute particulière aux maladies liées au mode de vie.
Ces recherches montrent qu'il existe une faible vulnérabilité des sujets qui vivent centenaires aux maladies non transmissibles telles que le cancer ou la maladie cardiaque majoritairement causés par des choix de vie malsains, comme le tabagisme, l’obésité ou la sédentarité. Cependant, les centenaires apparaissent ici plus susceptibles de mourir de maladies infectieuses –mais moins fréquentes- comme la pneumonie. L'étude rappelle également qu’au Royaume-Uni, le nombre de centenaires a augmenté de 56 % en 10 ans.
Ces travaux ont porté sur 35.867 personnes âgées (dont 87 % de femmes) de 100 ans ou plus au moment de leur décès, intervenu entre 2001 et 2010. Les décès liés à des accidents ou à la violence ont été exclus. Ce groupe de centenaires a été comparé avec des personnes âgées de 80 ans à 99 ans.
Les causes de décès des centenaires les plus fréquentes, sont : la pneumonie (18 %, contre 6 % pour les personnes âgées de 80 ans à 84 ans), la fragilité (28 %, contre 1 % pour les personnes âgées de 80 ans à 84 ans).
Les causes de décès des centenaires les moins fréquentes, sont : le cancer (4,4 %,contre 24 % pour les personnes âgées de 80 ans à 84 ans), les maladies cardiaques (8,6 %, contre 19 % pour les personnes âgées de 80 ans à 84 ans).
Cette étude montre donc que les centenaires semblent nettement plus résistants aux facteurs de risque liés au mode de vie, sans doute pour des raisons génétiques.
Article rédigé par Georges Simmonds pour RT Flash
PLOS
|
|
|
|
|
|
|
|
Un consortium international regroupant des universités américaines, indiennes, canadiennes, chiliennes, britanniques et chinoises vient de publier un premier brouillon du protéome humain.
Les biologistes ont réalisé un profilage peptidique de 30 échantillons de tissus humains – 17 tissus adultes, 7 tissus fœtaux et 6 cellules hématopoïétiques primaires. Après avoir réalisé près de 100 millions de spectres de masse, ils ont ainsi identifié les protéines codées par 17 294 gènes, soit environ 84 % des gènes codants identifiés chez l’homme. Parmi celles-ci, on touve les «ubiquistes», des protéines correspondant à 2 350 gènes indispensables et présentes dans tous les types de tissus et de cellules.
Mais ce travail a également révélé des surprises de taille, comme la découverte d'environ 200 protéines totalement inconnues jusqu'alors et de 193 nouvelles régions du génome associées à l’expression de protéines, parmi lesquelles on trouve des pseudogènes, des ARN étiquetés non codant et des cadres de lecture non conformes.
A terme, cette entreprise titanesque vise à offrir à la communauté scientifique un catalogue complet des peptides et protéines exprimés dans différents tissus et à différents moments du développement humain. Les retombées de ce projet scientifique de longue haleine devraient être majeures, tant pour permettre une compréhension fine et complète de multiples pathologies que pour ouvrir de nouvelles voies thérapeutiques et concevoir de nouveaux médicaments.
Article rédigé par Georges Simmonds pour RT Flash
BST
Nature
|
|
|
|
|
|
|
|
Des recherches du Docteur Moscovich, de l'Université de Toronto, montrent que l'hippocampe et le néocortex, deux régions du cerveau, jouent des rôles différents mais complémentaires dans le souvenir des lieux et des événements, et que des interactions importantes existent entre ces deux régions.
Ces résultats montrent que différentes formes de mémoire existent dans le cerveau, et que celles-ci sont encodées dans des régions distinctes, mais en interaction, du cerveau. Les études chez l'animal et chez l'homme ont montré que l'hippocampe, une région du cerveau située profondément à l'intérieur du cerveau, joue un rôle central dans la mémoire épisodique à court et long terme.
Des patients ayant subi une perte de l'hippocampe se sont avérés incapables d'enregistrer de nouveaux souvenirs, mais ils ont conservé la capacité de se rappeler d'événements antérieurs d'une façon générale, schématique. Le Docteur Moscovitch, en étudiant comment les riches souvenirs récents sont convertis en souvenirs plus sommaires avec le temps, a élaboré une théorie qu'il a appelé "la théorie des traces multiples / transformation".
Selon cette théorie, chaque fois qu'un souvenir épisodique est récupéré, il est automatiquement ré-encodé par l'hippocampe avec le nouveau contexte dans lequel la récupération se produit. Au fil du temps, et à chaque récupération, de multiples traces du souvenir s'accumulent ; le néocortex extrait les similitudes entre ces traces pour former un souvenir généralisé, le souvenir sémantique.
Par ce processus, le souvenir se transforme au fil du temps, d'un souvenir essentiellement dépendant de l'hippocampe, riche en contexte, à un souvenir plus général, un enregistrement des éléments essentiels, qui capture l'essence du souvenir épisodique initial.
Ces résultats pourraient être utilisés pour aider à améliorer les problèmes de mémoire chez les personnes âgées.
Article rédigé par Georges Simmonds pour RT Flash
News Medical
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|