|
|
|
|
|
NUMERO 213 |
|
|
|
|
|
|
|
Edition du 18 Octobre 2002
|
|
|
|
|
Edito
Comment stériliser le terreau du terrorisme...
Quand la Nation technologiquement la plus avancée au Monde, celle qui compte le plus de prix Nobel doit affronter le Moyen-Age, nous pourrions imaginer, sinon espérer, que le différentiel de connaissances, sinon de sagesse, devrait permettre de trouver une solution intelligente à un tel conflit. Or, malheureusement, il n'en est rien. Depuis des siècles, nous savons que pour arrêter le terrorisme il ne suffit pas de neutraliser les terroristes, mais il faut surtout modifier le terreau sur lequel il se développe. La machine américaine doit cesser de vouloir dominer le Monde. Il en va de l'avenir de toute notre Planète. Nous voyons ainsi se développer, en Europe, un sentiment anti-américain qui, hors de notre Continent, se transforme en un profond sentiment anti-occidental. C'est ainsi que la mondialisation qui aurait dû apporter plus de paix, plus de justice, plus de modernité, sur l'ensemble de notre Planète, est actuellement stoppée dans son élan, ce qui inévitablement pénalisera les plus pauvres. Dans le domaine de l'environnement, la position cynique du gouvernement américain prise à Johannesburg, de ne pas appliquer les accords de Kyoto, par égoïsme, et par défense étroite des intérêts pétroliers, est un signe très négatif envoyé à l'ensemble du Monde. Dans le domaine des relations particulières qui ont toujours été décisives entre les USA et Israël, le comportement du gouvernement américain, depuis quelques mois, envers le gouvernement de Sharon, en Israël, est incompréhensible. Certes, nous comprenons la douleur du peuple Israélien quand il est frappé par des attentats sanglants et sordides. Mais, est-ce une raison suffisante pour que l'armée d'une Démocratie qui se voudrait exemplaire, se retourne vers des civils et tue sciemment de nombreux innocents. Tant que cet aveuglement stérile frappera les acteurs au Moyen-Orient, notre Monde sera en péril et le terrorisme se nourrira sur un terreau fertile. Seuls les Etats-Unis ont l'autorité... et les moyens pour arrêter cette guerre stérile. Le grand malheur est qu'ils n'utilisent pas cette autorité pour imposer la Paix. Bien pire, sans vouloir reconnaître l'autorité internationale des Nations Unies, ils s'apprêtent à faire la guerre à l'Irak. Loin de moi la pensée de vouloir défendre un dictateur sanglant, et que nous pourrions même prendre pour un bouffon (100% des voix !), si la situation n'était pas si tragique. Mais pensons-nous sérieusement que Saddam Hussein n'a pas déjà prévu comment échapper aux bombes américaines, comme a su le faire, en Afghanistan, Ben Laden ? Par contre, ce sont des milliers et des milliers de victimes innocentes irakiennes qui, là aussi, seraient frappées par les bombes de l'Occident. Ce n'est pas ainsi que les Hommes épris de liberté pourraient stériliser le terreau sur lequel se développe le terrorisme. Mieux encore, arguant qu'aucun gouvernement démocratique (mais pourquoi diable l'Irak n'a-t-il pas son De Gaulle ?) ne pourrait remplacer la dictature actuelle, le gouvernement américain envisage d'instaurer un protectorat sur l'Irak, pays qui dispose des principales réserves pétrolières au Monde, en y désignant un « Gouverneur » militaire comme les USA l'avaient fait sur le Japon avec le Général Mac Arthur, à la fin de la Seconde Guerre Mondiale. Que les Nations Unies annoncent qu'elles prendraient en charge, provisoirement, l'administration de l'Irak si le régime dictatorial actuel venait à disparaître, ne pourrait être qu'un bien. Cela pourrait justifier une disparition silencieuse et attendue du dictateur irakien... Mais qu'une Nation, même si c'est politiquement, économiquement et militairement la plus puissante, puisse dire que c'est elle seule qui assumera la police du Monde, n'est pas admissible. Cela ne pourrait que plus encore déstabiliser la Paix car le Monde Arabe, dans son ensemble, se sentirait violé. Toutes affaires cessantes, il est nécessaire que l'ensemble du Monde Occidental, y compris la Russie, entre dans un profond examen de conscience et prenne, enfin, les mesures qui, durablement, ramèneront la Paix sur cette Terre. Il faut tout d'abord que l'Occident arrête tous les conflits dans le Monde sur lesquels il dispose d'une réelle autorité. Il faut, ensuite, qu'il définisse un programme centenaire (je dis bien un programme se déroulant sur 100 ans !) pour faire en sorte que dans les domaines majeurs de l'environnement, de la santé, de l'éducation, de la justice, de l'emploi, des libertés, de la sécurité, etc... tous les êtres humains soient plus proches les uns des autres à l'aube du XXIIème siècle. Ce n'est qu'au travers d'un programme ambitieux et mobilisateur, sans précédent dans l'Histoire de l'Humanité, que les écarts entre les plus riches et les plus pauvres pourront enfin se réduire, alors qu'ils croissent encore à une vitesse sidérale dans nos temps modernes, et que l'Homme pourra, enfin, stériliser ce terreau sur lequel se nourrit la haine sur l'ensemble de notre terre. Il en va de l'avenir de l'Humanité et du destin de nos enfants. Tous ensemble sachons trouver la voie de la sagesse. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Un groupement bénévole de professionnels de l'internet a remporté l'appel d'offres pour l'administration du nom de domaine ".org", utilisé par 2,3 millions de sites web, principalement des associations ou des organismes à but non lucratif. L'Internet Society, plus connue sous son sigle ISOC, rassemble environ 11.000 ingénieurs et experts des réseaux informatiques. L'ISOC a été choisie par l'ICANN (Internet Corporation for Assigned Names and Numbers), l'organisme de gouvernance de l'internet, après des mois de débats, parmi 11 groupes candidats à la gestion du cinquième nom de domaine le plus important. Le nom de domaine ".com", avec 21,2 millions de sites référencés, reste le nom de domaine le plus couru, suivi par ".net", le ".de" de l'Allemagne, le ".uk" du Royaume-Uni et le ".org". La société commerciale VeriSign, qui a longtemps géré le nom de domaine .org, avait accepté en 2001 d'en abandonner la gestion à condition de conserver celle du ".com". Reuters : http://fr.news.yahoo.com/021014/85/2sksy.html
|
|
|
|
|
|
|
|
Les utilisateurs des logiciels de Microsoft parleront bientôt le XML... sans le savoir. L'eXtensible Markup Language, placé depuis longtemps au coeur de la stratégie de Microsoft, aura bientôt "son" logiciel grand public, intégré à la gamme Office du groupe, qui réunit notamment Word, Excel et Outlook. Profitant d'une conférence organisée par le cabinet d'études Gartner, Steve Ballmer, le PDG du groupe, a annoncé le lancement mi-2003 de ce logiciel, baptisé pour l'instant XDocs et destiné très officiellement à "placer le XML aux mains des masses". Ce programme, dont l'interface, promet le groupe, sera proche de celle d'un traitement de texte, permettra aux utilisateurs d'Office - soit plusieurs dizaines de millions de personnes dans le monde - de créer, d'archiver et surtout de partager très facilement des documents au format XML. Un langage inspiré du SGML né en 1985 et devenu en quelque années un standard de communication, censé assurer une parfaite intégration des documents aux différents programmes et bases de données des entreprises, tout en garantissant leur intégrité lors du partage entre utilisateurs d'un même réseau. Comme l'explique Jean Paoli, responsable du projet chez Microsoft, les documents créés avec XDocs seront "semi-structurés", c'est à dire qu'ils permettront de définir des "champs" ou des formats de saisie similaires à ceux d'un tableur ou d'une base de données, au sein de documents de formes classiques. Les données saisies pourront ainsi être très facilement intégrées à l'un des autres composants d'Office, mais aussi à des applications compatibles XML, qu'elles touchent à la gestion de bases de données, au commerce électronique, à la gestion de la relation client ou au suivi de la chaîne d'approvisionnement de l'entreprise. En ajoutant ainsi une "brique" supplémentaire XML à Office, Microsoft prend une position de premier plan sur un marché de plus en plus stratégique : celui du partage de l'information au sein de l'entreprise ou entre l'entreprise et ses interlocuteurs extérieurs, mais aussi entre différentes applications. En permettant de définir très précisément des formats de données sans compromettre leur interopérabilité avec d'autres flux d'information ou d'autres applications que celle avec laquelle les données ont été saisies, le XML est au centre des "services Web", ces technologies inspirées du monde Internet et promises à un grand avenir, dans le développement du commerce électronique ainsi que comme alternative à l'EDI, l'échange électronique de données. Tribune : http://www.latribune.fr/Tribune/Articles.nsf/ArticlesWeb/ID046004BDA405499AC1256...
|
|
|
|
|
|
|
|
L'opérateur public de téléphonie France Télécom expérimente à Lyon, "Mobiguide" le premier guide touristique électronique interactif, consultable grâce au prêt d'un ordinateur de poche. "Le but est de voir comment les touristes utilisent le système pour ensuite l'améliorer", a indiqué jeudi à l'AFP Daniel Jourdain, responsable du projet chez France Télécom. "Mobiguide" est un logiciel développé depuis un an qui offre en permanence des informations que l'on trouve habituellement dans les guides touristiques comme les adresses de musées, de restaurants, de cinéma ou de monuments à visiter. A Lyon, 500 touristes doivent d'ici le 15 novembre tester ce guide multimédia et bilingue (français-anglais). 40 ordinateurs de poche sont mis à leur disposition par France Télécom et ses partenaires. Il suffit de se présenter à l'un des points de distribution, parmi lesquels l'office du tourisme, des hôtels et l'auberge de jeunesse, muni d'un chèque de caution de 500 euros et de sa carte d'identité. Un serveur distribue en permanence et réactualise une fois par semaine des informations relatives à Lyon et sa région. "Comme tous les ordinateurs de poche disponibles sur le marché, l'écran est sensitif et vous agissez dessus grâce à l'utilisation d'un petit crayon", a expliqué M. Jourdain. L'autonomie de l'appareil est d'une journée. Dès que le logiciel est activé, quatre petites fenêtres s'affichent et permettent d'accéder respectivement à une base d'informations intrinsèques ("off line"), à celle disponible sur le serveur ("on line"), à la sauvegarde de donnés personnelles ("favoris") ainsi qu'à une base de renseignements relatifs au Musée des Beaux-Arts de Lyon. Le musée met à disposition de l'utilisateur via "Mobiguide" une arborescence, qui permet une recherche par thèmes (collections, parcours, plan d'accès) et donne des informations pratiques. Mais Mobiguide offre aussi la possibilité par l'ordinateur de France Télécom de "surfer" sur internet, grâce à l'utilisation du système GPRS, installé à Lyon il y a deux ans et qui permet une meilleure transmission audio, vidéo et textuelle ainsi qu'une tarification à la consommation. L'ordinateur permet en outre de téléphoner, d'envoyer des messages écrits SMS et des cartes postales électroniques, ces dernières disponibles dans la mémoire de 200 mégaoctets de l'appareil. "Les résultats de ce test grandeur nature seront connus en décembre et à partir de là, on pourra déterminer les meilleures formules de forfait pour la commercialisation de Mobiguide", a indiqué M. Jourdain. Quelque 150 personnes ont déjà été séduites à Lyon, dont de nombreux touristes australiens, anglais et néo-zélandais, affirme-t-il. AFP : http://fr.news.yahoo.com/021010/1/2scoj.html
|
|
|
|
|
|
|
|
Hewlett-Packard a présenté un ordinateur personnel faisant office de téléviseur, le premier d'une nouvelle gamme de produits hybrides dont les fabricants espèrent qu'ils relanceront un marché atone. Le HP Media Center, d'une valeur de 1.400 dollars (1.419 euros) hors moniteur, fonctionne sous le système d'exploitation Windows XP Media Center, une nouvelle version du Windows XP de Microsoft destinée aux appareils tournés vers les divertissements numériques. Ce PC, qui sera disponible à la fin octobre, dispose d'une commande à distance et d'un tuner de télévision. Il peut enregistrer des émissions de télévision et de la musique numérique, stocker des photos et lire les DVD. Selon les distributeurs, cette nouvelle catégorie d'appareils, qui font judicieusement leur apparition avant les fêtes de fin d'année, devrait stimuler le marché des particuliers qui veulent relier leurs appareils entre eux à domicile. "La commande à distance pourrait bien devenir une nouvelle norme de périphérique pour PC", a déclaré Tony Weiss, vice-président exécutif de ComUSA, dans un communiqué commun de HP et de Microsoft. HP, le premier fabricant mondial de PC, et ses concurrents cherchent de nouvelles utilisations du PC, nombre de particuliers semblant satisfaits des appareils qu'ils possèdent déjà. De son côté, Microsoft, qui cherche également à compenser le ralentissement des ventes de PC, s'évertue à faire entrer ses produits au salon, notamment par le biais de sa console de jeux vidéo XBox. Selon les analystes, la croissance du marché des PC en 2002 devrait être faible et les demandes de remplacement de matériel devraient en constituer la majeure partie. Reuters : http://fr.news.yahoo.com/021011/85/2sewh.html
|
|
|
|
|
|
|
|
Des chercheurs bulgares ont mis au point un algorithme de codage numérique de la parole humaine permettant à des personnes parlant des langues différentes de communiquer instantanément, chacune dans son idiome, au téléphone ou sur l'internet. Le système consiste en une "traduction de pensées entières formulées dans des phrases" explique Koïtcho Mitev, l'ingénieur qui a mis au point ce système. Les mots de chaque langue sont codés par un ordinateur qui les classe en verbes, noms, pronoms, adjectifs, etc... Cette différenciation permet à l'ordinateur d'effectuer une analyse syntaxique de la phrase pour formuler, dans une autre langue, la pensée exprimée. "Pour le faire, il détermine d'abord le mot représentant le verbe, puis le sujet et les autres parties de la phrase prononcée avant de formuler la phrase correspondante dans une autre langue conformément à sa grammaire ", précise Koïtcho Mitev. Le système permet "une libre communication, non seulement au téléphone et par l'internet, mais aussi de l'internet au téléphone et vice-versa", affirme-t-il. Il donne la possibilité "à chacun de lire chaque site internet en n'importe quelle langue". "Le système est basé sur l'idée que toutes les langues et dialectes sont 'égaux'. Il permettra de préserver toute la richesse linguistique de l'humanité", affirme le chercheur qui a fait breveter en octobre son système. L'inventeur cherche parallèlement un soutien financier pour élaborer un prototype en plusieurs langues. Un projet-pilote en trois ou quatre langues avec un nombre limité de mots coûterait entre 250.000 et 280.000 euros. Pour une application de la méthode à toutes les langues européennes, M. Mitev estime les investissements nécessaires entre 180 et 200 millions d'euros. Koïtcho Mitev, 55 ans, est l'ancien directeur d'une grande société d'Etat de construction. Ayant fait d'autres innovations techniques, il a créé après la fin du communisme sa propre entreprise de consultation, de marketing et d'innovations. Il a développé son invention avec les membres de sa famille. Son fils âgé de 27 ans a une maîtrise en gestion, son épouse slovaque est dessinatrice industrielle dans le bâtiment, et sa fille ingénieur et économiste travaille en Slovaquie. Pour ses recherches il a compté sur "l'appui moral" d'un ingénieur en informatique, le docteur Anguel Smrikarov, recteur adjoint de l'université de Roussé. Celui-ci estime que la méthode des Mitev "transformera nos idées de communication". Pour son application "de très grands investissements seront nécessaires non seulement pour élaborer le logiciel, mais aussi pour modifier la 'quincaillerie'", a-t-il déclaré. Le Bureau bulgare des brevets a breveté le système le 4 octobre 2002. Il doit être présenté aux milieux scientifiques bulgares lors d'une assemblée de chercheurs à l'université de Roussé, les 31 octobre et 1er novembre. TF1 : http://www.tf1.fr/news/sciences/0,,953092,00.html
|
|
|
|
|
|
|
|
International Business Machines Corp. a annoncé lundi le lancement d'un micro-processeur pour ordinateurs personnels qui traitera des volumes de données deux fois plus importants que la norme actuellement en vigueur et pourrait être utilisé par Apple Computer. IBM a précisé que sa nouvelle puce PowerPC, qui commencera à être fabriquée l'an prochain et sera disponible au second semestre 2003, aurait la capacité de traiter 64 bits de données à la fois à une vitesse de 1,8 gigahertz. Les ordinateurs personnels sont actuellement exclusivement équipés de micro-processeurs de 32 bits, destinés à traiter rapidement des volumes légers de données mais incapables de traiter des volumes importants, comparables à ceux des serveurs. Chekib Akrout, vice-président du développement des micro-processeurs chez IBM, a déclaré que les grosses bases de données et internet étaient un nouvel enjeu pour les ordinateurs personnels: "C'est le moment d'introduire un appareil fonctionnant à 64 bits et pouvant être utilisé sur un ordinateur de bureau," a-t-il dit lors d'une interview téléphonique. Une source du secteur a déclaré qu'Apple utiliserait la puce pour ses ordinateurs Macintosh. Apple, longtemps handicapé par la faiblesse supposée de la vitesse de ses puces par rapport à celles d'Intel Corp., pourrait ainsi prendre l'avantage, mettant fin aux rumeurs selon lesquelles il s'apprêterait à adopter prochainement la plate-forme d'Intel. Les micro-processeurs les plus rapides de la génération actuelle de PowerPC sur des ordinateurs Macintosh tournent à 1,25 gigahertz, tandis que le Pentium le plus rapide d'Intel est de 2,8 gigahertz. Apple affirme que ses machines sont déjà plus efficaces que celles équipées par Intel. Advanced Micro Devices Inc., le principal concurrent d'Intel, est aussi en train de mettre au point une puce de 64 bit, du nom de Hammer, qui devrait être lancée en début d'année prochaine, mais qui, contrairement à celle d'IBM, est destinée aux serveurs plus qu'aux ordinateurs personnels. Reuters : http://fr.news.yahoo.com/021014/85/2sk9s.html
|
|
|
|
|
|
|
|
La ministre de l'Industrie Nicole Fontaine a dévoilé son plan "pour que le portable passe partout en France". Elle espère que soit "validé un calendrier de construction des premières antennes-relais d'ici Noël", alors que 8,4% du territoire selon les estimations les plus basses n'ont toujours pas accès à la téléphonie mobile. Nicole Fontaine demande donc d'investir davantage aux trois opérateurs nationaux (Bouygues Telecom, SFR et Orange) à l'occasion d'entretiens. "Concrètement et à très court terme, ce sont 200 antennes utilisées par les trois opérateurs qui devraient être construites", a-t-elle précisé dans le "Parisien". L'Etat entend mobiliser 88 millions d'euros pour cette opération. "On recense au moins 1.500 communes (situées pour la plupart dans le centre de la France, NDLR) ne disposant d'aucune couverture. Les zones les plus peuplées ayant été couvertes en priorité, il faut aujourd'hui se préoccuper des autres", souligne Nicole Fontaine. Au total, les « oubliés du portable » se chiffrent à environ 390 000 personnes sur l'ensemble du pays, soit près de 0,7 % de la population . Un chiffre bien faible en apparence, mais une réalité vécue au quotidien comme une injustice par les populations et les élus concernés. "Il importe non seulement de couvrir plus largement le territoire national, mais également d'offrir un service de meilleure qualité, notamment en ce qui concerne la saturation des réseaux. Par ailleurs, je souhaite que les abonnés puissent bénéficier au plus vite d'un système où ils pourront utiliser le réseau disponible, même si ce n'est pas celui de leur abonnement." "Même si aucune étude scientifique n'a pu mettre en évidence" un risque sanitaire dû aux antennes de téléphonie mobile, Nicole Fontaine insiste cependant sur la "nécessité évidente de transparence" et observe qu'"il importe de savoir où sont installées ces antennes. Je vais donc proposer la création d'un site Internet répertoriant toutes les implantations", conclut la ministre. AP : http://fr.news.yahoo.com/021010/5/2sd5g.html
|
|
|
|
|
|
|
|
M. DOUFFIAGUES, membre de l'ART, fait le point sur la question des capacités d'intervention des collectivités locales dans les télécoms. Jacques DOUFFIAGUES a rappelé qu'à l'heure actuelle, en vertu de la dernière version de l'article L.1511-6 du code général des collectivités territoriales, celles-ci peuvent "bâtir des infrastructures télécoms" mais ne peuvent "exercer le métier d'opérateur." L'ART envisage la refonte de ce texte afin de préciser "les limites du rôle de l'activité des collectivités", notamment en terme de financement de travaux (génie civil). Par ailleurs, M.DOUFFIAGUES a estimé qu'il est nécessaire de s'intéresser au contexte géographique et socio-économique des régions, alors que le texte dans sa version actuelle n'en tient pas compte. Dans les zones rurales "ne pourrait-on pas envisager d'autoriser les collectivités à exercer le métier d'opérateur de réseau et laisser aux opérateurs la commercialisation des services ?", s'est interrogé Jacques DOUFFIAGUES. Mais décision de mettre en place un nouveau cadre juridique en la matière revient au gouvernement et au parlement français. Quant à l'ART, elle est favorable à une révision sur "la forme et le fond" de l'article L.1511-6. En plus de la refonte de ce texte, M.DOUFFIAGUES a abordé la question des conditions d'utilisation des réseaux locaux sans fil Wireless LAN ou Wifi (nom commercial pour la technologie IEEE 802.11b basé sur la fréquence 2,4 Ghz) en zones rurales. "L'Autorité s'est engagée à assouplir la réglementation du Wifi dans les Hot Spot - les lieux à fort passage", a rappelé l'ancien ministre. Netéconomie : http://www.neteconomie.com/perl/navig.pl/neteconomie/infos/article/2002101519214...
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Claudie Haigneré, ministre déléguée à la Recherche et aux Nouvelles Technologies, a confirmé hier à Lyon, sans surprise, le soutien de la France à la recherche sur la fusion nucléaire. Lors de la dix-neuvième conférence sur l'énergie de fusion, organisée par l'Agence internationale de l'énergie atomique (AIEA), elle a confirmé la candidature pour la France, du site du Commissariat à l'énergie atomique de Cadarache (Bouches-du-Rhône) pour recevoir le réacteur Iter (International thermonuclear experimental reactor). L'Iter permettra de passer des études en laboratoires, à l'expérimentation à une échelle plus importante, avec une puissance de 500 mégawatts. La fusion, selon les spécialistes mondiaux réunis jusqu'à samedi, sera une des énergies les plus importantes à compter des années 2050. Le nucléaire classique, la fission, repose sur la désintégration de matériaux radioactifs produisant la chaleur. Chaleur utilisée pour chauffer l'eau des générateurs de vapeur. La fusion, elle, consiste à faire fusionner les noyaux d'atomes de faible masse pour former des noyaux plus lourds. La fusion dégage de l'énergie. Le processus a lieu naturellement dans le soleil où, à la température de 15 millions de degrés, les atomes d'hydrogène fusionnent pour former de l'hélium. L'énergie produite arrivant jusqu'à la terre. La fusion " artificielle ", cherche à reproduire sur Terre certaines conditions solaires. Il faut atteindre 100 millions de degrés pour y parvenir. Il est également nécessaire que les atomes soient confinés, ce qui est obtenu avec l'utilisation de champs magnétiques. On obtient alors du plasma, état où les noyaux fusionnent. Les chercheurs travaillent actuellement à la fusion d'atomes abondants : des atomes de deutérium, produits à partir d'eau, et des atomes de tritium, à partir de lithium. Un gramme de combustible permettra de produire autant d'énergie que 8 tonnes de charbon. Avantage de la filière : en dehors du tritium, radioélément à vie courte (12 ans), elle n'utilise pas d'élément radioactifs et ne produit pas de déchets. Les recherches menées en France, dans le cadre d'Euratom, positionnent bien Cadarache pour l'Iter, qui avec 1 000 emplois, serait une locomotive pour le Sud-Est. Les sites concurrents se trouvent au Japon, en Espagne, au Canada. En service en 2010, Iter permettrait de construire vers 2030, un réacteur " Demo ", de démonstration, préfigurant un réacteur " Proto ", premier des réacteurs industriels, au tournant du siècle. Progrés : http://www.leprogres.fr/infodujour/france_Monde/index.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La Commission européenne a installé jeudi à Bruxelles un groupe d'experts chargés de préparer pour la mi-2003 un premier plan de recherche européen sur les piles à combustible, qui utilisent l'hydrogène pour produire de l'énergie. Par cette initiative, Bruxelles cherche à coordonner les efforts de recherche des Quinze sur cette technologie, qui permettra peut-être un jour de remplacer les moteurs traditionnels dans les automobiles. L'effort public de recherche des différents pays européens (50 à 60 millions d'euros par an) ne représente pour l'instant que le tiers de l'effort public américain, ou le quart de l'effort public japonais, selon la Commission. Pourtant, un gros effort de recherche est pourtant nécessaire, car pour l'instant, "nous n'avons pas le niveau suffisant en terme de coût, de fiabilité, et de rendement énergétique", a expliqué jeudi l'un des experts invités par la Commission européenne, Pierre Beuzit, vice-président Recherche du groupe automobile français Renault. Pour M. Beuzit, comme pour d'autres experts du groupe de travail, les premières voitures à piles à combustibles ne circuleront pas avant 2010, et il faudra encore plusieurs années pour que le marché devienne significatif. Les piles à combustible permettent de produire de l'électricité en combinant de l'hydrogène avec l'oxygène de l'air. Non polluantes - elles ne rejettent que de l'eau - elles peuvent être utilisées pour propulser des véhicules (automobiles, autobus) mais aussi pour alimenter en énergie des régions éloignées ou même de petits appareils comme des ordinateurs ou des téléphones portables. L'hydrogène lui-même pourrait être fabriqué à partir d'énergies renouvelables, ou d'énergie nucléaire, permettant ainsi de diminuer la dépendance européenne vis-à-vis du pétrole. UE : http://europa.eu.int/rapid/start/cgi/guesten.ksh?p_action.gettxt=gt&doc=SPEECH/0...|0|RAPID&lg=EN;
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Une équipe de scientifiques vient de réussir les mesures les plus précises jamais obtenues du rayonnement fossile émis par l'Univers peu de temps après le Big Bang, confirmant que l'Univers est "spatialement plat". Ces mesures ont été prises dans le cadre du projet Archeops, lors du vol d'une vingtaine d'heures, le 7 février, d'un ballon stratosphérique du Centre national d'études spatiales, depuis sa base de Kiruna (Suède), a annoncé jeudi le CNRS. Elles confirment que "l'Univers est spatialement plat, et apportent des précisions sur le contenu de l'Univers en matière ordinaire, en parfait accord avec la théorie du Big Bang", précise le communiqué. La mesure du rayonnement fossile, trace de ce Big Bang, est essentielle pour comprendre l'évolution de l'Univers : densité, taux d'expansion, âge... Les données ont été recueillies par un télescope doté de détecteurs très sensibles permettant des mesures à des températures proches du zéro absolu (0,1 kelvin). Ce télescope était suspendu sous une nacelle permettant de s'affranchir en grande partie du rayonnement parasite de l'atmosphère. L'expérience Archeops est conçue comme un prototype de l'instrument à haute fréquence qui équipera le futur satellite Planck de l'ESA (Agence spatiale européenne). Le satellite sera lancé en 2007 et permettra une cartographie complète de ce rayonnement fossile avec une sensibilité inégalée. "Le rayonnement fossile a été émis environ 300.000 ans après le Big Bang. A cette époque, l'Univers était constitué d'un gaz chaud (environ 3.000 kelvins) et homogène", a expliqué François-Xavier Désert, de l'Observatoire des sciences de l'Univers de Grenoble). La lumière émise par ce gaz (à une température proche de celle de la surface du Soleil) était donc visible avec une longueur d'onde de l'ordre du micron. Par suite de l'expansion de l'Univers, cette lumière a vu sa longueur d'onde augmenter jusqu'à être aujourd'hui proche du millimètre. Le fond du ciel apparaît donc comme le rayonnement d'ondes radio d'un corps noir à une température voisine de 3 kelvins (- 270° C). Les premières observations, en 1965, de ce rayonnement à une longueur d'onde voisine du centimètre sont dues à deux ingénieurs américains de Bell Telecom, Penzias et Wilson, ce qui leur a valu le prix Nobel en 1978. Le satellite de la NASA, Cobe, en 1992, a montré qu'il existait des variations relatives d'intensité de quelques millionièmes de l'intensité moyenne sur des échelles de quelques degrés. Aujourd'hui, Archeops permet, avec une précision inégalée, de confirmer que l'Univers est "spatialement plat à très grande échelle". Ce qui implique que la densité de matière-énergie contenue dans l'Univers est extrêmement proche de la valeur critique séparant un univers "ouvert" (spatialement infini) d'un univers "fermé". Une partie seulement (environ 5 %) de cette densité est due à la matière "ordinaire" (celle dont nous sommes faits et qui ne domine aucunement dans l'Univers), 25 % étant associé à d'autres formes "exotiques" de matière, d'une nature "encore inconnue, mais qui serait six fois plus dense", selon M. Désert. "Nos mesures confirment l'accélération de l'expansion de l'Univers, qui avait été mise en évidence par les observations utilisant certaines supernovae comme indicateurs de distance", ajoute M. Désert. L'équipe d'Archeops, à forte contribution française du CNRS et du Commissariat à l'énergie atomique (CEA), réunit des scientifiques d'universités italiennes, américaines et britanniques. AFP : http://fr.news.yahoo.com/021010/202/2sdpg.html
|
|
|
|
|
|
|
|
L'argent public est plus que jamais nécessaire pour financer l'exploration spatiale, devant la faiblesse du secteur commercial et du marché des lanceurs, ont conclu lundi les participants internationaux au premier sommet de politique spatiale, organisé à Houston (Texas) dans le cadre du Congrès mondial de l'espace. "Aujourd'hui, le marché commercial n'est pas suffisant pour faire vivre les lanceurs actuels ou justifier des investissements industriels dans de nouveaux systèmes de lancement et technologies", a résumé Pierre Bescond, modérateur d'une session de ce sommet, premier du genre, visant à harmoniser les politiques spatiales internationales. En conséquence, "le soutien des gouvernements est nécessaire dans l'avenir", ont conclu les participants dans leur document final dont l'aspect commercial était résumé à la presse par M. Bescond, directeur de Prospace, qui regroupe les acteurs publics et privés du secteur spatial français. Les responsables commerciaux, gouvernementaux et scientifiques de la vingtaine de pays qui ont pris part au sommet ont estimé que "dans de nombreux cas, les financements gouvernementaux conduisent à la mise au point de nouvelles technologies et applications". "Une fois ces innovations arrivées à maturité, l'industrie peut développer des produits commerciaux et des services basés sur ces applications", ont défendu les participants qui comptaient parmi eux les principaux responsables des agences spatiales américaine, européenne, russe, française et canadienne. Côté industriels, les responsables des groupes américains Lockheed Martin, Northrop Grumman, Raytheon, Boeing Defense Integrated Systems, français Alcatel Espace, Snecma Moteurs et canadien EMS Technologies étaient également présents. Haut placé sur la liste des problèmes à résoudre par la coopération internationale, un contrôle des exportations de technologies spatiales trop strict imposés par certains pays a été mis en avant par les participants, surtout industriels, qui se sont néanmoins gardés de nommer ces pays. "Même si le contrôle des exportations de technologies liées à l'espace reflète une question de sécurité nationale légitime, il limite la coopération internationale et inhibe la croissance du secteur commercial", ont conclu les participants dans leurs délibérations. "Les gouvernements devraient harmoniser leurs réglementations en matière de contrôle des exportations en fonction de vrais besoins de sécurité nationale et créer des systèmes rapides et transparents permettant la commercialisation sous licences de technologies spatiales", se sont entendus à dire les différents groupes d'intérêt représentés, en conseillant "l'approche multinationale et non bilatérale" pour résoudre ces problèmes. En matière d'exploration spatiale, "les découvertes qui restent à venir sont inépuisables", a promis le Dr Karl Doetsch, ancien responsable du programme spatial canadien et actuel président de l'International Space University (Strasbourg, France), modérateur d'une session du sommet. Dans ce domaine, les participants ont estimé que la Station spatiale internationale (ISS) "malgré ses problèmes actuels" de financement, "représente une réalisation technique sans précédent". A l'adresse de ceux qui s'impatientent de voir arriver des découvertes scientifiques en provenance du laboratoire orbital, M. Doetsch a répété l'une des conclusions du sommet: "l'exploration spatial est un marathon, pas un sprint". L'ISS, si elle constitue "un modèle de coopération internationale qui mérite d'être étudié pour de futures coopérations, ne doit pas être le seul modèle" envisagé pour d'autres projets internationaux, a cependant souligné M. Doetsch. Le Congrès mondial de l'espace, qui tient sa deuxième édition dix ans après sa création à Washington, réunit quelque 13.000 responsables, scientifiques et experts du secteur, à Houston jusqu'au 19 octobre. AFP : http://fr.news.yahoo.com/021014/202/2sl77.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une équipe internationale de chercheurs a fait état des résultats encourageants d'une méthode de thérapie génique testée sur des rats pour le traitement de la maladie de Parkinson, selon une étude publiée dans la revue américaine Science. Les rats affectés de troubles associés à la maladie ont montré une nette amélioration de leur comportement moteur après l'implantation par les chercheurs d'un certain gène dans une région du cerveau contrôlant le mouvement. L'équipe de chercheurs sous la conduite du professeur Jia Luo, de l'université de Auckland, en Nouvelle Zélande, ont constaté que cette méthode consistant à injecter un gène protégeant certaines cellules nerveuses dans le cerveau avait pour effet de bloquer le développement de la maladie. Cette technique "représente un traitement potentiel pour la maladie de Parkinson et d'autres troubles neurologiques associés à l'excitation excessive", écrivent les auteurs, tout en soulignant que des études complémentaires seront nécessaires pour déterminer si la méthode est applicable à l'homme. La maladie de Parkinson se développe à la suite de la détérioration de certaines cellules nerveuses du cerveau qui produisent la dopamine. Une carence de cet acide aminé perturbe le fonctionnement des nerfs, causant notamment tremblements et raideurs. Dans l'étude, le gène injecté (celui de l'acide glutamique décarboxylase ou GAD) a permis la production de neuromédiateurs appelés GABA (acide gamma-aminobutyrique), qui ont rétabli l'équilibre au sein des cellules nerveuses du cerveau. Environ 1,2 million de personnes sont touchées par la maladie de Parkinson en Amérique du nord (Etats-Unis et Canada). La maladie touche 1% des personnes de plus de 60 ans, et 2% des personnes de plus de 70 ans. Mais elle peut aussi toucher des personnes plus jeunes, et même des adolescents, selon la Fondation nationale Parkinson, basée à Miami (Floride). Science : http://www.sciencemag.org/cgi/content/abstract/298/5592/425
|
|
|
|
|
|
|
|
Un PET SCANN, toute nouvelle arme de lutte contre le cancer, a été inauguré hier matin au centre René-Huguenin à Saint-Cloud, en présence de Jean-Marc Rebières, préfet des Hauts-de-Seine qui est également président du conseil d'administration du centre hospitalier. Une telle machine, aussi sophistiquée, est unique en France. Dernier cri de l'imagerie diagnostique, le système de tomographie par émission de positons (PET) permet non pas de dépister les cancers, mais de déterminer l'extension éventuelle de la maladie. En fusionnant l'image révélant les cellules malades et l'image du corps entier, le PET scann permet aux médecins de définir le bilan d'extension de la maladie. Une injection de glucose et de fluor 18, un produit radioactif qui émet les positrons, est administrée au patient. Friandes de ce glucose, les cellules malignes absorbent ce produit. Et, en émettant des positrons, le fluor 18 permet de visualiser les cellules dangereuses. Le PET scann détecte des lésions de 4 à 5 mm », précise le docteur Alain Pecking, chef du service de médecine nucléaire au centre René-Huguenin. « La localisation est parfaite », assure encore le docteur Alain Pecking. Utilisée non seulement pour apprécier l'évolution de la maladie, cette machine révolutionnaire permet également d'estimer l'efficacité de la chimiothérapie et de mieux concentrer les rayons sur les bons tissus lors de traitement chimiothérapique. L'examen complet réalisé avec le PET scann ne dure que trente minutes. Avec les machines de génération antérieure, seuls cinq patients pouvaient être examinés. Opérationnel depuis deux semaines environ, le PET scann est constamment en activité et son carnet de rendez-vous est chargé. Les patients affluent des quatre coins de la France. Une quarantaine d'exemplaires de cet appareil de haute précision devraient être installés dans les deux années à venir. http://www.leparisien.com/home/info/permanent/article.htm?themeid=501&articleid=...
|
|
|
|
|
|
|
|
On survivrait plus longtemps à un cancer que ce que donnent à penser les évaluations statistiques classiques: une nouvelle méthode de plus en plus utilisée en Europe constate une amélioration non négligeable des chances de survie surtout si l'on prend en compte l'amélioration des traitements qui sont de plus en plus performants. Cette alternative à la technique classique d'évaluation, dont la revue scientifique britannique The Lancet publie un compte-rendu cette semaine, distingue en effet les patients tombés récemment malades des malades plus anciens et qui n'ont donc pas eu droit aux mêmes traitements. Cette nouvelle méthode d'évaluation de la survie à laquelle commencent à s'intéresser les Américains a été imaginée par l'épidémiologiste allemand Hermann Brenner. Elle est couramment utilisée dans d'autres domaines de la médecine, notamment pour évaluer l'espérance de vie. Dans l'étude du Lancet, Hermann Brenner a analysé plus de 1,7 million de patients enregistrés sur les fichiers de l'Institut national (américain) du cancer. Il a découvert que la nouvelle méthode évalue à 71 % les chances de survie à 15 ans des patientes atteintes de cancer du sein, alors que l'approche statistique traditionnelle fixait les chances à 58 %. De même, le taux de survie à cinq ans, après le diagnostic d'un cancer de l'ovaire, est de 55% avec la nouvelle méthode, alors qu'il était de 49 %. Chez les hommes, le taux de survie à 15 ans d'un homme atteint d'un cancer de la prostate est de 91%, contre 86 % avec l'ancienne méthode. Baptisée analyse de cohorte, la méthode d'évaluation classique s'intéresse aux chances de survie d'un cancer dix ans après le diagnostic. La nouvelle approche, baptisée analyse périodique, ne se fonde que sur les années récentes, par exemple sur des patients qui étaient en vie et suivis pendant l'année 2000. Elle serait donc plus appropriée pour évaluer les chances de survie d'un patient diagnostique et soigné récemment. L'étude a ainsi comparé les estimations de survie avec deux méthodes d'analyse celle dite par période (pour l'année 1998) et celle dite de cohortes (pour les patients diagnostiqués entre 1978 et 1993). Selon lui, les évaluations conventionnelles des taux de survie, "trop pessimistes", ne permettent pas de tenir compte des récents progrès en matière de détection précoce des cancers et de traitements. D'après l'analyse par période, les taux de survie estimés pour tous les types de cancer sont respectivement cinq ans, dix ans, quinze ans et 20 ans après le diagnostic de 63%, 57%, 53%, et 51%. Ces estimations sont plus élevées de 1%, 7%, 11%, et 11% avec la méthode conventionnelle d'étude de survie dite par cohortes, souligne le Pr Brenner. Ainsi, avec l'analyse par période, les taux de survie à 20 ans du diagnostic approchent les 90% pour les cancers de la thyroïde et des testicules, dépassent 80% pour les mélanomes et le cancer de la prostate, avoisinent 80 % pour le cancer gynécologique de l'endomètre (muqueuse de la cavité utérine) et sont quasiment de 70 % pour le cancer de la vessie et la maladie de Hodgkin. Les taux de survie 20 ans après le diagnostic sont de 65 % pour le cancer du sein, de 60 % pour le cancer du col de l'utérus et de près de 50 % pour le cancer colorectal et les cancers des ovaires et du rein, selon ces estimations. Cependant, quelle que soit la méthode employée, cancers de l'oesophage, du pancréas, du foie et du poumon sont toujours des points noirs de la médecine, avec de "pauvres" résultats en termes de survie, relève l'auteur. Henrik Moller, professeur d'épidémiologie du cancer à l'Ecole londonienne d'hygiène et de médecine tropicale, est un défenseur de la méthode de Brenner: "La survie au cancer tend à s'améliorer, lentement mais sûrement. Cette dernière méthode prend plus en compte ces progrès que la méthode classique". Lancet : http://www.thelancet.com/journal/vol360/iss9340/full/llan.360.9340
|
|
|
|
|
10% des Americains agés de plus de 65 ans et la moitié de ceux de plus de 85 ans souffrent de la maladie d'Alzheimer. Le coût global des soins nécessaires pour ces malades atteint les 100 milliards de dollars par an. Plusieurs études avaient déjà montré que la TEP (Tomographie par Emission de Positons) permettait d'observer l'apparition de changements minimes au niveau du cerveau précédant le développement de la maladie d'Alzheimer. Une nouvelle étude menée par le Nueronuclear Imaging Research Group, de l'Ecole de Médecine de l'Université de Californie, portant sur 284 personnes durant une quinzaine d'années, confirme que dans 93 % des cas la TEP permet de diagnostiquer cette maladie avant l'apparition des symptômes, permettant ainsi un recours plus précoce, donc plus efficace, aux traitements pharmaceutiques. JAMA : http://pubs.ama-assn.org/
|
|
|
|
|
|
|
|
Un vaccin expérimental qui s'était révélé très toxique, contre la maladie d'Alzheimer pourrait, une fois modifié, s'avérer sans danger pour l'homme, selon une étude publiée par la revue Nature Medicine. Des chercheurs canadiens et allemands ont découvert qu'une forme améliorée de ce vaccin s'était montrée efficace et sans danger chez la souris, ce qui augmente les chances d'éviter les complications inflammatoires apparues lors des essais cliniques menés chez l'homme. En janvier, la firme pharmaceutique irlandaise Elan avait jugé nécessaire d'interrompre un essai mené avec ce vaccin, après que 15 malades eurent souffert de graves inflammations cérébrales. Elan a annoncé en mars qu'il abandonnait le vaccin, tout en ajoutant qu'il accentuait ses recherches pour mettre au point un vaccin moins toxique. La maladie d'Alzheimer est une affection dégénérative du système nerveux central apparaissant en général après 60 ans. Elle représente la cause la plus fréquente de syndrome démentiel. La maladie débute par des troubles de la mémoire souvent sous-estimés et attribués à tort au vieillissement normal. La maladie d'Alzheimer est caractérisée par la fabrication par le cerveau de dépôts protéiques suspectés de tuer les cellules cérébrales. Ces dépôts apparaissent lorsqu'une certaine protéine est coupée en deux endroits précis par une enzyme spécifique. Le vaccin est conçu pour éviter la formation de ces plaques de protéine béta-amyloïde, qui s'accumulent dans les cerveaux des malades d'Alzheimer. Lors de précédents tests, la vaccin avait permis la fabrication d'anticorps dirigés vers ces protéines et capables de s'opposer à la dégénérescence cérébrale. Nature Medicine : http://medicine.nature.com/
|
|
|
|
|
|
|
|
Une étude américaine vient de démontrer que, dans le cerveau âgé atteint de neurodégénérescence dopaminergique, les cellules souches nerveuses greffées sont capables non seulement de remplacer les cellules perdues, mais surtout de secourir les neurones dysfonctionnels. Une autre étude révèle que dans les cas de perte tissulaire importante, comme celle observée au cours des accidents vasculaires cérébraux, il est possible de reconstituer le tissu cérébral perdu en greffant des cellules souches nerveuses, essaimées sur un support biodégradable de polymère synthétique. Les cellules souches nerveuses possèdent un potentiel thérapeutique très prometteur, car elles sont capables à la fois de s'autorenouveler et de donner naissance aux cellules différenciées de toutes les lignées nerveuses. Il est possible d'isoler des cellules souches nerveuses dans le SNC adulte, de les multiplier en culture et de les réimplanter dans les régions anormales du cerveau. Il a ainsi été montré que lorsque le SNC subit une mort cellulaire aiguë, les cellules souches nerveuses greffées se dirigent vers les zones lésées et sont capables de remplacer les cellules perdues. De plus, si elles sont manipulées ex vivo pour surexprimer des molécules thérapeutiques, elles sont capables de délivrer ces substances dans le tissu de l'hôte. Les chercheurs ont constaté que, chez ces souris, l'implantation des cellules souches nerveuses permet une reconstitution structurelle et fonctionnelle des neurones. Les cellules souches nerveuses, non seulement s'intègrent dans le cerveau âgé et remplacent les cellules, mais, plus important encore, altèrent l'environnement de l'hôte de sorte qu'elles réactivent ou préservent la fonction des neurones compromis. « Ces observations suggèrent que les structures de l'hôte pourraient profiter non seulement du remplacement des neurones perdus procuré par les cellules souches nerveuses, mais aussi de l'effet "chaperon" de certaines cellules nées des cellules souches nerveuses », concluent les chercheurs. Nature Biotechnology », 15 octobre 2002 : http://www.nature.com/cgi-taf/DynaPage.taf?file=/nbt/journal/vaop/ncurrent/abs/n...
|
|
|
|
|
|
|
|
Savoir quels sont les gènes qui s'expriment pour déclencher la maladie lorsqu'on étudie une cellule cancéreuse, étudier la réponse individuelle d'un patient à tel ou tel médicament: la recherche sur les biopuces devrait permettre un jour cette révolution, aussi importante que celle qu'ont apporté les micro-technologies dans l'électronique. "Les biopuces, micro-technologies appliquées à la biologie, avec des applications potentielles dans la recherche pharmaceutique, la génomique fonctionnelle ou les contrôles agroalimentaires et industriels, intéressent un large marché estimé à 2 milliards d'euros en 2005", estiment les experts du Commissariat à l'énergie atomique (CEA). "Si le décryptage du génome a apporté des milliards d'informations, il est insuffisant pour comprendre le fonctionnement cellulaire... Il faut à présent décoder les protéines des gènes", sachant que chaque cellule humaine compte 30.000 gènes et a le potentiel pour la fabrication d'un million de protéines, a expliqué lundi devant la presse Christian Vincent, conseiller scientifique à la Direction des sciences du vivant du CEA. Apparues dans les années 90, les biopuces, microsystèmes dédiés à l'analyse biologique, sont des technologies nées de la fusion de compétences en biologie, en microélectronique et en modélisation. Elles peuvent permettre, sur une surface de quelques cm2, "de réaliser en quelques heures les expériences qui nécessitaient plusieurs mois de travail auparavant", souligne Christian Vincent. Sous le terme générique de biopuces, on trouve trois catégories: les puces à ADN et à protéines, les laboratoires sur puce (Lab-On-Chip-) et les puces à cellules (Cell-On-Chip). Les puces à ADN portent, greffées sur leur surface, des molécules d'ADN susceptibles de s'apparier à des brins complémentaires d'ADN dans une solution biologique. Ainsi, elles permettent de visualiser rapidement des différences d'expression entre les gènes pour le génome complet d'un organisme. Sur une seule puce, l'ensemble du génome humain peut être analysé en une seule étape. Les laboratoires sur puce, laboratoires miniaturisés destinés à la réalisation d'analyse automatisée, sur des petits volumes, intègrent les étapes successives d'analyse d'un échantillon. "Les premiers laboratoires sur puce avec application au diagnostic seront commercialisables d'ici trois ans", prévoit Xavier Gidrol, chef du service de génomique fonctionnelle au CEA. Les puces à cellules sont des microsystèmes qui hébergent des cellules vivantes entières. Elles sont destinées à analyser et manipuler de manière individualisée des cellules vivantes dont la taille ne dépasse pas quelques dizaines de microns. Elles sont l'outil pour étudier le plus petit échantillon vivant qui soit: une cellule unique à l'échelle de laquelle on pourra étudier les effets d'un médicament, les interactions entre cellules, etc. Ce type de biopuces, en permettant l'analyse de cellules individualisées, augmentera la productivité de la recherche en biologie: les industriels de la pharmacie pourront connaître de façon précoce, dans le cycle de développement d'un médicament, ses niveaux de toxicité et d'efficacité, tout en réduisant le coût et la durée de son développement avant la mise sur le marché et en limitant les expérimentations animales. "On devra attendre une dizaine d'années avant de les voir sur le marché", estime François Chatelain, responsable du laboratoire biopuces au CEA de Grenoble. Caducée : http://www.caducee.net/afp/edit.asp?id_depeche=11991
|
|
|
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
L'école sort de ses murs et le cours magistral recule sous l'effet du multimédia éducatif, qui transforme peu à peu l'enseignement sans toutefois révolutionner la pédagogie. Les 8èmes "rencontres de l'Orme" (Observatoire des ressources multimédia en éducation), qui se tiennent jusqu'à vendredi au Palais du Pharo de Marseille, permettent de mesurer l'évolution des outils éducatifs du multimédia et leur utilisation. "L'école a encore du mal à maîtriser le multimédia et l'on manque d'instruments d'analyse qui permettent d'évaluer son apport. On sait en revanche qu'il apporte un gain en sociabilité dans les classes", explique Dominique Liautard, responsable de l'Orme. "La formation des enseignants dans ce domaine est également trop théorique". Chaque année, la production industrielle de produits éducatifs croît avec le développement de l'équipement informatique des classes sans que les professeurs aient toujours le temps de maîtriser ces nouveautés. Environ 450 cédérom ou DVD ont reçu depuis trois ans un label RIP (reconnu d'intérêt pédagogique) du ministère de l'Education nationale. On compte aujourd'hui un ordinateur pour six élèves dans les lycées, un pour treize dans les collèges et un pour vingt-cinq dans les écoles. La plupart sont reliés en réseau et branchés sur internet, indique Gérard Puimatto, chargé de mission sur les nouvelles technologies à la faculté d'Aix-Marseille. "Face à la pression sociale et économique, il faut mettre en place une pression éducative", estime Dominique Liautard qui souhaite que les enseignants "interviennent en amont dans la réalisation des produits éducatifs". "Sinon, le marché nous imposera son modèle", dit-elle. "L'offre actuelle est encore souvent inadaptée aux besoinspédagogiques des enseignants", renchérit Gérard Puimatto. "J'ai testé en classe un cédérom d'histoire-géo. C'est ludique mais j'aurais pu faire la même chose en moins cher avec des moyens classiques", explique Gérald Attali, professeur à Salon-de-Provence. A contrario, le logiciel "Escritor" imaginé par Jean-Yves Chasle, professeur de mathématiques, féru d'informatique, est cité en exemple. Il permet aux enseignants d'entrer dans le cheminement intellectuel d'un élève en analysant la progression de son raisonnement. Ceci par l'analyse des traces de son écriture sur une palette graphique (hésitation, avancement, erreur). Gratuit et disponible sur internet, il a été traduit en 5 langues. L'utilisation du multimédia reste encore limitée. Si 40% des enseignants disent l'utiliser, il ne représente en moyenne que 4 heures de cours par semaine dans les collèges, indique Gérard Puimatto. On l'utilise souvent comme support pédagogique, pour rechercher de l'information sur l'internet. Il sert également pour des travaux dirigés et permet aux élèves de devenir les acteurs de leur apprentissage. La création de site scolaire permet en bout de course de valoriser et mutualiser le travail d'une classe. AFP : http://fr.news.yahoo.com/021010/1/2scxy.html
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|