vendredi 8 juillet 2011

Des lunettes intelligentes pour résoudre les troubles visuels

Des lunettes intelligentes pour résoudre les troubles visuels (Crédits : Stephen Hicks)
A la Royal Society Summer Science Exhibition, au Royaume-Uni, des chercheurs ont dévoilé leur dernière invention : une paire de lunettes permettant aux personnes souffrant de troubles importants de la vision de "voir" à nouveau les objets et les lieux.
Développée par l’équipe de neurosciences de la Clinique d’Oxford, la paire de lunettes qui vient tout juste d’être dévoilée est très prometteuse. Grâce à un logiciel intégré, ces lunettes repèrent ce qui se trouve en face de la personne qui les chausse et utilisent des LEDs (diodes) pour reproduire l’image selon des motifs relativement simples, permettant ainsi à des personnes souffrant de troubles visuels de recouvrer une partie de leur vue.
Le fonctionnement est relativement simple. Les lunettes sont équipées d’une minuscule caméra, dissimulée dans la monture et reliée à un micro-ordinateur de la taille d’un smartphone. Incrustée dans les verres, une multitude de petites LEDs s’allume pour représenter les objets et les mouvements qui se trouvent dans le champ visuel de l’utilisateur. Par le biais de la caméra le logiciel reconnaît les objets vers lesquels se dirige "le regard" et les LEDs retransmettent de façon simplifiée et suffisamment lumineuse les images de façon à ce qu’une personne à la vue limitée puisse distinguer, si ce n’est voir, les objets proches et les éléments environnants. Le professeur Hicks, à la tête de l’équipe de scientifiques, s’est inspirée de la Xbox Kinect, le système de détecteur de mouvement de la console de jeux pour mettre au point ce système.
Pour le moment, seules les lumières les plus intenses signalent les objets les plus proches, mais des améliorations devraient être apportées pour que les futures versions utilisent des couleurs permettant de différencier les objets les uns des autres. Un gyroscope pourrait également être intégré, de façon à ce qu’en tournant la tête, le système s’adapte automatiquement, en temps réel, sans avoir à recalculer les nouvelles informations.
Un prototype encore à développer
Smartplanet.com rapporte que les chercheurs mènent actuellement une étude d’un an pour développer et tester ce système auprès de personnes atteintes de dégénérescence maculaire liée à l’âge (DMLA) et de maladies rétiniennes. Comme l’explique Iain Wilson, "la plupart des gens qui ont perdu la vue, en vieillissant ou suite à une maladie, continue à distinguer les contrastes et cela alors même qu’ils ne sont pas en mesure de voir leur propre main en face de leur visage".

sources:maxisciences.com

Fukushima : des associations réclament l'évacuation des enfants

La centrale nucléaire accidentée de Fukushima après le séisme et le tsunami du 11 mars dernier
Dans les sols de la ville de Fukushima, à soixante kilomètres de la centrale nucléaire accidentée depuis mars dernier, des niveaux de radioactivité parfois quatre fois supérieurs à la limite légale ont été mesurés. C'est ce que révèlent plusieurs associations de résidents qui réclament l'évacuation de tous les enfants et les femmes enceintes de la ville.
Plusieurs associations de résidents de Fukushima ont fait analyser les sols de la ville de 300.000 habitants située à une soixantaine de kilomètres seulement de la centrale nucléaire gravement touchée par le tsunami du 11 mars dernier. Or comme le rapporte le site du Monde, l'une des mesures a révélé un taux de césium radioactif de 46.540 becquerels par kilogramme. Un niveau plus de quatre fois supérieur à la limite légale de 10.000 becquerels appliquée au Japon. Comme le souligne le regroupement d'associations qui a demandé cette étude, ce taux est supérieur au seuil fixé après la catastrophe de Tchernobyl pour l'évacuation des populations.
Trois autres analyses du sol de Fukushima ont fait état de taux compris entre 16.290 et 19.220 becquerels par kilogramme. "La contamination des sols s'étend dans la ville", alerte le chercheur qui a réalisé les analyses, Tomoya Yamauchi, un professeur de l'université de Kobé spécialiste des radiations. "Les enfants jouent avec la terre, ils jouent donc avec des substances hautement radioactives", prévient-il avant de réclamer l'évacuation des enfants et des femmes enceintes "au plus vite".
Après l'accident engendré par le violent séisme et le tsunami qui ont dévasté le nord-est du Japon, 160.000 personnes vivant à proximité de la centrale ont quitté leurs maisons. Mais près la moitié est depuis revenue. Les familles qui vivaient dans un rayon de 20 kilomètres autour du site ont pour la grande majorité préféré ne pas retourner chez elles.

sources:maxisciences.com

Le web participe aussi aux émissions de CO2

Illustration
L'Agence de l'environnement et de la maîtrise de l'énergie (ADEME) a rendu publique les résultats de son étude sur les conséquences sur l’environnement de l'utilisation de l'outil informatique et plus particulièrement de l'Internet.
Ce sont des résultats plutôt alarmants dont a fait part l'ADEME. Jeudi, celle-ci a en effet communiqué les conclusions de son étude sur la part de l'outil informatique dans les émissions de CO2. C'est pour faire suite à un rapport de 2008 réalisé par l'Agence d'évaluation environnementale BIO Intelligence que l'ADEME a décidé de se pencher sur la question de l'impact environnemental des ordinateurs et d'Internet. En effet, le rapport a révélé que près de 2% des émissions européennes de gaz à effet de serre proviennent des technologies de l'information et de la communication (TIC). Un chiffre qui doublera d'ici 2020 si rien n'est changé.
Dans son étude, l'ADEME s'est ainsi intéressée aux émissions de CO2 de cette technologie, mais aussi au cycle de vie de trois symboles des TIC : les courriels, le surf sur le web et l'utilisation de support de transmission de documents tels que les clés USB. Au final, l'étude a duré 18 mois et a mis en évidence des points alarmants. Elle révèle par exemple qu'un particulier et sa petite imprimante n'ont pas vraiment d'impact en comparaison, des nombreux emails envoyés dans le cadre professionnel qui génèrent chaque année des émissions de gaz à effet de serre atteignant, pour une entreprise de 100 personnes, 13,6 tonnes d'équivalent CO2  — soit environ 13 allers-retours Paris-New York — ou encore 136 kilogrammes équivalent CO2 par salarié, comme le rapporte Le Monde.
En ce qui concerne le surf sur le web, le fait de consulter 5 pages pendant à peine une minute chacune avant de trouver l'information donne lieu à l'émission de 10 grammes d'équivalent CO2. Pour la clé USB, l'étude a pris en compte à la fois son utilisation et sa production, laquelle nécessite beaucoup d'énergie, d'eau et de métaux rares. Ainsi, dans le cas de la transmission d'un fichier à 1.000 personnes, les émissions atteignent celles provoquées par un trajet de 80 kilomètres en voiture.
Adopter des réflexes simples
Face à ce bilan négatif, l'ADEME a donc donné quelques conseils pour limiter les émissions de l'utilisation informatique. Ainsi, elle propose par exemple, de mieux cibler les recherches avec un mot clé précis ce qui permettrait un gain en émissions de CO2 par internaute d'un ordre comparable à celles de 40 kilomètres parcourus en voiture. Par ailleurs, à en croire l'ADEME le stockage des mails et des pièces jointes sur un serveur est aussi un enjeu important. En effet, plus le courriel est conservé longtemps, plus son impact sur le changement climatique serait fort. Trier régulièrement ses mails permettraient ainsi de limiter les émissions. Enfin, l'étude dénonce également l'impression des emails comme l'un des postes majeurs responsable de l'impact environnemental de l'informatique. Comme relaye le Monde, réduire de 10 % le taux d’impression permettrait alors d’économiser 5 tonnes équivalent CO2 sur un an dans une entreprise.

sources: maxisciences.com

jeudi 7 juillet 2011

Le projet Hermitage Plaza, 323 mètres, se concrétise à la Défense

Alors que la crise a remis en cause ou retardé la construction de la plupart des futurs gratte-ciels de la Défense, le projet Hermitage Plaza de 323 mètres se concrétise. La pose de la première pierre est prévue pour 2011, la livraison doit intervenir en 2016.





Les futures tours du Hermitage Plaza

Situé coté Seine de l'Esplanade de la Défense, près du Pont de Neuilly, le projet Hermitage sera la plus haute réalisation de tours mixtes (composées de bureaux, logements et commerces) en Europe occidentale. Avec 323 mètres de hauteur, elle sera un mètre moins haute que la tour Eiffel, un acte symbolique, mais tout de même 84 mètres de plus que le plus haut bâtiment actuel de la Défense et de France, la tour First en cours d'achèvement (239 mètres). Son budget est de 2 milliards d'euros, le projet devrait générer 5000 emplois indirects lors de sa construction, et 3000 emplois directs par la suite.

De financement russe, le projet Hermitage Plaza est composé de deux tours jumelles. Avec pour architecte Norman Foster, une des deux tours sera composée de 92 étages, elle possédera un hôtel 5 étoiles de 210 chambres sur une hauteur de 20 étages, un centre de thalassothérapie, un centre de fitness, un restaurant, ainsi que des appartements panoramiques. L'autre tour, de 91 étages, sera pourvue de bureaux, d'un spa et d'appartements. Au total, ce sont 62 étages sur chacune des deux tours qui seront occupés par 540 logements de grand standing, avec un prix au mètre carré de l'ordre de 12 000 euros.


sources:techno-science.net

Refroidir un ordinateur grâce à la physique quantique

La suppression des données d'un disque dur pourrait conduire, dans des conditions bien particulières, à un refroidissement du système. Telle est la conclusion d'une étude réalisée conjointement par des physiciens de l'Université d'Oxford, de l'Université nationale de Singapour et de l'ETH Zürich (Institut fédéral de technologie de Zürich), et parue dans le journal Nature au mois de juin 2011. L'étude a pour titre: "The thermodynamic meaning of negative entropy" (La signification thermodynamique de l'entropie négative).

La chaleur d'un ordinateur générée par les calculs informatiques est non seulement un obstacle à la miniaturisation des circuits mais également un aspect fondamental de la relation entre théorie de l'information et thermodynamique, que l'on appelle entropie. Le travail de l'équipe de chercheurs a été de démontrer que lors de la suppression d'information, l'entropie du système, et donc sa capacité à produire de la chaleur ou à se refroidir, était conditionnée par l'information quantique qu'un observateur possède sur ce système.

Cette étude vient remettre en cause les principes de la thermodynamique classique appliqués aux ordinateurs. En physique, selon le principe de Landauer, la suppression de données stockées sur un système possède un coût de travail inhérent et de ce fait dissipe de la chaleur. Cette théorie suppose que l'information sur le système à effacer est classique, et ne s'étend pas aux cas où un observateur peut avoir des informations quantiques sur ledit système. L'étude parue dans Nature démontre que le principe de Landauer ne s'étend pas au domaine de la physique quantique où il peut y avoir suppression de données sans dissipation de chaleur, voire refroidissement.

Les résultats de l'étude, qui demeurent pour l'instant théoriques, permettent d'imaginer des systèmes (ordinateurs ou serveurs de données) où la suppression d'information conduirait à un refroidissement de l'environnement. La condition étant que l'observateur ait suffisamment d'information sur les données à effacer. En d'autres termes que la suppression d'information (bits de données) du système se fasse sans perte d'information pour l'observateur.

L'équipe s'est inspirée des idées de la théorie de l'information et de la thermodynamique. Dans la théorie de l'information, l'entropie est une mesure de la densité de l'information qui décrit la densité d'information que pourrait prendre un ensemble de données lors d'une compression optimale. Pour la thermodynamique, l'entropie est reliée à un désordre des systèmes, par exemple l'arrangement des molécules dans un gaz. L'ajout de l'entropie à un système équivaut habituellement à ajouter de l'énergie en tant que chaleur. Le travail de recherche s'est appuyé également sur la théorie de l'information quantique, qui est un développement de la théorie de l'information de Claude Shannon, et qui exploite les propriétés de la mécanique quantique, notamment le principe de superposition ou encore l'intrication.

Pour Renato Renner, un des auteurs de l'article: "l'étude a démontré que dans les deux cas, en théorie de l'information et en thermodynamique, le terme entropie décrit en fait la même chose, et ce même dans le régime de la mécanique quantique. Notre équipe a montré que pour les deux domaines, l'entropie est considérée comme une marque de manque de connaissances".

Le résultat de cette étude, qui lie théorie de l'information, thermodynamique et physique quantique, apporte de nouvelles connaissances théoriques pour la construction d'ordinateurs quantiques, potentiellement plus rapides et moins coûteux en énergie. Mais elle entrouvre également la voie à d'autres champs d'applications, notamment dans le domaine de la thermodynamique.


sources:techno-science.net

L'obésité masculine nuit à la fertilité

Illustration
Selon une étude présentée lundi à Stockholm et menée sur près de 2.000 Français, l'obésité serait nuisible à la qualité du sperme et aurait un impact sur la fertilité.
Alors que l'obésité est devenu un réel problème de santé publique, des chercheurs français se sont intéressés aux conséquences du surpoids sur la qualité du sperme. Présentée hier à l'European Society of Human Reproduction (ESHRE), l'étude a été conduite sur près de 2.000 hommes français âgés de 24 à 48 ans et révèle un impact inquiétant de l'obésité sur la fertilité masculine.
Au cours des recherches, plusieurs paramètres ont été étudiés, notamment le pH et le volume du sperme mais aussi la concentration en millilitres du nombre de spermatozoïdes. Les chercheurs se sont alors aperçus que dès que l'Indice de Masse Corporelle (IMC) est supérieur à 30, soit le seuil de l'obésité, les phénomènes observés s'aggravent : les spermatozoïdes sont moins rapides et moins nombreux. "Le surpoids entraîne une modification des paramètres du sperme, du fait probablement de désordres hormonaux, avec des déficits en nombre, en mobilité et en vitalité, ce qui entraîne des pertes de possibilité de conception", a précisé le Dr Cohen-Bacrie à l'AFP.
Moins de gamètes chez les obèses
Selon les résultats de l'étude, la diminution des gamètes serait même proportionnelle à l'importance du surpoids : le compte total de spermatozoïdes, d'environ 190 millions par millilitre chez les gens de poids normal, baisse à environ 160/185 chez ceux en surpoids, et à 135/155 chez les obèses. Ce n'est pas la première fois que les scientifiques établissent un tel lien entre obésité et fertilité. Le fait que le surpoids pouvait entraîner des troubles de l'ovulation pour la femme était ainsi déjà avéré. Le Dr Cohen-Bacrie, qui a dirigé cette étude précise alors que lorsqu'un "couple cherche à concevoir, il faut aussi regarder le poids de l'homme, une donnée importante".
Par ailleurs, l'étude a aussi démontré que la maigreur entravait la fertilité. Agir sur le poids serait donc une action simple qui pourrait permettre de concevoir naturellement et d'éviter la procréation médicalement assistée.

sources:maxisciences.com

Les mathématiques ont une culture !



Chez les Inuits, habitués à compter à l'aide de leurs doigts et de leurs orteils, la base mathématique est de 20. Pour une enseignante, voilà une information plutôt capitale! (Photo: iStockphoto)
Louise Poirier ne s'attendait pas à faire l'une des plus étonnantes découvertes de sa carrière lorsqu'elle s'est rendue dans un village inuit, aux confins du Grand-Nord, à l'invitation de la Commission scolaire Kativik en 2000. Elle a constaté que les Inuits ne comptaient pas sur une base de 10 mais de 20. "Évidemment, pour des enseignants, c'est une réalité dont il faut tenir compte si l'on veut leur transmettre des connaissances", indique la spécialiste de la didactique des mathématiques et doyenne de la Faculté des sciences de l'éducation de l'Université de Montréal.

En Occident, 10 unités font une dizaine, 10 dizaines une centaine, 10 centaines un millier, etc. Chez les Inuits, habitués à compter à l'aide de leurs doigts et de leurs orteils, la base mathématique est de 20. De plus, le principe de la décimale est difficile à concevoir étant donné que le nombre 1 est dit la plus petite unité indivisible. "Quand on leur demande d'entrer sans préparation dans une logique différente de leur culture d'origine en passant de l'inuktitut au français ou à l'anglais, ils peuvent bien être désorientés", soupire Louise Poirier.

Cette désorientation se chiffre: le taux d'échecs atteint des sommets chez les jeunes Inuits et le décrochage scolaire est une préoccupation majeure pour la communauté. Mais au fait, pourquoi enseigner les mathématiques "occidentales" à un peuple qui n'en voit peut-être pas l'utilité? "Pour qu'il puisse s'engager de plain-pied dans le monde du travail, tranche Mme Poirier. Avec le développement minier et énergétique du Plan Nord, on aura besoin d'ingénieurs, d'arpenteurs, de gestionnaires. Il ne faut pas que les autochtones soient exclus de cette nouvelle économie."

Cette découverte a confirmé ce qu'elle savait déjà, puisque la réflexion théorique l'évoque depuis longtemps: les mathématiques sont un produit culturel. "Les Inuits ne sont pas les seuls à compter sur une base de 20; les Aztèques et les Mayas le faisaient aussi."

Triple regard

De 2000 à 2007, la chercheuse a visité chaque année 7 des 14 communautés inuites où la Commission scolaire Kativik gère des écoles. Ses séjours de deux à trois semaines avaient pour but d'adapter les méthodes d'enseignement des mathématiques aux communautés autochtones. Cette expérience l'a menée à documenter des approches originales en didactique. "J'ai rencontré des ainés, discuté avec des enseignants et des conseillères pédagogiques. Nous avons mis en place un système d'apprentissage avec la communauté. Ç'a été un projet formidable."

Parmi ses observations, elle souligne que les élèves inuits ont des forces en mathématiques, "tout particulièrement en représentation spatiale et en géométrie". Mais le programme pédagogique ne met pas l'accent sur ces forces. Même phénomène avec les méthodes d'enseignement, mal adaptées. "Les exercices papier-crayon ne sont pas naturels pour les Inuits. De même, on ne questionne pas un enfant quand on sait d'avance qu'il ne connait pas la réponse. Traditionnellement, l'apprentissage passe plutôt par le récit oral, l'énigme."


Louise Poirier
La plus grande difficulté se situait toutefois ailleurs... C'est en inuktitut que les élèves inuits ont leurs premiers contacts avec les mathématiques. À partir de la troisième année du primaire et jusqu'à la fin du secondaire, l'enseignement se déroule en français ou en anglais. "Les élèves se retrouvent alors en situation d'apprentissage des mathématiques en langue seconde. Or, le langage joue un rôle fondamental dans le développement de la pensée mathématique", fait-elle remarquer.

Son passage a au moins laissé une trace encore visible dans la commission scolaire: on n'exige plus des jeunes qu'ils passent sans transition de l'inuktitut au français ou à l'anglais entre la deuxième et la troisième année du primaire. "Une année mixte a été instaurée en milieu de cycle. C'est une année où l'on permet aux élèves de se familiariser avec la nouvelle langue d'enseignement et avec sa logique, sans que soit brusquement proscrite leur langue maternelle."

Comme elle l'a signalé au cours d'une présentation en Italie, l'enseignement des mathématiques dans une région isolée "passe nécessairement par la compréhension qu'a l'enseignant de sa pratique et de son contexte d'enseignement". Chez les Inuits, on doit donc intégrer des enseignants locaux dans l'équipe pédagogique. En plus du linguiste, celle-ci sera constituée de trois formateurs d'enseignants et de conseillers en élaboration de programmes. "Cela nous permet d'avoir le triple regard nécessaire: contexte d'enseignement, culture inuite et didactique des mathématiques", commente-t-elle.

Son projet de recherche terminé, Louise Poirier a mis un terme à son travail dans le Grand-Nord. Elle a présenté les résultats de ses observations à l'occasion de conférences nationales et internationales. Des chercheurs sénégalais ont reconnu la pertinence de ses travaux il y a deux ans. "Un conseiller pédagogique de Dakar est venu à moi, les larmes aux yeux, à la suite d'une communication sur les Inuits. Selon ses termes, je lui avais donné une clé pour pénétrer dans la logique mathématique de la communauté wolof avec laquelle il travaillait."

Des maths à l'interdisciplinarité

Depuis une dizaine d'années, Louise Poirier s'est consacrée à l'administration universitaire en prenant la tête du Département de didactique de la Faculté des sciences de l'éducation. Elle occupe le poste de doyenne depuis le 1er juin 2010. C'est la deuxième femme de l'histoire, après Gisèle Painchaud, à diriger cette faculté à forte majorité féminine.

Cette passionnée de pédagogie a longtemps hésité entre la psychologie et la didactique; elle a réglé la question en faisant converger plusieurs disciplines vers des questions d'éducation. C'est ce qui l'a conduite, entre autres, à s'associer à un linguiste lorsqu'elle s'est rendue à Povungnituk. "La linguistique m'est apparue comme une clé pour aborder la logique de ce peuple extraordinaire, pour lequel j'ai conservé un immense respect", dit-elle.

Tout en dirigeant la faculté, qu'elle veut "innovante" et "ouverte sur le monde", Mme Poirier poursuit son travail de chercheuse en utilisant notamment le jeu comme outil de développement pédagogique (voir Forum du 11 avril dernier, "Les multiples visages de l'internationalisation de l'Université"). En 2010, elle est allée au Sénégal à l'invitation de l'Université Cheikh Anta Diop de Dakar, où l'on s'intéresse à ses travaux dans le Nunavik.

Louise Poirier n'a toutefois pas délaissé les écoles montréalaises, où les mathématiques ont encore une bonne pente à remonter. "Nos recherches démontrent que certains des élèves en difficulté s'avèrent parmi les plus habiles de la classe dans les jeux mathématiques où ils doivent démontrer un esprit stratégique. Appliquée dans des écoles défavorisées, l'approche interdisciplinaire permet une hausse incroyable de la présence en classe et de la réussite scolaire."

Une autre illustration que les mathématiques ont une culture. "J'ajouterais qu'elles ont aussi une histoire et une géographie. Tous les peuples ont fait appel aux mathématiques pour résoudre des problèmes qui se présentaient à eux. Tous les peuples ont donc participé à la construction des mathématiques", conclut la doyenne.

sources:techno-science.net

Des médicaments à risque pour les seniors

Illustration
Selon une récente étude anglo-américaine, la mortalité des personnes âgées augmenterait en cas de consommation prolongée et importante de certains médicaments. Les recherches ont été menées durant deux ans sur 13.000 sujets âgés de plus de 65 ans.
C'est une découverte inquiétante que révèle aujourd'hui le journal Le Figaro. Publiés dans le Journal of the American Geriatrics Society, une étude conduite sur deux ans indique que 20% des personnes âgées ayant consommé plusieurs médicaments à effet anticholinergique sont décédées durant la période d'observation, contre seulement 7% des patients qui ne prenaient aucun médicament.
Les agents anticholinergiques sont des substances qui agissent au niveau du système nerveux en réduisant les effets de l'acétylcholine, un neurotransmetteur impliqué dans la mémoire, l'activité musculaire ou encore les fonctions végétatives. Une consommation régulière et prolongée, voire simultanée de ces médicaments entrainerait alors un déclin cognitif incluant des troubles de l'équilibre, de la vision, de la mémoire, une faiblesse musculaire ou encore un discours incohérent. Selon l'étude, les molécules anticholinergiques favoriseraient ainsi le taux de chutes des personnes âgées, entrainant une progression de la mortalité.
Aujourd'hui, le Figaro a publié une liste des médicaments en question. En tout, on en dénombre pas moins de 70 identifiés comme étant à l'origine d’altération des facultés cognitives chez les seniors. Parmi eux, se trouvent des antidépresseurs (Elavil, Laroxyl, Tofranil), des tranquillisants (Largactil, Terfluzine), des antitussifs (Broncalene, Broncorinol), des antihypertenseurs (Atenolol), des diurétiques (Aldalix, Furosemide), des antiasthmatiques (Asmabec, Beclojet), des antiépileptiques (Tegretol) mais aussi des molécules prescrites dans le traitement du glaucome (Azarga, Combigan, Cosopt) ou pour les incontinences urinaires (Ditropan, Oxybutynine).
Une remise en question
"À chaque fois que cela est possible, il faut prescrire un autre médicament", explique au Figaro le professeur Jean-Louis Montastruc, chef du service de pharmacologie du CHU de Toulouse. Mais cela reste complexe : "En gériatrie, nous connaissons tous ces produits. Le problème, c'est que si certains sont très clairement identifiés comme ayant un effet anticholinergique (comme les antidépresseurs de première génération, ou d'autres produits régulièrement prescrits en urologie pour incontinence), d'autres avancent un peu plus masqués", assure le docteur Olivier de Ladoucette, psychiatre et gériatre à la Pitié-Salpêtrière, à Paris. Le réexamen de la dangerosité d'une centaine de molécules est donc en cours auprès de l'Agence du médicament et devrait s'achever à la fin de cette année.

sources:.maxisciences.com

E.coli: les graines d'Egypte interdites par l'UE

Illustration
Alors que les autorités viennent de confirmer la piste des graines germées égyptiennes, l'Union européenne a décidé d'interdire mercredi l'importation des lots de fenugrec. Mais l'Egypte se défend et déclare que les graines ne peuvent être à l'origine de la contamination.
Un lien entre un lot de fenugrec en provenance d’Égypte et les intoxications par la bactérie E.coli a été confirmé par l'Efsa (l'Agence européenne pour la sécurité des aliments). Celle-ci vient alors d'interdire l'importation de ces graines et a recommandé à tous les Etats membres de retirer du marché et de détruire tous les lots en provenance d'Egypte.
Mais ce n'est qu'un début : "la Commission va suivre l'évolution de la situation et décidera si des mesures additionnelles s'imposent" a précisé John Dalli, commissaire européen à la santé. De son côté, l’Égypte a rejeté dès mercredi soir, "toute responsabilité", mettant en avant l'argument de la date d'exportation du lot : celui-ci exporté en 2009 contenait des graines séchées, sur lesquelles la bactérie n'aurait pu restée et proliférer pendant deux ans.
D'excellents véhicules pour la bactérie
Pourtant, d'après un article paru le 6 juillet, dans Sciences et Avenir : "La première hypothèse, très plausible, est celle d’une contamination à la ferme, lors de la production des graines". Et, "nombre de graines étant destinées à être plantées et non mangées, les normes sanitaires ne sont pas aussi strictes que pour les produits destinés à l’alimentation". Enfin, "si des graines de luzerne, de fenugrec ou de radis ont été contaminées en champ, elles deviennent d’excellents véhicules à long terme pour les bactéries."
"C'est la première fois qu'on trouve cette bactérie dans des graines germées", informe la microbiologiste Patricia Mariani-Kurkdjan, citée par Metro. C'est donc ce qui pourrait expliquer le fait que les autorités sanitaires allemandes ont commencé par pointer du doigt les concombres espagnols.

sources: maxisciences.com

La restauration rapide soumise à des contrôles d'hygiène

La restauration rapide soumise à des contrôles d'hygiène
Du 27 juin au 1er juillet, les services de la Répression des fraudes ont organisé une opération coup de poing destinée à contrôler l'hygiène des établissements de restauration rapide et de vente à emporter. Après ces contrôles, neuf d'entre eux ont dû fermer leurs portes.
Au total, c'est près de 1.725 établissements : 1.426 de restauration rapide et 299 de vente à emporter qui ont été contrôlés. Après les incidents survenus dans plusieurs fast-food ces derniers mois, les services de la Répression des fraudes ont en effet décidé de lancer une grande opération nationale destinée à vérifier le respect des conditions d'hygiène dans ces établissements et par là même, de répondre "à l'inquiétude d'un certain nombre de consommateurs", comme l'a indiqué Frédéric Lefebvre, secrétaire d'Etat au Tourisme et à la Consommation.
Selon des chiffres obtenus par l'AFP, l'opération aurait jusqu'ici conduit à 9 fermetures temporaires, 43 procès-verbaux et 140 mises en demeures administratives. Des chiffres qui donnent un aperçu du nombre d'infractions relevé par les services de la Répression des fraudes. Sur les neuf établissements fermés, huit sont des enseignes indépendantes, alors que les autorités ont également indiqué avoir procédé à près de 40 saisies de produits et 241 avertissements ou rappels à l'ordre.
Pointant du doigt le "manque de réglementations", Frédéric Lefebvre a demandé "aux fédérations professionnelles et à tous les acteurs de la filière de se mobiliser à travers des formations du personnel à l'hygiène et à la sécurité sanitaire des aliments" comme l'explique Le Monde. Le 11 juillet prochain, le secrétaire d'Etat au Tourisme et à la Consommation recevra ainsi les organisations professionnelles pour évoquer le sujet.

sources:maxisciences.com

Faire le pont... en bois


Les ouvrages de bois peuvent être très durables comme en témoigne le pont de la chapelle de Lucerne, en Suisse, construit en 1333.
Photo: Wojsyl
Le retour des ponts de bois est amorcé en Europe, mais le Québec tarde à emboîter le pas.

En France, en Suisse et en Allemagne, le bois fait un retour en force comme matériau de construction des ponts, mais cet engouement peine à traverser l'Atlantique. Pourtant, la matière première est abondante et il ne manque pas de plans d'eau à franchir, a souligné Pascal Triboulot, directeur honoraire de l'École nationale supérieure des technologies et industries du bois de France et professeur invité à l'UQAC, lors du Colloque sur la progression de la recherche québécoise sur les ouvrages d'art. Cet événement, organisé avec le concours de Josée Bastien et Marc Jolin du Département de génie civil, a réuni 300 personnes au pavillon Maurice-Pollack le 10 mai.

Ce manque d'enthousiasme pour l'utilisation du bois dans les ouvrages de franchissement est d'autant plus surprenant que ce matériau répond parfaitement aux préoccupations de notre époque. "En Europe, ce sont les questions environnementales et les analyses des cycles de vie des matériaux qui ont suscité ce renouveau d'intérêt pour le bois, a rappelé le conférencier. Le bois est un matériau renouvelable, écologique et esthétique. De plus, contrairement au métal et au béton dont la fabrication provoque l'émission de gaz à effet de serre, le bois capte et immobilise du CO2 pendant sa production."

Contrairement à ce qu'on pourrait croire, les ponts de bois peuvent durer très longtemps, a-t-il rappelé, citant en exemple le pont fortifié de la chapelle de Lucerne. Construit en 1333, cet ouvrage qui mesure 204 mètres de long résiste toujours aux outrages du temps. "Lorsqu'on utilise le bois, il faut réaliser la conception de l'ouvrage en fonction des caractéristiques spécifiques de ce matériau. L'eau est l'ennemi du bois et il faut prendre des mesures pour le protéger de la pourriture. Il faut aussi tenir compte du fait que le bois peut gonfler, se rétracter et se fissurer."

Pendant des siècles, le bois a été le matériau de prédilection pour la construction des ponts en Europe et en Asie. L'arrivée de l'acier et du béton l'a toutefois relégué aux oubliettes jusqu'à ce qu'on découvre que ces matériaux "modernes" présentent aussi eux aussi des inconvénients. De plus, les progrès en génie du bois ont repoussé les limites de conception autrefois imposées par la taille des arbres. Les assemblages de bois en lamellé-collé dépassent maintenant un mètre de section.

En 1985, le professeur Triboulot faisait partie de l'équipe qui a mis sur pied l'École nationale supérieure des technologies et industries du bois à Épinal en France. "Nous nous étions inspirés de deux modèles: une école allemande de génie du bois et la Faculté de foresterie de l'Université Laval. Nos programmes attirent maintenant près de 350 étudiants alors que le programme de génie du bois de l'Université Laval a plus de difficulté à recruter. Étrangement, les préoccupations environnementales ont amené les étudiants français à s'intéresser à la forêt, alors qu'au Québec, ces mêmes préoccupations ont détourné les jeunes des programmes d'études liés à l'utilisation des ressources forestières."

La Faculté de foresterie, de géographie et de géomatique entend bien faire sa part pour valoriser le bois comme matériau de construction pour les ponts. Une annonce à cet effet devrait être faite au cours des prochaines semaines.

sources:techno-science.net

Un système de navigation automobile communiquant avec la route

Toyota Motor Corporation a annoncé le développement d'un nouveau système de navigation capable de dialoguer avec des équipements placés sur la route, et permettant d'avertir le conducteur de divers dangers.

Ce nouveau dispositif de navigation est compatible avec le DSSS (Système d'Aide à la Sécurité de la Conduite), qui fait partie d'un projet visant à réduire les accidents de la route grâce à l'usage de Systèmes de Transports Intelligents (ITS). Le DSSS devrait être lancé par l'Agence de Police Nationale Japonaise au mois de Juillet 2011. Le dispositif est capable de restituer au conducteur des recommandations de sécurité basées sur des informations transmises par des balises optiques placées sur la route.

Les fonctions précises qu'apportera le système de Toyota sont les suivantes:
- Un avertissement "feu rouge", détectant la probabilité que le conducteur ne respecte pas un feu rouge et l'avertissant qu'il s'en approche.
- Un avertissement "panneau STOP", détectant la probabilité que le conducteur ne respecte pas un panneau STOP et l'avertissant qu'il s'en approche.
- Une notification de véhicule, si un véhicule lent ou en stationnement est présent sur la chaussée (des détecteurs permettent de le savoir).
- Une notification de la présence d'un véhicule à une intersection où l'on ne dispose que d'un champ de vision réduit.
- Une notification du passage imminent d'un feu au vert (cela permet, selon Toyota, de réduire l'encombrement des routes ainsi que les émissions polluantes).

Toyota compte introduire ce type de navigation dans son nouveau véhicule qui devrait sortir cet été.


sources:techno-science.net

La composition du Soleil se révèle

La composition du Soleil se révèle


Illustration
Grâce à des échantillons de vent solaire obtenus après la mission spatiale Genesis, une équipe de chercheurs franco-américaine a mis au jour "l'ADN du Soleil", sa composition isotopique en azote. Ils ont alors découvert qu'elle était très différente de celle de l'azote des météorites et de la Terre.
Pour comprendre la façon dont se sont formés le Soleil et les planètes qui l'entourent, les scientifiques tentent de percer les secrets de notre astre, qui concentre plus de 99% de la matière présente dans le système solaire. Aujourd'hui, les astronomes savent que le système solaire s'est formé dans un nuage de gaz et de poussières, la nébuleuse protosolaire. Or notre étoile "a conservé la composition initiale de la nébuleuse protosolaire (...) Ce qui n’est pas le cas de la plupart des autres corps du système solaire, comme la Terre, Mars ou les météorites", explique la Nasa dans un communiqué.
C'est pourquoi une équipe franco-américaine dirigée par le Centre de recherches pétrographiques et géochimiques de Nancy a étudié la composition du Soleil, grâce à des échantillons de vent solaire récoltés par la mission spatiale Genesis. Lancée par la Nasa en 2001, cette mission avait pour principaux objectifs d'établir les compositions isotopiques en azote et oxygène du Soleil. Les rapports isotopiques de ces éléments sont en effet très différents entre la Terre, la Lune, Mars, les météorites, les comètes et les planètes géantes. "Pour expliquer ces variations, il était indispensable de déterminer la composition isotopique de la nébuleuse protosolaire, autrement dit celle du Soleil aujourd’hui", explique le CNRS. La composition isotopique indique les proportions des divers isotopes (des atomes qui ont le même nombre de protons mais un nombre de neutrons différent) d'un élément chimique.
Le Soleil 60% moins riche en isotope 15N que la Terre
A l'issue de leurs analyses, dont les résultats sont publiés par la revue Science, les chercheurs concluent que l’azote solaire est très différent de l’azote terrestre. Le Soleil est en effet 60% moins riche en isotope 15N que la Terre. "En d’autres termes, la Terre et les météorites sont enrichies de 60% en 15N tandis que les comètes le sont de 300%", note le CNRS. En outre, les chercheurs ont découvert que le rapport 15N/14N du Soleil était similaire à celui de l’atmosphère de Jupiter, qui avait été analysé il y a dix ans par une sonde américaine. Une similitude qui tend à prouver que les planètes géantes ont capturé dans leurs atmosphères une partie du gaz de la nébuleuse primitive.
En outre, les chercheurs américains ayant participé à l'étude ont découvert que l’oxygène solaire est également appauvri en isotopes rares (17 O et 18 O) par rapport à celui de la Terre. L’une des hypothèses étudiées par les chercheurs avance que ces variations auraient été engendrées par une irradiation intense du gaz résiduel de la nébuleuse par le Soleil jeune. "Des réactions photochimiques auraient alors enrichi en isotopes rares les composés résultant de ces réactions, qui auraient été incorporés dans les météorites et les planètes telluriques", explique le CNRS.

sources: maxisciences.com

Science XL: votre iPhone pour instrument de mesure scientifique

Développée au Laboratoire de psychologie cognitive (CNRS/Université de Provence), en collaboration avec sept centres universitaires de par le monde, l'application Science XL propose de participer à une étude scientifique en jouant avec des mots. Elle est compatible avec iPhone, iPod Touch et iPad, et téléchargeable gratuitement sur l'AppStore.

Savoir lire, c'est pouvoir décoder rapidement et sans effort une chaîne de lettres imprimées, identifier le mot correspondant et comprendre son sens. L'objectif de Science XL est d'aider les chercheurs à mieux comprendre nos capacités de lecture. Pour avancer dans cette démarche, Science XL propose de tester sa connaissance des mots de la langue française à travers un test très souvent employé dans les laboratoires, le test de "décision lexicale". Dans ce test, le lecteur doit lire des mots et déterminer rapidement s'ils existent ou s'ils sont inventés. La spécificité de Science XL est de permettre de réaliser ce test sur un iPhone, sous la forme d'un jeu. Ainsi, tout un chacun peut télécharger l'application et jouer à sa convenance.



Captures d'écran présentant l'interface de l'application Science XL sur un iPhone.
© Science XL group (Creative Commons Attribution-Share Alike 3.0 Unported)

Cette approche permet de collecter une quantité de données sans commune mesure avec celle qui est généralement obtenue en laboratoire. Typiquement, les contraintes de laboratoire conduisent à des tests où une vingtaine de personnes doivent reconnaître une centaine de mots. Avec Science XL, les chercheurs visent à obtenir des réponses de plusieurs dizaines de milliers de personnes. L'étude statistique des données anonymisées permettra ainsi de caractériser beaucoup plus finement nos capacités de lecture. Ces résultats pourront également servir à mieux comprendre les troubles de la lecture comme la dyslexie et à développer des entraînements à la lecture sur iPhone. Plus généralement, cette approche permettra d'obtenir, à l'aide d'une communauté de participants, les investigations les plus vastes jamais réalisées en sciences du comportement.

L'utilisation de l'iPhone dans ce type de recherches est novatrice. Il existe des approches voisines de celle de Science XL, comme par exemple des expériences menées sur Internet ou par email. Toutefois, aucune d'entre elles ne bénéficie des capacités techniques des smartphones, telles que l'affichage contrôlé des stimuli à la milliseconde près ou la récolte précise des temps de réponse. L'iPhone, ou plutôt les millions d'iPhone utilisés à travers le monde deviennent ainsi un instrument de mesure scientifique à très grande échelle.


sources:techno-science.net 


De l’eau oxygénée au beau milieu de l’espace

De l’eau oxygénée au beau milieu de l’espace
Pour la première fois, des astrophysiciens ont réussi à détecter des molécules d’H2O2, de l’eau oxygénée ou peroxyde d’hydrogène dans l’espace, au sein de nuages très froids de la galaxie.
Les astrophysiciens passent le plus clair de leur temps à scruter l’espace à la recherche de la moindre particule, mais les découvertes sont rares. Pourtant, des travaux publiés dans la revue Astronomy & Astrophysics indiquent que des chercheurs viennent tout juste de découvrir des molécules d'H2O2, également appelée eau oxygénée ou peroxyde d’hydrogène. Selon les résultats, ces particules ont été repérées à 400 années-lumière de la Terre, dans une région proche de l’étoile Rho Ophiuchi.
A cet endroit, les étoiles se forment dans des nuages de -250 degrés Celsius, très denses, et essentiellement composés d’hydrogène. Bien que très rare, l’eau oxygénée s’y trouve avec une concentration d'une molécule pour une dizaine de milliards de molécules d’hydrogène, explique l’astronome Per Bergman. Pourtant "nous ne comprenons pas encore comment certaines des molécules les plus présentes ici, sur Terre, sont fabriquées dans l'espace" explique Bérengère Parise de l'Institut Max-Planck de radioastronomie en Allemagne, sur le site de l’ESO.
Pour parvenir à faire cette découverte, les astronomes ont utilisé le télescope APEX (Atacama Pathfinder Experiment) installé au Chili sur le plateau de Chajnantor à 5.000 mètres d’altitude. Cet appareil permet d’observer la lumière à des longueurs d’ondes millimétriques et submillimétriques, ce qui a permis de détecter le peroxyde d’hydrogène. Une découverte importante puisque la formule de l'eau oxygénée est étroitement liée à celles de deux éléments vitaux : l'eau H2O et le dioxygène O2. Pour l’heure, les recherches se poursuivent donc pour comprendre comment l’eau peut se former dans l’univers, rapporte Sciences et Avenir.

sources: maxisciences.com

Japon: Toutes les centrales nucléaires du pays vont être testées

Un employé de la centrale nucléaire de Fukushima (Japon) près du réacteur 2, le 2 avril 2011 Ho New / Reuters

NUCLEAIRE - Après Fukushima, le Japon va procéder à des tests de sûreté sur toutes ses centrales nucléaires...

Le Japon va procéder à des «tests de résistance» sur l'ensemble de ses centrales nucléaires pour vérifier à nouveau leur sûreté après l'accident de Fukushima, a annoncé mercredi le ministre de l'Economie, Banri Kaieda, cité par les agences de presse Jiji et Kyodo. La sécurité des réacteurs japonais a déjà été contrôlée dans les semaines suivant la catastrophe sur ordre du Premier ministre, Naoto Kan, mais ces nouvelles vérifications «permettront de rassurer davantage la population», a souligné Banri Kaieda. Depuis qu'un tsunami géant a provoqué d'importantes fuites radioactives à la centrale Fukushima Daiichi (nord-est), l'inquiétude est vive dans les différentes régions du Japon hébergeant des centrales.

Enjeu sécuritaire et économique

Aucun des réacteurs stoppés pour maintenance depuis l'accident du 11 mars n'a encore redémarré, ce qui a drastiquement réduit la production d'électricité des compagnies nippones. Le ministre de l'Economie, du Commerce et de l'Industrie (Meti) s'est rendu en personne fin juin à Genkai, sur l'île de Kyushu (sud-ouest), pour convaincre le maire de donner son feu vert à la relance de deux réacteurs suspendus. Le maire a finalement donné son accord, le premier depuis l'accident de Fukushima, mais ailleurs, les responsables locaux restent hésitants.
Au-delà de la question sécuritaire, l'enjeu est économique: Banri Kaieda a prévenu qu'un déficit d'approvisionnement prolongé en électricité risquait d'entraver les efforts de reconstruction du Tohoku (nord-est), dévasté par un séisme de magnitude 9 et par un tsunami qui ont fait près de 23.000 morts et disparus. Avant cette catastrophe, l'énergie nucléaire  représentait près de 30% de la production de courant au Japon. Aujourd'hui, seuls 19 réacteurs sont exploités sur 54, les uns ayant été arrêtés après un séisme, d'autres pour maintenance alors que trois unités, situées à Hamaoka (centre) dans une zone à forte activité sismique, ont été stoppées sur ordre du Premier ministre, qui a exigé des travaux de consolidation de la compagnie exploitante avant tout redémarrage.

Black-out pendant l’été

Face à la baisse de production, les autorités ont imposé aux entreprises et aux administrations de réduire de 15% leur utilisation d'électricité dans les régions de la mégapole de Tokyo et du Tohoku, afin d'éviter que les tensions sur le réseau n'entraînent des coupures, voire un black-out total. Cet ordre vaut pour tout l'été, une période connaissant des pics de consommation dus au fonctionnement des climatiseurs. Dans le reste du pays, des économies d'énergie ont été simplement conseillées.
L'accident de Fukushima Daiichi, située à 220 km au nord-est de Tokyo, a été provoqué par une vague géante qui a interrompu l'alimentation électrique des circuits de refroidissement des réacteurs et noyé les générateurs de secours. Une fusion du combustible a suivi, provoquant des explosions et des rejets radioactifs dans l'atmosphère, l'eau de mer et les sols de la région de Fukushima. Cet accident, le plus grave depuis celui de Tchernobyl (Ukraine) en 1986, a contraint quelque 160.000 personnes à évacuer leur domicile. La moitié d'entre elles, habitant dans un rayon de 20 km de la centrale accidentée, n'a toujours pas pu y retourner. La compagnie exploitant Fukushima Daiichi, Tokyo Electric Power (Tepco), espère parvenir à refroidir ses réacteurs endommagés et les maintenir sous la température de 100 degrés Celsius d'ici à janvier 2012.

sources: 20minutes.fr

La Nasa a choisi le modèle de son futur vaisseau spatial

Capsule Orion (Crédit photo : Lockheed Martin)
Baptisé MPCV, le futur véhicule spatial qui, entre autres choses, acheminera les astronautes vers l’ISS à la place des actuelles navettes bientôt à la retraite,  sera basé sur la technologie améliorée de la capsule Orion : tel est le choix de la Nasa, selon un de ses récents communiqués.
C’est le concept technique mis en œuvre par Lockheed Martin sur la capsule Orion qui a été retenu par la Nasa pour élaborer le futur vaisseau habitable qui permettra à l’agence spatiale américaine d’envoyer des astronautes dans l’espace, notamment vers la station spatiale internationale (ISS). Celle-ci est actuellement desservie par la navette Atlantis, à laquelle succédera, dès juillet 2011,  la navette russe Soyouz, au moins jusqu’en 2015, date vers laquelle le nouveau véhicule – conçu et fabriqué par une entreprise privée, donc – devrait prendre la relève.
Actuellement en projet, cet engin , le "Multi-Purpose Crew Vehicle" (MPCV), pourra transporter quatre personnes pour des missions de 21 jours. Pesant environ 23 tonnes, il comportera un espace pressurisé de 19,6 mètres cubes, dont 7,21 mètres cubes habitables. Très similaire à la capsule Orion, il devrait cependant être 10 fois plus sûr, grâce à un système de secours permettant d'éloigner la capsule du lanceur, en cas de dysfonctionnement de celui-ci. Le planning du projet, encore à un stade préliminaire, est loin d’être fixé, et ne devrait pas déboucher sur un vol habité avant 2016.

sources:maxisciences.com

Atlantis : les astronautes se préparent pour l'ultime lancement

Le 8 juillet prochain, la navette Atlantis décollera pour la dernière fois vers la station spatiale internationale (ISS). Les astronautes qui voyageront à son bord sont déjà arrivés à Cap Canaveral, en Floride, et se préparent pour un vol historique, le dernier des navettes spatiales américaines.
Les quatre astronautes qui voyageront à bord de la navette Atlantis, et achèveront ainsi les trente années de bons et loyaux services rendus par les navettes de la Nasa, sont arrivés le lundi 4 juillet, jour de la fête nationale américaine, à la base de Cap Canaveral, en Floride. Le 8 juillet, Atlantis décollera pour la dernière fois vers l'ISS et réalisera l'ultime vol des navettes américaines alors que Discovery et Endeavour ont déjà tiré leur révérence. Ce mardi, le compte à rebours a déjà été lancé. Et vendredi, à Cap Canaveral, un million de personnes sont attendues pour assister au dernier décollage de la navette, prévu à 11h26.
Le commandant Chris Ferguson, qui réalisera son troisième vol habité, est à la tête de cette ultime mission. Il sera accompagné du pilote Doug Hurley, de la scientifique Sandra Magnus, et de l'ingénieur de vol Rex Walheim. L'équipage a été réduit à quatre personnes car la Nasa n'a pas de véhicule de secours qui pourrait ramener les astronautes en cas de problème avec Atlantis. Devant la foule de journalistes venue accueillir les astronautes, M. Ferguson a assuré que les douze jours de la mission seront "bien remplis". La navette Atlantis emportera avec elle le quatrième module logistique Raffaello, un conteneur de près de quatre tonnes de matériel destiné à l'ISS.
Après cette dernière mission, la navette rejoindra un musée comme ses soeurs Discovery et Endeavour. Ce sont les navettes russes Soyouz qui prendront le relais et assureront le transport d'astronautes et de matériel vers la station spatiale dont la construction est désormais presque achevée.


sources:maxisciences.com

L'origine des matériaux formés à chaud dans les comètes

Les comètes sont des corps glacés, pourtant elles sont constituées de matériaux formés à de très hautes températures. D'où viennent-ils ? Des chercheurs de l'Institut UTINAM (1) (CNRS/Université de Besançon) viennent d'en donner l'explication physique. Ils ont démontré comment ces matériaux ont migré depuis les parties les plus chaudes à l'intérieur du système solaire vers sa périphérie avant d'entrer dans la composition des comètes. Leurs résultats sont publiés dans le numéro de Juillet 2011 de la revue Astronomy & Astrophysics.

Après huit ans de voyage, la mission Stardust de la NASA (programme Discovery) rapportait sur Terre, le 15 janvier 2006, des poussières de la comète Wild 2. Les comètes se sont formées à des températures très faibles (près de 50 Kelvins soit -223°C). Pourtant, les analyses ont révélé que la comète Wild 2 était constituée de silicates cristallins et de CAIs (Calcium-Aluminium-rich Inclusions): des minéraux dont la synthèse nécessite de très hautes températures (supérieures à 1 000 Kelvins ou 727°C). Comment expliquer cette composition ?



Effet de la photophorèse sur une particule dans la nébuleuse primitive:
la particule bouge dans la direction opposée au Soleil en raison de la variation de pression du gaz qui est chauffé côté "jour" et refroidit côté "nuit".
© O. Mousis

Une équipe de l'Institut UTINAM, en collaboration avec des chercheurs de l'Institut de physique de Rennes (CNRS/Université de Rennes), de l'Université Duisburg Essen (Allemagne) et du laboratoire Astrophysique, instrumentation et modélisation (CNRS/CEA/Université Paris Diderot), apporte la réponse en se basant sur un phénomène physique, la photophorèse. Cette force dépend de deux paramètres: l'intensité du rayonnement solaire et la pression du gaz.

A la naissance du système solaire, les comètes se sont formées à partir du disque protoplanétaire (2). A l'intérieur de ce disque, un mélange de grains solides de quelques microns à plusieurs centimètres baignait dans un gaz dilué laissant passer la lumière du Soleil. D'après les chercheurs, la photophorèse a entraîné des particules vers la périphérie du disque. Sous l'effet du rayonnement solaire, les grains présentaient une face "plus chaude" que l'autre et le comportement des molécules de gaz à la surface de ces grains était modifié: du côté "soleil", les molécules de gaz étaient plus instables et se déplaçaient plus rapidement que du côté "froid". Provoquant une différence de pression, ce déséquilibre a éloigné le grain du Soleil (voir le schéma ci-dessous). Grâce à des simulations numériques, les chercheurs ont vérifié ce phénomène de photophorèse. Ils ont démontré que les grains de silicates cristallins formés dans la partie interne et chaude du disque protoplanétaire à proximité du Soleil ont migré jusque dans sa partie externe et froide avant de prendre part à la formation des comètes.

Cette nouvelle explication physique pourrait expliquer la position de certains anneaux de poussières observés dans les disques protoplanétaires et permettrait ainsi de mieux comprendre les conditions de formation des planètes.


sources:techno-science.net

Un tunnel solaire pour alimenter les gares et trains

Lundi matin près d'Anvers (Belgique), un premier train a roulé sur plusieurs kilomètres alimenté à l'énergie solaire. Cette source d'énergie est captée via une multitude de panneaux photovoltaïques installés sur le toit d'un tunnel.

Le tunnel ferroviaire (rebaptisé "tunnel du soleil"), qui se trouve sur la ligne à haute vitesse Paris-Amsterdam, compte pas moins de 16 000 panneaux solaires sur toute sa longueur soit 3,4 kilomètres. Cette surface de 50 000 m² de panneaux, capable de produire 3 300 MWh, pourrait éviter le rejet de plus de 47 millions de kilos de dioxyde de carbone sur une vingtaine d'années, soit 2 400 tonnes chaque année.

L'énergie solaire de ce tunnel permet l'alimentation partielle des infrastructures (fonctionnement des panneaux de signalisation et éclairage de la gare d'Anvers) et de la circulation des Thalys et autres trains conventionnels sur cette ligne.

Ce projet, lancé par la société nationale des chemins de fer belges (SNCB), a coûté 15,6 millions d'euros. Une vidéo de présentation est accessible ici. Il s'agit d'une première en Europe. En France, la SNCF teste depuis l'année dernière en Poitou-Charentes un TER équipé de panneaux solaires servant à alimenter l'éclairage des rames et la climatisation à bord du train, mais n'aide pas à la circulation de celui-ci.

Auteur de l'article: cédric DEPOND