vendredi 8 juillet 2011
Des lunettes intelligentes pour résoudre les troubles visuels
A la Royal Society Summer Science Exhibition, au Royaume-Uni, des chercheurs ont dévoilé leur dernière invention : une paire de lunettes permettant aux personnes souffrant de troubles importants de la vision de "voir" à nouveau les objets et les lieux.
Développée par l’équipe de neurosciences de la Clinique d’Oxford, la paire de lunettes qui vient tout juste d’être dévoilée est très prometteuse. Grâce à un logiciel intégré, ces lunettes repèrent ce qui se trouve en face de la personne qui les chausse et utilisent des LEDs (diodes) pour reproduire l’image selon des motifs relativement simples, permettant ainsi à des personnes souffrant de troubles visuels de recouvrer une partie de leur vue.
Le fonctionnement est relativement simple. Les lunettes sont équipées d’une minuscule caméra, dissimulée dans la monture et reliée à un micro-ordinateur de la taille d’un smartphone. Incrustée dans les verres, une multitude de petites LEDs s’allume pour représenter les objets et les mouvements qui se trouvent dans le champ visuel de l’utilisateur. Par le biais de la caméra le logiciel reconnaît les objets vers lesquels se dirige "le regard" et les LEDs retransmettent de façon simplifiée et suffisamment lumineuse les images de façon à ce qu’une personne à la vue limitée puisse distinguer, si ce n’est voir, les objets proches et les éléments environnants. Le professeur Hicks, à la tête de l’équipe de scientifiques, s’est inspirée de la Xbox Kinect, le système de détecteur de mouvement de la console de jeux pour mettre au point ce système.
Pour le moment, seules les lumières les plus intenses signalent les objets les plus proches, mais des améliorations devraient être apportées pour que les futures versions utilisent des couleurs permettant de différencier les objets les uns des autres. Un gyroscope pourrait également être intégré, de façon à ce qu’en tournant la tête, le système s’adapte automatiquement, en temps réel, sans avoir à recalculer les nouvelles informations.
Un prototype encore à développer
Smartplanet.com rapporte que les chercheurs mènent actuellement une étude d’un an pour développer et tester ce système auprès de personnes atteintes de dégénérescence maculaire liée à l’âge (DMLA) et de maladies rétiniennes. Comme l’explique Iain Wilson, "la plupart des gens qui ont perdu la vue, en vieillissant ou suite à une maladie, continue à distinguer les contrastes et cela alors même qu’ils ne sont pas en mesure de voir leur propre main en face de leur visage".
sources:maxisciences.com
Fukushima : des associations réclament l'évacuation des enfants
Dans les sols de la ville de Fukushima, à soixante kilomètres de la centrale nucléaire accidentée depuis mars dernier, des niveaux de radioactivité parfois quatre fois supérieurs à la limite légale ont été mesurés. C'est ce que révèlent plusieurs associations de résidents qui réclament l'évacuation de tous les enfants et les femmes enceintes de la ville.
Plusieurs associations de résidents de Fukushima ont fait analyser les sols de la ville de 300.000 habitants située à une soixantaine de kilomètres seulement de la centrale nucléaire gravement touchée par le tsunami du 11 mars dernier. Or comme le rapporte le site du Monde, l'une des mesures a révélé un taux de césium radioactif de 46.540 becquerels par kilogramme. Un niveau plus de quatre fois supérieur à la limite légale de 10.000 becquerels appliquée au Japon. Comme le souligne le regroupement d'associations qui a demandé cette étude, ce taux est supérieur au seuil fixé après la catastrophe de Tchernobyl pour l'évacuation des populations.
Trois autres analyses du sol de Fukushima ont fait état de taux compris entre 16.290 et 19.220 becquerels par kilogramme. "La contamination des sols s'étend dans la ville", alerte le chercheur qui a réalisé les analyses, Tomoya Yamauchi, un professeur de l'université de Kobé spécialiste des radiations. "Les enfants jouent avec la terre, ils jouent donc avec des substances hautement radioactives", prévient-il avant de réclamer l'évacuation des enfants et des femmes enceintes "au plus vite".
Après l'accident engendré par le violent séisme et le tsunami qui ont dévasté le nord-est du Japon, 160.000 personnes vivant à proximité de la centrale ont quitté leurs maisons. Mais près la moitié est depuis revenue. Les familles qui vivaient dans un rayon de 20 kilomètres autour du site ont pour la grande majorité préféré ne pas retourner chez elles.
sources:maxisciences.com
Le web participe aussi aux émissions de CO2
L'Agence de l'environnement et de la maîtrise de l'énergie (ADEME) a rendu publique les résultats de son étude sur les conséquences sur l’environnement de l'utilisation de l'outil informatique et plus particulièrement de l'Internet.
Ce sont des résultats plutôt alarmants dont a fait part l'ADEME. Jeudi, celle-ci a en effet communiqué les conclusions de son étude sur la part de l'outil informatique dans les émissions de CO2. C'est pour faire suite à un rapport de 2008 réalisé par l'Agence d'évaluation environnementale BIO Intelligence que l'ADEME a décidé de se pencher sur la question de l'impact environnemental des ordinateurs et d'Internet. En effet, le rapport a révélé que près de 2% des émissions européennes de gaz à effet de serre proviennent des technologies de l'information et de la communication (TIC). Un chiffre qui doublera d'ici 2020 si rien n'est changé.
Dans son étude, l'ADEME s'est ainsi intéressée aux émissions de CO2 de cette technologie, mais aussi au cycle de vie de trois symboles des TIC : les courriels, le surf sur le web et l'utilisation de support de transmission de documents tels que les clés USB. Au final, l'étude a duré 18 mois et a mis en évidence des points alarmants. Elle révèle par exemple qu'un particulier et sa petite imprimante n'ont pas vraiment d'impact en comparaison, des nombreux emails envoyés dans le cadre professionnel qui génèrent chaque année des émissions de gaz à effet de serre atteignant, pour une entreprise de 100 personnes, 13,6 tonnes d'équivalent CO2 — soit environ 13 allers-retours Paris-New York — ou encore 136 kilogrammes équivalent CO2 par salarié, comme le rapporte Le Monde.
En ce qui concerne le surf sur le web, le fait de consulter 5 pages pendant à peine une minute chacune avant de trouver l'information donne lieu à l'émission de 10 grammes d'équivalent CO2. Pour la clé USB, l'étude a pris en compte à la fois son utilisation et sa production, laquelle nécessite beaucoup d'énergie, d'eau et de métaux rares. Ainsi, dans le cas de la transmission d'un fichier à 1.000 personnes, les émissions atteignent celles provoquées par un trajet de 80 kilomètres en voiture.
Adopter des réflexes simples
Face à ce bilan négatif, l'ADEME a donc donné quelques conseils pour limiter les émissions de l'utilisation informatique. Ainsi, elle propose par exemple, de mieux cibler les recherches avec un mot clé précis ce qui permettrait un gain en émissions de CO2 par internaute d'un ordre comparable à celles de 40 kilomètres parcourus en voiture. Par ailleurs, à en croire l'ADEME le stockage des mails et des pièces jointes sur un serveur est aussi un enjeu important. En effet, plus le courriel est conservé longtemps, plus son impact sur le changement climatique serait fort. Trier régulièrement ses mails permettraient ainsi de limiter les émissions. Enfin, l'étude dénonce également l'impression des emails comme l'un des postes majeurs responsable de l'impact environnemental de l'informatique. Comme relaye le Monde, réduire de 10 % le taux d’impression permettrait alors d’économiser 5 tonnes équivalent CO2 sur un an dans une entreprise.
sources: maxisciences.com
jeudi 7 juillet 2011
Le projet Hermitage Plaza, 323 mètres, se concrétise à la Défense
Alors que la crise a remis en cause ou retardé la construction de la plupart des futurs gratte-ciels de la Défense, le projet (Un projet est - dans un contexte professionnel - une aventure temporaire entreprise dans le but de créer un produit ou un service unique:) Hermitage Plaza de 323 mètres se concrétise. La pose de la première pierre est prévue pour 2011, la livraison doit intervenir en 2016.
Les futures tours du Hermitage Plaza
Situé coté Seine de l'Esplanade de la Défense, près du Pont de Neuilly, le projet Hermitage sera la plus haute réalisation de tours mixtes (composées de bureaux, logements et commerces) en Europe occidentale. Avec 323 mètres de hauteur (La hauteur a plusieurs significations suivant le domaine abordé.), elle sera un mètre (Le mètre (symbole m, du grec metron, mesure) est l'unité de base de longueur du Système international. Il est défini comme la distance parcourue par la lumière dans le vide en 1/299 792 458 seconde.) moins haute que la tour Eiffel, un acte symbolique, mais tout de même 84 mètres de plus que le plus haut bâtiment actuel de la Défense et de France, la tour First en cours d'achèvement (239 mètres). Son budget (Un budget est un document comptable prévisionnel distinguant les recettes et les dépenses.) est de 2 milliards d'euros, le projet devrait générer 5000 emplois indirects lors de sa construction, et 3000 emplois directs par la suite.
De financement russe, le projet Hermitage Plaza est composé de deux tours jumelles. Avec pour architecte (Un architecte (du grec arkhitektôn qui signifie « maître charpentier ») est souvent un créatif dont le métier est de concevoir (par le dessin de plans) et de faire construire des...) Norman Foster (Norman Foster, Baron Foster of Thames Bank, OM (1er juin 1935, Manchester) est un architecte britannique. Émule de Buckminster Fuller, Foster est l'un des principaux représentants de l'architecture « High tech »...), une des deux tours sera composée de 92 étages, elle possédera un hôtel 5 étoiles de 210 chambres sur une hauteur de 20 étages, un centre de thalassothérapie, un centre de fitness, un restaurant, ainsi que des appartements panoramiques. L'autre tour, de 91 étages, sera pourvue de bureaux, d'un spa et d'appartements. Au total ( Total est la qualité de ce qui est complet, sans exception. D'un point de vue comptable, un total est le résultat d'une addition, c'est-à-dire une somme....), ce sont 62 étages sur chacune des deux tours qui seront occupés par 540 logements de grand standing, avec un prix au mètre carré (Le mètre carré (symbole m²) est l'unité d'aire du système international.) de l'ordre de 12 000 euros.
sources:techno-science.net
Les futures tours du Hermitage Plaza
Situé coté Seine de l'Esplanade de la Défense, près du Pont de Neuilly, le projet Hermitage sera la plus haute réalisation de tours mixtes (composées de bureaux, logements et commerces) en Europe occidentale. Avec 323 mètres de hauteur (La hauteur a plusieurs significations suivant le domaine abordé.), elle sera un mètre (Le mètre (symbole m, du grec metron, mesure) est l'unité de base de longueur du Système international. Il est défini comme la distance parcourue par la lumière dans le vide en 1/299 792 458 seconde.) moins haute que la tour Eiffel, un acte symbolique, mais tout de même 84 mètres de plus que le plus haut bâtiment actuel de la Défense et de France, la tour First en cours d'achèvement (239 mètres). Son budget (Un budget est un document comptable prévisionnel distinguant les recettes et les dépenses.) est de 2 milliards d'euros, le projet devrait générer 5000 emplois indirects lors de sa construction, et 3000 emplois directs par la suite.
De financement russe, le projet Hermitage Plaza est composé de deux tours jumelles. Avec pour architecte (Un architecte (du grec arkhitektôn qui signifie « maître charpentier ») est souvent un créatif dont le métier est de concevoir (par le dessin de plans) et de faire construire des...) Norman Foster (Norman Foster, Baron Foster of Thames Bank, OM (1er juin 1935, Manchester) est un architecte britannique. Émule de Buckminster Fuller, Foster est l'un des principaux représentants de l'architecture « High tech »...), une des deux tours sera composée de 92 étages, elle possédera un hôtel 5 étoiles de 210 chambres sur une hauteur de 20 étages, un centre de thalassothérapie, un centre de fitness, un restaurant, ainsi que des appartements panoramiques. L'autre tour, de 91 étages, sera pourvue de bureaux, d'un spa et d'appartements. Au total ( Total est la qualité de ce qui est complet, sans exception. D'un point de vue comptable, un total est le résultat d'une addition, c'est-à-dire une somme....), ce sont 62 étages sur chacune des deux tours qui seront occupés par 540 logements de grand standing, avec un prix au mètre carré (Le mètre carré (symbole m²) est l'unité d'aire du système international.) de l'ordre de 12 000 euros.
sources:techno-science.net
Refroidir un ordinateur grâce à la physique quantique
La suppression des données d'un disque (Le mot disque est employé, aussi bien en géométrie que dans la vie courante, pour désigner une forme ronde et régulière, à l'image d'un palet — discus en latin.) dur pourrait conduire, dans des conditions bien particulières, à un refroidissement du système. Telle est la conclusion d'une étude réalisée conjointement par des physiciens de l'Université d'Oxford, de l'Université nationale de Singapour et de l'ETH Zürich (Institut fédéral de technologie (Le mot technologie possède deux acceptions de fait :) de Zürich), et parue dans le journal Nature au mois (Le mois (Du lat. mensis «mois», et anciennement au plur. «menstrues») est une période de temps arbitraire.) de juin 2011. L'étude a pour titre: "The thermodynamic meaning of negative entropy (Entropy (Emerging Network To Reduce Orwellian Potency Yield) est un logiciel développé comme une réponse à la censure et la surveillance croissante d'Internet.)" (La signification thermodynamique (On peut définir la thermodynamique de deux façons simples : la science de la chaleur et des machines thermiques ou la science des grands systèmes...) de l'entropie négative).
La chaleur d'un ordinateur générée par les calculs informatiques est non seulement un obstacle à la miniaturisation des circuits mais également un aspect fondamental de la relation entre théorie de l'information (La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un...) et thermodynamique, que l'on appelle entropie (En thermodynamique, l'entropie est une fonction d'état introduite au milieu du XIXe siècle par Rudolf Clausius dans le cadre du second principe, d'après les travaux de Carnot[1]. Clausius a montré que le...). Le travail de l'équipe de chercheurs a été de démontrer que lors de la suppression d'information, l'entropie du système, et donc sa capacité à produire de la chaleur ou à se refroidir, était conditionnée par l'information quantique qu'un observateur possède sur ce système.
Cette étude vient remettre en cause les principes de la thermodynamique classique appliqués aux ordinateurs. En physique, selon le principe de Landauer, la suppression de données stockées sur un système possède un coût de travail inhérent et de ce fait dissipe de la chaleur. Cette théorie (Le mot théorie vient du mot grec theorein, qui signifie « contempler, observer, examiner ». Dans le langage courant, une théorie est une idée ou une connaissance spéculative, souvent basée sur l’observation ou l’expérience,...) suppose que l'information sur le système à effacer est classique, et ne s'étend pas aux cas où un observateur peut avoir des informations quantiques sur ledit système. L'étude parue dans Nature démontre que le principe de Landauer ne s'étend pas au domaine de la physique quantique où il peut y avoir suppression de données sans dissipation de chaleur, voire refroidissement.
Les résultats de l'étude, qui demeurent pour l'instant théoriques, permettent d'imaginer des systèmes (ordinateurs ou serveurs de données) où la suppression d'information conduirait à un refroidissement de l'environnement. La condition étant que l'observateur ait suffisamment d'information sur les données à effacer. En d'autres termes que la suppression d'information (bits de données) du système se fasse sans perte d'information pour l'observateur.
L'équipe s'est inspirée des idées de la théorie de l'information et de la thermodynamique. Dans la théorie de l'information, l'entropie est une mesure de la densité de l'information qui décrit la densité d'information que pourrait prendre un ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble), « une multitude qui peut être comprise comme un tout », comme...) de données lors d'une compression optimale. Pour la thermodynamique, l'entropie est reliée à un désordre des systèmes, par exemple l'arrangement des molécules dans un gaz (Au niveau microscopique, on décrit un gaz comme un ensemble d'atomes ou de molécules très faiblement liés et quasi indépendants (pour plus de...). L'ajout de l'entropie à un système équivaut habituellement à ajouter de l'énergie en tant que chaleur. Le travail de recherche (La recherche scientifique désigne en premier lieu l’ensemble des actions entreprises en vue de produire et de développer les connaissances scientifiques. Par extension métonymique, la recherche scientifique désigne...) s'est appuyé également sur la théorie de l'information quantique, qui est un développement de la théorie de l'information de Claude Shannon (Claude Elwood Shannon (30 avril 1916 à Gaylord, Michigan - 24 février 2001) est un ingénieur électricien et mathématicien américain. Il est l'un des pères, si ce...), et qui exploite les propriétés de la mécanique quantique (Fille de l'ancienne théorie des quanta, la mécanique quantique constitue le pilier d'un ensemble de théories physiques qu'on regroupe sous l'appellation générale de physique...), notamment le principe de superposition (En mécanique quantique, le principe de superposition stipule qu'un même état quantique peut possèder plusieurs valeurs pour une certaine quantité observable (spin, position, quantité de mouvement...) ou encore l'intrication.
Pour Renato Renner, un des auteurs de l'article: "l'étude a démontré que dans les deux cas, en théorie de l'information et en thermodynamique, le terme entropie décrit en fait la même chose, et ce même dans le régime de la mécanique quantique. Notre équipe a montré que pour les deux domaines, l'entropie est considérée comme une marque de manque de connaissances".
Le résultat de cette étude, qui lie théorie de l'information, thermodynamique et physique quantique, apporte de nouvelles connaissances théoriques pour la construction d'ordinateurs quantiques, potentiellement plus rapides et moins coûteux en énergie. Mais elle entrouvre également la voie à d'autres champs d'applications, notamment dans le domaine de la thermodynamique.
sources:techno-science.net
La chaleur d'un ordinateur générée par les calculs informatiques est non seulement un obstacle à la miniaturisation des circuits mais également un aspect fondamental de la relation entre théorie de l'information (La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un...) et thermodynamique, que l'on appelle entropie (En thermodynamique, l'entropie est une fonction d'état introduite au milieu du XIXe siècle par Rudolf Clausius dans le cadre du second principe, d'après les travaux de Carnot[1]. Clausius a montré que le...). Le travail de l'équipe de chercheurs a été de démontrer que lors de la suppression d'information, l'entropie du système, et donc sa capacité à produire de la chaleur ou à se refroidir, était conditionnée par l'information quantique qu'un observateur possède sur ce système.
Cette étude vient remettre en cause les principes de la thermodynamique classique appliqués aux ordinateurs. En physique, selon le principe de Landauer, la suppression de données stockées sur un système possède un coût de travail inhérent et de ce fait dissipe de la chaleur. Cette théorie (Le mot théorie vient du mot grec theorein, qui signifie « contempler, observer, examiner ». Dans le langage courant, une théorie est une idée ou une connaissance spéculative, souvent basée sur l’observation ou l’expérience,...) suppose que l'information sur le système à effacer est classique, et ne s'étend pas aux cas où un observateur peut avoir des informations quantiques sur ledit système. L'étude parue dans Nature démontre que le principe de Landauer ne s'étend pas au domaine de la physique quantique où il peut y avoir suppression de données sans dissipation de chaleur, voire refroidissement.
Les résultats de l'étude, qui demeurent pour l'instant théoriques, permettent d'imaginer des systèmes (ordinateurs ou serveurs de données) où la suppression d'information conduirait à un refroidissement de l'environnement. La condition étant que l'observateur ait suffisamment d'information sur les données à effacer. En d'autres termes que la suppression d'information (bits de données) du système se fasse sans perte d'information pour l'observateur.
L'équipe s'est inspirée des idées de la théorie de l'information et de la thermodynamique. Dans la théorie de l'information, l'entropie est une mesure de la densité de l'information qui décrit la densité d'information que pourrait prendre un ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble), « une multitude qui peut être comprise comme un tout », comme...) de données lors d'une compression optimale. Pour la thermodynamique, l'entropie est reliée à un désordre des systèmes, par exemple l'arrangement des molécules dans un gaz (Au niveau microscopique, on décrit un gaz comme un ensemble d'atomes ou de molécules très faiblement liés et quasi indépendants (pour plus de...). L'ajout de l'entropie à un système équivaut habituellement à ajouter de l'énergie en tant que chaleur. Le travail de recherche (La recherche scientifique désigne en premier lieu l’ensemble des actions entreprises en vue de produire et de développer les connaissances scientifiques. Par extension métonymique, la recherche scientifique désigne...) s'est appuyé également sur la théorie de l'information quantique, qui est un développement de la théorie de l'information de Claude Shannon (Claude Elwood Shannon (30 avril 1916 à Gaylord, Michigan - 24 février 2001) est un ingénieur électricien et mathématicien américain. Il est l'un des pères, si ce...), et qui exploite les propriétés de la mécanique quantique (Fille de l'ancienne théorie des quanta, la mécanique quantique constitue le pilier d'un ensemble de théories physiques qu'on regroupe sous l'appellation générale de physique...), notamment le principe de superposition (En mécanique quantique, le principe de superposition stipule qu'un même état quantique peut possèder plusieurs valeurs pour une certaine quantité observable (spin, position, quantité de mouvement...) ou encore l'intrication.
Pour Renato Renner, un des auteurs de l'article: "l'étude a démontré que dans les deux cas, en théorie de l'information et en thermodynamique, le terme entropie décrit en fait la même chose, et ce même dans le régime de la mécanique quantique. Notre équipe a montré que pour les deux domaines, l'entropie est considérée comme une marque de manque de connaissances".
Le résultat de cette étude, qui lie théorie de l'information, thermodynamique et physique quantique, apporte de nouvelles connaissances théoriques pour la construction d'ordinateurs quantiques, potentiellement plus rapides et moins coûteux en énergie. Mais elle entrouvre également la voie à d'autres champs d'applications, notamment dans le domaine de la thermodynamique.
sources:techno-science.net
L'obésité masculine nuit à la fertilité
Selon une étude présentée lundi à Stockholm et menée sur près de 2.000 Français, l'obésité serait nuisible à la qualité du sperme et aurait un impact sur la fertilité.
Alors que l'obésité est devenu un réel problème de santé publique, des chercheurs français se sont intéressés aux conséquences du surpoids sur la qualité du sperme. Présentée hier à l'European Society of Human Reproduction (ESHRE), l'étude a été conduite sur près de 2.000 hommes français âgés de 24 à 48 ans et révèle un impact inquiétant de l'obésité sur la fertilité masculine.
Au cours des recherches, plusieurs paramètres ont été étudiés, notamment le pH et le volume du sperme mais aussi la concentration en millilitres du nombre de spermatozoïdes. Les chercheurs se sont alors aperçus que dès que l'Indice de Masse Corporelle (IMC) est supérieur à 30, soit le seuil de l'obésité, les phénomènes observés s'aggravent : les spermatozoïdes sont moins rapides et moins nombreux. "Le surpoids entraîne une modification des paramètres du sperme, du fait probablement de désordres hormonaux, avec des déficits en nombre, en mobilité et en vitalité, ce qui entraîne des pertes de possibilité de conception", a précisé le Dr Cohen-Bacrie à l'AFP.
Moins de gamètes chez les obèses
Selon les résultats de l'étude, la diminution des gamètes serait même proportionnelle à l'importance du surpoids : le compte total de spermatozoïdes, d'environ 190 millions par millilitre chez les gens de poids normal, baisse à environ 160/185 chez ceux en surpoids, et à 135/155 chez les obèses. Ce n'est pas la première fois que les scientifiques établissent un tel lien entre obésité et fertilité. Le fait que le surpoids pouvait entraîner des troubles de l'ovulation pour la femme était ainsi déjà avéré. Le Dr Cohen-Bacrie, qui a dirigé cette étude précise alors que lorsqu'un "couple cherche à concevoir, il faut aussi regarder le poids de l'homme, une donnée importante".
Par ailleurs, l'étude a aussi démontré que la maigreur entravait la fertilité. Agir sur le poids serait donc une action simple qui pourrait permettre de concevoir naturellement et d'éviter la procréation médicalement assistée.
sources:maxisciences.com
Les mathématiques ont une culture !
Chez les Inuits, habitués à compter à l'aide de leurs doigts et de leurs orteils, la base mathématique est de 20. Pour une enseignante, voilà une information plutôt capitale! (Photo: iStockphoto)
En Occident, 10 unités font une dizaine, 10 dizaines une centaine, 10 centaines un millier, etc. Chez les Inuits, habitués à compter à l'aide de leurs doigts et de leurs orteils, la base mathématique est de 20. De plus, le principe de la décimale est difficile à concevoir étant donné que le nombre 1 est dit la plus petite unité indivisible. "Quand on leur demande d'entrer sans préparation dans une logique (La logique (du grec logikê, dérivé de logos (λόγος), terme inventé par Xénocrate signifiant à la fois raison, langage, et raisonnement) est...) différente (En mathématiques, la différente est définie en théorie algébrique des nombres pour mesurer l'éventuel défaut de dualité d'une application définie à l'aide de la trace, dans l'anneau des entiers d'un...) de leur culture (La définition que donne l'UNESCO de la culture est la suivante [1] :) d'origine en passant de l'inuktitut au français ou à l'anglais, ils peuvent bien être désorientés", soupire Louise Poirier.
Cette désorientation se chiffre: le taux d'échecs atteint des sommets chez les jeunes Inuits et le décrochage scolaire est une préoccupation majeure pour la communauté. Mais au fait, pourquoi enseigner les mathématiques "occidentales" à un peuple (Le terme peuple adopte des sens différents selon le point de vue où l'on se place.) qui n'en voit peut-être pas l'utilité? "Pour qu'il puisse s'engager de plain-pied dans le monde (Le mot monde peut désigner :) du travail, tranche Mme Poirier. Avec le développement minier et énergétique du Plan Nord (Le nord est un point cardinal, opposé au sud.), on aura besoin (Les besoins se situent au niveau de l'interaction entre l'individu et l'environnement. Il est souvent fait un classement des besoins humains en trois grandes...) d'ingénieurs, d'arpenteurs, de gestionnaires. Il ne faut pas que les autochtones soient exclus de cette nouvelle économie."
Cette découverte a confirmé ce qu'elle savait déjà, puisque la réflexion théorique l'évoque depuis longtemps: les mathématiques sont un produit culturel. "Les Inuits ne sont pas les seuls à compter sur une base de 20; les Aztèques et les Mayas le faisaient aussi."
Triple regard
De 2000 à 2007, la chercheuse a visité chaque année (Une année est une unité de temps exprimant la durée entre deux occurrences d'un évènement lié à la révolution de la Terre autour du Soleil.) 7 des 14 communautés inuites où la Commission scolaire Kativik gère des écoles. Ses séjours de deux à trois semaines avaient pour but d'adapter les méthodes d'enseignement des mathématiques aux communautés autochtones. Cette expérience l'a menée à documenter des approches originales en didactique. "J'ai rencontré des ainés, discuté avec des enseignants et des conseillères pédagogiques. Nous avons mis en place un système d'apprentissage avec la communauté. Ç'a été un projet (Un projet est - dans un contexte professionnel - une aventure temporaire entreprise dans le but de créer un produit ou un service unique:) formidable."Parmi ses observations, elle souligne que les élèves inuits ont des forces en mathématiques, "tout particulièrement en représentation spatiale et en géométrie (La géométrie est la partie des mathématiques qui étudie les figures de l'espace de dimension 3 (géométrie euclidienne) et, depuis le XVIIIe siècle, les figures d'autres...)". Mais le programme pédagogique ne met pas l'accent sur ces forces. Même phénomène avec les méthodes d'enseignement, mal adaptées. "Les exercices papier-crayon ne sont pas naturels pour les Inuits. De même, on ne questionne pas un enfant quand on sait d'avance qu'il ne connait pas la réponse. Traditionnellement, l'apprentissage passe plutôt par le récit oral, l'énigme."
Louise Poirier
Son passage a au moins laissé une trace encore visible dans la commission scolaire: on n'exige plus des jeunes qu'ils passent sans transition de l'inuktitut au français ou à l'anglais entre la deuxième et la troisième année du primaire. "Une année mixte a été instaurée en milieu de cycle. C'est une année où l'on permet aux élèves de se familiariser avec la nouvelle langue d'enseignement et avec sa logique, sans que soit brusquement proscrite leur langue maternelle."
Comme elle l'a signalé au cours d'une présentation en Italie, l'enseignement des mathématiques dans une région isolée "passe nécessairement par la compréhension qu'a l'enseignant de sa pratique et de son contexte d'enseignement". Chez les Inuits, on doit donc intégrer des enseignants locaux dans l'équipe pédagogique. En plus du linguiste, celle-ci sera constituée de trois formateurs d'enseignants et de conseillers en élaboration de programmes. "Cela nous permet d'avoir le triple regard nécessaire: contexte d'enseignement, culture inuite et didactique des mathématiques", commente-t-elle.
Son projet de recherche terminé, Louise Poirier a mis un terme à son travail dans le Grand-Nord. Elle a présenté les résultats de ses observations à l'occasion de conférences nationales et internationales. Des chercheurs sénégalais ont reconnu la pertinence de ses travaux il y a deux ans. "Un conseiller pédagogique de Dakar est venu à moi, les larmes aux yeux, à la suite d'une communication (La communication concerne aussi bien l'homme (communication intra-psychique, interpersonnelle, groupale...) que l'animal (communication intra- ou inter- espèces) ou la machine...) sur les Inuits. Selon ses termes, je lui avais donné une clé pour pénétrer dans la logique mathématique (La logique mathématique, ou logique formelle, est une discipline des mathématiques qui définit et étudie les représentations formelles du langage mathématique. Les objets...) de la communauté wolof avec laquelle il travaillait."
Des maths à l'interdisciplinarité
Depuis une dizaine d'années, Louise Poirier s'est consacrée à l'administration universitaire en prenant la tête du Département de didactique de la Faculté des sciences de l'éducation. Elle occupe le poste de doyenne depuis le 1er juin 2010. C'est la deuxième femme de l'histoire, après Gisèle Painchaud, à diriger cette faculté à forte majorité féminine.Cette passionnée de pédagogie a longtemps hésité entre la psychologie et la didactique; elle a réglé la question en faisant converger plusieurs disciplines vers des questions d'éducation. C'est ce qui l'a conduite, entre autres, à s'associer à un linguiste lorsqu'elle s'est rendue à Povungnituk. "La linguistique m'est apparue comme une clé pour aborder la logique de ce peuple extraordinaire, pour lequel j'ai conservé un immense respect", dit-elle.
Tout en dirigeant la faculté, qu'elle veut "innovante" et "ouverte sur le monde", Mme Poirier poursuit son travail de chercheuse en utilisant notamment le jeu comme outil de développement pédagogique (voir Forum du 11 avril dernier, "Les multiples visages de l'internationalisation de l'Université"). En 2010, elle est allée au Sénégal à l'invitation de l'Université Cheikh Anta Diop de Dakar, où l'on s'intéresse à ses travaux dans le Nunavik.
Louise Poirier n'a toutefois pas délaissé les écoles montréalaises, où les mathématiques ont encore une bonne pente à remonter. "Nos recherches démontrent que certains des élèves en difficulté s'avèrent parmi les plus habiles de la classe dans les jeux mathématiques où ils doivent démontrer un esprit stratégique. Appliquée dans des écoles défavorisées, l'approche interdisciplinaire permet une hausse incroyable de la présence en classe et de la réussite scolaire."
Une autre illustration que les mathématiques ont une culture. "J'ajouterais qu'elles ont aussi une histoire et une géographie. Tous les peuples ont fait appel aux mathématiques pour résoudre des problèmes qui se présentaient à eux. Tous les peuples ont donc participé à la construction des mathématiques", conclut la doyenne.
sources:techno-science.net
Des médicaments à risque pour les seniors
Selon une récente étude anglo-américaine, la mortalité des personnes âgées augmenterait en cas de consommation prolongée et importante de certains médicaments. Les recherches ont été menées durant deux ans sur 13.000 sujets âgés de plus de 65 ans.
C'est une découverte inquiétante que révèle aujourd'hui le journal Le Figaro. Publiés dans le Journal of the American Geriatrics Society, une étude conduite sur deux ans indique que 20% des personnes âgées ayant consommé plusieurs médicaments à effet anticholinergique sont décédées durant la période d'observation, contre seulement 7% des patients qui ne prenaient aucun médicament.
Les agents anticholinergiques sont des substances qui agissent au niveau du système nerveux en réduisant les effets de l'acétylcholine, un neurotransmetteur impliqué dans la mémoire, l'activité musculaire ou encore les fonctions végétatives. Une consommation régulière et prolongée, voire simultanée de ces médicaments entrainerait alors un déclin cognitif incluant des troubles de l'équilibre, de la vision, de la mémoire, une faiblesse musculaire ou encore un discours incohérent. Selon l'étude, les molécules anticholinergiques favoriseraient ainsi le taux de chutes des personnes âgées, entrainant une progression de la mortalité.
Aujourd'hui, le Figaro a publié une liste des médicaments en question. En tout, on en dénombre pas moins de 70 identifiés comme étant à l'origine d’altération des facultés cognitives chez les seniors. Parmi eux, se trouvent des antidépresseurs (Elavil, Laroxyl, Tofranil), des tranquillisants (Largactil, Terfluzine), des antitussifs (Broncalene, Broncorinol), des antihypertenseurs (Atenolol), des diurétiques (Aldalix, Furosemide), des antiasthmatiques (Asmabec, Beclojet), des antiépileptiques (Tegretol) mais aussi des molécules prescrites dans le traitement du glaucome (Azarga, Combigan, Cosopt) ou pour les incontinences urinaires (Ditropan, Oxybutynine).
Une remise en question
"À chaque fois que cela est possible, il faut prescrire un autre médicament", explique au Figaro le professeur Jean-Louis Montastruc, chef du service de pharmacologie du CHU de Toulouse. Mais cela reste complexe : "En gériatrie, nous connaissons tous ces produits. Le problème, c'est que si certains sont très clairement identifiés comme ayant un effet anticholinergique (comme les antidépresseurs de première génération, ou d'autres produits régulièrement prescrits en urologie pour incontinence), d'autres avancent un peu plus masqués", assure le docteur Olivier de Ladoucette, psychiatre et gériatre à la Pitié-Salpêtrière, à Paris. Le réexamen de la dangerosité d'une centaine de molécules est donc en cours auprès de l'Agence du médicament et devrait s'achever à la fin de cette année.
sources:.maxisciences.com
E.coli: les graines d'Egypte interdites par l'UE
Alors que les autorités viennent de confirmer la piste des graines germées égyptiennes, l'Union européenne a décidé d'interdire mercredi l'importation des lots de fenugrec. Mais l'Egypte se défend et déclare que les graines ne peuvent être à l'origine de la contamination.
Un lien entre un lot de fenugrec en provenance d’Égypte et les intoxications par la bactérie E.coli a été confirmé par l'Efsa (l'Agence européenne pour la sécurité des aliments). Celle-ci vient alors d'interdire l'importation de ces graines et a recommandé à tous les Etats membres de retirer du marché et de détruire tous les lots en provenance d'Egypte.
Mais ce n'est qu'un début : "la Commission va suivre l'évolution de la situation et décidera si des mesures additionnelles s'imposent" a précisé John Dalli, commissaire européen à la santé. De son côté, l’Égypte a rejeté dès mercredi soir, "toute responsabilité", mettant en avant l'argument de la date d'exportation du lot : celui-ci exporté en 2009 contenait des graines séchées, sur lesquelles la bactérie n'aurait pu restée et proliférer pendant deux ans.
D'excellents véhicules pour la bactérie
Pourtant, d'après un article paru le 6 juillet, dans Sciences et Avenir : "La première hypothèse, très plausible, est celle d’une contamination à la ferme, lors de la production des graines". Et, "nombre de graines étant destinées à être plantées et non mangées, les normes sanitaires ne sont pas aussi strictes que pour les produits destinés à l’alimentation". Enfin, "si des graines de luzerne, de fenugrec ou de radis ont été contaminées en champ, elles deviennent d’excellents véhicules à long terme pour les bactéries."
"C'est la première fois qu'on trouve cette bactérie dans des graines germées", informe la microbiologiste Patricia Mariani-Kurkdjan, citée par Metro. C'est donc ce qui pourrait expliquer le fait que les autorités sanitaires allemandes ont commencé par pointer du doigt les concombres espagnols.
sources: maxisciences.com
La restauration rapide soumise à des contrôles d'hygiène
Du 27 juin au 1er juillet, les services de la Répression des fraudes ont organisé une opération coup de poing destinée à contrôler l'hygiène des établissements de restauration rapide et de vente à emporter. Après ces contrôles, neuf d'entre eux ont dû fermer leurs portes.
Au total, c'est près de 1.725 établissements : 1.426 de restauration rapide et 299 de vente à emporter qui ont été contrôlés. Après les incidents survenus dans plusieurs fast-food ces derniers mois, les services de la Répression des fraudes ont en effet décidé de lancer une grande opération nationale destinée à vérifier le respect des conditions d'hygiène dans ces établissements et par là même, de répondre "à l'inquiétude d'un certain nombre de consommateurs", comme l'a indiqué Frédéric Lefebvre, secrétaire d'Etat au Tourisme et à la Consommation.
Selon des chiffres obtenus par l'AFP, l'opération aurait jusqu'ici conduit à 9 fermetures temporaires, 43 procès-verbaux et 140 mises en demeures administratives. Des chiffres qui donnent un aperçu du nombre d'infractions relevé par les services de la Répression des fraudes. Sur les neuf établissements fermés, huit sont des enseignes indépendantes, alors que les autorités ont également indiqué avoir procédé à près de 40 saisies de produits et 241 avertissements ou rappels à l'ordre.
Pointant du doigt le "manque de réglementations", Frédéric Lefebvre a demandé "aux fédérations professionnelles et à tous les acteurs de la filière de se mobiliser à travers des formations du personnel à l'hygiène et à la sécurité sanitaire des aliments" comme l'explique Le Monde. Le 11 juillet prochain, le secrétaire d'Etat au Tourisme et à la Consommation recevra ainsi les organisations professionnelles pour évoquer le sujet.
sources:maxisciences.com
Faire le pont... en bois
Les ouvrages de bois peuvent être très durables comme en témoigne le pont de la chapelle de Lucerne, en Suisse, construit en 1333.
Photo: Wojsyl
En France, en Suisse et en Allemagne, le bois fait un retour en force comme matériau de construction (Les matériaux de construction sont des matériaux utilisés dans les secteurs de la construction : bâtiment et travaux publics (souvent désignés par le...) des ponts, mais cet engouement peine à traverser l'Atlantique. Pourtant, la matière (La matière est la substance qui compose tout corps ayant une réalité tangible. Ses trois états les plus communs sont l'état solide, l'état liquide, l'état gazeux. Elle occupe de l'espace et la quantité de matière se mesure...) première est abondante et il ne manque pas de plans d'eau à franchir, a souligné Pascal Triboulot, directeur honoraire de l'École nationale supérieure des technologies et industries du bois de France et professeur invité à l'UQAC, lors du Colloque sur la progression de la recherche (La recherche scientifique désigne en premier lieu l’ensemble des actions entreprises en vue de produire et de développer les connaissances scientifiques. Par extension métonymique, la recherche scientifique désigne également le...) québécoise sur les ouvrages d'art. Cet événement, organisé avec le concours de Josée Bastien et Marc Jolin du Département de génie civil (Le Génie civil représente l'ensemble des techniques concernant les constructions civiles. Les ingénieurs civils ou ingénieurs en...), a réuni 300 personnes au pavillon Maurice-Pollack le 10 mai.
Ce manque d'enthousiasme pour l'utilisation du bois dans les ouvrages de franchissement est d'autant plus surprenant que ce matériau répond parfaitement aux préoccupations de notre époque. "En Europe, ce sont les questions environnementales et les analyses des cycles de vie des matériaux (Un matériau est une matière d'origine naturelle ou artificielle que l'homme façonne pour en faire des objets.) qui ont suscité ce renouveau d'intérêt pour le bois, a rappelé le conférencier. Le bois est un matériau renouvelable, écologique et esthétique. De plus, contrairement au métal et au béton (Béton est un terme générique qui désigne un matériau de construction composite fabriqué à partir de granulats (sable, gravillons) agglomérés par un liant.) dont la fabrication provoque l'émission de gaz (Au niveau microscopique, on décrit un gaz comme un ensemble d'atomes ou de molécules très faiblement liés et quasi indépendants (pour plus de détails, voir gaz réels).) à effet de serre (L'effet de serre est un processus naturel de réchauffement de l'atmosphère qui intervient dans le bilan radiatif de la Terre. Il est dû aux gaz à effet de serre...), le bois capte et immobilise du CO2 pendant sa production."
Contrairement à ce qu'on pourrait croire, les ponts de bois peuvent durer très longtemps, a-t-il rappelé, citant en exemple le pont fortifié de la chapelle de Lucerne. Construit en 1333, cet ouvrage qui mesure 204 mètres de long résiste toujours aux outrages du temps. "Lorsqu'on utilise le bois, il faut réaliser la conception de l'ouvrage en fonction des caractéristiques spécifiques de ce matériau. L'eau est l'ennemi du bois et il faut prendre des mesures pour le protéger de la pourriture. Il faut aussi tenir compte du fait que le bois peut gonfler, se rétracter et se fissurer."
Pendant des siècles, le bois a été le matériau de prédilection pour la construction des ponts en Europe et en Asie. L'arrivée de l'acier et du béton l'a toutefois relégué aux oubliettes jusqu'à ce qu'on découvre que ces matériaux "modernes" présentent aussi eux aussi des inconvénients. De plus, les progrès en génie du bois ont repoussé les limites de conception autrefois imposées par la taille des arbres. Les assemblages de bois en lamellé-collé dépassent maintenant un mètre de section.
En 1985, le professeur Triboulot faisait partie de l'équipe qui a mis sur pied l'École nationale supérieure des technologies et industries du bois à Épinal en France. "Nous nous étions inspirés de deux modèles: une école allemande de génie du bois et la Faculté de foresterie de l'Université Laval. Nos programmes attirent maintenant près de 350 étudiants alors que le programme de génie du bois de l'Université Laval a plus de difficulté à recruter. Étrangement, les préoccupations environnementales ont amené les étudiants français à s'intéresser à la forêt, alors qu'au Québec, ces mêmes préoccupations ont détourné les jeunes des programmes d'études liés à l'utilisation des ressources forestières."
La Faculté de foresterie, de géographie et de géomatique entend bien faire sa part pour valoriser le bois comme matériau de construction pour les ponts. Une annonce à cet effet devrait être faite au cours des prochaines semaines.
sources:techno-science.net
Un système de navigation automobile communiquant avec la route
Toyota (Toyota est un constructeur automobile, originaire du Japon. Le siège du groupe est situé dans la ville de Toyota (qui a repris le nom de l'entreprise), à proximité de Nagoya.) Motor Corporation a annoncé le développement d'un nouveau système de navigation (La navigation est la science et l'ensemble des techniques qui permettent de :) capable de dialoguer avec des équipements placés sur la route (Le mot « route » dérive du latin (via) rupta, littéralement « voie brisée », c'est-à-dire creusée dans la roche, pour ouvrir le chemin.), et permettant d'avertir le conducteur de divers dangers.
Ce nouveau dispositif de navigation est compatible avec le DSSS (Système d'Aide à la Sécurité de la Conduite), qui fait partie d'un projet visant à réduire les accidents de la route grâce à l'usage de Systèmes de Transports (Le transport, du latin trans, au-delà, et portare, porter, est le fait de porter quelque chose, ou quelqu'un, d'un lieu à un autre.) Intelligents (ITS). Le DSSS devrait être lancé par l'Agence de Police Nationale Japonaise au mois (Le mois (Du lat. mensis «mois», et anciennement au plur. «menstrues») est une période de temps arbitraire.) de Juillet 2011. Le dispositif est capable de restituer au conducteur des recommandations de sécurité basées sur des informations transmises par des balises optiques placées sur la route.
Les fonctions précises qu'apportera le système de Toyota sont les suivantes:
- Un avertissement "feu rouge", détectant la probabilité (Probabilité vient du latin probare (prouver, ou tester). Le mot probable signifie « qui peut se produire » dans le cas de futures éventualités, ou « certainement...) que le conducteur ne respecte pas un feu rouge et l'avertissant qu'il s'en approche.
- Un avertissement "panneau STOP", détectant la probabilité que le conducteur ne respecte pas un panneau STOP et l'avertissant qu'il s'en approche.
- Une notification de véhicule, si un véhicule lent ou en stationnement (Le stationnement tout comme l’arrêt d’un véhicule consiste en une immobilisation de ce dernier.) est présent sur la chaussée (des détecteurs permettent de le savoir).
- Une notification de la présence d'un véhicule à une intersection où l'on ne dispose que d'un champ de vision réduit.
- Une notification du passage imminent d'un feu au vert (cela permet, selon Toyota, de réduire l'encombrement des routes ainsi que les émissions polluantes).
Toyota compte introduire ce type de navigation dans son nouveau véhicule qui devrait sortir cet été.
sources:techno-science.net
La composition du Soleil se révèle
La composition du Soleil se révèle
Pour comprendre la façon dont se sont formés le Soleil et les planètes qui l'entourent, les scientifiques tentent de percer les secrets de notre astre, qui concentre plus de 99% de la matière présente dans le système solaire. Aujourd'hui, les astronomes savent que le système solaire s'est formé dans un nuage de gaz et de poussières, la nébuleuse protosolaire. Or notre étoile "a conservé la composition initiale de la nébuleuse protosolaire (...) Ce qui n’est pas le cas de la plupart des autres corps du système solaire, comme la Terre, Mars ou les météorites", explique la Nasa dans un communiqué.
C'est pourquoi une équipe franco-américaine dirigée par le Centre de recherches pétrographiques et géochimiques de Nancy a étudié la composition du Soleil, grâce à des échantillons de vent solaire récoltés par la mission spatiale Genesis. Lancée par la Nasa en 2001, cette mission avait pour principaux objectifs d'établir les compositions isotopiques en azote et oxygène du Soleil. Les rapports isotopiques de ces éléments sont en effet très différents entre la Terre, la Lune, Mars, les météorites, les comètes et les planètes géantes. "Pour expliquer ces variations, il était indispensable de déterminer la composition isotopique de la nébuleuse protosolaire, autrement dit celle du Soleil aujourd’hui", explique le CNRS. La composition isotopique indique les proportions des divers isotopes (des atomes qui ont le même nombre de protons mais un nombre de neutrons différent) d'un élément chimique.
Le Soleil 60% moins riche en isotope 15N que la Terre
A l'issue de leurs analyses, dont les résultats sont publiés par la revue Science, les chercheurs concluent que l’azote solaire est très différent de l’azote terrestre. Le Soleil est en effet 60% moins riche en isotope 15N que la Terre. "En d’autres termes, la Terre et les météorites sont enrichies de 60% en 15N tandis que les comètes le sont de 300%", note le CNRS. En outre, les chercheurs ont découvert que le rapport 15N/14N du Soleil était similaire à celui de l’atmosphère de Jupiter, qui avait été analysé il y a dix ans par une sonde américaine. Une similitude qui tend à prouver que les planètes géantes ont capturé dans leurs atmosphères une partie du gaz de la nébuleuse primitive.
En outre, les chercheurs américains ayant participé à l'étude ont découvert que l’oxygène solaire est également appauvri en isotopes rares (17 O et 18 O) par rapport à celui de la Terre. L’une des hypothèses étudiées par les chercheurs avance que ces variations auraient été engendrées par une irradiation intense du gaz résiduel de la nébuleuse par le Soleil jeune. "Des réactions photochimiques auraient alors enrichi en isotopes rares les composés résultant de ces réactions, qui auraient été incorporés dans les météorites et les planètes telluriques", explique le CNRS.
sources: maxisciences.com
Science XL: votre iPhone pour instrument de mesure scientifique
Développée au Laboratoire de psychologie cognitive (CNRS/Université de Provence), en collaboration avec sept centres universitaires de par le monde (Le mot monde peut désigner :), l'application Science (La science (du latin scientia, connaissance) relève Historiquement de l'activité philosophique, et fut pendant longtemps un exercice spéculatif visant à élucider les mystères du monde par l'exercice de la raison. À...) XL propose de participer à une étude scientifique (Un scientifique est une personne qui se consacre à l'étude d'une science ou des sciences et qui se consacre à l'étude d'un domaine avec la rigueur et les méthodes scientifiques.) en jouant avec des mots. Elle est compatible avec iPhone, iPod Touch et iPad, et téléchargeable gratuitement sur l'AppStore.
Savoir lire, c'est pouvoir décoder rapidement et sans effort une chaîne de lettres imprimées, identifier le mot correspondant et comprendre son sens. L'objectif de Science XL est d'aider les chercheurs à mieux comprendre nos capacités de lecture. Pour avancer dans cette démarche, Science XL propose de tester sa connaissance des mots de la langue française à travers un test très souvent employé dans les laboratoires, le test de "décision lexicale". Dans ce test, le lecteur doit lire des mots et déterminer rapidement s'ils existent ou s'ils sont inventés. La spécificité de Science XL est de permettre de réaliser ce test sur un iPhone, sous la forme d'un jeu. Ainsi, tout un chacun peut télécharger l'application et jouer à sa convenance.
Captures d'écran présentant l'interface (Une interface est une zone, réelle ou virtuelle qui sépare deux éléments. L’interface désigne ainsi ce que chaque élément a besoin de connaître de l’autre pour pouvoir fonctionner correctement.) de l'application Science XL sur un iPhone.
© Science XL group (Creative Commons Attribution-Share Alike 3.0 Unported)
Cette approche permet de collecter une quantité de données (Dans les technologies de l'information (TI), une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction d'affaire, d'un événement, etc.) sans commune mesure avec celle qui est généralement obtenue en laboratoire. Typiquement, les contraintes de laboratoire conduisent à des tests où une vingtaine de personnes doivent reconnaître une centaine de mots. Avec Science XL, les chercheurs visent à obtenir des réponses de plusieurs dizaines de milliers de personnes. L'étude statistique (Une statistique (par opposition à la statistique) est, au premier abord, un nombre calculé à propos d'une population. D'une façon générale, c'est le résultat de...) des données anonymisées permettra ainsi de caractériser beaucoup plus finement nos capacités de lecture. Ces résultats pourront également servir à mieux comprendre les troubles de la lecture comme la dyslexie et à développer des entraînements à la lecture sur iPhone. Plus généralement, cette approche permettra d'obtenir, à l'aide d'une communauté de participants, les investigations les plus vastes jamais réalisées en sciences du comportement.
L'utilisation de l'iPhone dans ce type de recherches est novatrice. Il existe des approches voisines de celle de Science XL, comme par exemple des expériences menées sur Internet ou par email. Toutefois, aucune d'entre elles ne bénéficie des capacités techniques des smartphones, telles que l'affichage contrôlé des stimuli à la milliseconde près ou la récolte précise des temps (Le temps est un concept développé pour représenter la variation du monde : l'Univers n'est jamais figé, les éléments qui le composent bougent, se transforment et...) de réponse. L'iPhone, ou plutôt les millions d'iPhone utilisés à travers le monde deviennent ainsi un instrument de mesure (En physique et en sciences de l’ingénieur, mesurer consiste à comparer une grandeur physique qui caractérise un objet (ou un événement) avec celle de même nature choisie comme unité de mesure. La valeur...) scientifique à très grande échelle.
sources:techno-science.net
(La grande échelle, aussi appelée échelle aérienne ou auto échelle, est un véhicule utilisé par les sapeurs-pompiers, et qui emporte une échelle escamotable de grande hauteur. Le terme...)
Savoir lire, c'est pouvoir décoder rapidement et sans effort une chaîne de lettres imprimées, identifier le mot correspondant et comprendre son sens. L'objectif de Science XL est d'aider les chercheurs à mieux comprendre nos capacités de lecture. Pour avancer dans cette démarche, Science XL propose de tester sa connaissance des mots de la langue française à travers un test très souvent employé dans les laboratoires, le test de "décision lexicale". Dans ce test, le lecteur doit lire des mots et déterminer rapidement s'ils existent ou s'ils sont inventés. La spécificité de Science XL est de permettre de réaliser ce test sur un iPhone, sous la forme d'un jeu. Ainsi, tout un chacun peut télécharger l'application et jouer à sa convenance.
Captures d'écran présentant l'interface (Une interface est une zone, réelle ou virtuelle qui sépare deux éléments. L’interface désigne ainsi ce que chaque élément a besoin de connaître de l’autre pour pouvoir fonctionner correctement.) de l'application Science XL sur un iPhone.
© Science XL group (Creative Commons Attribution-Share Alike 3.0 Unported)
Cette approche permet de collecter une quantité de données (Dans les technologies de l'information (TI), une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction d'affaire, d'un événement, etc.) sans commune mesure avec celle qui est généralement obtenue en laboratoire. Typiquement, les contraintes de laboratoire conduisent à des tests où une vingtaine de personnes doivent reconnaître une centaine de mots. Avec Science XL, les chercheurs visent à obtenir des réponses de plusieurs dizaines de milliers de personnes. L'étude statistique (Une statistique (par opposition à la statistique) est, au premier abord, un nombre calculé à propos d'une population. D'une façon générale, c'est le résultat de...) des données anonymisées permettra ainsi de caractériser beaucoup plus finement nos capacités de lecture. Ces résultats pourront également servir à mieux comprendre les troubles de la lecture comme la dyslexie et à développer des entraînements à la lecture sur iPhone. Plus généralement, cette approche permettra d'obtenir, à l'aide d'une communauté de participants, les investigations les plus vastes jamais réalisées en sciences du comportement.
L'utilisation de l'iPhone dans ce type de recherches est novatrice. Il existe des approches voisines de celle de Science XL, comme par exemple des expériences menées sur Internet ou par email. Toutefois, aucune d'entre elles ne bénéficie des capacités techniques des smartphones, telles que l'affichage contrôlé des stimuli à la milliseconde près ou la récolte précise des temps (Le temps est un concept développé pour représenter la variation du monde : l'Univers n'est jamais figé, les éléments qui le composent bougent, se transforment et...) de réponse. L'iPhone, ou plutôt les millions d'iPhone utilisés à travers le monde deviennent ainsi un instrument de mesure (En physique et en sciences de l’ingénieur, mesurer consiste à comparer une grandeur physique qui caractérise un objet (ou un événement) avec celle de même nature choisie comme unité de mesure. La valeur...) scientifique à très grande échelle.
sources:techno-science.net
(La grande échelle, aussi appelée échelle aérienne ou auto échelle, est un véhicule utilisé par les sapeurs-pompiers, et qui emporte une échelle escamotable de grande hauteur. Le terme...)
De l’eau oxygénée au beau milieu de l’espace
Les astrophysiciens passent le plus clair de leur temps à scruter l’espace à la recherche de la moindre particule, mais les découvertes sont rares. Pourtant, des travaux publiés dans la revue Astronomy & Astrophysics indiquent que des chercheurs viennent tout juste de découvrir des molécules d'H2O2, également appelée eau oxygénée ou peroxyde d’hydrogène. Selon les résultats, ces particules ont été repérées à 400 années-lumière de la Terre, dans une région proche de l’étoile Rho Ophiuchi.
A cet endroit, les étoiles se forment dans des nuages de -250 degrés Celsius, très denses, et essentiellement composés d’hydrogène. Bien que très rare, l’eau oxygénée s’y trouve avec une concentration d'une molécule pour une dizaine de milliards de molécules d’hydrogène, explique l’astronome Per Bergman. Pourtant "nous ne comprenons pas encore comment certaines des molécules les plus présentes ici, sur Terre, sont fabriquées dans l'espace" explique Bérengère Parise de l'Institut Max-Planck de radioastronomie en Allemagne, sur le site de l’ESO.
Pour parvenir à faire cette découverte, les astronomes ont utilisé le télescope APEX (Atacama Pathfinder Experiment) installé au Chili sur le plateau de Chajnantor à 5.000 mètres d’altitude. Cet appareil permet d’observer la lumière à des longueurs d’ondes millimétriques et submillimétriques, ce qui a permis de détecter le peroxyde d’hydrogène. Une découverte importante puisque la formule de l'eau oxygénée est étroitement liée à celles de deux éléments vitaux : l'eau H2O et le dioxygène O2. Pour l’heure, les recherches se poursuivent donc pour comprendre comment l’eau peut se former dans l’univers, rapporte Sciences et Avenir.
sources: maxisciences.com
Japon: Toutes les centrales nucléaires du pays vont être testées
Un employé de la centrale nucléaire de Fukushima (Japon) près du réacteur 2, le 2 avril 2011 Ho New / Reuters
NUCLEAIRE - Après Fukushima, le Japon va procéder à des tests de sûreté sur toutes ses centrales nucléaires...
Le Japon va procéder à des «tests de résistance» sur l'ensemble de ses centrales nucléaires pour vérifier à nouveau leur sûreté après l'accident de Fukushima, a annoncé mercredi le ministre de l'Economie, Banri Kaieda, cité par les agences de presse Jiji et Kyodo. La sécurité des réacteurs japonais a déjà été contrôlée dans les semaines suivant la catastrophe sur ordre du Premier ministre, Naoto Kan, mais ces nouvelles vérifications «permettront de rassurer davantage la population», a souligné Banri Kaieda. Depuis qu'un tsunami géant a provoqué d'importantes fuites radioactives à la centrale Fukushima Daiichi (nord-est), l'inquiétude est vive dans les différentes régions du Japon hébergeant des centrales.Enjeu sécuritaire et économique
Aucun des réacteurs stoppés pour maintenance depuis l'accident du 11 mars n'a encore redémarré, ce qui a drastiquement réduit la production d'électricité des compagnies nippones. Le ministre de l'Economie, du Commerce et de l'Industrie (Meti) s'est rendu en personne fin juin à Genkai, sur l'île de Kyushu (sud-ouest), pour convaincre le maire de donner son feu vert à la relance de deux réacteurs suspendus. Le maire a finalement donné son accord, le premier depuis l'accident de Fukushima, mais ailleurs, les responsables locaux restent hésitants.Au-delà de la question sécuritaire, l'enjeu est économique: Banri Kaieda a prévenu qu'un déficit d'approvisionnement prolongé en électricité risquait d'entraver les efforts de reconstruction du Tohoku (nord-est), dévasté par un séisme de magnitude 9 et par un tsunami qui ont fait près de 23.000 morts et disparus. Avant cette catastrophe, l'énergie nucléaire représentait près de 30% de la production de courant au Japon. Aujourd'hui, seuls 19 réacteurs sont exploités sur 54, les uns ayant été arrêtés après un séisme, d'autres pour maintenance alors que trois unités, situées à Hamaoka (centre) dans une zone à forte activité sismique, ont été stoppées sur ordre du Premier ministre, qui a exigé des travaux de consolidation de la compagnie exploitante avant tout redémarrage.
Black-out pendant l’été
Face à la baisse de production, les autorités ont imposé aux entreprises et aux administrations de réduire de 15% leur utilisation d'électricité dans les régions de la mégapole de Tokyo et du Tohoku, afin d'éviter que les tensions sur le réseau n'entraînent des coupures, voire un black-out total. Cet ordre vaut pour tout l'été, une période connaissant des pics de consommation dus au fonctionnement des climatiseurs. Dans le reste du pays, des économies d'énergie ont été simplement conseillées.L'accident de Fukushima Daiichi, située à 220 km au nord-est de Tokyo, a été provoqué par une vague géante qui a interrompu l'alimentation électrique des circuits de refroidissement des réacteurs et noyé les générateurs de secours. Une fusion du combustible a suivi, provoquant des explosions et des rejets radioactifs dans l'atmosphère, l'eau de mer et les sols de la région de Fukushima. Cet accident, le plus grave depuis celui de Tchernobyl (Ukraine) en 1986, a contraint quelque 160.000 personnes à évacuer leur domicile. La moitié d'entre elles, habitant dans un rayon de 20 km de la centrale accidentée, n'a toujours pas pu y retourner. La compagnie exploitant Fukushima Daiichi, Tokyo Electric Power (Tepco), espère parvenir à refroidir ses réacteurs endommagés et les maintenir sous la température de 100 degrés Celsius d'ici à janvier 2012.
sources: 20minutes.fr
La Nasa a choisi le modèle de son futur vaisseau spatial
C’est le concept technique mis en œuvre par Lockheed Martin sur la capsule Orion qui a été retenu par la Nasa pour élaborer le futur vaisseau habitable qui permettra à l’agence spatiale américaine d’envoyer des astronautes dans l’espace, notamment vers la station spatiale internationale (ISS). Celle-ci est actuellement desservie par la navette Atlantis, à laquelle succédera, dès juillet 2011, la navette russe Soyouz, au moins jusqu’en 2015, date vers laquelle le nouveau véhicule – conçu et fabriqué par une entreprise privée, donc – devrait prendre la relève.
Actuellement en projet, cet engin , le "Multi-Purpose Crew Vehicle" (MPCV), pourra transporter quatre personnes pour des missions de 21 jours. Pesant environ 23 tonnes, il comportera un espace pressurisé de 19,6 mètres cubes, dont 7,21 mètres cubes habitables. Très similaire à la capsule Orion, il devrait cependant être 10 fois plus sûr, grâce à un système de secours permettant d'éloigner la capsule du lanceur, en cas de dysfonctionnement de celui-ci. Le planning du projet, encore à un stade préliminaire, est loin d’être fixé, et ne devrait pas déboucher sur un vol habité avant 2016.
sources:maxisciences.com
Atlantis : les astronautes se préparent pour l'ultime lancement
Le 8 juillet prochain, la navette Atlantis décollera pour la dernière fois vers la station spatiale internationale (ISS). Les astronautes qui voyageront à son bord sont déjà arrivés à Cap Canaveral, en Floride, et se préparent pour un vol historique, le dernier des navettes spatiales américaines.
Les quatre astronautes qui voyageront à bord de la navette Atlantis, et achèveront ainsi les trente années de bons et loyaux services rendus par les navettes de la Nasa, sont arrivés le lundi 4 juillet, jour de la fête nationale américaine, à la base de Cap Canaveral, en Floride. Le 8 juillet, Atlantis décollera pour la dernière fois vers l'ISS et réalisera l'ultime vol des navettes américaines alors que Discovery et Endeavour ont déjà tiré leur révérence. Ce mardi, le compte à rebours a déjà été lancé. Et vendredi, à Cap Canaveral, un million de personnes sont attendues pour assister au dernier décollage de la navette, prévu à 11h26.
Le commandant Chris Ferguson, qui réalisera son troisième vol habité, est à la tête de cette ultime mission. Il sera accompagné du pilote Doug Hurley, de la scientifique Sandra Magnus, et de l'ingénieur de vol Rex Walheim. L'équipage a été réduit à quatre personnes car la Nasa n'a pas de véhicule de secours qui pourrait ramener les astronautes en cas de problème avec Atlantis. Devant la foule de journalistes venue accueillir les astronautes, M. Ferguson a assuré que les douze jours de la mission seront "bien remplis". La navette Atlantis emportera avec elle le quatrième module logistique Raffaello, un conteneur de près de quatre tonnes de matériel destiné à l'ISS.
Après cette dernière mission, la navette rejoindra un musée comme ses soeurs Discovery et Endeavour. Ce sont les navettes russes Soyouz qui prendront le relais et assureront le transport d'astronautes et de matériel vers la station spatiale dont la construction est désormais presque achevée.
sources:maxisciences.com
Les quatre astronautes qui voyageront à bord de la navette Atlantis, et achèveront ainsi les trente années de bons et loyaux services rendus par les navettes de la Nasa, sont arrivés le lundi 4 juillet, jour de la fête nationale américaine, à la base de Cap Canaveral, en Floride. Le 8 juillet, Atlantis décollera pour la dernière fois vers l'ISS et réalisera l'ultime vol des navettes américaines alors que Discovery et Endeavour ont déjà tiré leur révérence. Ce mardi, le compte à rebours a déjà été lancé. Et vendredi, à Cap Canaveral, un million de personnes sont attendues pour assister au dernier décollage de la navette, prévu à 11h26.
Le commandant Chris Ferguson, qui réalisera son troisième vol habité, est à la tête de cette ultime mission. Il sera accompagné du pilote Doug Hurley, de la scientifique Sandra Magnus, et de l'ingénieur de vol Rex Walheim. L'équipage a été réduit à quatre personnes car la Nasa n'a pas de véhicule de secours qui pourrait ramener les astronautes en cas de problème avec Atlantis. Devant la foule de journalistes venue accueillir les astronautes, M. Ferguson a assuré que les douze jours de la mission seront "bien remplis". La navette Atlantis emportera avec elle le quatrième module logistique Raffaello, un conteneur de près de quatre tonnes de matériel destiné à l'ISS.
Après cette dernière mission, la navette rejoindra un musée comme ses soeurs Discovery et Endeavour. Ce sont les navettes russes Soyouz qui prendront le relais et assureront le transport d'astronautes et de matériel vers la station spatiale dont la construction est désormais presque achevée.
sources:maxisciences.com
L'origine des matériaux formés à chaud dans les comètes
Les comètes sont des corps glacés, pourtant elles sont constituées de matériaux (Un matériau est une matière d'origine naturelle ou artificielle que l'homme façonne pour en faire des objets.) formés à de très hautes températures. D'où viennent-ils ? Des chercheurs de l'Institut UTINAM (1) (CNRS/Université de Besançon) viennent d'en donner l'explication physique (La physique (du grec φυσικη) est étymologiquement la science de la nature. Son champ d'application actuel est néanmoins plus restreint : la physique décrit de façon à la fois...). Ils ont démontré comment ces matériaux ont migré depuis les parties les plus chaudes à l'intérieur du système solaire (Le système solaire est le nom donné au système planétaire composé du Soleil et des objets célestes gravitant autour de lui. Par extension, le terme système solaire peut parfois être employé pour désigner d’autres...) vers sa périphérie avant d'entrer dans la composition des comètes. Leurs résultats sont publiés dans le numéro de Juillet 2011 de la revue Astronomy & Astrophysics.
Après huit ans de voyage, la mission Stardust de la NASA (La National Aeronautics and Space Administration (« Administration nationale de l'aéronautique et de l'espace ») plus connue sous son abréviation NASA, est l'agence gouvernementale responsable du programme spatial des...) (programme Discovery) rapportait sur Terre (La Terre, foyer de l'humanité, est surnommée la planète bleue. C'est la troisième planète du système solaire en partant du Soleil.), le 15 janvier 2006, des poussières de la comète (En astronomie, une comète est un petit astre brillant du système solaire, dont l'orbite a généralement la forme d'une ellipse très allongée, et souvent accompagné d'une longue traînée lumineuse due à l'interaction entre la comète à...) Wild 2. Les comètes se sont formées à des températures très faibles (près de 50 Kelvins soit -223°C). Pourtant, les analyses ont révélé que la comète Wild 2 était constituée de silicates cristallins et de CAIs (Calcium-Aluminium-rich Inclusions): des minéraux dont la synthèse nécessite de très hautes températures (supérieures à 1 000 Kelvins ou 727°C). Comment expliquer cette composition ?
Effet de la photophorèse sur une particule dans la nébuleuse primitive:
la particule bouge dans la direction opposée au Soleil en raison de la variation de pression (La pression est la force exercée sur une surface donnée.) du gaz (Au niveau microscopique, on décrit un gaz comme un ensemble d'atomes ou de molécules très faiblement liés et quasi indépendants (pour plus de détails, voir...) qui est chauffé côté "jour (Le jour ou la journée est l'intervalle qui sépare le lever du coucher du Soleil ; c'est la période entre deux nuits, pendant laquelle les rayons du Soleil...)" et refroidit côté "nuit".
© O. Mousis
Une équipe de l'Institut UTINAM, en collaboration avec des chercheurs de l'Institut de physique de Rennes (CNRS/Université de Rennes), de l'Université Duisburg Essen (Allemagne) et du laboratoire Astrophysique, instrumentation (Le mot instrumentation est employé dans plusieurs domaines :) et modélisation (CNRS/CEA/Université Paris (Paris est une ville française, capitale de la France et le chef-lieu de la région d’Île-de-France. Cette ville est construite sur une boucle de la Seine, au centre du bassin parisien, entre les confluents de la Marne et...) Diderot), apporte la réponse en se basant sur un phénomène physique, la photophorèse. Cette force (Le mot force peut désigner un pouvoir mécanique sur les choses, et aussi, métaphoriquement, un pouvoir de la volonté ou encore une vertu morale « cardinale » équivalent au courage (cf. les articles « force (vertu) » et...) dépend de deux paramètres: l'intensité du rayonnement solaire (En plus des rayons cosmiques (particules animées d'une vitesse et d'une énergie extrêmement élevées), le Soleil rayonne des ondes électromagnétiques dont le spectre s'étend des ondes décamétriques aux rayons gamma en passant par la lumière...) et la pression du gaz.
A la naissance du système solaire, les comètes se sont formées à partir du disque protoplanétaire (2). A l'intérieur de ce disque (Le mot disque est employé, aussi bien en géométrie que dans la vie courante, pour désigner une forme ronde et régulière, à l'image d'un palet — discus en latin.), un mélange (Un mélange est une réunion de deux ou plusieurs substances.) de grains solides de quelques microns à plusieurs centimètres baignait dans un gaz dilué laissant passer la lumière (La lumière désigne les ondes électromagnétiques visibles par l'œil humain, c'est-à-dire comprises dans des longueurs d'onde de 0,38 à 0,78 micron (380 nm à 780 nm ; le...) du Soleil. D'après les chercheurs, la photophorèse a entraîné des particules vers la périphérie du disque. Sous l'effet du rayonnement (Le rayonnement est un transfert d'énergie sous forme d'ondes ou de particules, qui peut se produire par rayonnement électromagnétique (par exemple : infrarouge) ou par une désintégration (par exemple :...) solaire, les grains présentaient une face "plus chaude" que l'autre et le comportement des molécules de gaz à la surface (Une surface désigne généralement la couche superficielle d'un objet. Le terme a plusieurs acceptions, parfois objet géométrique, parfois frontière...) de ces grains était modifié: du côté "soleil", les molécules de gaz étaient plus instables et se déplaçaient plus rapidement que du côté "froid". Provoquant une différence de pression, ce déséquilibre a éloigné le grain (En météorologie maritime: Un grain est un vent violent et de peu de durée qui s'élève soudainement et qui est généralement accompagné de précipitations. Il se produit...) du Soleil (voir le schéma ci-dessous). Grâce à des simulations numériques, les chercheurs ont vérifié ce phénomène de photophorèse. Ils ont démontré que les grains de silicates cristallins formés dans la partie interne (En France, ce nom désigne un médecin, un pharmacien ou un chirurgien-dentiste, à la fois en activité et en formation à l'hôpital ou en cabinet pendant une durée variable selon le "Diplôme...) et chaude du disque protoplanétaire à proximité du Soleil ont migré jusque dans sa partie externe et froide avant de prendre part à la formation des comètes.
Cette nouvelle explication physique pourrait expliquer la position de certains anneaux de poussières observés dans les disques protoplanétaires et permettrait ainsi de mieux comprendre les conditions de formation des planètes.
sources:techno-science.net
Après huit ans de voyage, la mission Stardust de la NASA (La National Aeronautics and Space Administration (« Administration nationale de l'aéronautique et de l'espace ») plus connue sous son abréviation NASA, est l'agence gouvernementale responsable du programme spatial des...) (programme Discovery) rapportait sur Terre (La Terre, foyer de l'humanité, est surnommée la planète bleue. C'est la troisième planète du système solaire en partant du Soleil.), le 15 janvier 2006, des poussières de la comète (En astronomie, une comète est un petit astre brillant du système solaire, dont l'orbite a généralement la forme d'une ellipse très allongée, et souvent accompagné d'une longue traînée lumineuse due à l'interaction entre la comète à...) Wild 2. Les comètes se sont formées à des températures très faibles (près de 50 Kelvins soit -223°C). Pourtant, les analyses ont révélé que la comète Wild 2 était constituée de silicates cristallins et de CAIs (Calcium-Aluminium-rich Inclusions): des minéraux dont la synthèse nécessite de très hautes températures (supérieures à 1 000 Kelvins ou 727°C). Comment expliquer cette composition ?
Effet de la photophorèse sur une particule dans la nébuleuse primitive:
la particule bouge dans la direction opposée au Soleil en raison de la variation de pression (La pression est la force exercée sur une surface donnée.) du gaz (Au niveau microscopique, on décrit un gaz comme un ensemble d'atomes ou de molécules très faiblement liés et quasi indépendants (pour plus de détails, voir...) qui est chauffé côté "jour (Le jour ou la journée est l'intervalle qui sépare le lever du coucher du Soleil ; c'est la période entre deux nuits, pendant laquelle les rayons du Soleil...)" et refroidit côté "nuit".
© O. Mousis
Une équipe de l'Institut UTINAM, en collaboration avec des chercheurs de l'Institut de physique de Rennes (CNRS/Université de Rennes), de l'Université Duisburg Essen (Allemagne) et du laboratoire Astrophysique, instrumentation (Le mot instrumentation est employé dans plusieurs domaines :) et modélisation (CNRS/CEA/Université Paris (Paris est une ville française, capitale de la France et le chef-lieu de la région d’Île-de-France. Cette ville est construite sur une boucle de la Seine, au centre du bassin parisien, entre les confluents de la Marne et...) Diderot), apporte la réponse en se basant sur un phénomène physique, la photophorèse. Cette force (Le mot force peut désigner un pouvoir mécanique sur les choses, et aussi, métaphoriquement, un pouvoir de la volonté ou encore une vertu morale « cardinale » équivalent au courage (cf. les articles « force (vertu) » et...) dépend de deux paramètres: l'intensité du rayonnement solaire (En plus des rayons cosmiques (particules animées d'une vitesse et d'une énergie extrêmement élevées), le Soleil rayonne des ondes électromagnétiques dont le spectre s'étend des ondes décamétriques aux rayons gamma en passant par la lumière...) et la pression du gaz.
A la naissance du système solaire, les comètes se sont formées à partir du disque protoplanétaire (2). A l'intérieur de ce disque (Le mot disque est employé, aussi bien en géométrie que dans la vie courante, pour désigner une forme ronde et régulière, à l'image d'un palet — discus en latin.), un mélange (Un mélange est une réunion de deux ou plusieurs substances.) de grains solides de quelques microns à plusieurs centimètres baignait dans un gaz dilué laissant passer la lumière (La lumière désigne les ondes électromagnétiques visibles par l'œil humain, c'est-à-dire comprises dans des longueurs d'onde de 0,38 à 0,78 micron (380 nm à 780 nm ; le...) du Soleil. D'après les chercheurs, la photophorèse a entraîné des particules vers la périphérie du disque. Sous l'effet du rayonnement (Le rayonnement est un transfert d'énergie sous forme d'ondes ou de particules, qui peut se produire par rayonnement électromagnétique (par exemple : infrarouge) ou par une désintégration (par exemple :...) solaire, les grains présentaient une face "plus chaude" que l'autre et le comportement des molécules de gaz à la surface (Une surface désigne généralement la couche superficielle d'un objet. Le terme a plusieurs acceptions, parfois objet géométrique, parfois frontière...) de ces grains était modifié: du côté "soleil", les molécules de gaz étaient plus instables et se déplaçaient plus rapidement que du côté "froid". Provoquant une différence de pression, ce déséquilibre a éloigné le grain (En météorologie maritime: Un grain est un vent violent et de peu de durée qui s'élève soudainement et qui est généralement accompagné de précipitations. Il se produit...) du Soleil (voir le schéma ci-dessous). Grâce à des simulations numériques, les chercheurs ont vérifié ce phénomène de photophorèse. Ils ont démontré que les grains de silicates cristallins formés dans la partie interne (En France, ce nom désigne un médecin, un pharmacien ou un chirurgien-dentiste, à la fois en activité et en formation à l'hôpital ou en cabinet pendant une durée variable selon le "Diplôme...) et chaude du disque protoplanétaire à proximité du Soleil ont migré jusque dans sa partie externe et froide avant de prendre part à la formation des comètes.
Cette nouvelle explication physique pourrait expliquer la position de certains anneaux de poussières observés dans les disques protoplanétaires et permettrait ainsi de mieux comprendre les conditions de formation des planètes.
sources:techno-science.net
Un tunnel solaire pour alimenter les gares et trains
Lundi matin près d'Anvers (Belgique), un premier train a roulé sur plusieurs kilomètres (Le mètre (symbole m, du grec metron, mesure) est l'unité de base de longueur du Système international. Il est défini comme la distance parcourue par la lumière dans le vide en...) alimenté à l'énergie solaire. Cette source d'énergie (Une source d'énergie désigne tous les phénomènes à partir desquels il est possible de retirer de l'énergie.) est captée via une multitude de panneaux photovoltaïques installés sur le toit d'un tunnel (Un tunnel est une galerie souterraine livrant passage à une voie de communication (chemin de fer, canal, route, chemin piétonnier). Sont...).
Le tunnel ferroviaire (rebaptisé "tunnel du soleil"), qui se trouve sur la ligne à haute vitesse (La vitesse est une grandeur physique qui permet d'évaluer l'évolution d'une quantité en fonction du temps.) Paris-Amsterdam, compte pas moins de 16 000 panneaux solaires sur toute sa longueur (La longueur d’un objet est la distance entre ses deux extrémités les plus éloignées. Lorsque l’objet est filiforme ou en forme de lacet,...) soit 3,4 kilomètres. Cette surface (Une surface désigne généralement la couche superficielle d'un objet. Le terme a plusieurs acceptions, parfois objet géométrique, parfois frontière physique, et...) de 50 000 m² de panneaux, capable de produire 3 300 MWh, pourrait éviter le rejet de plus de 47 millions de kilos de dioxyde de carbone (Le dioxyde de carbone (appelé parfois, de façon impropre « gaz carbonique ») est un composé chimique composé d'un atome de carbone et de deux atomes...) sur une vingtaine d'années, soit 2 400 tonnes chaque année (Une année est une unité de temps exprimant la durée entre deux occurrences d'un évènement lié à la révolution de la Terre autour du Soleil.).
L'énergie solaire de ce tunnel permet l'alimentation partielle des infrastructures (fonctionnement des panneaux de signalisation et éclairage de la gare d'Anvers) et de la circulation (La circulation routière (anglicisme: trafic routier) est le déplacement de véhicules automobiles sur une route.) des Thalys (Thalys est une marque désignant à la fois :) et autres trains conventionnels sur cette ligne.
Ce projet, lancé par la société nationale des chemins de fer belges (SNCB), a coûté 15,6 millions d'euros. Une vidéo (La vidéo regroupe l'ensemble des techniques, technologie, permettant l'enregistrement ainsi que la restitution d'images animées, accompagnées ou non de son, sur un support adapté à...) de présentation est accessible ici. Il s'agit d'une première en Europe (L’Europe est considérée comme un continent ou une partie de l’Eurasie (péninsule occidentale), voire de l’Eurafrasie, selon le point de vue. Elle est parfois qualifiée de...). En France, la SNCF teste depuis l'année dernière en Poitou-Charentes un TER équipé de panneaux solaires servant à alimenter l'éclairage des rames et la climatisation (La climatisation, au sens le plus général, consiste en la maîtrise de façon volontaire, des caractéristiques physico-chimiques de l'atmosphère qui règnent dans un local,...) à bord du train, mais n'aide pas à la circulation de celui-ci.
Auteur de l'article: cédric DEPOND
Le tunnel ferroviaire (rebaptisé "tunnel du soleil"), qui se trouve sur la ligne à haute vitesse (La vitesse est une grandeur physique qui permet d'évaluer l'évolution d'une quantité en fonction du temps.) Paris-Amsterdam, compte pas moins de 16 000 panneaux solaires sur toute sa longueur (La longueur d’un objet est la distance entre ses deux extrémités les plus éloignées. Lorsque l’objet est filiforme ou en forme de lacet,...) soit 3,4 kilomètres. Cette surface (Une surface désigne généralement la couche superficielle d'un objet. Le terme a plusieurs acceptions, parfois objet géométrique, parfois frontière physique, et...) de 50 000 m² de panneaux, capable de produire 3 300 MWh, pourrait éviter le rejet de plus de 47 millions de kilos de dioxyde de carbone (Le dioxyde de carbone (appelé parfois, de façon impropre « gaz carbonique ») est un composé chimique composé d'un atome de carbone et de deux atomes...) sur une vingtaine d'années, soit 2 400 tonnes chaque année (Une année est une unité de temps exprimant la durée entre deux occurrences d'un évènement lié à la révolution de la Terre autour du Soleil.).
L'énergie solaire de ce tunnel permet l'alimentation partielle des infrastructures (fonctionnement des panneaux de signalisation et éclairage de la gare d'Anvers) et de la circulation (La circulation routière (anglicisme: trafic routier) est le déplacement de véhicules automobiles sur une route.) des Thalys (Thalys est une marque désignant à la fois :) et autres trains conventionnels sur cette ligne.
Ce projet, lancé par la société nationale des chemins de fer belges (SNCB), a coûté 15,6 millions d'euros. Une vidéo (La vidéo regroupe l'ensemble des techniques, technologie, permettant l'enregistrement ainsi que la restitution d'images animées, accompagnées ou non de son, sur un support adapté à...) de présentation est accessible ici. Il s'agit d'une première en Europe (L’Europe est considérée comme un continent ou une partie de l’Eurasie (péninsule occidentale), voire de l’Eurafrasie, selon le point de vue. Elle est parfois qualifiée de...). En France, la SNCF teste depuis l'année dernière en Poitou-Charentes un TER équipé de panneaux solaires servant à alimenter l'éclairage des rames et la climatisation (La climatisation, au sens le plus général, consiste en la maîtrise de façon volontaire, des caractéristiques physico-chimiques de l'atmosphère qui règnent dans un local,...) à bord du train, mais n'aide pas à la circulation de celui-ci.
Auteur de l'article: cédric DEPOND
Inscription à :
Articles (Atom)