July 22, 2025

L’imagerie du télescope spatial Euclid

 


La Tête de cheval vue par le télescope spatial Euclid.

 © ESA/Euclid/Nasa/J.-C. Cuillandre/ G. Anselmi


L’agence spatiale européenne (ESA) a lancé en juillet 2023 son nouveau télescope Euclid. Son objectif principal est l’étude de la matière noire et de l’énergie sombre, deux domaines brûlants de la recherche actuelle. Situé au point Lagrange 2, à 1,5 millions de km du Soleil, Euclid est positionné loin de l’atmosphère et dos au Soleil dans le but d’observer l’espace lointain avec le moins de parasites possible. Pour calibrer et tester les instruments, Euclid a pris des images de divers endroits du ciel pour promouvoir la science auprès du grand public. Une des plus célèbres images est celle de la Nébuleuse de la Tête de Cheval, dans la constellation d’Orion (cf. plus haut). En effet, ces images ont déjà marqué le monde par leur palette graphique caractéristique. Dans cet article, nous nous demanderons comment faire pour obtenir ces images.


Conçu par Thales Aerospace, le système optique d’Euclid se compose de deux instruments : le Visible Instrument (VIS), qui observe les longueurs d’ondes visibles (550-900 nm) et le Near Infrared Spectrometer and Photometer (NISP) qui observe l’infrarouge proche (950-2020 nm). Ces capteurs permettent de distinguer énormément de détails, le VIS possédant une résolution de 620 mégapixels et le NISP 64 mégapixels. Le travail d’imagerie consiste à combiner les données recueillies par ces instruments pour donner des images dans le domaine du visible (pour être projetées sur un écran par exemple). Ce que l’on observe n’est donc pas l’image en couleurs réelles, mais une reconstitution à partir de plusieurs sources de données. 


Le NISP approfondit l’étude spatiale en combinant les fonctions de spectrographe et de photomètre dans le proche infrarouge. Cela signifie que les signaux infrarouges sont décomposés en spectres, on peut alors voir quelles longueurs d’ondes contribuent à ce que l’on observe. Chaque élément étant associé à un spectre, cela permet d’identifier quels atomes ou quelles molécules se trouvent dans la zone du ciel visée. De plus, ces spectres nous apparaissent décalés : les longueurs d’ondes sont de plus en plus grandes à mesure que l’objet est lointain. On appelle cela le redshift, ou décalage vers le rouge cosmologique, dû à l’expansion de l’Univers qui agrandit les distances entre les galaxies et donc la fréquence des ondes observées. Le spectrographe permet à la fois d’identifier les signatures spectrales des éléments observés et de donner une bonne approximation de leur distance.


Euclid est doté de capteurs CCD (Charge-Coupled Device) pour le visible et des HgCdTe (Mercure-Cadmium-Tellure) pour l'infrarouge particulièrement grands : on obtient des images avec une résolution très élevée, c'est-à-dire avec beaucoup de pixels à analyser. Il faudrait quatre écrans HD pour rendre justice aux meilleures images d’Euclid ! Ici, on voit une image de la galaxie IC 342, observée à travers le plan de la Voie lactée. Une image dans le domaine du visible ne renverrait que notre disque galactique, alors qu’une détection dans l’infrarouge permet de révéler ce qui se cache derrière les nuages de gaz, car ces rayons peuvent passer plus facilement à travers les nuages de poussière en raison de leur plus grande longueur d’onde. 


Pour observer des objets encore plus lointains, on augmente le temps d’exposition de la caméra pour capter plus de rayonnement sur une seule image. Pour certaines images, ce temps peut durer jusqu’à 90 minutes ! Mais la lumière a alors le temps de se déplacer et les objets ponctuels peuvent donner une image allongée s'ils sont trop rapides. Il faut alors faire un travail de correction et d’uniformisation en combinant des images prises à différents endroits dans le ciel. De la même manière, on pourra en comparant différentes images corriger les distorsions éventuelles causées par les différences de sensibilité des capteurs. 

Afin de créer une palette de couleurs qui affiche dans le domaine du visible les données du télescope, on associe différentes longueurs d’ondes à chaque couleur du RVB. En effet pour afficher une image sur un écran, on combine ces 3 couleurs (Rouge, Vert, Bleu) sur chaque pixel pour donner une couleur qui en est l'addition selon certaines proportions. Un pixel blanc sera par exemple une somme de 100% de rouge, 100% de bleu et 100% de vert. Le noir sera au contraire une somme de 0% de chaque couleur.

“Galaxie IC 342” © ESA/Euclid/Euclid Consortium/NASA, image processing by J.-C. Cuillandre (CEA Paris-Saclay), G. Anselmi, CC BY-SA 3.0 IGO


  Sur les images d’Euclid, les équipes ont choisi d’assigner à la lumière visible le bleu, à une bande l'infrarouge proche le vert (1000-1200 nm) et enfin à une bande plus lointaine (1500-2000 nm) le rouge. Cela donne à Euclid cette palette graphique unique. Sur l'image de la nébuleuse à la Tête de Cheval, les zones bleues sont dans le domaine du visible alors que les zones rouges ne sont pas visibles puisqu’elles correspondent à des poussières qui n'émettent pas directement de lumière. Les zones violettes sur l'image (rouge+bleu) contiennent donc à la fois des poussières et du gaz ionisé. Si on connaît la distance entre nous et l'objet astronomique observé, sa couleur nous donne aussi une bonne idée de sa température, surtout en combinant ces données avec les images du télescope au sol associé à Euclid, le télescope Alma au Chili.



“Cartographie cosmique” ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi

CC BY-SA 3.0 IGO or ESA Standard Licence


Pour conclure, le télescope spatial Euclid représente un véritable progrès dans le domaine de l'imagerie en astrophysique et en cosmologie, combinant des avancées technologiques passionnantes avec des objectifs scientifiques ambitieux. Il vise à découvrir les mystères de l'énergie sombre et de la matière noire, en essayant de répondre à des questions fondamentales sur la nature de l'univers, en particulier son expansion et sa structure. En déployant des outils de pointe pour cartographier des galaxies sur des milliards d’années-lumière, Euclid repousse les limites de nos perceptions grâce à ses outils novateurs nous permettant d’observer l’univers avec une précision et une profondeur sans précédent, sous des couleurs quelque peu insolites ! Ce projet international dirigé par l'ESA, avec d'importantes contributions d'agences et d'institutions de plusieurs pays, démontre l'importance de la collaboration scientifique mondiale.


Auteurs : Marie Alibert, Lila Schulz, Davit Yeremyan


Sources


Un article du CNRS sur les premières images d’Euclid : https://cnes.fr/actualites/euclid-devoile-premieres-images

Une conférence de M. Cuillandre à l’IAP, qui a travaillé sur les images d’Euclid : https://www.youtube.com/watch?v=WASlGgnBECk

Une vidéo de ScienceEtonnante sur le JWST, pour le phénomène de redshift : https://www.youtube.com/watch?v=dZw31yMDokk 

Un article du Temps: https://www.letemps.ch/en-images/premieres-images-d-euclid-le-telescope-de-l-obscure-clarte

Deux articles de l’ESA : https://www.esa.int/Space_in_Member_States/France/Premieres_images_d_Euclid_L_eblouissante_lisiere_de_l_obscuritehttps://www.esa.int/Space_in_Member_States/France/Zoom_sur_la_premiere_page_du_grand_atlas_cosmique_d_Euclid_de_l_ESA


Images : ESA


June 23, 2025

Toujours plus froid

Au 17ème siècle, le physicien français Guillaume Amontons découvre la notion de zéro absolu.C'est l'état dans lequel le mouvement thermique (le mouvement des atomes et des molécules) est nul et l'énergie cinétique des particules devient minimale. En d’autres termes, le zéro absolu est la température la plus basse possible dans l’univers. Il l’a estimé à ce qui est aujourd’hui -240 ℃ dans ses recherches sur les thermomètres, qui supposait que la pression du gaz devient nulle à une certaine température lorsqu'il est refroidi. Cependant, aucune norme n’a été établie pour décrire les mesures de température sous forme de chiffres à cette époque, en effet le degré Celsius a été créé en 1742. Plus tard, au XVIIIe siècle, Jacques Charles et Joseph Louis Gay-Lussac approfondirent cette idée et estimèrent le zéro absolu à -273 ℃. Aujourd'hui, sur la base de nombreuses études de recherche, il est défini comme -273,15 ℃. Par la suite, l’échelle du Kelvin est établie : il suit la même échelle que le °C mais 0K correspond au froid absolu. 0°C = 273,15 K

Afin de mesurer des températures, de nombreuses méthodes de mesure ont été développées en utilisant des lois physiques,comme la dilatation thermique volumique, la susceptibilité magnétique, ou la loi d’Amontons, qui avec la loi d’Avogadro a permis d’élaborer l’équation de gaz parfait : PV=nRT. Cela a permis de développer les thermomètres à gaz.

La dilatation des liquides ou des métaux a aussi permis de développer des thermomètres car lorsque des liquides ou des métaux sont soumis à des variations de températures, leur volume varie. Les cristaux liquides sont aussi utilisés car ceux-ci, due à une réaction chimique, changent de couleur en fonction de la température… On trouve également des thermomètres électroniques qui utilisent diverses sondes.


Tous ces thermomètres ne permettent pas de mesurer des températures proches de 1 Kelvin, en effet, la plupart des thermomètres sont constitués de liquides ou de gaz qui vont se solidifier, même pour les métaux ces températures très basses ne permettent plus une lecture de température optimale, et pour les cristaux liquides, ceux-ci ne peuvent descendre sous -55°C avant de changer d’état. Ainsi, seuls quelques types de thermomètres sont capables de mesurer des températures toujours plus froides.


Parmi eux on peut citer les thermomètres magnétiques, qui utilisent la loi de Curie (xm=C/T avec C constante de Curie et T température) et qui sont capables de mesurer des températures jusqu’à 0,15K. Ils peuvent déterminer très précisément la température en mesurant la variation de l’intensité du magnétisme d’un certain aimant.

Il y a également les thermomètres à bruit de grenaille qui permettent de mesurer des températures aussi basses, en mesurant l’agitation des particules électroniques dans une résistance selon la  loi : v^2=Kb.T.R.dF


Par ailleurs,le type de thermomètre dont fait partie celui à l’Oxyde de Ruthénium, use d’un autre fonctionnement pour déterminer la température, et c’est ce que nous allons voir ici.


1-The ruthenium oxide thermometer develoepd by QuantumCTek Co

Ce dernier, élaboré en 2024, a établi un record en mesurant des températures allant jusqu’à 6 millikelvins, alors que les autres types de thermomètre ne sont pas capables de déterminer des températures en-dessous de 100 millikelvins (ce qui correspond à une température d’un millième de degré seulement au-dessus du zéro absolu)..

L’oxyde de ruthénium (RuO2) est un semi-conducteur, un matériau qui possède une caractéristique surprenante : en fonction de l’intensité d’un courant, il se comporte comme un isolant ou comme un conducteur. Nous utilisons les propriétés de ces éléments tous les jours, que ce soit dans les téléphones, les satellites, les voitures électriques ou tout autre appareil électronique.

Pour réussir une telle avancée, les ingénieurs de ce projet se sont appuyés sur une relation qui existe entre la résistance d’un matériau semi-conducteur, et la température. Cette relation décrite est appelée le “Coefficient de Résistance Thermique” (TCR). Cela s’explique par le fait que plus un matériau est chaud, plus il y a de collisions électroniques entravant le flux d’électron dont le courant est constitué ce qui augmente la résistance du matériau. Ainsi, en déterminant la « facilité » avec laquelle un courant passe dans la matière, on peut déterminer sa température.

Comme cette corrélation dépend également du matériau utilisé, il faut d’abord réaliser un « calibrage » de la résistance de celui-ci avec des températures connues. Pour cela, on mesure la valeur de la résistance du matériau pour des températures connues afin de tracer un graphique représentatif de la résistance en fonction de la température. De ce fait, on  peut associer chaque valeur de la résistance à une température. On peut désormais mesurer n’importe quelle température en connaissant la résistance du matériau, et c’est cette relation qu’exploite ce thermomètre.

Nous pouvons alors nous demander pourquoi ces chercheurs ont décidé de prendre de l’oxyde de ruthénium (RuO2) pour constituer ce thermomètre. Ce choix stratégique réside dans les propriétés intéressantes de ce cristal semi-conducteur : la variation du courant suit de manière stable la température, même dans un froid très important, ce qui permet d’obtenir des résultats aussi impressionnants.

De plus, le thermomètre d’oxyde de ruthénium offre une meilleure précision pour relever la température au cœur des ordinateurs quantiques par exemple, de l’ordre de 10^-5 Kelvin. Un ordinateur quantique est une machine capable d’exploiter des propriétés quantiques pour faire des calculs plus complexes.

Ils sont néanmoins trop instables pour l’instant pour être pleinement exploitables, il faut pouvoir contrôler leur température avec précision, d’où l’importance de ce thermomètre, utile pour ajuster les conditions dans lesquelles fonctionne l’ordinateur quantique, qui sont très précises à cause de la présence de qubits – ou bits quantiques – qui le composent. La principale caractéristique de ces qubits est leur capacité à utiliser un système tertiaire, plus complexe que le système binaire des ordinateurs, avec une superposition des états 0 et 1 impossible dans les composants électroniques classiques. Cela permet de réaliser des calculs complexes beaucoup plus rapidement.

Afin de disposer de ces qubits, une des solutions est d’utiliser les propriétés supraconductrices de matériaux, qui ne se manifestent qu’à très basse température, proche de 0 Kelvin. La supraconductivité permet de disposer de qubits car elle permet l'émergence d’une propriété quantique : la superposition d'états. L'état dans lequel est une particule est une information d'un qubit. Savoir mesurer les températures extrêmes est donc essentiel pour pouvoir ajuster la température dans lesquelles se trouvent les instables qubits, et c’est ce que ces ingénieurs ont réussi à faire avec ce thermomètre d’oxyde de ruthénium.

Blog réalisé par :  Axel FLOREAU, Hamza EL YAMANI, Matéo CHENE


Sources :

https://www.globaltimes.cn/page/202406/1314212.shtml (source de la photo 1)


https://www.polytechnique-insights.com/tribunes/science/lordinateur-quantique-tout-comprendre-en-15-minutes/ 


https://www.youtube.com/watch?v=yyEXaWoTyuE 


https://journals.aps.org/prx/abstract/10.1103/PhysRevX.10.041054 


https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwi52r67_8mJAxWjT6QEHVhqNBYQFnoECBQQAQ&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F234986179_A_commercial_ruthenium_oxide_thermometer_for_use_to_20_millikelvin&usg=AOvVaw1ByhtM_nlMsrp8385nYz8M&opi=89978449 


https://www.titech.ac.jp/english/public-relations/about/stories/absolute-zero 

Quel est le lien entre la température et la résistance ? | Electrotopic.com 

Ordinateur quantique : Qu'est-ce que c'est ? 

Qu’est-ce qu’un qubit ? | IBM

 

May 21, 2025

Les drones et leur rôle dans l'inspection ferroviaire

La robotique est un secteur d’avenir avec un gros potentiel économique, une industrie qui dépasse les milliards de dollars de revenus dans le monde. Cette industrie démontre son utilité dans l’automobile, l’aérodynamique ou encore dans le domaine pharmaceutique. Cela révèle alors qu’elle touche à différents domaines. Concentrons nous alors sur un domaine en particulier : le ferroviaire. En effet, l’usage des drones volants est en train de révolutionner le monde des chemins de fer. Les réseaux ferroviaires, notamment la SNCF, ont donc fait le choix de développer les technologies,  comme la robotique pour le déploiement de drones, car il était primordial d’améliorer la sécurité et faciliter le traitement de ces réseaux. Ces aéronefs télépilotés sont, dans l’usage professionnel, généralement équipés d’un GPS et même parfois d’un système anti collision. La SNCF a ainsi effectué des contrats avec des partenaires tels l’ONERA (Office Nationale d’Etudes et de Recherche Aérospatiale) ou Altametris, qui restent les deux partenaires principaux du ferroviaire en terme de robotique.

L’objectif de ces partenariats est de développer des technologies innovantes et concevoir des systèmes drones sur mesure pour des applications spécifiques à la SNCF, comme par exemple mettre en place l’automatisation de ces drones pour ainsi rendre la tâche plus pratique et efficace pour les travailleurs, en remplaçant un des aspects de la surveillance ferroviaire. Les différentes entreprises mettent leur connaissances technologiques acquises depuis plus de 20 ans au service de la SNCF, en partant du traitement d’image pour aller jusqu’au développement de nouveaux capteurs ou bien même des exercices de simulation, qui permettent d’avoir une meilleure idée du produit fini avant sa mise en place.

En effet, ces drones automatisés sont dotés de capteurs aériens, c’est à dire qu’à partir de chaque image étudiée par le capteur du drone, il est alors possible d’effectuer des cartes 3D, en passant par un nuage de points à très haute densité, pour reproduire les espaces ainsi étudiés avec une très haute précision. Ces capteurs sont pour la plupart des capteurs LiDAR (Light Detection And Ranging) , des capteurs laser qui mesurent le « temps de vol » («TOF» ou «Time-Of -Flight») basé sur l'analyse des propriétés d'un faisceau laser infrarouge renvoyé par la cible vers son émetteur. Pour faire simple, le LiDAR envoie une impulsion laser vers une surface qui réfléchit ce rayon et le renvoie vers la zone d’impulsion. Ce laser réfléchi est capté par le LiDAR et ainsi calcule le temps de trajet du rayon. C’est grâce à ce processus répété des millions de fois par ces instruments qu’il est donc possible de réaliser les cartographies 3D énoncées précédemment. Ces drones sont déployés dans certains domaines du ferroviaire et possèdent de multiples utilités qui facilitent la construction, la surveillance ou simplement le bon fonctionnement du réseau. 

Ils peuvent effectuer des diagnostics thermiques, par exemple le relevé de l’ensemble d’une toiture de gare peut être effectué en une demie journée, et cela permet ainsi de signaler le moindre défaut de construction ou d’usure des matériaux, même en milieu confiné. De plus, ces drones garantissent la sécurité : en inspectant les réseaux électriques et les caténaires, ces drones peuvent établir un suivi des infrastructures en remontant à la succession des étapes de construction des réseaux. Ils effectuent des états des lieux des rames et détectent le moindre défaut, à l’aide de capteurs d’ultrasons et de vibrations. Ces capteurs sont utilisés pour détecter des anomalies structurelles comme des fissures ou des fractures dans le béton ou le métal des rails et des ponts.Car par exemple pour les ponts ou les viaduc, l’accès à la structure entière est difficile pour un agent classique. Alors ces drones permettent un état des lieux plus rapide et plus efficace que si un simple ouvrier devait faire la même « mission ». Mais  ces capteurs servent aussi à détecter le moindre inconvénient pour les ouvrages en terre, c’est-à-dire la modification des terres pour l’implantation d’un milieu ferroviaire. Enfin, ils améliorent grandement la surveillance des réseaux, en facilitant les inspections des tunnels ou des ponts, de nuit notamment. Ils rendent les reconnaissances faciales par vidéo ou photo plus efficaces qu’avec une caméra fixe, car celles ci peuvent être plus facilement  évitées par les habitués. Lors du festival Millésime, vers la gare de La Réole, les agents n’avaient besoin que de leur drone pour surveiller que personne ne traversait les voies des chemins de fer, ce qui permettait une surveillance optimale tout en facilitant le travail des agents. Enfin, ces drones sont d’autant plus avantageux qu’ils ne sont pas si coûteux pour une entreprise aussi importante que la SNCF. En effet, il faut débourser environ 3000€ pour l’achat d’un drone, mais ces investissements restent rentables pour la compagnie par tous les avantages qu’ils rapportent. 

Pour conclure, l’usage des drones par la SNCF,avec le soutien d’entreprises comme l’ONERA, facilite les manœuvres et renforce la sécurité et la surveillance des réseaux ferrés. Ainsi, les drones sont une avancée et un avantage considérable dans le domaine ferroviaire.

Blog réalisé par : Arthur DAVIAU, Garance DOUCET, Lia BEN-NATAN, Ulysse BOYER

April 24, 2025

Un signal lumineux pour nous protéger des rayonnements ionisants

Les effets néfastes de la radioactivité et des rayonnements ionisants sur le corps humain sont bien connus. Ces derniers peuvent affecter les cellules et l’ADN de manière imperceptible et irréversible, ce qui peut avoir des conséquences pour la santé: augmentation de la probabilité de développer un cancer, maladies génétiques ou encore des malformations et des effets sur la reproduction. Cependant, sait-on vraiment ce qu'est ’un rayonnement ionisant et pourquoi sont-ils aussi dangereux ? Et surtout comment les personnes qui sont susceptibles d'être en contact avec ces rayonnements peuvent s’en protéger ? 

                                                                               

Un rayonnement est dit ionisant lorsque l’énergie émise est suffisamment importante pour arracher des électrons aux atomes qu’il traverse, les transformant ainsi en ions (1), ce qui engendre l’instabilité de la matière. Un atome instable va chercher à se stabiliser, et ce en émettant un des 3 types de rayonnements. Les rayonnements alpha, qui engendrent la perte d’un proton ou neutron grâce à l’émission d’un noyau d’hélium, les rayonnements bêta plus (+) ou moins () qui permettent la conversion d’un neutron en proton grâce à l'émission d’un électron ou d’un positron, particule chargé positivement. Finalement nous avons les rayonnements  gamma , qui émettent des photons de très haute énergie. Ces rayonnements provoquent plusieurs effets sur l’organisme dépendants de la dose reçue et du type de rayonnement. Les rayonnements alpha par exemple pourront être arrêtés avec une simple feuille de papier mais seront beaucoup plus dangereux pour la santé s’ils sont ingérés ou inhalés, que les rayonnements gamma qui eux peuvent traverser plusieurs mètres de béton et sont plus insidieux. Pour que cela devienne dangereux pour l’homme il faudrait dépasser la limite d’exposition du public fixée qui est de 1 millisievert par an (unité de radioprotection mesurant la dose de rayonnement reçue, mSv/an), (2) en plus des expositions médicales et naturelles. En effet nous sommes toujours en contact avec des rayonnements ionisants car la radioactivité est présente en très faible dose de manière naturelle. Il existe tout de même des secteurs ou les travailleurs sont plus exposés aux rayonnements. Pour les travailleurs du nucléaire, la limite réglementaire d'exposition en France établie par l’Agence de l'énergie nucléaire est de 20 mSv/an. Le nucléaire est très utilisé dans plusieurs secteurs de la société, c’est le cas notamment dans le secteur de l’énergie avec l’énergie nucléaire, mais aussi en médecine, où les rayons ionisants sont une façon de traiter certaines maladies comme les Cancers. Néanmoins le contact à répétition avec les rayons ionisants représente un danger pour la santé des travailleurs de ces secteurs. 


Face à ces risques, il est essentiel de mettre en place des mécanismes de contrôle et de protection, tant pour les travailleurs que pour la population en général. 

Un des moyens de prévention est d'établir des taux limite de doses de rayonnements, et pour contrôler que les travailleurs des secteurs du nucléaire ne dépassent pas ces doses, des appareils de mesure sont utilisés tel que les compteurs Geiger-Müller permettant de mesurer avec une certaine précision les rayonnement arrivant à l'appareil en un instant t (3). Un autre type d’appareil est le dosimètre thermoluminescent TLD, dont nous allons voir justement en détail le fonctionnement et ce qui rend cet appareil aussi utile dans les secteurs du nucléaire. Un dosimètre TLD, est capable de restituer sous la forme de lumière les rayonnements reçus: plus le dispositif a reçu de rayonnements, plus la lumière restituée sera forte en intensité. Cela est possible grâce au phénomène de thermoluminescence.

Exemple de différents dosimètres TLD se plaçant sur différentes parties du corps selon les endroits exposés.

Commençons donc tout d’abord par définir ce que c’est que le phénomène de thermoluminescence.

Lorsque certains matériaux à structure cristalline, ayant au préalable été en contact avec des rayonnements, sont chauffés, l’agitation thermique permet au matériau de rétablir sa structure cristalline, lors de ce processus de réparation il existe une émission de lumière, c’est cela qu’on appelle phénomène de thermoluminescence (4). 

Ce phénomène sert surtout à l'identification de radioactivité et de rayonnements ionisants. En effet, le dosimètre thermoluminescent  est capable de donner une mesure de la dose émise et du type de rayonnement mis en jeu. Ils sont souvent constitués de matériaux cristallins et notamment de fluorure de lithium (FLi), élément qui va se dégrader à cause de l'énergie apportée par ces rayonnements, les imperfections laissées seront comme une empreinte digitale du rayonnement en question qui permettra l’analyse par la suite . Après utilisation, les dosimètres sont chauffés, ce qui permet aux matériaux cristallins de se reconstituer et d'émettre des photons lumineux, leur intensité, qui dépend du type de rayonnement, sera par la suite analysée. Ces dispositifs sont amplement utilisés, depuis une quinzaine d’années car le matériau thermoluminescent peut être ajusté pour répondre à la sensibilité nécessaire à l'application souhaitée. Autrement dit, la dimension de l’élément de détection peut être petite. Cela permet de moduler la technique pour faire de la dosimétrie d’extrémité, ou du cristallin. Par exemple, les bagues thermoluminescentes, servant à la mesure de la dose de radioactivité au niveau des doigts lorsqu’ils y sont exposés, sont composées d’un détecteur  lui-même composé d’une pastille de fluorure de lithium. Lorsqu’un phénomène de radioactivité a lieu, la pastille est chauffée et émet une lumière proportionnelle à l’exposition au rayonnement. Il existe aussi un dosimètre cristallin appelé “DOSIRIS” que l’on positionne à droite ou à gauche de l'œil grâce à un serre-tête et qui est exposé aux rayonnements. Ce dispositif est surtout utilisé dans le domaine médical par les professionnels, souvent exposés aux rayonnements. Ces dosimètres thermoluminescent donnent une mesure précise du rayonnement.

En conclusion, les dispositifs inventés dans le domaine de la radioprotection sont de plus en plus ingénieux et novateurs. Sachant que le nucléaire est de plus en plus utilisé dans plusieurs secteurs de la société et connaît une forte extension, même si fortement controversée, on ne peut pas nier qu'elle est au cœur des enjeux actuels et futurs. Il est donc primordial de renforcer les mesures de sécurité pour protéger la santé des individus, en particulier dans des pays comme la France, où cette industrie occupe une place stratégique.


Rédigé par Rayan Indari; Noham Fernandez; Jean-Michel Marette

Sources:


(1)https://www.irsn.fr/savoir-comprendre/dialogue-pedagogie/quest-ce-quun-rayonnement-ionisant


(2)https://www.asn.fr/l-asn-reglemente/la-reglementation/le-cadre-general-de-la-legislation-et-de-la-reglementation-des-activites-nucleaires#:~:text=La%20limite%20de%20dose%20efficace,et%20%C3%A0%2050%20mSv%2Fan.



(3)https://laradioactivite.com/articles/laboratoire/compteurs_geiger


(4)https://laradioactivite.com/articles/questionsdoses/dosimetresthermoluminescents


(5)https://laradioactivite.r.in2p3.fr/wp-content/uploads/2020/12/Dosimetres_TLD.jpg (source de l’image)




 

March 17, 2025

LA COULEUR DES PAPILLONS

Qui ne s’est jamais attarder sur l’éclat d’un papillon ? Les couleurs splendides et les motifs presque symétriques de leurs ailes semblent parfois même refléter la lumière du soleil. Les couleurs de ces petits insectes sont en réalité bien plus qu’un attrait esthétique, il s’agit de tout un mode de vie, représentant l’évolution d’une population. En effet, le papillon, petit animal qui se situe en bas de la chaîne alimentaire, est la proie de nombreuses espèces. La couleur de ses ailes devient alors son plus grand mécanisme de défense pour survivre dans son environnement. Elles lui permettent de se camoufler ou d’effrayer ses prédateurs. Par exemple, le papillon peut faire croire qu’il est dangereux en adaptant des couleurs caractéristiques d’autres espèces plus toxiques. Cet insecte délicat est aussi soumis à une sélection sexuelle non négligeable, cherchant à assurer la survie de l’espèce en choisissant le partenaire idéal pour subsister dans son écosystème. Notamment chez les Morphos (papillons d’un bleu ardent), les femelles choisiront comme partenaire les mâles donc la couleur ressort le plus, car cela implique une bonne santé de l’insecte. 

Ces couleurs très variées proviennent à la fois d’un jeu de lumière et de la composition interne des ailes. Intéressons-nous-y :

La couleur, sous toutes ses formes, constitue un phénomène universel présent dans la nature. En effet, on la retrouve dans la plupart des êtres vivants, de la couleur des fleurs qui attire les pollinisateurs, aux nuances des plumages d'oiseaux. D’abord, on pourrait différencier la couleur comme capacité à produire des couleurs et les couleurs caractérisant une espèce. La capacité à produire des couleurs est universelle et a donc une origine commune pour toutes les espèces. Parler d’une origine commune, c’est parler de ce qui constitue tous les êtres vivants : le code génétique. Les couleurs produites résultent de l'expression de ce code, une expression qui résulte en la synthèse de pigments. La lumière est une onde, les pigments sont des éléments qui  absorbent certaines longueurs d'onde de la lumière et en réfléchissent d'autres : alors la couleur résulte de la capacité des objets à absorber certaines longueurs d’ondes. 

Alors d'où vient la biodiversité de couleurs ? Elle peut alors trouver son origine dans la structure même des pigments. Des structures différentes de pigments induisent une capacité d’absorption différentes. Par exemple, Un pigment a cycle aromatique aura une absorbance différente d’un pigment avec cycle et un hétéroatome (atome n’étant pas un hydrogène ou un carbone). En effet, pour un cycle qui est un agencement de liaison simple avec présence de liaison multiple, un pigment avec cycle aromatique aura une absorbance spécifique due à la délocalisation des électrons des liaisons π. Avec un hétéroatome, le nuage électronique est modifié changeant la géométrie de la molécule et donc changeant son absorbance. Alors à la manière de la mélanine chez les humains ou de la chlorophylle chez les végétaux, ces mêmes pigments déterminent la couleur des êtres vivants. 

D’un point de vue entomologique, soit dans l’étude des insectes, caractériser la couleur comme capacité commune de produire de la couleur, c’est souligner son importance dans la survie des espèces. Étudier la couleur des papillons revient à se questionner sur l’application de la couleur comme facteur de survie d’espèce et de biodiversité. En effet, affirmer l’origine commune de la couleur c’est se questionner sur l’origine de la biodiversité des couleurs des ailes des papillons. Les ailes de papillons sont recouvertes d'écailles. Leur couleur se résume en l’expression de différents pigments, à différentes intensités. Sachant que chacune des écailles représente un pigment d’une intensité unique, la couleur des ailes est la juxtaposition de ces écailles, à la manière d’une mosaïque. On parle alors de mélanine (brun), de caroténoïde (rouge, orange) ou encore de ptérines ( jaune pâle) comme pigments. Dans l’exemple de la thermorégulation : les couleurs sombres absorbent plus la chaleur, indiquant que la couleur joue un rôle dans la vie et la survie de l’espèce. De même que la couleur joue un rôle stratégique dans la prédation, la couleur reste avant tout une question de point de vue.



La couleur structurelle, notamment l'iridescence, représente un phénomène particulièrement intrigant. Ce phénomène nous montre que la couleur que l’on perçoit dépend du point de vue, littéralement. C’est lié aux interactions entre les ondes lumineuses, comme l’interférence et la diffraction. En effet, la diffraction est la déviation des ondes, comme la lumière, lorsqu'elles rencontrent un obstacle ou traversent une ouverture, créant des motifs d'interférence caractéristiques. Par ailleurs, l’interférence est le croisement de deux vagues de lumière: certaines longueurs d'onde vont alors s’additionner (et donner une couleur), tandis que d'autres vont s’annuler, créant des changements de couleurs selon l'angle. On voit ça dans des phénomènes tout simples, comme les bulles de savon ! Quand la lumière se reflète sur leur surface et traverse la membrane, elle crée toute une palette de couleurs qui change selon le regard.

C'est pareil pour les ailes de papillons. Leurs ailes ayant une structure microscopique parfaitement bien organisée, assurent des effets d’interférence. Elles sont composées de plusieurs couches d’écailles disposées à des hauteurs et orientations précises, qui réfléchissent certaines longueurs d'onde et bloquent d'autres, ce qui donne des couleurs éclatantes et changeantes selon l'angle sous lequel on les regarde.

De plus, l'angle de la lumière et celui de l’observateur jouent un rôle essentiel dans ce qu’on perçoit. Et oui, les ailes de papillons sont souvent hydrophobes (elles repoussent l'eau). Cela permet aux ailes de garder leur structure intacte, permettant de mieux réfléchir la lumière pour intensifier l’effet iridescent.

Par ailleurs, l’humidité et la température influencent aussi l'apparence des couleurs. Les couleurs claires, qui reflètent plus la lumière, sont associées à des températures plus basses, alors que les couleurs sombres absorbent plus de lumière et retiennent mieux la chaleur : un atout précieux pour que les papillons s'adaptent à leur environnement.

Enfin, certaines écailles des papillons fonctionnent comme des cristaux photoniques. Ces structures complexes manipulent la lumière en bloquant certaines longueurs d’onde tout en laissant passer d’autres. Cela crée des couleurs éclatantes et des reflets particuliers qui ne proviennent pas de pigments, mais directement de la façon dont la lumière interagit avec ces structures. En bref, ces écailles donnent aux papillons des couleurs vives et changeantes selon l’angle de vue.

La couleur des ailes ne vient donc pas uniquement des pigments, elle résulte également de phénomènes physiques qui modifient la façon dont la lumière se reflète, offrant un panel de couleurs.

Ainsi, le papillon est un parfait exemple d’application de la couleur, acteur majeur de son mécanisme de défense assurant sa survie, tant d’un point de vue biologique que physique. Cet insecte délicat, symbole de la magnificence que procure la symbiose de la physique et de la chimie, est également une source de technologies époustouflantes à l’origine de nombreuses découvertes et innovations technologiques développées par biomimétisme.

Blog écrit par : 

Sources : Aysenur ALTINTAS, Lamya EL HADDOUCHI, Amel MESSAOUDI, Nariman ZITOUNI

https://www.saint-quentin.fr/108-musee-papillons.htm 

https://sciences.sorbonne-universite.fr/actualites/dou-viennent-les-merveilleuses-couleurs-des-papillons 

https://blog.jove.com/video/natures-most-beautiful-optical-illusion-butterfly-wings 

https://blog.3bee.com/fr/parce-que-les-papillons-sont-colores/

https://esprit-papillon.com/blogs/papillon/papillon-couleur#:~:text=Elle%20provient%20des%20pigments%20qui,que%20chez%20nous%2C%20les%20humains. 

https://www.bioxegy.com/post/papillon-morpho-et-biomimétisme




January 13, 2025

La supraconductivité et le projet ITER

Lors de la création d’un champ magnétique puissant, il est nécessaire de faire passer un courant électrique dans les matériaux conducteurs. Cependant, ce processus présente un problème majeur : la résistance électrique. Lorsque le courant traverse un conducteur, les électrons en mouvement entrent en collision avec les atomes du matériau, qui vibrent naturellement. Ces collisions provoquent une perte d’énergie sous forme de chaleur. Dans un champ magnétique, une force appelée force de Lorentz agit sur les électrons en mouvement, perpendiculairement à leur direction.Cette force dévie la trajectoire des électrons en une courbe, souvent hélicoïdale (en forme de spirale), les forçant à parcourir une distance plus longue dans le matériau. Ceci entraîne un plus grand nombre de collisions et donc une plus grande perte d’énergie sous forme de chaleur.

Toutefois, il est possible d'annuler cette résistance électrique. En 1911, le physicien néerlandais Heike Kamerlingh Onnes a découvert que, lorsque certains matériaux sont refroidis à des températures extrêmement basses (de l'ordre de -270°C), la résistance électrique disparaît, éliminant ainsi les pertes d’énergie. À ces températures, les atomes vibrent moins, réduisant les collisions avec les électrons. Moins perturbés, ces électrons peuvent s'associer par paires, grâce à des interactions avec le réseau cristallin du conducteur. Ces paires, appelées paires de Cooper, sont plus stables et peuvent se déplacer dans le champ magnétique sans collision avec les atomes. Ainsi, il n’y a pas de perte d’énergie. Les forces de Lorentz s’appliquent toujours, mais les électrons rencontrent moins de vibrations atomiques, leur mouvement est donc moins perturbé. Ces matériaux qui n’opposent quasiment aucune résistance au passage du courant électrique sont appelés matériaux  supraconducteurs comme le mercure qui est le premier à avoir été découvert, le niobium ou encore le plomb. La supraconductivité permet ainsi de produire un champ magnétique sans perte d’énergie, ce qui est crucial pour des applications comme la fusion nucléaire, notamment dans le projet ITER.

Le projet ITER (International Thermonuclear Experimental Reactor) est un Tokamak, une machine conçue pour réaliser des réactions de fusion nucléaire. Ces réactions ont lieu dans un plasma chauffé à 150 millions de degrés Celsius, soit dix fois la température du cœur du Soleil. À de telles températures, il est impossible de confiner le plasma dans un matériau solide, car celui-ci fondrait instantanément. C’est pourquoi des champs magnétiques puissants sont utilisés pour maintenir le plasma confiné, sans contact direct avec les parois du réacteur.

Cependant, étant donné la taille massive des électroaimants (24 mètres de diamètre pour le plus grand aimant toroïdal (à rappeler qu’un aimant de forme toroïdal correspond à un aimant dont la surface géométrique est engendrée par la révolution d’un cercle), et 14 mètres de hauteur pour les 18 aimants verticaux), la quantité d’énergie nécessaire pour les alimenter rendrait l’opération non rentable. Si les aimants d’ITER étaient en cuivre, il faudrait l'équivalent d'une centrale nucléaire (environ 800 MW) pour les alimenter, ce qui en deviendrait problématique. De plus, la résistance électrique de ces aimants entraînerait l’échauffement des conducteurs, pouvant les faire fondre.

La solution réside dans l’utilisation de la supraconductivité. De cette manière, il n’y a que très peu de perte d’énergie, et moins d’énergie est nécessaire pour alimenter les aimants. En effet, seuls 20 MW sont nécessaires pour alimenter les aimants supraconducteurs d'ITER, dont la majorité est consacrée au système de refroidissement (loin des 800 MW requis pour des aimants en cuivre).

Les aimants d’ITER sont principalement constitués de niobium-titane, un alliage supraconducteur qui permet de conduire le courant sans perte d’énergie à basse température. Ces aimants doivent être refroidis à -269°C, grâce à un type de câble supraconducteur inédit : le « câble-en-conduit », où les brins supraconducteurs sont enfermés dans une gaine d’acier, avec un fluide de refroidissement circulant à l’intérieur. Le fluide utilisé est de l’hélium superfluide, un liquide capable de s’écouler sans viscosité à des températures extrêmement basses, offrant plusieurs avantages : il reste liquide contrairement à l’eau qui gèlerait, et ses propriétés superfluides permettent de transférer la chaleur de manière efficace. L’hélium superfluide est produit directement sur le site d’ITER, à Cadarache, dans une usine cryogénique spécialisée.

Pour éviter le transfert de chaleur entre le plasma et les aimants, plusieurs systèmes sont mis en place : des boucliers thermiques, une isolation avancée composée de plusieurs couches de matériaux isolants créant un vide thermique, et la conception d’un cryostat, une enceinte conçue pour maintenir un environnement ultra-froid tout en étant exposée à des températures élevées à l’intérieur. 

La supraconductivité est donc essentielle à un projet comme ITER, sans quoi il n'aurait probablement jamais vu le jour.

Blog écrit par: Emmy LAURENT, Audrey FERREUX et Anna GEERTS

Sources :               
  • site officiel projet ITER https://www.iter.org/fr/en-quelques-mots
  • Youtube : “Fusion nucléaire, les promesses d’une énergie” Arte
  • Youtube : “Le projet ITER : la fusion nucléaire, l’énergie du futur ?” Balade Mentale 
  • Youtube : “[Comment ça marche] Qu’est-ce que la supraconductivité ?” CEA
  • Youtube : “C'est quoi la supraconductivité ?” esprit sorcier
  • Youtube : “La fusion nucléaire, l’énergie du futur”  tf1 info
  • site ITER https://www.iter.org/fr/machine/aimants
  • article culture sciences de l'ingénieur Paris Saclay “les supraconducteurs ces matériaux fascinants”