March 17, 2025

LA COULEUR DES PAPILLONS

Qui ne s’est jamais attarder sur l’éclat d’un papillon ? Les couleurs splendides et les motifs presque symétriques de leurs ailes semblent parfois même refléter la lumière du soleil. Les couleurs de ces petits insectes sont en réalité bien plus qu’un attrait esthétique, il s’agit de tout un mode de vie, représentant l’évolution d’une population. En effet, le papillon, petit animal qui se situe en bas de la chaîne alimentaire, est la proie de nombreuses espèces. La couleur de ses ailes devient alors son plus grand mécanisme de défense pour survivre dans son environnement. Elles lui permettent de se camoufler ou d’effrayer ses prédateurs. Par exemple, le papillon peut faire croire qu’il est dangereux en adaptant des couleurs caractéristiques d’autres espèces plus toxiques. Cet insecte délicat est aussi soumis à une sélection sexuelle non négligeable, cherchant à assurer la survie de l’espèce en choisissant le partenaire idéal pour subsister dans son écosystème. Notamment chez les Morphos (papillons d’un bleu ardent), les femelles choisiront comme partenaire les mâles donc la couleur ressort le plus, car cela implique une bonne santé de l’insecte. 

Ces couleurs très variées proviennent à la fois d’un jeu de lumière et de la composition interne des ailes. Intéressons-nous-y :

La couleur, sous toutes ses formes, constitue un phénomène universel présent dans la nature. En effet, on la retrouve dans la plupart des êtres vivants, de la couleur des fleurs qui attire les pollinisateurs, aux nuances des plumages d'oiseaux. D’abord, on pourrait différencier la couleur comme capacité à produire des couleurs et les couleurs caractérisant une espèce. La capacité à produire des couleurs est universelle et a donc une origine commune pour toutes les espèces. Parler d’une origine commune, c’est parler de ce qui constitue tous les êtres vivants : le code génétique. Les couleurs produites résultent de l'expression de ce code, une expression qui résulte en la synthèse de pigments. La lumière est une onde, les pigments sont des éléments qui  absorbent certaines longueurs d'onde de la lumière et en réfléchissent d'autres : alors la couleur résulte de la capacité des objets à absorber certaines longueurs d’ondes. 

Alors d'où vient la biodiversité de couleurs ? Elle peut alors trouver son origine dans la structure même des pigments. Des structures différentes de pigments induisent une capacité d’absorption différentes. Par exemple, Un pigment a cycle aromatique aura une absorbance différente d’un pigment avec cycle et un hétéroatome (atome n’étant pas un hydrogène ou un carbone). En effet, pour un cycle qui est un agencement de liaison simple avec présence de liaison multiple, un pigment avec cycle aromatique aura une absorbance spécifique due à la délocalisation des électrons des liaisons π. Avec un hétéroatome, le nuage électronique est modifié changeant la géométrie de la molécule et donc changeant son absorbance. Alors à la manière de la mélanine chez les humains ou de la chlorophylle chez les végétaux, ces mêmes pigments déterminent la couleur des êtres vivants. 

D’un point de vue entomologique, soit dans l’étude des insectes, caractériser la couleur comme capacité commune de produire de la couleur, c’est souligner son importance dans la survie des espèces. Étudier la couleur des papillons revient à se questionner sur l’application de la couleur comme facteur de survie d’espèce et de biodiversité. En effet, affirmer l’origine commune de la couleur c’est se questionner sur l’origine de la biodiversité des couleurs des ailes des papillons. Les ailes de papillons sont recouvertes d'écailles. Leur couleur se résume en l’expression de différents pigments, à différentes intensités. Sachant que chacune des écailles représente un pigment d’une intensité unique, la couleur des ailes est la juxtaposition de ces écailles, à la manière d’une mosaïque. On parle alors de mélanine (brun), de caroténoïde (rouge, orange) ou encore de ptérines ( jaune pâle) comme pigments. Dans l’exemple de la thermorégulation : les couleurs sombres absorbent plus la chaleur, indiquant que la couleur joue un rôle dans la vie et la survie de l’espèce. De même que la couleur joue un rôle stratégique dans la prédation, la couleur reste avant tout une question de point de vue.



La couleur structurelle, notamment l'iridescence, représente un phénomène particulièrement intrigant. Ce phénomène nous montre que la couleur que l’on perçoit dépend du point de vue, littéralement. C’est lié aux interactions entre les ondes lumineuses, comme l’interférence et la diffraction. En effet, la diffraction est la déviation des ondes, comme la lumière, lorsqu'elles rencontrent un obstacle ou traversent une ouverture, créant des motifs d'interférence caractéristiques. Par ailleurs, l’interférence est le croisement de deux vagues de lumière: certaines longueurs d'onde vont alors s’additionner (et donner une couleur), tandis que d'autres vont s’annuler, créant des changements de couleurs selon l'angle. On voit ça dans des phénomènes tout simples, comme les bulles de savon ! Quand la lumière se reflète sur leur surface et traverse la membrane, elle crée toute une palette de couleurs qui change selon le regard.

C'est pareil pour les ailes de papillons. Leurs ailes ayant une structure microscopique parfaitement bien organisée, assurent des effets d’interférence. Elles sont composées de plusieurs couches d’écailles disposées à des hauteurs et orientations précises, qui réfléchissent certaines longueurs d'onde et bloquent d'autres, ce qui donne des couleurs éclatantes et changeantes selon l'angle sous lequel on les regarde.

De plus, l'angle de la lumière et celui de l’observateur jouent un rôle essentiel dans ce qu’on perçoit. Et oui, les ailes de papillons sont souvent hydrophobes (elles repoussent l'eau). Cela permet aux ailes de garder leur structure intacte, permettant de mieux réfléchir la lumière pour intensifier l’effet iridescent.

Par ailleurs, l’humidité et la température influencent aussi l'apparence des couleurs. Les couleurs claires, qui reflètent plus la lumière, sont associées à des températures plus basses, alors que les couleurs sombres absorbent plus de lumière et retiennent mieux la chaleur : un atout précieux pour que les papillons s'adaptent à leur environnement.

Enfin, certaines écailles des papillons fonctionnent comme des cristaux photoniques. Ces structures complexes manipulent la lumière en bloquant certaines longueurs d’onde tout en laissant passer d’autres. Cela crée des couleurs éclatantes et des reflets particuliers qui ne proviennent pas de pigments, mais directement de la façon dont la lumière interagit avec ces structures. En bref, ces écailles donnent aux papillons des couleurs vives et changeantes selon l’angle de vue.

La couleur des ailes ne vient donc pas uniquement des pigments, elle résulte également de phénomènes physiques qui modifient la façon dont la lumière se reflète, offrant un panel de couleurs.

Ainsi, le papillon est un parfait exemple d’application de la couleur, acteur majeur de son mécanisme de défense assurant sa survie, tant d’un point de vue biologique que physique. Cet insecte délicat, symbole de la magnificence que procure la symbiose de la physique et de la chimie, est également une source de technologies époustouflantes à l’origine de nombreuses découvertes et innovations technologiques développées par biomimétisme.

Blog écrit par : 

Sources : Aysenur ALTINTAS, Lamya EL HADDOUCHI, Amel MESSAOUDI, Nariman ZITOUNI

https://www.saint-quentin.fr/108-musee-papillons.htm 

https://sciences.sorbonne-universite.fr/actualites/dou-viennent-les-merveilleuses-couleurs-des-papillons 

https://blog.jove.com/video/natures-most-beautiful-optical-illusion-butterfly-wings 

https://blog.3bee.com/fr/parce-que-les-papillons-sont-colores/

https://esprit-papillon.com/blogs/papillon/papillon-couleur#:~:text=Elle%20provient%20des%20pigments%20qui,que%20chez%20nous%2C%20les%20humains. 

https://www.bioxegy.com/post/papillon-morpho-et-biomimétisme




January 13, 2025

La supraconductivité et le projet ITER

Lors de la création d’un champ magnétique puissant, il est nécessaire de faire passer un courant électrique dans les matériaux conducteurs. Cependant, ce processus présente un problème majeur : la résistance électrique. Lorsque le courant traverse un conducteur, les électrons en mouvement entrent en collision avec les atomes du matériau, qui vibrent naturellement. Ces collisions provoquent une perte d’énergie sous forme de chaleur. Dans un champ magnétique, une force appelée force de Lorentz agit sur les électrons en mouvement, perpendiculairement à leur direction.Cette force dévie la trajectoire des électrons en une courbe, souvent hélicoïdale (en forme de spirale), les forçant à parcourir une distance plus longue dans le matériau. Ceci entraîne un plus grand nombre de collisions et donc une plus grande perte d’énergie sous forme de chaleur.

Toutefois, il est possible d'annuler cette résistance électrique. En 1911, le physicien néerlandais Heike Kamerlingh Onnes a découvert que, lorsque certains matériaux sont refroidis à des températures extrêmement basses (de l'ordre de -270°C), la résistance électrique disparaît, éliminant ainsi les pertes d’énergie. À ces températures, les atomes vibrent moins, réduisant les collisions avec les électrons. Moins perturbés, ces électrons peuvent s'associer par paires, grâce à des interactions avec le réseau cristallin du conducteur. Ces paires, appelées paires de Cooper, sont plus stables et peuvent se déplacer dans le champ magnétique sans collision avec les atomes. Ainsi, il n’y a pas de perte d’énergie. Les forces de Lorentz s’appliquent toujours, mais les électrons rencontrent moins de vibrations atomiques, leur mouvement est donc moins perturbé. Ces matériaux qui n’opposent quasiment aucune résistance au passage du courant électrique sont appelés matériaux  supraconducteurs comme le mercure qui est le premier à avoir été découvert, le niobium ou encore le plomb. La supraconductivité permet ainsi de produire un champ magnétique sans perte d’énergie, ce qui est crucial pour des applications comme la fusion nucléaire, notamment dans le projet ITER.

Le projet ITER (International Thermonuclear Experimental Reactor) est un Tokamak, une machine conçue pour réaliser des réactions de fusion nucléaire. Ces réactions ont lieu dans un plasma chauffé à 150 millions de degrés Celsius, soit dix fois la température du cœur du Soleil. À de telles températures, il est impossible de confiner le plasma dans un matériau solide, car celui-ci fondrait instantanément. C’est pourquoi des champs magnétiques puissants sont utilisés pour maintenir le plasma confiné, sans contact direct avec les parois du réacteur.

Cependant, étant donné la taille massive des électroaimants (24 mètres de diamètre pour le plus grand aimant toroïdal (à rappeler qu’un aimant de forme toroïdal correspond à un aimant dont la surface géométrique est engendrée par la révolution d’un cercle), et 14 mètres de hauteur pour les 18 aimants verticaux), la quantité d’énergie nécessaire pour les alimenter rendrait l’opération non rentable. Si les aimants d’ITER étaient en cuivre, il faudrait l'équivalent d'une centrale nucléaire (environ 800 MW) pour les alimenter, ce qui en deviendrait problématique. De plus, la résistance électrique de ces aimants entraînerait l’échauffement des conducteurs, pouvant les faire fondre.

La solution réside dans l’utilisation de la supraconductivité. De cette manière, il n’y a que très peu de perte d’énergie, et moins d’énergie est nécessaire pour alimenter les aimants. En effet, seuls 20 MW sont nécessaires pour alimenter les aimants supraconducteurs d'ITER, dont la majorité est consacrée au système de refroidissement (loin des 800 MW requis pour des aimants en cuivre).

Les aimants d’ITER sont principalement constitués de niobium-titane, un alliage supraconducteur qui permet de conduire le courant sans perte d’énergie à basse température. Ces aimants doivent être refroidis à -269°C, grâce à un type de câble supraconducteur inédit : le « câble-en-conduit », où les brins supraconducteurs sont enfermés dans une gaine d’acier, avec un fluide de refroidissement circulant à l’intérieur. Le fluide utilisé est de l’hélium superfluide, un liquide capable de s’écouler sans viscosité à des températures extrêmement basses, offrant plusieurs avantages : il reste liquide contrairement à l’eau qui gèlerait, et ses propriétés superfluides permettent de transférer la chaleur de manière efficace. L’hélium superfluide est produit directement sur le site d’ITER, à Cadarache, dans une usine cryogénique spécialisée.

Pour éviter le transfert de chaleur entre le plasma et les aimants, plusieurs systèmes sont mis en place : des boucliers thermiques, une isolation avancée composée de plusieurs couches de matériaux isolants créant un vide thermique, et la conception d’un cryostat, une enceinte conçue pour maintenir un environnement ultra-froid tout en étant exposée à des températures élevées à l’intérieur. 

La supraconductivité est donc essentielle à un projet comme ITER, sans quoi il n'aurait probablement jamais vu le jour.

Blog écrit par: Emmy LAURENT, Audrey FERREUX et Anna GEERTS

Sources :               
  • site officiel projet ITER https://www.iter.org/fr/en-quelques-mots
  • Youtube : “Fusion nucléaire, les promesses d’une énergie” Arte
  • Youtube : “Le projet ITER : la fusion nucléaire, l’énergie du futur ?” Balade Mentale 
  • Youtube : “[Comment ça marche] Qu’est-ce que la supraconductivité ?” CEA
  • Youtube : “C'est quoi la supraconductivité ?” esprit sorcier
  • Youtube : “La fusion nucléaire, l’énergie du futur”  tf1 info
  • site ITER https://www.iter.org/fr/machine/aimants
  • article culture sciences de l'ingénieur Paris Saclay “les supraconducteurs ces matériaux fascinants” 

September 24, 2024

Les déchets radioactifs


Pour répondre à nos besoins énergétiques s’accroissants de jours en jours, l’un des moyens de production d’énergie vers laquelle se tournent plusieurs pays est le nucléaire : il répond d’une part à la problématique environnementale (faible émission de CO2) et à celle du rendement. Cependant, l’inconvénient principal du nucléaire sont ses déchets : produire de l’énergie implique la formation de déchets nucléaires, et donc nocifs pour le vivant (dont les humains). Actuellement, la plupart de nos déchets nucléaires sont enfouis sous terre [4] dans des bunkers et caves hermétiques, là où les radiations n’atteindront personne. Nous prenons alors soin de ne pas construire ou creuser près des endroits où nous stockons nos déchets radioactifs. Mais une civilisation postérieure à la nôtre, ne sachant pas qu’il y a des déchets à tels endroits, pourrait se lancer dans des projets de construction à ces endroits et tomber sur les déchets radioactifs en creusant le sol. Cela poserait un risque grave pour la santé des ouvriers et des habitants de cette future civilisation. Comment pouvons-nous donc transmettre l’emplacement des sites d’enfouissements à des post-civilisations qui n’auront ni la même culture ni la même langue que nous ?


Bonne nouvelle, les déchets radioactifs disparaissent avec le temps : c’est ce qu’on appelle la décroissance radioactive. Les atomes radioactifs issus des réactions nucléaires se produisant dans les réacteurs sont instables et se re-stabilisent en émettant des rayons radioactifs nocifs. Les déchets radioactifs ont tous une demi-vie. Soit un temps au bout duquel la moitié des atomes radioactifs se seront re-stabilisés. Nos déchets radioactifs actuels ont soit une demi-vie courte (ces déchets deviennent sûrs au bout de 300 ans) soit une demi-vie longue (ces déchets deviennent sûrs au bout d’environ 105 années, comme le Pu242 [2] [1]). Ce sont ces derniers qui posent problème, car d’après la collapsologie -l’étude très large de la fin de notre civilisation-, il est très probable que notre civilisation s’arrête avant l’inactivité de ces déchets [5], ce qui rend réelle la menace d'un forage au mauvais endroit par une nouvelle civilisation.


La sémiotique nucléaire [4], un champ de recherche dont le seul but est de trouver une manière d’avertir les futurs habitants de la Terre nous a donné plusieurs champs de recherche. Dans le cas d’une transformation douce de la société, les installations de stockage des déchets pourraient s’incorporer à la culture, de telle sorte que l’information du danger que représente les déchets soit transmise de générations en générations [6]. Même si l’humanité régresse en science et connaissance, nous inventerons aisément quelque mythologie pour contraindre le reste de la population à ne pas s’aventurer dans ces endroits. Par exemple, en Europe, les modèles d'avertissement reposent principalement sur l'intégration des installations de stockage des déchets au sein de la société, de telle sorte que les informations sur leur présence puissent être transmises à travers le temps et les âges [6].   


Cependant, dans le cas d’une fin brutale de notre civilisation, il n’y aurait aucune transmission de ce type. Il faut donc réfléchir à des alternatives qui nous permettront de faire passer un message à des civilisations avec lesquelles nous n’auront rien ou presque rien en commun. 

La création de gigantesques monuments effrayants autour de sites radioactifs et un renforcement de la difficulté d’accès au site pourrait être une des voies de transmission de la dangerosité de ces sites. De plus, dans des archives enfouies autour du site et à l’intérieur, on écrirait sur du papier spécial de longue vie (qui n’est pas réellement du papier mais plus un alliage de métaux) un message facilement déchiffrable par des archéologues d’autres langues, sur la dangerosité du site, et qui tiendrait plusieurs dizaines de milliers d’années au mieux. Le principal inconvénient de cette idée est qu’elle pourrait produire l’inverse de l’effet désiré : ces monuments pourraient attirer des archéologues, des explorateurs qui n'attendront pas le déchiffrement de nos indications, ou alors qui les braveront, ou de simples civils faisant de l’urbex [7] (tout cela sachant que le papier de longue vie ne tiendra pas aussi longtemps que la radioactivité des déchets). Un cas similaire s'est déroulé lors de la fouille archéologique des pyramides d’Egypte avec la malédiction du pharaon [8]. De nombreux explorateurs se sont rendus dans le tombeau de Toutânkhamon sans peur et sont morts quelques jours après. Une rumeur de malédiction qui s'abattait sur quiconque oserait profaner le tombeau s'est alors répandue. On sait aujourd’hui que la mort de ces explorateurs est due aux nombreux champignons et bactéries qui avaient proliféré dans la salle humide du tombeau et infecté les explorateurs. Une telle légende de malédiction a de très grandes chances d'apparaître en cas d’exploration des zones de stockage par une civilisation ignorante de la radioactivité. 


Parmi les nombreuses solutions à long terme que la sémiotique nucléaire a trouvé, la suivante a retenu notre attention : parlons chat, parlons radiochats [9]. Le projet fou, proposé par Françoise Bastide et Paolo Fabbri, consisterait à développer une capacité de changement de couleur aux chats lorsque ceux-ci sont dans un milieu assez radioactif pour être nocif en les modifiants génétiquement, puis de créer un folklore autour d’eux qui porterait sur la dangerosité de l’endroit lorsqu’ils changeraient de couleurs. Ces chats seraient alors idéalement relachés en pleine nature (après que l’on se soit assuré de l’indifférence de leur introduction dans ce milieu), ou vendu au départ comme produit marketing de luxe sans doute. Le folklore autour de leur détection s’auto-entretiendrait, et pourra se recréer de lui-même. Il nous manque juste ces radiochats. Nous n’avons pas encore la technologie pour en produire mais cela n’est pas totalement insensé, du moins, aussi insensé que d’avoir fait une boulette en viande de mammouth [10].


En conclusion, la sémiotique nucléaire a pensé à de nombreuses solutions pour prévenir les civilisations futures. Mais aucune de ses solutions n’a encore été mise en place, effectivement les préparations à la fin catastrophique de la civilisation ne sont pas aujourd’hui nos priorités.


Pour finir, ce sujet si intéressant mais complexe mérite plus qu’un article de blog pour être expliqué dans les détails. Nous vous invitons à lire nos sources ci-dessous pour plus d’informations sur ce sujet.


Blog écrit par : Cortinovis Basile - Guerrien Antoine - Ben Halima Sassi


  1. caminteresse.fr : article sur les déchets radioactifs

  2. wikipedia.org : les déchets HAVL

  3. vie-publique.fr : le traitement des déchets en france

  4. nationalgeographic.fr : l’enfouissement

  5. wikipedia.org : collapsologie

  6. wikipedia.org : message longue durée de vie

  7. urbex : exploration urbaine

  8. wikipedia.org

  9. The Ray Cat Solution : film documentaire de 14 min sur les radiochats

  10. 20minutes.fr : boulette de viande de mammouth

  11. theconversation.com : pour voir plus loin

September 09, 2024

Le synchrotron SOLEIL

 

Synchrotron SOLEIL, CEA Paris-Saclay, 91190 Saint-Aubin


Cet article est associé à un entretien avec  Muriel Thomasset, ingénieure sur le synchrotron SOLEIL au C2N. link

En quoi le synchrotron fait-il avancer la recherche scientifique? Dans Star Wars, Episode IV, le personnage de Han Solo explique au héros Luke la vitesse lumière, une innovation qui permet de voyager à la vitesse de la lumière à travers l’espace. Aujourd’hui, tout le monde sait que c’est impossible, mais l’est-ce vraiment ? Oui et non. Oui d’abord, car on ne peut pas nous même nous projeter à la vitesse de la lumière. Cependant, on peut envoyer des particules à des vitesses très proches de celles de la lumière. Et ça, c’est grâce au synchrotron ! Le synchrotron… En entendant ce mot, tout le monde n’aura pas les mêmes images dans la tête. Certains entendront un mot bizarre, d’autres auront vaguement l’idée d’une obscure machine scientifique dont ils auraient entendu parler grâce à un prof de Physique-Chimie un peu trop optimiste, et d’autres, enfin, auront dans la tête des dessins colorés, et un grand combat mêlant les différents variants multiversels du meilleur super héros (Spider-Man : Into the Spiderverse… que de souvenirs !). Mais ce n’est pas vraiment de ça dont on va parler ici. Le synchrotron n’est ni un mot bizarre, ni une machine obscure, et Wilson Fisk tout comme le Capitaine Kirk n’ont jamais réussi à saisir la subtilité d’une invention tout aussi incroyable qu’utile pour nos chercheurs.

Mais d’abord, c’est quoi, le synchrotron ? D’après Wikipédia (un site certes peu scientifique mais une bonne source d’informations pour commencer les recherches), le synchrotron « est un instrument électromagnétique de grande taille destiné à l’accélération à haute énergie de particules élémentaires ». L’article réservé aux synchrotrons sur le site du Sénat ajoute que “Les synchrotrons sont des grands instruments d’analyse de la matière [...] produisant des rayonnements électromagnétiques de toutes longueurs d’onde”. Un peu compliqué, je vous l’accorde. Bon, pour faire simple, on injecte des protons ou des neutrons, c’est-à-dire des particules minuscules (les composants du noyau des atomes) dans le tube du synchrotron, qui sert d’accélérateur de particules. On leur fait faire des tours du tube en accélérant, un peu comme dans la série The Flash, lorsque Barry court en faisant des tours dans un accélérateur de particules pour atteindre de très grandes vitesses (et voyager dans le temps, ce qui est malheureusement toujours impossible, même avec un synchrotron). Une fois que les particules ont atteint des vitesses avoisinant celle de la lumière, on peut observer leur comportement dans ces conditions particulières. D’éventuelles déformations, l’impact d’une collision entre deux particules, etc... Le but étant de comprendre certaines propriétés de la matière, et ainsi mieux comprendre l’Univers, et notamment sa “naissance”, une partie de l’histoire de l’Univers qu’on ne connaît qu’assez peu.  

 

Alors, à quoi ça sert ? À faire des courses de particules élémentaires ? Même si l’idée a l’air incroyable… pas vraiment… À rien ? Pas vraiment non plus… À observer le comportement de particules à des vitesses proches de celle de la lumière pour mieux comprendre l’organisation de la matière et mieux comprendre l’histoire de l’univers ? Well done, Sherlock ! C’est exactement ça ! En accélérant des particules jusqu’à des vitesses proches de celle de la lumière, on peut en découvrir beaucoup sur le fonctionnement desdites particules et de l’Univers, ce qui est utile pour la physique, la chimie, la biologie, et en allant plus loin à l’histoire et l’archéologie (la datation, ce n’est rien d’autre que de la physique nucléaire, et les noyaux sont faits… de protons et de neutrons !). Le synchrotron est donc loin d’être une machine obscure, c’est un instrument scientifique incroyable ! Et, on en trouve où ? Un peu partout dans le monde, mais ce qui nous intéresse ici, c’est la France, et justement, il y en a plusieurs en France. Il y a quelques semaines, nous avons reçu une ingénieure qui travaillait sur le synchrotron SOLEIL, qui se trouve être en région parisienne. Muriel Thomasset est une ingénieure travaillant sur le synchrotron SOLEIL pour le C2N (Université Paris-Saclay) et qui a travaillé pendant 23 ans sur les synchrotrons français. C’est notamment cette interview réalisée avec elle qui nous a servi de source principale dans la rédaction de cet article de blog.


Et voilà, vous savez maintenant ce qu’est un synchrotron, à quoi ça sert, et même où en trouver. Il ne vous reste plus qu’à devenir ingénieur pour travailler avec Muriel Thomasset sur le synchrotron SOLEIL ! Et si vous l’êtes déjà, et bien félicitations ! À la revoyure !

Auteurs du blog : FIQUET Lucien, MEIMOUN Samuel, OLAGNIER Nans

Sources :

Muriel Thomasset, ingénieure sur le synchrotron SOLEIL au C2N

https://fr.wikipedia.org/wiki/Synchrotron

https://www.senat.fr/rap/r99-273/r99-2732.html#:~:text=Les%20synchrotrons%20sont%20des%20grands,coûts%20de%20mise%20en%20oeuvre.

https://www.synchrotron-soleil.fr/fr

 


June 12, 2024

Les débris spatiaux : danger ou nuisance ?

 `

« L’espace, la dernière frontière » mais pas pour très longtemps… L’humanité a toujours été curieuse de savoir ce qu’on trouve au-delà des confins de notre planète et cette curiosité est devenue encore plus intense avec le début de l’ère spatiale en 1957. Neil Armstrong, Michael Collins ou bien Buzz Aldrin sont des noms que vous connaissez certainement : les astronautes de la mythique mission Apollo 11. Mais depuis cette époque qu’est ce qui a changé ?

Au fil du temps, grâce aux progrès technologiques nous inventons de nouvelles fusées pour explorer et découvrir toujours plus, créons l’ISS et allons jusqu'à mener des vols spatiaux privés… Avec celà, nous avons aussi remarqué le début du réchauffement climatique et ses effets sur l'environnement et l'être humain, la croissance vertigineuse des débris spatiaux qui posent aujourd'hui d'importants problèmes de sécurité, non pas seulement pour les astronautes sur l’ISS mais aussi pour tous les satellites humain qui permettent de maintenir la société actuelle et menace le futur des déplacements en orbite de la Terre. Existe-t-il encore une porte d'action qui résoudra le problème ou alors, assistons-nous déjà à la fin de l’exploration spatiale avant même de l'avoir réellement commencée ? 

On entend souvent parler de débris spatiaux comme terme général, mais en réalité ils peuvent être une infinité d’objets et de toutes tailles : étages de fusées, lanceurs, satellites inactifs, boulons, outils perdus par les astronautes… et qui transforment l’orbite de la terre en dépotoir spatial. Ces débris se trouvent essentiellement dans deux régions de l’orbite terrestre: l’orbite basse, située jusqu’à 2000 km d’altitude, où se trouvent principalement les satellites de météorologie ou bien d’imagerie terrestre, mais aussi l’ISS. L’orbite géostationnaire est située à 36.000 km d’altitude, elle abrite quant à elle des satellites militaires ou de télécommunications. Ces déchets principalement issus des fragmentations lors d’une explosion ou collision se sont accumulés aujourd’hui dans des proportions inquiétantes. L’Agence Spatiale Européenne (ESA) estime le nombre d'objets de plus de 10 cm à environ 36.000, jusqu’à 1 million pour ceux entre 1 et 10 cm et 130 millions pour ceux de moins de 1 cm. 

Ce nombre important de débris fait planer sur les satellites encore en activité, mais aussi sur les missions spatiales, une menace. Menace qui en plus dû en grande partie à leurs vitesses élevées (d’environ 42.000 km/h), rendant la collision catastrophique.  Cette pollution, mise en évidence en 1978, par l’astrophysicien américain Donald J. Kessler, qui théorise son syndrome : la collision entre deux débris va auto-entretenir leurs propulsions (principalement à cause du peu de frottement avec l’air dans l’orbite géostationnaire et raréfié dans l’orbite basse) à un rythme encore plus élevé que celui de leurs éliminations. Ce que veut dire en d’autre mots, qu’un effet domino se crée, un cercle vicieux ou un débris en entraîne 10 autres et ainsi de suite…

Jusqu'ici, nous abordons une “menace” mais concrètement, à quoi correspond-t-elle ? Le premier danger est surtout pour les satellites directement. La plupart d’entre eux n’ont pas un blindage capable d’éviter la destruction d’un impact à plus de 40 000 km/h d’objets de 10 cm. L’exemple le plus classique est l’incident du satellite militaire Cerise qui explosa en rencontrant un morceau vieux de 10 ans d’une fusée Ariane se déplaçant à plus de 50 000 km/h. Cet exemple est le premier d’une liste de plus en plus importante, nous rappelons que chaque collision fait émerger de nouveaux débris.

L’ISS est actuellement l’un des satellites les plus importants pour l’humain actuel, ce dernier et les astronomes à son bord sont particulièrement exposés à ce problème : le blindage de la station ne résiste pas aux déchets de plus de 2 cm et seul les débris de 10 cm ou plus sont détectable via radar terrestre. Si une collision d'ampleur venait à se réaliser sur l’ISS, la perte serait non seulement particulièrement grave pour le bilan scientifique, économique et humain mais la création de débris provenant de l’ISS serait dangereuse aussi bien pour plus de satellites que pour des humains sur Terre. A cause de cela, chaque année la station se doit de modifier sa trajectoire afin d’éviter de potentiels impacts. Le danger qu’un accident mortel lié à la chute d’un satellite paraît bien faible mais le risque est réel, une étude de juillet 2022 menée par l’ESA donnerait 10% de chance dans les dix prochaines années. 

Un autre achoppement est l’obstruction du champ de vision de l’espace depuis la Terre. Avec la pollution lumineuse, les observations astronomiques qui ne passent pas par un satellite mais un télescope risquent d’être de plus en plus gênées par les déchets et fausser les études. Cette occupation de plus en plus importante des orbites pourrait même empêcher l’accès à certaines strates de celle-ci.        

Pour conclure, on peut remarquer que la volonté toujours grandissante de l’Homme à vouloir satisfaire sa curiosité, en explorant le monde spatial ou terrestre, s’accompagne d’une quantité grandissante de déchets. Déchets qui malgré leur taille représentent un menace pour les instruments et les missions spatiales dû, en grande partie, à leurs vitesses pharaoniques et leur nombre. 

Auteurs du blog : Vlad-Stefan SERBANESCU, Gabriel WERNAIN, Leonard Penot  


Sources : 


Image : By NASA - NASA Photo ID: STS088-724-66, Public Domain, https://commons.wikimedia.org/w/index.php?curid=48688902


May 31, 2024

Du graphène dans nos batteries

 


Organisation en “nid “d’abeille” des atomes de carbone dans le graphène

https://upload.wikimedia.org/wikipedia/commons/1/10/Graphene.svg


La production et consommation d’énergie est de nos jours aux cœurs des débats, en lien avec des problématiques aussi bien économiques qu’environnementales, à toutes les échelles. C’est ainsi que nous avons assisté à l’essor des batteries électriques, qui sont désormais présentes dans la majorité de nos objets du quotidien à travers les nouvelles technologies, de nos appareils ménagers jusque dans nos voitures. 


Les batteries lithium-ion notamment sont très répandues sur le marché des appareils électroniques de par leurs nombreuses qualités ; c’est à ce type de batteries que nous nous intéresserons ici. Plusieurs matériaux peuvent être utilisés dans les anodes et cathodes, mais leur fonctionnement général reste identique : une réaction d'oxydoréduction entre le lithium et un autre solide permet un transfert d’ions Li+ et d’électrons, ce qui crée un courant électrique. Ces batteries sont légères et disposent d’une bonne autonomie ainsi que d’une charge rapide dues à la grande densité énergétique du lithium, soit la capacité à stocker beaucoup d’énergie dans un petit volume. 


Une amélioration constante des performances est toutefois recherchée et d'autres types de batteries, potentielles solutions à grande échelle, continuent d’émerger. C’est là qu'entrent en jeu les batteries au graphène. Encore en voie de développement, elles pourraient révolutionner l'efficacité de nos batteries. Mais alors, qu’est ce que le graphène ?


Le graphène est un nanomatériau bidimensionnel formé d’une unique couche d’atomes de carbone organisés en réseau hexagonal (nid d’abeille). Le carbone est allotropique : il se présente sous différentes structures cristallines à l’état solide. Ces formes, appelées allotropes, sont le graphite et le diamant notamment, mais aussi le graphène, qui possède donc une structure différente des deux matériaux précédents puisque uniquement bidimensionnelle. 



L'empilement du graphène donne le graphite : c’est la définition théorique donnée en 1947 par le physicien P. R. Wallace. Néanmoins, il fallut attendre jusqu’en 2004 pour isoler le graphène, soit séparer les couches d’atomes de carbone composant le graphite. Andre Geim et Konstantin Novoselov reçurent le prix Nobel en 2010 pour cette découverte. Les scientifiques étudient ce matériau depuis plusieurs années, et il se répand désormais lentement sur les marchés industriels grâce à ses propriétés intéressantes à exploiter. Le graphène serait en effet utile pour optimiser les performances des batteries, en augmentant par exemple leur cycle de vie grâce à son excellente conductivité à la fois électrique et thermique. 


Il est possible d’ajouter du graphène dans les anodes, cathodes, ou encore séparateurs afin d’obtenir de telles améliorations. De plus, le graphène est le matériau le plus fin connu de l’homme. Lorsqu'on en ajoute, le volume n’augmente que très peu, ce qui est idéal pour augmenter la densité énergétique. Son caractère hydrophobe peut aussi servir de couche de protection imperméable pour les batteries. Néanmoins, les composants des électrodes doivent respecter plusieurs conditions comme fonctionner sous une certaine tension pour permettre le mouvement des ions Li+ et conserver une structure stable après des centaines de cycles de charge. La sélection des matériaux est donc limitée. C’est pourquoi le graphène n’est pas étudié comme potentiel composant actif des batteries lithium-ion, mais comme matériau à incorporer dans les composants déjà présents, pour constituer ce qu’on appelle des composites en graphène. Cela permettrait d’utiliser des matériaux autrefois non adaptés aux batteries en changeant leurs propriétés, ou simplement d’améliorer les performances des batteries aux compositions déjà établies. Dans le cas de l’anode par exemple, utiliser du silicium permettrait en théorie une autonomie dix fois supérieure car il absorbe dix fois plus d’ions lithium que le graphite des anodes actuelles. Cependant, il quadruple de volume lors de la charge à cause de la dilatation thermique. La batterie ne tiendrait donc que quelques cycles avant que l’anode ne soit complètement fissurée par les dilatations et contractions répétées. Une des solutions trouvées serait d’utiliser une anode constituée de petites billes de silicium (100 nanomètres de diamètre) plutôt qu'un bloc solide. Seulement, le silicium étant un semi conducteur, il faut le recouvrir d’un matériau conducteur compatible avec les contraintes mécaniques de la dilatation. Là encore le graphène est tout trouvé : il est extrêmement résistant et sa très bonne conductivité thermique permet aussi de réduire le système de refroidissement, et par extension le volume total de la batterie, ce qui rend alors possible l’existence de batteries au silicium. 


Il existe plusieurs manières de synthétiser ces composites, mais elles présentent certains inconvénients. La méthode de dépôt chimique en phase vapeur permet d’obtenir un composite en graphène de grande qualité en incorporant une couche de graphène entre chaque couche de l’autre matériau. Mais non seulement coûteuse, cette méthode n’est pas adaptée ici car elle permet d’obtenir une structure en mille feuilles solide tandis que l’on utilise des poudres dans les batteries (plus petit volume). Une autre méthode consiste simplement à mélanger des fragments de graphène avec l’autre matériau. Son défaut principal est que la structure obtenue est très hétérogène, le composite n’est alors pas de grande qualité et ses performances ne sont donc pas vraiment optimisées. Malgré ses inconvénients, c’est cette technique qui semble la plus adaptée à grande échelle car elle est la moins coûteuse en permettant d’utiliser directement de la poudre de graphite, alors fragmentée en graphène pour procéder à la synthèse des composites.


Différentes méthodes de synthèse des composites en graphène à partir de graphite

https://www.mdpi.com/2311-5629/7/3/65


À l'heure actuelle, les batteries lithium-ion au graphène ont déjà fait leur preuve. En permettant notamment l’utilisation du silicium, les nouvelles générations de ces batterie ont atteint 972 W.h/L de densité énergétique lors du premier cycle, soit 1.8 fois plus élevée que celles actuellement commercialisées. 


En conclusion, les batteries au graphène pourraient révolutionner l’électronique en créant notamment des batteries plus performantes, impactant alors le quotidien de tous avec des appareils de meilleure autonomie par exemple. Certains produits au graphène sont déjà disponibles sur le marché, mais le coût des différentes méthodes de production des composites de graphène, ainsi que l’impossibilité actuelle d’obtenir un matériau de haute qualité à grande échelle restent des limites majeures pour ce nouveau type de batteries. 


Auteurs du blog : CHEVALLIER Coline, DERGHAL Sarah, TROUDE Thibault


Sources : 

https://lejournal.cnrs.fr/articles/le-graphene-superstar-episode-1

https://www.mdpi.com/2311-5629/7/3/65

https://www.carbon-waters.com/comment-differencier-les-differentes-formes-de-graphene/

https://www.nature.com/articles/ncomms8393

https://www.futura-sciences.com/sciences/actualites/graphene-graphene-ameliorer-batteries-lithium-ion-58920/



May 14, 2024

Solar Orbiter, une avancée technologique

 



Cet article est associé à un entretien avec Pierre Rochus Chercheur en Physique nucléaire et Ingénieur de recherches à FN Moteurs (TechSpace Aero SAFRAN actuellement). link


Le Solar Orbiter représente une avancée technologique extraordinaire dans le domaine de l'astronomie solaire, ayant un impact significatif sur notre compréhension du Soleil et de son influence sur notre système solaire. Lancé en 2020 par l'Agence spatiale européenne (ESA) en collaboration avec la NASA, le Solar Orbiter est une sonde spatiale équipée d'instruments de pointe conçus pour observer le Soleil à une proximité exceptionnelle. Cette incroyable innovation a permis d'acquérir des données inédites sur la couronne solaire, les vents solaires, les éruptions solaires ainsi que le champ magnétique héliosphérique. Les images et les informations collectées par le Solar Orbiter ont ouvert de nouvelles perspectives dans la compréhension des processus complexes qui régissent notre étoile, contribuant ainsi à des avancées majeures dans la modélisation des prévisions météorologiques spatiales et des impacts solaires sur les communications et les technologies terrestres. En révolutionnant notre capacité à étudier le Soleil de près, le Solar Orbiter a profondément transformé notre vision de l'astre solaire et a élargi les frontières de la recherche spatiale.


Dans un premier temps, nous nous intéresserons à l'étude des vents solaires, un phénomène d'une importance cruciale pour notre compréhension du système solaire. Grâce à ses instruments sophistiqués, le Solar Orbiter a la capacité de mesurer directement la vitesse, la composition et les propriétés des vents solaires à une proximité sans précédent du Soleil. Cette capacité inédite offre une perspective inégalée sur les mécanismes de génération et de propagation des vents solaires, fournissant des données essentielles pour élucider les processus complexes à l'origine de ces flux de particules chargées. Comprendre les vents solaires revêt une importance majeure dans la prédiction des conditions météorologiques spatiales, car ces vents peuvent influencer les champs magnétiques planétaires, les communications et les technologies terrestres. Ainsi, le Solar Orbiter élargit nos connaissances sur les vents solaires, contribuant à une meilleure anticipation des phénomènes spatiaux et renforçant notre capacité à gérer les impacts potentiels sur la Terre et les satellites en 

orbite.


Or, vous vous demandez sûrement qu’est ce qu’un vent solaire ? Comment ce phénomène nous permet-il de prédire les conditions météorologiques spatiales ? En quoi l’étude de ce phénomène renforce notre capacité à gérer les impacts potentiels sur la terre ? 


En effet, les vents solaires constituent un phénomène fascinant et crucial dans notre système solaire, résultant de l'éjection constante de particules chargées provenant de la couronne solaire, la couche extérieure de l'atmosphère du Soleil. Composés principalement de protons et d'électrons, ces particules, une fois libérées, se propagent à des vitesses extrêmement élevées, atteignant parfois plusieurs centaines de kilomètres par seconde. Le mécanisme à l'origine de ce phénomène implique des processus complexes de chauffage et d'accélération dans la couronne solaire, générant un flux continu de plasma solaire. Les vents solaires interagissent de manière significative avec les champs magnétiques des planètes du système solaire, modifiant leurs environnements magnétiques et atmosphériques. Ces interactions ont des implications importantes, allant de l'influence sur les aurores à la modulation des atmosphères planétaires. De plus, les vents solaires jouent un rôle crucial dans la création de la queue des comètes, formée lorsque les particules solaires interagissent avec les gaz et les poussières des noyaux cométaires. Comprendre les vents solaires revêt une importance fondamentale pour la recherche spatiale et la compréhension des conditions de l'espace interplanétaire.


 À quoi pourraient donc servir ces vents solaires ?


 Ensemble, elles forment l'héliosphère, une région de l’espace qui peut être représentée comme une sorte de bulle de protection autour du système solaire, avec le soleil en son centre, et ayant un diamètre plusieurs fois plus grand que celui de notre système solaire. Cette région est où l'influence du vent solaire s'arrête, car il entre en collision avec d'autres particules de l'environnement interstellaire et les rayons cosmiques de haute énergie. Ce milieu interstellaire est composé de matière qui remplit l'espace entre les étoiles, notamment de l'hydrogène ionisé ainsi que atomique et moléculaire mais aussi de l'hélium, ainsi que de grains dont la taille varie de la centaine de nanomètres jusqu'au micron.


Sa dynamique n'est alors plus suffisante pour repousser l'hydrogène et l'hélium raréfiés de la Galaxie. Le choc de terminaison est une limite intermédiaire située près de l'héliosphère. L'héliosphère n'est pas statique et varie constamment en raison des variations dans l'activité solaire, des mouvements des planètes et de l'interaction avec le milieu interstellaire. Tout comme la Terre se protège contre les vents solaires néfastes pour elle et son atmosphère, le Soleil est pourvu de l'héliosphère qui le protège contre les rayons interstellaires à haute énergie et les particules de l'environnement interstellaire. Cela forme une première barrière limitant l'érosion de l'atmosphère terrestre, ce qui ferait que la Terre ressemblerait davantage à une planète dépourvue de magnétosphère, comme Vénus ou Mars, si elle n'était pas protégée par cette héliosphère. L'analyse de l'héliosphère est de grande importance afin de comprendre notre environnement spatial et les enjeux pour des futures missions spatiales. Hors de l'héliosphère comme la mission Voyager 1 et 2. 


Intéressons-nous plus à la mission Solar Orbiter, un projet  financé et géré par l’ESA ainsi que la NASA.  Solar Orbiter est un satellite opérationnel qui a pour objectif de réaliser une étude à haute résolution du Soleil et de son héliosphère. Il a été conçu pour résister aux températures extrêmes tout en ayant à son bord des télescopes performants. Cette mission a donc pour objectif de mieux comprendre le comportement imprévisible de l’étoile sur laquelle notre vie dépend. A son point de trajectoire le plus proche du Soleil, le satellite sera sur l’orbite de Mercure ce qui permettra d’avoir de nouvelles données jusqu’alors impossible à obtenir car cette distance entre un satellite et le soleil n’avait jamais été aussi faible. Solar orbiter est donc le premier satellite qui permettra d’avoir une vue sur les régions polaires du soleil, qui sont invisibles ou presque depuis la Terre. Le satellite permettra également d’assister à des tempêtes solaires pendant une plus longue durée que depuis la Terre.

On se demande alors ce qu'apporte cette mission de nouveau aux recherches ? Qu’est-ce qui fait de cette invention un exploit pour le monde de la recherche ?  

Solar Orbiter est 4 fois plus proche du Soleil que nous le sommes et sera donc exposé à 13 fois plus de radiations solaires que nous. Le satellite devra aussi subir des chocs dus aux émissions de particules atomiques émises par les explosions au sein de l’atmosphère solaire. 


Afin de résister à ces différents obstacles Solar orbiter est équipé de nouvelles technologies développées par l’ESA pour la mission BepiColombo telles que des panneaux solaires et antennes résistants aux hautes températures. Les clichés pris par Solar Orbiter permettent de distinguer des détails de 180km de long en sachant que la taille du soleil est de 1,4 million de kilomètres de large. Enfin, Solar Orbiter étant en orbite autour du soleil, il pourra observer la construction des tempêtes solaires puis leurs déroulements pendant plusieurs jours. On peut également s’intéresser au long voyage de ce satellite , celui-ci a décollé en février 2020 et a ensuite voyagé pendant 2 ans avant de trouver son orbite de 180 jours autour du soleil. Pendant ces 2 ans, le vaisseau utilisait la gravité de la Terre et de Vénus pour se stabiliser. 

Sur cette orbite, le satellite atteindra son point le plus proche du soleil tous les 6 mois à 42 millions de kilomètres de celui- ci. Durant sa mission la gravité de Vénus sera utilisée de nouveau afin de régler l’inclinaison du satellite ce qui permettra aux instruments d’observer les régions polaires du soleil à plus de 30 degrés comparé à 7 degrés depuis la Terre. 


En conclusion, le Solar Orbiter représente un exploit remarquable dans le domaine de l'exploration spatiale, ouvrant de nouvelles perspectives sur notre compréhension du Soleil et de son influence sur notre système solaire. Cette invention révolutionnaire a transcendé les frontières de la connaissance, apportant des avancées significatives qui ont profondément impacté notre vision du monde. En scrutant les mystères du Soleil de manière inédite, le Solar Orbiter a contribué à redéfinir notre relation avec l'univers, marquant ainsi une étape majeure dans l'histoire de l'exploration spatiale et laissant un héritage durable pour les générations futures.


Blog écrit par: Leila Lazzem , Wilson Woodhead , Prima Barciet 


Sources: 

https://fr.wikipedia.org/wiki/Solar_Orbiter

https://www.esa.int/Space_in_Member_States/France/Les_premieres_images_de_Solar_Orbiter_devoilent_des_feux_de_camp_sur_le_Soleil

https://fr.wikipedia.org/wiki/Vent_solaire

https://fr.wikipedia.org/wiki/H%C3%A9liosph%C3%A8re

​​https://www.futura-sciences.com/sciences/definitions/univers-heliosphere-3628/

https://science.nasa.gov/heliophysics/focus-areas/heliosphere/