June 12, 2024

Les débris spatiaux : danger ou nuisance ?

 `

« L’espace, la dernière frontière » mais pas pour très longtemps… L’humanité a toujours été curieuse de savoir ce qu’on trouve au-delà des confins de notre planète et cette curiosité est devenue encore plus intense avec le début de l’ère spatiale en 1957. Neil Armstrong, Michael Collins ou bien Buzz Aldrin sont des noms que vous connaissez certainement : les astronautes de la mythique mission Apollo 11. Mais depuis cette époque qu’est ce qui a changé ?

Au fil du temps, grâce aux progrès technologiques nous inventons de nouvelles fusées pour explorer et découvrir toujours plus, créons l’ISS et allons jusqu'à mener des vols spatiaux privés… Avec celà, nous avons aussi remarqué le début du réchauffement climatique et ses effets sur l'environnement et l'être humain, la croissance vertigineuse des débris spatiaux qui posent aujourd'hui d'importants problèmes de sécurité, non pas seulement pour les astronautes sur l’ISS mais aussi pour tous les satellites humain qui permettent de maintenir la société actuelle et menace le futur des déplacements en orbite de la Terre. Existe-t-il encore une porte d'action qui résoudra le problème ou alors, assistons-nous déjà à la fin de l’exploration spatiale avant même de l'avoir réellement commencée ? 

On entend souvent parler de débris spatiaux comme terme général, mais en réalité ils peuvent être une infinité d’objets et de toutes tailles : étages de fusées, lanceurs, satellites inactifs, boulons, outils perdus par les astronautes… et qui transforment l’orbite de la terre en dépotoir spatial. Ces débris se trouvent essentiellement dans deux régions de l’orbite terrestre: l’orbite basse, située jusqu’à 2000 km d’altitude, où se trouvent principalement les satellites de météorologie ou bien d’imagerie terrestre, mais aussi l’ISS. L’orbite géostationnaire est située à 36.000 km d’altitude, elle abrite quant à elle des satellites militaires ou de télécommunications. Ces déchets principalement issus des fragmentations lors d’une explosion ou collision se sont accumulés aujourd’hui dans des proportions inquiétantes. L’Agence Spatiale Européenne (ESA) estime le nombre d'objets de plus de 10 cm à environ 36.000, jusqu’à 1 million pour ceux entre 1 et 10 cm et 130 millions pour ceux de moins de 1 cm. 

Ce nombre important de débris fait planer sur les satellites encore en activité, mais aussi sur les missions spatiales, une menace. Menace qui en plus dû en grande partie à leurs vitesses élevées (d’environ 42.000 km/h), rendant la collision catastrophique.  Cette pollution, mise en évidence en 1978, par l’astrophysicien américain Donald J. Kessler, qui théorise son syndrome : la collision entre deux débris va auto-entretenir leurs propulsions (principalement à cause du peu de frottement avec l’air dans l’orbite géostationnaire et raréfié dans l’orbite basse) à un rythme encore plus élevé que celui de leurs éliminations. Ce que veut dire en d’autre mots, qu’un effet domino se crée, un cercle vicieux ou un débris en entraîne 10 autres et ainsi de suite…

Jusqu'ici, nous abordons une “menace” mais concrètement, à quoi correspond-t-elle ? Le premier danger est surtout pour les satellites directement. La plupart d’entre eux n’ont pas un blindage capable d’éviter la destruction d’un impact à plus de 40 000 km/h d’objets de 10 cm. L’exemple le plus classique est l’incident du satellite militaire Cerise qui explosa en rencontrant un morceau vieux de 10 ans d’une fusée Ariane se déplaçant à plus de 50 000 km/h. Cet exemple est le premier d’une liste de plus en plus importante, nous rappelons que chaque collision fait émerger de nouveaux débris.

L’ISS est actuellement l’un des satellites les plus importants pour l’humain actuel, ce dernier et les astronomes à son bord sont particulièrement exposés à ce problème : le blindage de la station ne résiste pas aux déchets de plus de 2 cm et seul les débris de 10 cm ou plus sont détectable via radar terrestre. Si une collision d'ampleur venait à se réaliser sur l’ISS, la perte serait non seulement particulièrement grave pour le bilan scientifique, économique et humain mais la création de débris provenant de l’ISS serait dangereuse aussi bien pour plus de satellites que pour des humains sur Terre. A cause de cela, chaque année la station se doit de modifier sa trajectoire afin d’éviter de potentiels impacts. Le danger qu’un accident mortel lié à la chute d’un satellite paraît bien faible mais le risque est réel, une étude de juillet 2022 menée par l’ESA donnerait 10% de chance dans les dix prochaines années. 

Un autre achoppement est l’obstruction du champ de vision de l’espace depuis la Terre. Avec la pollution lumineuse, les observations astronomiques qui ne passent pas par un satellite mais un télescope risquent d’être de plus en plus gênées par les déchets et fausser les études. Cette occupation de plus en plus importante des orbites pourrait même empêcher l’accès à certaines strates de celle-ci.        

Pour conclure, on peut remarquer que la volonté toujours grandissante de l’Homme à vouloir satisfaire sa curiosité, en explorant le monde spatial ou terrestre, s’accompagne d’une quantité grandissante de déchets. Déchets qui malgré leur taille représentent un menace pour les instruments et les missions spatiales dû, en grande partie, à leurs vitesses pharaoniques et leur nombre. 

Auteurs du blog : Vlad-Stefan SERBANESCU, Gabriel WERNAIN, Leonard Penot  


Sources : 


Image : By NASA - NASA Photo ID: STS088-724-66, Public Domain, https://commons.wikimedia.org/w/index.php?curid=48688902


May 31, 2024

Du graphène dans nos batteries

 


Organisation en “nid “d’abeille” des atomes de carbone dans le graphène

https://upload.wikimedia.org/wikipedia/commons/1/10/Graphene.svg


La production et consommation d’énergie est de nos jours aux cœurs des débats, en lien avec des problématiques aussi bien économiques qu’environnementales, à toutes les échelles. C’est ainsi que nous avons assisté à l’essor des batteries électriques, qui sont désormais présentes dans la majorité de nos objets du quotidien à travers les nouvelles technologies, de nos appareils ménagers jusque dans nos voitures. 


Les batteries lithium-ion notamment sont très répandues sur le marché des appareils électroniques de par leurs nombreuses qualités ; c’est à ce type de batteries que nous nous intéresserons ici. Plusieurs matériaux peuvent être utilisés dans les anodes et cathodes, mais leur fonctionnement général reste identique : une réaction d'oxydoréduction entre le lithium et un autre solide permet un transfert d’ions Li+ et d’électrons, ce qui crée un courant électrique. Ces batteries sont légères et disposent d’une bonne autonomie ainsi que d’une charge rapide dues à la grande densité énergétique du lithium, soit la capacité à stocker beaucoup d’énergie dans un petit volume. 


Une amélioration constante des performances est toutefois recherchée et d'autres types de batteries, potentielles solutions à grande échelle, continuent d’émerger. C’est là qu'entrent en jeu les batteries au graphène. Encore en voie de développement, elles pourraient révolutionner l'efficacité de nos batteries. Mais alors, qu’est ce que le graphène ?


Le graphène est un nanomatériau bidimensionnel formé d’une unique couche d’atomes de carbone organisés en réseau hexagonal (nid d’abeille). Le carbone est allotropique : il se présente sous différentes structures cristallines à l’état solide. Ces formes, appelées allotropes, sont le graphite et le diamant notamment, mais aussi le graphène, qui possède donc une structure différente des deux matériaux précédents puisque uniquement bidimensionnelle. 



L'empilement du graphène donne le graphite : c’est la définition théorique donnée en 1947 par le physicien P. R. Wallace. Néanmoins, il fallut attendre jusqu’en 2004 pour isoler le graphène, soit séparer les couches d’atomes de carbone composant le graphite. Andre Geim et Konstantin Novoselov reçurent le prix Nobel en 2010 pour cette découverte. Les scientifiques étudient ce matériau depuis plusieurs années, et il se répand désormais lentement sur les marchés industriels grâce à ses propriétés intéressantes à exploiter. Le graphène serait en effet utile pour optimiser les performances des batteries, en augmentant par exemple leur cycle de vie grâce à son excellente conductivité à la fois électrique et thermique. 


Il est possible d’ajouter du graphène dans les anodes, cathodes, ou encore séparateurs afin d’obtenir de telles améliorations. De plus, le graphène est le matériau le plus fin connu de l’homme. Lorsqu'on en ajoute, le volume n’augmente que très peu, ce qui est idéal pour augmenter la densité énergétique. Son caractère hydrophobe peut aussi servir de couche de protection imperméable pour les batteries. Néanmoins, les composants des électrodes doivent respecter plusieurs conditions comme fonctionner sous une certaine tension pour permettre le mouvement des ions Li+ et conserver une structure stable après des centaines de cycles de charge. La sélection des matériaux est donc limitée. C’est pourquoi le graphène n’est pas étudié comme potentiel composant actif des batteries lithium-ion, mais comme matériau à incorporer dans les composants déjà présents, pour constituer ce qu’on appelle des composites en graphène. Cela permettrait d’utiliser des matériaux autrefois non adaptés aux batteries en changeant leurs propriétés, ou simplement d’améliorer les performances des batteries aux compositions déjà établies. Dans le cas de l’anode par exemple, utiliser du silicium permettrait en théorie une autonomie dix fois supérieure car il absorbe dix fois plus d’ions lithium que le graphite des anodes actuelles. Cependant, il quadruple de volume lors de la charge à cause de la dilatation thermique. La batterie ne tiendrait donc que quelques cycles avant que l’anode ne soit complètement fissurée par les dilatations et contractions répétées. Une des solutions trouvées serait d’utiliser une anode constituée de petites billes de silicium (100 nanomètres de diamètre) plutôt qu'un bloc solide. Seulement, le silicium étant un semi conducteur, il faut le recouvrir d’un matériau conducteur compatible avec les contraintes mécaniques de la dilatation. Là encore le graphène est tout trouvé : il est extrêmement résistant et sa très bonne conductivité thermique permet aussi de réduire le système de refroidissement, et par extension le volume total de la batterie, ce qui rend alors possible l’existence de batteries au silicium. 


Il existe plusieurs manières de synthétiser ces composites, mais elles présentent certains inconvénients. La méthode de dépôt chimique en phase vapeur permet d’obtenir un composite en graphène de grande qualité en incorporant une couche de graphène entre chaque couche de l’autre matériau. Mais non seulement coûteuse, cette méthode n’est pas adaptée ici car elle permet d’obtenir une structure en mille feuilles solide tandis que l’on utilise des poudres dans les batteries (plus petit volume). Une autre méthode consiste simplement à mélanger des fragments de graphène avec l’autre matériau. Son défaut principal est que la structure obtenue est très hétérogène, le composite n’est alors pas de grande qualité et ses performances ne sont donc pas vraiment optimisées. Malgré ses inconvénients, c’est cette technique qui semble la plus adaptée à grande échelle car elle est la moins coûteuse en permettant d’utiliser directement de la poudre de graphite, alors fragmentée en graphène pour procéder à la synthèse des composites.


Différentes méthodes de synthèse des composites en graphène à partir de graphite

https://www.mdpi.com/2311-5629/7/3/65


À l'heure actuelle, les batteries lithium-ion au graphène ont déjà fait leur preuve. En permettant notamment l’utilisation du silicium, les nouvelles générations de ces batterie ont atteint 972 W.h/L de densité énergétique lors du premier cycle, soit 1.8 fois plus élevée que celles actuellement commercialisées. 


En conclusion, les batteries au graphène pourraient révolutionner l’électronique en créant notamment des batteries plus performantes, impactant alors le quotidien de tous avec des appareils de meilleure autonomie par exemple. Certains produits au graphène sont déjà disponibles sur le marché, mais le coût des différentes méthodes de production des composites de graphène, ainsi que l’impossibilité actuelle d’obtenir un matériau de haute qualité à grande échelle restent des limites majeures pour ce nouveau type de batteries. 


Auteurs du blog : CHEVALLIER Coline, DERGHAL Sarah, TROUDE Thibault


Sources : 

https://lejournal.cnrs.fr/articles/le-graphene-superstar-episode-1

https://www.mdpi.com/2311-5629/7/3/65

https://www.carbon-waters.com/comment-differencier-les-differentes-formes-de-graphene/

https://www.nature.com/articles/ncomms8393

https://www.futura-sciences.com/sciences/actualites/graphene-graphene-ameliorer-batteries-lithium-ion-58920/



May 14, 2024

Solar Orbiter, une avancée technologique

 



Cet article est associé à un entretien avec Pierre Rochus Chercheur en Physique nucléaire et Ingénieur de recherches à FN Moteurs (TechSpace Aero SAFRAN actuellement). link


Le Solar Orbiter représente une avancée technologique extraordinaire dans le domaine de l'astronomie solaire, ayant un impact significatif sur notre compréhension du Soleil et de son influence sur notre système solaire. Lancé en 2020 par l'Agence spatiale européenne (ESA) en collaboration avec la NASA, le Solar Orbiter est une sonde spatiale équipée d'instruments de pointe conçus pour observer le Soleil à une proximité exceptionnelle. Cette incroyable innovation a permis d'acquérir des données inédites sur la couronne solaire, les vents solaires, les éruptions solaires ainsi que le champ magnétique héliosphérique. Les images et les informations collectées par le Solar Orbiter ont ouvert de nouvelles perspectives dans la compréhension des processus complexes qui régissent notre étoile, contribuant ainsi à des avancées majeures dans la modélisation des prévisions météorologiques spatiales et des impacts solaires sur les communications et les technologies terrestres. En révolutionnant notre capacité à étudier le Soleil de près, le Solar Orbiter a profondément transformé notre vision de l'astre solaire et a élargi les frontières de la recherche spatiale.


Dans un premier temps, nous nous intéresserons à l'étude des vents solaires, un phénomène d'une importance cruciale pour notre compréhension du système solaire. Grâce à ses instruments sophistiqués, le Solar Orbiter a la capacité de mesurer directement la vitesse, la composition et les propriétés des vents solaires à une proximité sans précédent du Soleil. Cette capacité inédite offre une perspective inégalée sur les mécanismes de génération et de propagation des vents solaires, fournissant des données essentielles pour élucider les processus complexes à l'origine de ces flux de particules chargées. Comprendre les vents solaires revêt une importance majeure dans la prédiction des conditions météorologiques spatiales, car ces vents peuvent influencer les champs magnétiques planétaires, les communications et les technologies terrestres. Ainsi, le Solar Orbiter élargit nos connaissances sur les vents solaires, contribuant à une meilleure anticipation des phénomènes spatiaux et renforçant notre capacité à gérer les impacts potentiels sur la Terre et les satellites en 

orbite.


Or, vous vous demandez sûrement qu’est ce qu’un vent solaire ? Comment ce phénomène nous permet-il de prédire les conditions météorologiques spatiales ? En quoi l’étude de ce phénomène renforce notre capacité à gérer les impacts potentiels sur la terre ? 


En effet, les vents solaires constituent un phénomène fascinant et crucial dans notre système solaire, résultant de l'éjection constante de particules chargées provenant de la couronne solaire, la couche extérieure de l'atmosphère du Soleil. Composés principalement de protons et d'électrons, ces particules, une fois libérées, se propagent à des vitesses extrêmement élevées, atteignant parfois plusieurs centaines de kilomètres par seconde. Le mécanisme à l'origine de ce phénomène implique des processus complexes de chauffage et d'accélération dans la couronne solaire, générant un flux continu de plasma solaire. Les vents solaires interagissent de manière significative avec les champs magnétiques des planètes du système solaire, modifiant leurs environnements magnétiques et atmosphériques. Ces interactions ont des implications importantes, allant de l'influence sur les aurores à la modulation des atmosphères planétaires. De plus, les vents solaires jouent un rôle crucial dans la création de la queue des comètes, formée lorsque les particules solaires interagissent avec les gaz et les poussières des noyaux cométaires. Comprendre les vents solaires revêt une importance fondamentale pour la recherche spatiale et la compréhension des conditions de l'espace interplanétaire.


 À quoi pourraient donc servir ces vents solaires ?


 Ensemble, elles forment l'héliosphère, une région de l’espace qui peut être représentée comme une sorte de bulle de protection autour du système solaire, avec le soleil en son centre, et ayant un diamètre plusieurs fois plus grand que celui de notre système solaire. Cette région est où l'influence du vent solaire s'arrête, car il entre en collision avec d'autres particules de l'environnement interstellaire et les rayons cosmiques de haute énergie. Ce milieu interstellaire est composé de matière qui remplit l'espace entre les étoiles, notamment de l'hydrogène ionisé ainsi que atomique et moléculaire mais aussi de l'hélium, ainsi que de grains dont la taille varie de la centaine de nanomètres jusqu'au micron.


Sa dynamique n'est alors plus suffisante pour repousser l'hydrogène et l'hélium raréfiés de la Galaxie. Le choc de terminaison est une limite intermédiaire située près de l'héliosphère. L'héliosphère n'est pas statique et varie constamment en raison des variations dans l'activité solaire, des mouvements des planètes et de l'interaction avec le milieu interstellaire. Tout comme la Terre se protège contre les vents solaires néfastes pour elle et son atmosphère, le Soleil est pourvu de l'héliosphère qui le protège contre les rayons interstellaires à haute énergie et les particules de l'environnement interstellaire. Cela forme une première barrière limitant l'érosion de l'atmosphère terrestre, ce qui ferait que la Terre ressemblerait davantage à une planète dépourvue de magnétosphère, comme Vénus ou Mars, si elle n'était pas protégée par cette héliosphère. L'analyse de l'héliosphère est de grande importance afin de comprendre notre environnement spatial et les enjeux pour des futures missions spatiales. Hors de l'héliosphère comme la mission Voyager 1 et 2. 


Intéressons-nous plus à la mission Solar Orbiter, un projet  financé et géré par l’ESA ainsi que la NASA.  Solar Orbiter est un satellite opérationnel qui a pour objectif de réaliser une étude à haute résolution du Soleil et de son héliosphère. Il a été conçu pour résister aux températures extrêmes tout en ayant à son bord des télescopes performants. Cette mission a donc pour objectif de mieux comprendre le comportement imprévisible de l’étoile sur laquelle notre vie dépend. A son point de trajectoire le plus proche du Soleil, le satellite sera sur l’orbite de Mercure ce qui permettra d’avoir de nouvelles données jusqu’alors impossible à obtenir car cette distance entre un satellite et le soleil n’avait jamais été aussi faible. Solar orbiter est donc le premier satellite qui permettra d’avoir une vue sur les régions polaires du soleil, qui sont invisibles ou presque depuis la Terre. Le satellite permettra également d’assister à des tempêtes solaires pendant une plus longue durée que depuis la Terre.

On se demande alors ce qu'apporte cette mission de nouveau aux recherches ? Qu’est-ce qui fait de cette invention un exploit pour le monde de la recherche ?  

Solar Orbiter est 4 fois plus proche du Soleil que nous le sommes et sera donc exposé à 13 fois plus de radiations solaires que nous. Le satellite devra aussi subir des chocs dus aux émissions de particules atomiques émises par les explosions au sein de l’atmosphère solaire. 


Afin de résister à ces différents obstacles Solar orbiter est équipé de nouvelles technologies développées par l’ESA pour la mission BepiColombo telles que des panneaux solaires et antennes résistants aux hautes températures. Les clichés pris par Solar Orbiter permettent de distinguer des détails de 180km de long en sachant que la taille du soleil est de 1,4 million de kilomètres de large. Enfin, Solar Orbiter étant en orbite autour du soleil, il pourra observer la construction des tempêtes solaires puis leurs déroulements pendant plusieurs jours. On peut également s’intéresser au long voyage de ce satellite , celui-ci a décollé en février 2020 et a ensuite voyagé pendant 2 ans avant de trouver son orbite de 180 jours autour du soleil. Pendant ces 2 ans, le vaisseau utilisait la gravité de la Terre et de Vénus pour se stabiliser. 

Sur cette orbite, le satellite atteindra son point le plus proche du soleil tous les 6 mois à 42 millions de kilomètres de celui- ci. Durant sa mission la gravité de Vénus sera utilisée de nouveau afin de régler l’inclinaison du satellite ce qui permettra aux instruments d’observer les régions polaires du soleil à plus de 30 degrés comparé à 7 degrés depuis la Terre. 


En conclusion, le Solar Orbiter représente un exploit remarquable dans le domaine de l'exploration spatiale, ouvrant de nouvelles perspectives sur notre compréhension du Soleil et de son influence sur notre système solaire. Cette invention révolutionnaire a transcendé les frontières de la connaissance, apportant des avancées significatives qui ont profondément impacté notre vision du monde. En scrutant les mystères du Soleil de manière inédite, le Solar Orbiter a contribué à redéfinir notre relation avec l'univers, marquant ainsi une étape majeure dans l'histoire de l'exploration spatiale et laissant un héritage durable pour les générations futures.


Blog écrit par: Leila Lazzem , Wilson Woodhead , Prima Barciet 


Sources: 

https://fr.wikipedia.org/wiki/Solar_Orbiter

https://www.esa.int/Space_in_Member_States/France/Les_premieres_images_de_Solar_Orbiter_devoilent_des_feux_de_camp_sur_le_Soleil

https://fr.wikipedia.org/wiki/Vent_solaire

https://fr.wikipedia.org/wiki/H%C3%A9liosph%C3%A8re

​​https://www.futura-sciences.com/sciences/definitions/univers-heliosphere-3628/

https://science.nasa.gov/heliophysics/focus-areas/heliosphere/










April 26, 2024

L’importance des matériaux d’une fusée

 



Depuis la guerre froide, l’Homme tente de pousser sa force toujours plus loin et jusque dans l’espace. Ainsi c’est en septembre 2020 que l’Armée de l’Air française est devenue l’Armée de l’Air et de l’Espace. Ce changement de nom de notre armée traduit une évidente nécessité de puissance spatiale, donc entre autres à pouvoir produire et utiliser des fusées puissantes et efficaces. Mais la réussite d’une bonne mission spatiale ne se limite pas au lancement de l’objet. Pour qu’un lancement soit réussi, il faut que le lanceur ait une composition matérielle idéale pour l’utilisation qu’on en fera. Nous allons donc nous intéresser à l’intérêt d’utiliser certains matériaux lorsqu’il s’agit d’envoyer un objet dans l’espace.


De bons matériaux assurent une résistance mécanique de la coque nécessaire pendant les phases de lancement, d'atterrissage et de durée dans l’espace. Sans une bonne résistance mécanique, l’objet envoyé dans l’espace se détruirait car il subirait un nombre de g que sa structure ne pourrait supporter, il s’écraserait littéralement sous son propre poids. Ce qu’on appelle “nombre de g” c’est une unité d’accélération de pesanteur. Lorsque vous sautez sur Terre, votre accélération lorsque vous tombez au sol vaut 1 g soit une fois votre poids. En revanche, lorsque vous êtes dans une fusée en plein décollage, l’accélération est telle que vous subissez jusqu’à 4 fois l’unité d’accélération de pesanteur, vous pesez donc 4x votre poids. Le problème avec l’augmentation de votre poids, c’est qu’il faut une structure assez solide pour le retenir, donc si un objet est trop lourd dans une fusée, elle risque de se casser et de perdre l’objet qu’elle doit envoyer dans l’espace.


Lorsqu’un objet se déplace, une partie de son énergie se transmet à ses environs causant un réchauffement de son entourage par les frottements. Quand un objet se déplace, l’air présent au devant de l’objet se comprime entre l’objet et sa trajectoire. En conditions normales, l’air qui se comprime au bout de l’objet peut s'écarter et donc a une énergie négligeable, cependant cela n’est plus vrai quand l’objet se déplace à une vitesse près de mach 5 (donc 5 fois la vitesse du son, soit 14,6 km/s !). L’air comprimé au devant de l’objet devient d’ailleurs la source principale du réchauffement de l’objet. Ce phénomène s’explique par le premier principe de la thermodynamique : 

Concrètement, cela veut dire qu’aucune énergie n’est ni créée ni détruite, toutes les énergies appliquées au système sont seulement converties (par exemple, l’énergie mécanique devient de l’énergie thermique). Il faut donc un matériel qui puisse résister à la force pressante mais qui puisse aussi résister à la chaleur évolutive. En effet, lorsque l’air se comprime, sa température augmente du fait de l’énergie cinétique des molécules qui le composent. C’est-à-dire que quand l’air se comprime, les molécules se rapprochent entre elles et ce déplacement leur donne une énergie cinétique. Cette énergie a toujours une partie convertie en chaleur proportionnelle à la quantité d’air comprimé.


En situation courante, la chaleur causée par les frottements ne causent pas de problèmes car l’air a une compression négligeable lorsque l’objet est relativement lent, mais qu’en est-il d’une situation ou la vitesse atteint mach 30 (donc 10,3 km/s) ? Quand une fusée rentre dans l'atmosphère, cette dernière rentre avec une vitesse qui peut atteindre 12 km/s. La chaleur causée par les frottements fait atteindre le vaisseau aux alentours de 1600 degrés Celsius, soit environ 30% de la température à la surface du Soleil (et oui, elle faut environ 5 500°C) !  La fusée a donc besoin de ce qu’on appelle un “bouclier thermique”. Le bouclier thermique est une structure à l'avant de la fusée qui diverge les particules environnantes afin de protéger le cortège des frottements et donc du réchauffement. Compte tenu des informations présentées, les fusées d’aujourd’hui sont principalement faites d’alliage d'aluminium car ce matériau est peu coûteux, léger, maniable et résistant tandis que le bouclier thermique est généralement constitué de titane et de fibres de carbone. Le titane est un matériel très connu pour ses propriétés résistantes alors que le fibre de carbone est connu pour sa résistance surprenante relative à sa petite masse volumique par rapport à d'autres métaux. On note que des ingénieurs de la NASA ont remarqué que la silice est un isolant excellent et très peu coûteux. 


Ainsi nous savons à présent quels matériaux utiliser et pourquoi ils sont importants pour envoyer un objet en orbite et pour le renvoyer sur Terre. La vitesse de libération, c’est-à-dire la vitesse minimale qu'à un objet à atteindre pour quitter l’orbite de la Terre, est à 11,2 km/s, soit Mach 32 et pour revenir sur Terre cet objet va subir environ la même vitesse. Le cerveau humain n’est pas capable de se représenter ces vitesses tant elles sont élevées, elles sont extrêmes et c’est pour cette raison que les matériaux composant les fusées et missiles envoyés dans l’espace doivent supporter ces conditions extrêmes. 


Une fusée ou un quelconque objet envoyé dans l’espace doit avoir une extrême résistance mécanique et thermique, sans de bons matériaux le risque d’échec de la mission spatiale est bien trop important. C’est pourquoi les matériaux composant la coque des fusées sont généralement de l’alliage d’aluminium et ceux faisant le bouclier thermique sont la fibre de carbone et la silice. 

Auteurs du blog : BENIKHLEF Inès, RAMDANI-MEDHURST Milo-Reiss, NLANDU Vangu

Sources :


C'est quoi un bouclier thermique ? Explication en 8 minutes

Le bouclier thermique des navettes spatiales

Vitesse de libération | FranceTerme | Culture

Le Soleil | Agence spatiale canadienne


images

Chaleur et thermométrie - Premier principe de la thermodynamique

2 La NASA veut un meilleur bouclier thermique pour conquérir le système solaire — Siècle Digital







April 10, 2024

A la découverte de l'échographe



L’échographie est une méthode d’imagerie médicale qui repose sur la physique ondulatoire. C’est une technique qui s’est démocratisée et est devenue partie intégrante de nombreux domaines de la médecine comme la cardiologie ou l'obstétrique depuis sa création en 1965.


La physique ondulatoire est la physique qui utilise les ondes de manière générale (l'électromagnétisme, la mécanique, l'électronique, l'optique ou encore l'acoustique…) Dans le cas de l’imagerie médicale, et plus précisément pour l'échographe, ce sont les ondes acoustiques, ou ondes sonores, qui sont concernées et en particulier les infrasons et ultrasons qui sont inaudibles pour l’oreille humaine (respectivement, fréquences inférieures à 20 Hz ou supérieure à 20kHz). Ces ondes sont envoyées par des sondes contenues dans l’échographe. Une onde sonore est la propagation d’une perturbation dans un milieu matériel sans transport de matière mais avec un transfert d’énergie. En connaissant la manière dont les ondes sonores se propagent dans le corps humain, il est possible d’analyser le signal reçu pour obtenir des images très précises de l’intérieur de l’organisme (organes et tissus). L'avantage de l’échographie est qu’il s’agit d’un examen indolore et non invasif. 


Il y a deux parties à l’imagerie médicale : la partie clinique, le moment où les informations sont prélevées sous formes d’échos, et la partie technique, lorsque les données sont analysées pour former des images en 2D, 3D voire 4D. 


L’échographie est une méthode qui repose sur l’image par réflexion. En fonction de la densité, de la température et de la composition d’un matériau, la réflexion ne se fait pas de la même manière. L'impédance acoustique d'un milieu pour une onde acoustique caractérise la résistance du milieu au passage de cette onde. Entre autres, elle mesure la capacité d’un matériau à réfléchir le son/l’onde.  Elle est propre à chaque matériau et organe. Plus l’impédance acoustique est élevée, plus le matériau est résistant à la transmission du son. Ainsi en fonction des caractéristiques du signal reçu, on peut associer les données à une partie du corps et détecter des anomalies qui ne seraient pas cohérentes avec les valeurs théoriques. La vitesse de propagation d’un son dans un milieu donné est fonction de son impédance, c’est-à-dire sa capacité à résister ou non au passage de l’onde sonore.  D’après la formule Z = ρc où Z est l’impédance acoustique en Pa.s/m (Pascal seconde par mètre) , ρ est la densité acoustique  en kg/m3 et c est la vitesse acoustique en m/s. En règle générale, la vitesse des sons dans les tissus biologiques est d'environ 1600 m/s. Cette vitesse de propagation est variable selon les tissus ou les milieux traversés, dans l'air elle est de 300 m/s, à l'inverse dans l'os elle est de 7000 m/s. De ce fait, l'interface constituée entre l’os et les tissus mous constitue une barrière infranchissable aux ultrasons. Pour qu'une interface soit visible sur l'image, il faut, en plus, que cette interface soit perpendiculaire au faisceau ultrasonore. 

Le choix de la fréquence est aussi important et doit être adapté à la zone étudiée. L’atténuation des ondes sonores en échographie est déterminée par plusieurs facteurs, notamment la fréquence des ondes sonores et la distance parcourue par les ondes.

Dans les premiers centimètres, le son est beaucoup plus atténué. Cette absorption dépend des caractéristiques biophysique des tissus tout comme de la vitesse de propagation. Ainsi, on utilise des ondes à haute fréquence, qui ont une période très courte, dans l’échographe pour les parties du corps proximales  où il n’y a pas besoin de pénétration. Il s’agit des parties du corps situées à environ cinq centimètres sous la peau. Quand les hautes fréquences traversent les tissus elles sont plus atténuées que les basses fréquences, ces dernières sont donc utilisées quand il faut aller en profondeur et pénétrer au niveau des tissus, par exemple pour un examen de l’abdomen. 

De plus, pour obtenir une bonne qualité d’image sur chaque patient, il faut adapter/régler la fréquence de l’échographe puisque la vitesse de propagation et donc l’impédance de chaque partie du corps pour chaque personne sera différente. 


Un fois que les données sont collectées par l’échographe, il faut traiter l’image. Pour cela, il existe un filtre, le Rejet, qui élimine les échos de faible intensité afin de clarifier l’image. En revanche, le risque est de perdre des informations en cas d’utilisation d’un filtre élevé. La Gamme dynamique quant à elle permet de régler la nuance dans les niveaux de gris. Si elle est basse, le contraste est plus important et si elle est augmentée, plus de détails sont visibles car il y a davantage de nuances de gris. 

Mais le réglage qui a permis la plus  grande évolution dans l’échographie est l’imagerie Harmonique, qui est utilisée dans des examens du cœur. Elle consiste à ne sélectionner que le signal réfléchi de seconde harmonique, donc à éliminer la fréquence de base ou harmonique principale : 


La fréquence de base est généralement située autour de 1,8 ou 2 MHz et la fréquence de réception obtenue correspond au double de celle de départ (3,6 ou 4 MHz). La raison pour laquelle la seconde harmonique permet une meilleure qualité d’image est que les tissus du cœur sont un milieu de propagation non linéaire des ondes acoustiques, le signal obtenu à la réception est donc complexe. Le mode Harmonique présente des avantages non négligeables : il permet d’améliorer considérablement le rapport signal sur bruit, le bruit correspondant aux échos parasites qui diminuent la précision de l’image et d’optimiser la résolution du contraste des échos réfléchis. 


Pour conclure, l’échographie est une application directe d’un principe physique plutôt simple, la réflexion des ondes acoustiques. Les principales difficultés viennent du réglage de l’appareil et du choix de la fréquence ainsi que du traitement de l’image après la collection des données. La connaissance actuelle permet déjà une qualité d’image exceptionnelle mais l’échographie présente toujours des limites, la principale étant qu’elle dépend fortement de la personne réalisant l’examen.


Blog écrit par : Axelle Mano, Ibtyssam Seddiki, Clémence Pereira


Source image : https://i0.wp.com/clemedicine.com/wp-content/uploads/2017/05/B9782294706066000058_f05-01-9782294706066.jpg?w=960 

Sources : 

https://www.cabine-acoustique.fr/tout-savoir-sur-limpedance-acoustique/ 

https://www.arcagy.org/infocancer/en-savoir-plus/imagerie-medicale/l-echographie.html/#:~:text=Il%20s'agit%20d'une,image%20acoustique%20d'un%20organe

PowerPoint Presentation (univ-paris5.fr)

https://bluegyn.com/gynorama/wp-content/uploads/2014/08/2014_08_29_13_51_24.pdf 

https://clemedicine.com/5-imagerie-dharmonique/