December 30, 2021

Les théorèmes d’incomplétude de Gödel

Kurt Gödel


Qui est ce personnage et comment est-il arrivé à ce stade, d’être celui qui a prouvé l’existence de théorèmes mathématiques ?


Kurt Gödel (28/04/1906-14/01/1978) est né à Brunn en Autriche-Hongrie et est décédé à New Jersey aux États-Unis. Il était logicien et mathématicien Autrichien, et fut naturalisé américain. Gödel est connu pour plusieurs découvertes mathématiques qui ont plus ou moins marqué l'histoire. Pour initialiser son parcours supérieur, il est parti à l'âge de 18 ans étudier à l'université de Vienne où il commence à étudier la physique théorique, les mathématiques et la philosophie. Dans la capitale autrichienne, il existe un groupe de savants et de penseurs connus de tous à Vienne, qui est surnommé le "Cercle de Vienne" et dans lequel Gödel arrive à se démarquer assez rapidement. En effet, il achèvera sa thèse de doctorat à 23 ans, qui devint célèbre et renommée le "théorème de complétude de Gödel", dans laquelle ce dernier a établi la complétude du calcul des prédicats du premier ordre. C’est-à-dire que Gödel a pu démontrer qu’il existe une correspondance entre la sémantique (le sens de chaque chose) et les démonstrations d’un système de déduction de logique du premier ordre (dérivée première des nombres). 


Gödel réussit à démontrer l'hypothèse du continu, où il mène un chemin de réflexion à partir de la théorie des ensembles, qui regroupe les primitives, les notions d'ensemble et d'appartenance, à partir desquelles elle reconstruit les objets usuels des mathématiques : fonctions, relations, entiers naturels, relatifs, rationnels, nombres réels, complexes, mais il est également à l'origine d’autres théorèmes comme celui de la théorie des fonctions récursives. C'est en 1930, alors qu'il travaille encore et toujours pour le compte de l'université de Vienne, que Gödel va réaliser deux travaux révolutionnaires, après avoir démontré la complétude logique classique du 1er ordre. Ses travaux vont alors marquer un tournant majeur dans l'histoire de la logique, qui, de façon simplifiée, répond en fait tout simplement "non" à la question de la démonstration de la cohérence des mathématiques proposée en 1910 par le programme de Hilbert. Ce sont les deux théorèmes d'incomplétude de Gödel, qui expliquent qu'un système logique capable d'expliquer l'arithmétique des entiers possède des propositions de théories sur les nombres entiers qui ne peuvent être confirmées par les principes fondamentaux mathématiques, puis il qualifie alors ces propositions-ci comme des "propositions indécidables". Il classe simplement les théories qui nous semblent justes mais qui restent de nos non-démontrées dans un groupe de théories. Il y a alors deux théories mathématiques que Gödel regroupe ensemble, nous allons voir les explications de ces théorèmes pour comprendre de quoi il s’agit, mais voici dans un premier temps leurs énoncés tels que Gödel les a formulé :


1- "Il est possible de construire un énoncé arithmétique qui ne peut être ni démontré ni réfuté dans n'importe quelle théorie récursivement axiomatisable."

Ce premier théorème nous dit que l’on peut avoir un énoncé mathématique, donc une question, dont nous connaissons la réponse, ou en tout cas, dont nous sommes quasiment certains de la connaître, le fait est que nous sommes incapables de faire la démonstration mathématique de la réponse à cet énoncé, car personne n’a réussi à le faire jusqu’ici pour la simple et unique raison que nous ne pouvons pas faire la démonstration de la réponse à cet énoncé en question, ni prouver le contraire, en utilisant les principes mathématiques fondamentaux qui au contraire sont connus et démontrés.

2- "Si T est une théorie cohérente satisfaisant des hypothèses analogues, alors la cohérence de T, exprimable dans la théorie T n'est pas démontrable dans T."

Ce deuxième théorème nous dit en revanche que si l’on considère une théorie, qui est plutôt intuitive et que l’on a facilité à croire, sans avoir la preuve mathématique sous les yeux et puisqu’elle n’existe pas, alors sa cohérence n’est pas démontrable par une démonstration mathématique, puisque cela revient à notre premier théorème qui nous dit que cette situation est possible et que dans ce cas, la théorie n’est pas démontrable.


L’exemple type est que l’on ne peut pas prouver que 1+1=2. On a défini ce qu’était les chiffres, qui composent les nombres, mais c’est une simple écriture qui nous sert d’outil et c’est donc pour cela qu'il est impossible de prouver une telle chose, car on pourrait tout simplement écrire les chiffres d’une autre sans que le sens ne change, on arrive alors au fait qu’on ne peut pas prouver qu’une écriture est correcte puisque c’est conventionnel. Cela rejoint une question philosophique qui a occupé les philosophes durant de longues périodes, cela s’explique par le fait que tous les philosophes ne sont pas d’accord entre eux et bien que ce soit contesté, il est possible d'appliquer les théorèmes d'incomplétude en philosophie, notamment comme l'a fait l'écrivain Régis Debray pour expliquer l'irrationalité dans les sociétés. Les groupes sont associés à des systèmes mathématiques. Ainsi, d'après Debray, il existe de l'irrationalité dans les groupes humains mais on ne pourrait pas démontrer cette existence. Même si c'est contesté, il faudrait noter que certaines contradictions ne sont pas vraiment pertinentes, notamment celles qui se servent du fait qu'une proposition soit indémontrable pour démontrer une existence divine.


En conclusion, Gödel, malgré que nous n’ayons pas abordé toutes les conséquences des découvertes et théorèmes de celui-ci, a permis aux humains de se rendre compte que finalement, toutes les mathématiques sont à remettre en question y compris les bases mêmes puisque nous ne pouvons pas prouver certaines théories, ni prouver qu’une écriture des nombres que l’on utilise est correcte. C’est alors un chamboulement dans l’histoire des mathématiques que nous révèle ce mathématicien dû à ces multiples incohérences rencontrées.

Blog écrit par Martin BOSQUET, Antoine LECOMTE et Theodore RIZO

Sources https://dailygeekshow.com/kurt-godel-mathematicien-mathematiques-theoreme-incompletude/ - Daily Geek Show https://www.cairn.info/revue-cliniques-mediterraneennes-2010-1-page-77.htm - Stéphane Gumpper et Guy Chouraqui, 2010. Romain Treffel, Le théorème d’incomplétude de Gödel [en ligne], 1000 idées de culture générale, (pas de date de publication donnée), [consulté le 20/11/2021] : https://1000-idees-de-culture-generale.fr/theoreme-godel-incompletude/ Image wikipedia

December 23, 2021

"Vous vous souvenez de..." : le mécanisme de la mémoire

Chaque jour, chaque minute, chaque seconde, notre cerveau apprend. Que ce soit une nouvelle langue, une rencontre avec notre artiste favori ou encore une nouvelle leçon en mathématiques, c'est la mémoire qui est responsable du fait que nous pourrons, dans deux semaines, un an ou encore toute notre vie s'en souvenir. En effet, la mémoire est notre précieux allié pour enregistrer les multiples et diverses informations qui nous viennent de nos expériences et de notre environnement. Elle permet de capter, coder, conserver et restituer tout ce que nous percevons. Mais, d'un point de vue scientifique, comment fonctionne-t-elle ?

La mémoire humaine est divisée en plusieurs petites "sous-mémoires" (ou systèmes), chacune dédiée à une tâche particulière. Il existe ainsi cinq systèmes. La première, la mémoire à court terme (aussi appelée mémoire de travail), est celle la plus souvent utilisée au quotidien. Elle permet de retenir des informations durant la réalisation d'une tâche (par exemple, retenir un numéro de téléphone).

On trouve ensuite la mémoire sémantique, directement liée aux connaissances du langage et de soi. Propre à chaque individu, elle se construit tout au long de notre vie et s'agrandit avec l'apprentissage de nouveaux mots ou concepts. Très proche de cette dernière, la mémoire épisodique est, elle, une sorte d'autobiographie de l'individu, stockant tous les moments personnels marquants, et permettant à la personne de se situer dans le temps et l'espace. Elle permet aussi de se projeter dans le futur. C'est, par exemple, cette mémoire qui nous aide à construire des scénari plausibles pour une situation donnée.

Nous avons ensuite la mémoire procédurale, qui est responsable des automatismes, tels que la marche à pied ou le vélo. Particulièrement sollicitée chez les sportifs ou artistes de haut niveau, elle consiste à enregistrer un mouvement répété de nombreuses fois. Enfin, la mémoire perceptive, comme son nom l'indique, est chargée de se souvenir de tout ce qui est lié aux sens (odeurs, visages des gens, sensations…).

Ainsi, ces différents systèmes interagissent entre eux pour former notre mémoire telle que nous la connaissons. Par exemple, les mémoires procédurales et perceptives induisent une économie cognitive ; cela permet ainsi à un individu de pouvoir penser ou effectuer d'autres actions tout en réalisant une activité routinière. D'autre part, le processus de mémorisation fait souvent intervenir plusieurs types de mémoire qui agissent majoritairement pendant notre sommeil. Ainsi, c'est pendant notre phase de repos que les informations jugées "importantes"  sont déplacées de notre mémoire à court terme vers d'autres mémoires à long terme, pour être stockées. De plus, les rêves, que nous formons pendant notre sommeil, sont en fait un assemblage, plus ou moins anarchique, d'expériences récentes et d'éléments marquants parmi nos souvenirs ; certains impliquant des émotions, telles que la peur (on parle alors de cauchemar) ou bien la tristesse, la nostalgie, etc…

La mémoire, constituée des cinq sous-parties évoquées précédemment, fait interagir différentes parties spécifiques du cerveau. La mémoire à court terme fait intervenir le cortex préfrontal ; la mémoire sémantique sollicite le néocortex ; la mémoire procédurale implique les corps striés ainsi que le cervelet ; enfin, la mémoire épisodique met en jeu l'hippocampe, mais aussi le thalamus et le cortex préfrontal. On peut, cependant, noter que l'hippocampe, plus que le reste, joue un rôle essentiel. En effet, par sa place au cœur du cerveau, il assure la connexion entre les différentes zones cérébrales. Évidemment, sans qu'on s'en rende compte, c'est lui qui est responsable de la transition de nos souvenirs, de la mémoire courte vers la mémoire à long terme. De plus, il possède une fonction de « carrefour » où il garde les informations en transit avant de les rediriger vers les zones corticales où elles seront ensuite stockées. 

Pour aller encore plus loin, on peut dire que la mémoire résulte des interactions entre nos milliards de neurones. En effet, un souvenir est stocké dans un réseau composé d'une grande quantité de neurones, connectés les uns aux autres. La mémorisation est, alors, une modification des connexions neuronales au sein d'un des systèmes de mémoire.

On peut établir deux grandes étapes pour résumer le principe de mémorisation. L'encodage est la première étape : c'est le moment où l'information entre dans le cerveau par le biais d'un de nos cinq sens. Ensuite, vient la consolidation, ou le stockage, de celle-ci : le cerveau va conserver l'information le plus longtemps possible.

Mais, une fois toutes ces informations stockées dans les méandres de notre cerveau, comment nous remémorons-nous nos souvenirs ? Par quel principe neurologique ou chimique ces souvenirs remontent-ils à la surface ?

Tout d'abord, il faut voir notre cerveau comme une pelote de laine, où chaque fil serait un neurone et où des connexions entre ces fils pourraient se créer un peu au hasard. Sauf que dans le cerveau, les connexions neuronales (ou synaptiques) ne se forment pas par le biais du hasard- en tout cas, pas pour les souvenirs. En effet, un même souvenir peut être stocké sur des neurones différents, voir des parties du cerveau différentes, en fonction de sa nature et des systèmes de mémoire auxquels il fait appel. Alors, pour reconstituer ce souvenir, il faudra faire appel, la plupart du temps, à un stimuli externe qui permettra aux connexions neuronales de se faire entre les bonnes parties du cerveau. Par exemple, c'est l'odeur de la tarte aux pommes tout juste sortie du four qui vous fera remonter le souvenir des après-midis chez votre grand-mère, quand vous aviez dix ans.

De plus, la modification des liaisons synaptiques est due un changement de l'activité électrique. Ce serait alors l'odeur de la tarte aux pommes qui modifierait cette activité (trop forte !). Une enzyme spécifique permettrait aussi de fixer l'information à long terme, ce qui explique que nous ayons des souvenirs qui puissent nous rester toute notre vie.

Les connexions neuronales sont donc en constante évolution et aident à la consolidation (ou non) de l'information. La plasticité neuronale joue un rôle clef dans ce parcours. En effet, c'est en sollicitant le plus régulièrement possible le réseau neuronal que les connexions seront renforcées, engendrant un stockage durable de l'information.

Blog écrit par Vincent Lefloch, Tatiana Ranger, Violette Godbille

Sources.

INSERM : « Mémoire, une affaire de plasticité synaptique »

https://www.inserm.fr/dossier/memoire/


Article de la Fédération pour la Recherche sur le Cerveau (FRC)

https://www.frcneurodon.org/comprendre-le-cerveau/a-la-decouverte-du-cerveau/la-memoire/


Sciences et Vie : « Cerveau et Intelligence » (compilation d'articles)

https://www.science-et-vie.com/cerveau-et-intelligence

December 16, 2021

Les prothèses, une nouvelle technologie révolutionnaire ?

Selon une étude de l'InVS (l'Institut national de veille sanitaire), le diabète est à l'origine de 8 000 amputations par an. En effet, il ne permet pas la cicatrisation rapide des plaies ce qui cause leur infection et implique obligatoirement leur amputation. Mais malheureusement, le diabète n'est qu'une cause parmi des centaines d'autres raisons provoquant ce drame.


Ainsi, 0,08% de nos compatriotes sont amputés. Mais la perdition d'un membre ne représente pas seulement une perte de la mobilité ou un traumatisme mais également une exclusion sociale et professionnelle et une souffrance psychologique inexprimable. Alors face à toutes ces difficultés quelles sont les solutions apportées par la science et les nouvelles technologies ? Est-il possible de combiner biologie et électronique ? Les solutions apportées sont-elles accessibles ? Et quelles sont leurs limites ? 

 

Depuis quelques années, un phénomène se démocratise de plus en plus : l'implantation des prothèses. Ce terme semble assez moderne mais remonte en réalité à plus de 400 ans avant J.C. à l'époque de l'Égypte Antique. D'autre part, l'histoire contemporaine a connu des guerres extrêmement violentes provoquant des dégâts aux corps des combattants d'une ampleur inédite nécessitant alors une démocratisation très forte des prothèses médicales afin de redonner vie aux mutilés ce qui s'avérait quelquefois impossible. Cependant, grâce aux avancées scientifiques et technologiques, les prothèses médicales répondent de plus en plus aux besoins spécifiques des patients amputés. Effectivement, il existe plusieurs dizaines de types de prothèses différentes dont nous allons en présenter certaines.


Tout d'abord, il y a la prothèse myoélectrique qui est destinée à appareiller des amputations d'avant-bras. Elle permet de saisir des objets et fonctionne grâce à une batterie. Aucune chirurgie n'est nécessaire. Lorsque le porteur de prothèse contracte un muscle, une tension électrique de l'ordre de quelques microvolts est créée. Elle est alors captée par les électrodes placés dans la prothèse qui vont la transférer au système électronique de celle-ci, ce qui permettra d'effectuer tel ou tel mouvement en fonction du muscle contracté. Possédant une batterie, cette prothèse n'a pas une très grande autonomie, sa durée est assez courte. De plus, l'utilisation quotidienne de la prothèse peut engendrer des dysfonctionnements tels que la main qui tourne en continuité sans que le porteur puisse l'arrêter. En général, cette prothèse doit se renouveler tous les trois ans. 


Il existe aussi la prothèse sportive (Cheetah Flex-Foot) constituée d'une lame en fibre de carbone en forme de L. Elle est inspirée des pattes arrières des guépards. Cette prothèse agit comme un ressort lorsque l'athlète applique une pression sur son talon. Comment cela fonctionne-t-il? Lors d'une course, le sportif valide exerce sur le sol une force qui va lui permettre de se propulser. En effet la force d'impact de son pied va s'accumuler dans les muscles de ses jambes, puis cette énergie sera libérée lorsqu'il détend ses muscles ce qui le propulsera en avant. Cependant pour un athlète amputé ce principe ne peut pas s'effectuer. Alors, l'Américain Van Phillips ayant perdu un pied en 1976 dans un accident de ski nautique décida d'inventer cette prothèse capable d'accumuler l'énergie cinétique exercée par la lame pliée au contact du sol. Cette énergie peut se déplacer grâce à la bonne conductivité des fibres de carbone. Lorsqu'elle atteint le bout de la lame, elle se transforme en énergie mécanique et se libère, propulsant l'athlète, et la lame reprend sa forme initiale.


Pour certains amputés, retrouver l'aspect initial de leur membre perdu est très important. Il existe pour cela la prothèse esthétique en silicone qui imite la forme et la texture du membre manquant. Cependant, elle ne permet pas de réaliser des mouvements complexes.


C'est grâce à un bras bionique que Dennis Aabo Sørensen est devenu le premier amputé à retrouver le sens du toucher. Dans le Centre de neuroprothèses de l'EPFL et à la Scuola Superiore Sant'Anna de Pise en Italie, des chercheurs ont créé une prothèse équipée d'un système sensoriel artificiel qui, pour cette expérience, a été relié aux nerfs périphériques du patient. Cette partie du système nerveux permet de faire circuler les informations entre le cerveau et les autres organes du corps. Pour cela, des chirurgiens ont implanté des électrodes sur les nerfs ulnaire et médian du patient. Ainsi, lorsqu'il manipule un objet, les capteurs des tendons artificiels de la prothèse réagissent à la tension créée. Les informations émises sont alors transformées en courant électrique, convertis en un langage semblable aux impulsions nerveuses qui est ensuite transmis aux électrodes placées sur les nerfs périphériques de Aabo Sørensen qui peut alors  retrouver le toucher.


Il existe ainsi une grande variété de prothèses pouvant convenir à chacun des amputés. Cependant, leur prix limite très vite leur choix. En effet, une prothèse pour le grand public coûte environ 2000€, une prothèse esthétique tourne autour des 1000€. Pour une prothèse myoélectrique composée d'une emboîture sous le coude le prix s'élève à environ 3800€. Pour les sportifs, la prothèse "Cheetah Flex-Foot'' coûte environ 14.000€. 

Cependant, la prothèse bionique reste la plus chère : le prix des bras bioniques varie entre 35 000 € à 80 000€. 


De cette manière, retrouver la mobilité semblable à celle présente avant une amputation n'est définitivement pas accessible à tous. Que ce soit en raison des prix exorbitants ou des dysfonctionnements pouvant apparaître. Mais alors comment peut-on augmenter l'accès à ces prothèses ? Est-il possible de concevoir des prothèses bioniques au prix accessible pour tous, capables de rendre la sensation du toucher aux patients ?


Blog écrit par Yiwei HE, Christine SUY, Issar KERBA 

Sources.

https://youtu.be/TFF2S4PEmHE

https://youtu.be/9PK6fwWKTQo

https://www.planetesante.ch/Magazine/Medicaments-examens-et-traitements/Protheses-implants-et-greffes/Les-protheses-du-futur-entrent-en-scene

fonctionnement d'une prothèse (e-monsite.com)

https://youtu.be/fHMcUwdiJgQ

Avis relatif aux tarifs et aux prix limites de vente au public en euros TTC de la prothèse externe de main myoélectrique I-LIMB ULTRA et des prestations et consommables associés visés à l'article L. 165-1 du code de la sécurité sociale - Légifrance (legifrance.gouv.fr)


December 10, 2021

La 5G : un pas vers l'avant ou un pas vers l'abîme ?

Une nouvelle révolution dans le monde de la technologie mobile est arrivée. Il est difficile que vous n’en ayez pas entendu parler : les promesses de la 5G en termes de rapidité sont prônées partout. Mais, savons-nous vraiment ce que c’est ? Même si cela ne fait que 40 ans que ces technologies évoluent, cette évolution est une des plus rapides jamais connues. Cela fait que cette nouvelle avancée creuse vraiment l’écart entre la 5G et les toutes premières technologies mobiles. Avant de parler des avantages et des aspects controversés de la 5G, retournons quelques années en arrière pour voir d’où est parti tout cela. 

La première génération de technologie mobile apparaît vers la fin des années 70, et elle consiste en différentes antennes indépendantes qui permettent une connexion entre plusieurs appareils qui se trouvent dans leur zone de réseau. Pour cette technologie, la 1G, cette connexion est limitée à des appels avec une qualité de son très basse. Le mode de connexion entre les appareils du réseau et les antennes utilise les radiations électromagnétiques de basse fréquence (de l’ordre de 100 MHz). Avec l’arrivée des années 90, on se rend compte qu’on a besoin de transmettre plus de données, et surtout de connecter tous les réseaux entre eux : c’est ainsi qu’apparaît la 2G. On a ici la démocratisation des technologies mobiles, grâce à l’apparition des téléphones “modernes” qui sont bon marché, comme les tous premiers Blackberry. On peut désormais envoyer des SMS, en plus d’avoir une meilleure qualité de son pour les appels. Pour rendre ces échanges possibles, la 2G agit sur les fréquences allant jusqu’à 1,8 GHz. Les années 2000 sont marquées par l’arrivée de la 3G et avec elle celle des smartphones. On a la possibilité d’envoyer des images et de transmettre des vidéos en temps réel (quoique limités par la capacité du réseau) et surtout de se connecter à Internet. Puis enfin, quelques années plus tard, la 4G prend le relais, sans rien introduire de nouveau, juste une amélioration des antennes et leur capacité, en plus d’une une vitesse de folie, comparable à celle d’une fibre optique. C’est la technologie qu’utilisent nos téléphones aujourd’hui, et à cause de la quantité d’appareils qui sont en activité simultanément, la 4G utilise les fréquences allant jusqu’à 2,6 GHz.

Alors que la 4G permettait jusqu’ici de subvenir à la quasi-totalité de nos besoins, il se pose la question du véritable intérêt à adopter la 5G. Les principaux avantages de cette technologie par rapport à la 4G sont évidemment son très haut débit accompagné de sa faible latence. Grâce à la 5G, il sera désormais théoriquement possible pour les utilisateurs d’obtenir un débit montant jusqu’à 20 Gbit/s, bien que celui-ci devrait être délivré aux utilisateurs lambda moins rapidement ; le débit n’excèderait pas quelques Gbit/s, ce qui représente tout de même un débit au moins 10 fois supérieur à celui de la 4G. En ce qui concerne la latence, celle-ci atteindrait des valeurs très faibles de l’ordre de la dizaine de millisecondes, contre 40 ms en moyenne pour la 4G.

Mais dans la pratique, ça signifie quoi ? Certes nos pages web se chargeraient un peu plus rapidement, certes nous mettrions quelques secondes de moins à télécharger le nouvel album de notre artiste préféré, mais toutes ces recherches et travaux sur la 5G ne se résumeraient-ils qu’à ces quelques accomplissements ? Bien évidemment que non, sinon nous n’écririons pas cet article. La 5G n’est principalement pas destinée au commun des mortels, ses principales applications se retrouvent dans des secteurs bien précis. Par exemple, on parle de plus en plus de voitures autonomes. Pour fonctionner ensemble, deux voitures intelligentes ont besoin de communiquer en permanence entre elles, de recevoir des informations sur leur environnement urbain et de connaître systématiquement la position des divers accidents survenus, tout cela à plus de 100 km/h, une vitesse où la milliseconde représente un intérêt significatif. Un autre domaine voué à évoluer grâce à la 5G est la santé. Vous imaginez, à une époque de pandémie où les déplacements à travers le monde sont restreints, que les chirurgiens puissent opérer un patient à distance grâce à des robots contrôlés par la 5G ? Notamment pour les opérations très spécifiques nécessitant des spécialistes, cela permettrait de drastiquement réduire les temps d’attente pour les opérations ainsi que les inégalités d’accès aux soins en offrant à tout le monde la possibilité de se faire opérer. Néanmoins, inutile de vous expliquer pourquoi un débit trop faible serait fatal pour le patient. Cependant, malgré les avis favorables vis-à-vis de la 5G, certains restent contre cette avancée technologique ; leurs arguments sont les suivants. Tout d’abord une augmentation importante de l’exposition aux ondes, aux champs électromagnétiques de radiofréquences à laquelle personne ne pourra échapper. Leurs arguments phares découlent de ce premier point, les dangers de cette exposition « ont déjà été démontrés ».

En effet, un texte appelé « EU 5G Appeal » fait objet de support pour de nombreux militants anti-5G, scientifiques et médecins alertant sur les effets nocifs de celle-ci. « EU 5G Appeal » assure que « les effets liés aux expositions accroissent le risque de cancer, le stresse cellulaire, augmentent l’apparition de dommages génétiques, de changements structurels et fonctionnels du système reproductif, de déficits d’apprentissage et de mémoire, de désordres neurologiques et d’impacts négatifs sur le bien-être » en s’appuyant sur de nombreuses études scientifiques récentes. De plus, le Centre de Recherche International contre le Cancer (CIRC) qui fait partie de l’Organisation Mondiale de la Santé (OMS) a classifié les radiofréquences de 30 KHz à 300 GHz en ‘peut être carcinogène (substance qui favorise le développement du cancer) pour l’Homme’. Par ailleurs, des études parues depuis, comme par exemple celle du NTP, ou encore plusieurs études épidémiologiques comportant les études les plus récentes sur les technologies mobiles et risques de cancer associés confirment que les champs électromagnétiques de radiofréquences sont cancérigènes.

Bien que des études puissent apparaître sur le possible effet des champs électromagnétiques, tout cela reste à prendre avec des pincettes. Certes la 5G rajoute une couche d’exposition à de nouvelles fréquences, mais de très faible intensité, ou en tout cas d’une intensité trop faible pour la craindre (l’intensité des ondes émises par le Soleil est supérieure de plusieurs ordres de grandeur, et on est soumis à son rayonnement tous les jours). Ce qui est évident c’est que nous ne pouvons pas, devant l’avancée des technologies et l’accroissement de nos besoins, nous passer de la 5G.

Blog écrit par Yann ARNOULD, Ambre VOGT et Guillem JOSEPH

Sources. 

https://blog.masmovil.es/la-evolucion-de-la-tecnologia-movil-1g-2g-3g-4g/

https://www.larepublica.net/noticia/como-funciona-5g-y-de-que-forma-mejorara-las-comunicaciones

https://www.i-torrestrella.com/evolucion-de-la-tecnologia-movil/

https://www.xatakamovil.com/conectividad/1g-al-5g-asi-funcionan-redes-moviles-todo-que-cambia-cada-salto-generacion

https://www.frandroid.com/telecom/488716_reseau-5g-tout-ce-qui-va-changer-quels-usages-et-pourquoi-la-technologie-est-importante

https://www.inria.fr/fr/5G-reseau-mobiles-IoT

https://www.stralskyddsstiftelsen.se/wp-content/uploads/2017/09/170913_scientist_5g_appeal_final_fr.pdf 

https://www.cancer-environnement.fr/228-Champs-electromagnetiques.ce.aspx

 

Crédit photo : “Z z”, issu de Pexels (licence Creative Commons)

December 03, 2021

Le Concorde a-t-il vraiment perdu ses ailes ?

Credit photo: Boom Supersonic
Credit photo: Boom Supersonic 
https://boomsupersonic.com/

Imaginez-vous pouvoir faire le trajet Londres-New York en 3h30 ? Vous vous dites sans doute que cela est de l'ordre de la science-fiction, étant donné qu'actuellement le trajet Londres-New York prend environ 8h. Même si cela est difficile à imaginer, un trajet aussi rapide fut possible dès 1977, grâce à la création de l'avion supersonique Aérospatiale-BAC Concorde, ou tout simplement ConcordeÀ la fin des années 50, le Royaume-Uni, la France, les États-Unis ou encore l'Union Soviétique cherchaient à développer des moyens de transport supersoniques. Finalement, grâce à une collaboration entre les États anglais et français, le Concorde voit le jour, commençant ses vols réguliers le 21 janvier 1976. Les premières routes étaient Londres-Bahreïn et Paris-Rio de Janeiro, et après la fin de la prohibition américaine établie pour l'atterrissage du Concorde, la route Paris et Londres-New York devint la plus importante, avec un vol par jour depuis les deux capitales jusqu'à New York. Ce changement d'avis du gouvernement américain, qui s'opposait au début aux vols supersoniques transatlantiques, montre bien les avantages qu'offrait ce type de transport. Pour les hommes d'affaires, les personnalités publiques ou encore les hommes politiques, le Concorde était le premier choix, et donc pour les compagnies aériennes et les aéroports il était intéressant de promouvoir ce transport et donc d'exercer une certaine forme de pression sur les gouvernements (en l'occurrence le gouvernement américain). 
    Si le Concorde a amené une telle révolution dans les longs déplacements c'est avant tout grâce à des prouesses techniques sans précédent à l'époque: une vitesse mach 2.02 (2 fois la vitesse du son), des commandes entièrement électriques et analogiques et d'un pilotage automatique, un freinage doté d'un système perfectionné antidérapant (SPAD) qui permet de réduire les distances d'arrêt de 15 % ainsi qu'un système permettant le rééquilibrage des masses pour une optimisation des performances, notamment par le déplacement du carburant afin de positionner au mieux le centre de gravité en cours de vol.

Mais, si le Concorde était aussi bien que ce qu'on le dit, alors pourquoi s'est-il arrêté de voler ?

Et bien si vous recherchez des articles à ce sujet, beaucoup vous diront que c'était pour des raisons commerciales que les compagnies ont décidé de l'arrêter car trop peu de passagers voyageaient à son bord, mais il ne s'agit pas là de la seule raison de son arrêt. En effet, Henri Frier – président de Sud-Aviation, aujourd'hui Airbus – décida pour des raisons tout d'abord économiques de réduire le nombre d'équipes au service de maintenance du Concorde et d'augmenter les frais pour les clients, sous prétexte que l'accident du 25 juillet 2000 avait nécessité de coûteuses modernisations de l'avion pour assurer la sécurité des passagers. On serait amené à penser que ces coûts de maintenance auraient mené à une perte de bénéfice trop conséquente pour les compagnies aériennes, donc à l'arrêt du Concorde. Néanmoins, notons que les bénéfices réalisés par Air France sur ses vols opérés en Concorde, même peu élevés, étaient rentables pour la compagnie, que ce soit d'un point de vue économique ou même pour l'image de marque. Le président d'Air France a même confirmé ces propos lors d'une entrevue « L'avion a été rentable, même faiblement », ce qui laisse à penser qu'une autre raison est à l'origine de cette décision. Rappelons-nous que le Concorde est un avion à double nationalité, à la fois français et anglais, résultant d'une association entre Sud-Aviation et British Aircraft. Pour des raisons politiques, les États-Unis avaient tout intérêt à faire arrêter cette collaboration, et quoi de mieux pour cela que de critiquer le symbole de leur accord ? Leur premier argument a été de dire que le Concorde, étant un avion supersonique, ne pouvait voler qu'au-dessus de l'Atlantique et était alors trop peu rentable pour leur pays. De plus, le volume sonore dérangeant les riverains des aéroports a été lourdement reproché, sans compter le prix du carburant. Toutes ces critiques ont très largement contribué à clouer l'appareil au sol.
    Si aujourd'hui, et ce depuis 18 ans, on ne voit plus que des avions classiques parcourir le ciel, l'idée du vol supersonique, elle, ne s'est pas envolée pour autant. Mais cette fois-ci, il faudra se rendre de l'autre côté de l'Atlantique, aux États-Unis, pour découvrir l'ambitieux projet mené par Boom Supersonic – une entreprise aéronautique américaine –, de réinventer le voyage supersonique d'ici 2029 avec l'Overture. Sa promesse : rendre le monde bien plus accessible avec un avion rapide et neutre en carbone.

Mais alors que le vol supersonique a disparu en 2003, pourquoi vouloir le remettre en place maintenant ?

Tout d'abord car, bien que le Concorde eut beaucoup d'inconvénients, il lui reste un très gros avantage qu'aucun avion n'a pu détrôner, celui de la vitesse. L'Overture proposerait à ses passagers de retrouver des temps de vol grandement réduits grâce à une vitesse de croisière annoncée de mach 1.7 (soit 1,7 fois la vitesse du son), bien plus élevée que celle des avions de ligne classiques (volant en moyenne à mach 0.8), ainsi qu'une altitude de croisière de 60 000 pieds (soit 18 km, presque le double des avions de ligne actuels). Londres pourra de nouveau être reliée à New York en moins de 4 heures. De même, voyager sur Concorde représentait un certain luxe. À près de 8 000 € le billet, seule une infime partie des voyageurs pouvaient se payer ce vol. L'Overture reprend ce concept en proposant une capacité maximum de 88 sièges – contre 500 opérant la ligne normalement. À chaque passager à bord sera offert une combinaison inégalée de tranquillité, de confort et de productivité du décollage à l'atterrissage, renforcés grâce à une cabine spacieuse dotée uniquement de sièges individuels de classe Affaires. 

Enfin, si l'Overture ressemble esthétiquement à son prédécesseur, il s'en démarque de par ses caractéristiques techniques. En matière de motorisation, il devrait embarquer une nouvelle génération de turboréacteurs à double flux, signés Rolls-Royce, bien moins bruyants, et alimentés à 100% par du biocarburant durable, proposant ainsi une neutralité en carbone.

Blog écrit par Yann ARNOULD, Ambre VOGT et Guillem JOSEPH

Sources.