Structure interne de la Terre - Page d'accueil du site de Claude ...

9 downloads 166 Views 50MB Size Report
La question de la structure interne de la Terre est liée à celle de son origine. .... Terre creuse à plusieurs coques concentriques et noyau aimanté séparés par du  ...
Structure interne de la Terre Historique de la notion de noyau Introduction L'idée que la Terre possède en son centre un noyau différencié est relativement récente. Pendant des siècles, nul n'a imaginé que l'intérieur de la Terre put être différent de sa surface. Pour Lucrèce, « la Terre est dans ses profondeurs comme à sa surface : [...] c'est ce qu'exige l'évidence même ». Dix-huit siècles plus tard, on considère toujours que l'intérieur du globe est uniforme. Ainsi Buffon, dans sa Théorie de la Terre, l'imagine entièrement constitué d'une substance vitrifiée : « Le globe terrestre en général peut être regardé comme homogène. [...] Pourquoi voudrait-on par exemple que les parties voisines du centre soient plus denses que celles qui en sont plus éloignées ? »

Les premières représentations des profondeurs de la Terre La question de la structure interne de la Terre est liée à celle de son origine. En 1644, la Terre présentée par René Descartes dans « Principes de philosophie » est un ancien Soleil qui a subi une évolution particulière. Au centre, on trouve un noyau de matière solaire, recouvert d'une couche compacte de la même matière que les taches solaires. Ensuite vient une couche de terre dense, une couche d'eau, une couche d'air et une nouvelle couche de terre plus légère qui se maintient au dessus du vide comme une voûte.  I : matière semblable à celle du soleil  M : semblable aux taches solaires. Cette partie n'est pas affectée par les transformations  C : croûte de terre inférieure fort solide et fort pesante de laquelle viennent tous les métaux  D : eau  F : air  E : autre croûte de terre moins massive qui est composée de pierres, d'argile de sable et de limon  A,B : air

La Terre de Descartes est donc creuse ! La couche externe est toutefois en équilibre instable. Séchée par le Soleil, elle se fendille, et finit par s'écrouler d'une manière inégale dans les couches internes, expulsant l'eau qui forme les océans. Descartes décrit ainsi à la fois la genèse de la Terre et sa structure interne. Il raconte comment les montagnes se sont formées, par effondrement, lors d'une immense catastrophe planétaire originelle

À la même époque, Athanasius Kircher postule lui aussi que le globe terrestre est un astre refroidi mais qu'il contient sous la croûte une matière en fusion qui s’échappe parfois du centre par les volcans. La Terre possède un foyer central impétueux, à peine dompté, relié aux volcans de la surface par des conduits de feu avec des réserves intermédiaires, les « pyrophylacies ». Les volcans manifestent l'activité interne du globe, ce sont des soupiraux par lesquels s'échappe le feu intérieur. Il y a de plus des hydrophylacies, c'est à dire des réservoirs aqueux profonds qui aboutissent en surface par des conduits.

Après Descartes et Kircher, à la fin du XVIIe et au cours du XVIIIe siècle, les visions du monde souterrain se multiplient rapidement, avec une grande liberté. Une des motivations est de raconter la formation de la Terre et de proposer une explication scientifique du Déluge biblique.  Terre issue d’une ancienne comète : William Whiston (1667 - 1752) Whiston (1667-1752), qui est chapelain, imagine en 1696 que la Terre est une ancienne comète. Elle possède un noyau solide chaud, une couche de fluide dense, puis une couche de terre en équilibre sur le fluide : le relief est crée par la différence de densité des parties de la croûte qui s'enfoncent différemment dans le fluide. Le Déluge survient lors du passage d'une nouvelle comète. Celle-ci abandonne la vapeur d'eau de sa queue à la Terre, ce qui crée les pluies diluviennes, et fissure la couche externe du globe à cause des forces de marées qu'elle exerce, d'où l'irruption des eaux internes. Lorsque la comète s'éloigne, une partie de l'eau du Déluge s'évapore, une autre regagne les profondeurs et une dernière forme les mers : la Terre a acquis son aspect actuel.

 Terre ayant été composée d’un mélange fluide qui s’est déposé par gravité au cours du temps : John Woodward (1665 - 1728) et Thomas Burnet (1635 - 1715) En 1681, Burnet (1635-1715), qui est un théologien réputé, pense que le globe était initialement un chaos fluide de tous les éléments qui s'est mis en ordre par l'effet de la gravité : les parties lourdes descendant vers le centre, les parties légères remontant vers la surface. La Terre est constituée d'une couche interne de terre, puis d'une couche fluide, puis d'une nouvelle couche de terre. Il ajoute au centre un noyau de feu. Initialement, il n'y a aucune montagne, tout est plat . La couche externe, fissurée par la chaleur du Soleil, s'effondre, provoquant la sortie des eaux et le Déluge. C'est lors de cet épisode que la surface terrestre est façonnée avec ses montagnes et ses bassins océaniques. A : noyau de feu ( Burnet ne donne pas de justification à son existence) B : terre C : liquides : eau et huile D : terre Burnet prévoit aussi le futur de la Terre : elle sera consumée par le feu et redeviendra concentrique grâce aux retombées de suie et de cendres. Elle se transformera enfin en étoile.

Woodward (1665-1728), grand naturaliste de terrain, est marqué par la superposition des couches géologiques, qui forment souvent de véritables empilements. Il suppose en 1695 que toutes les roches ont été dissoutes dans l'eau du Déluge, puis se sont redéposées en couches concentriques par ordre de gravité. La Terre est formée d'une immense sphère aqueuse, recouverte des couches de terrains disposées par ordre des densités. Des fentes ou des ouvertures établissent une communication entre la sphère d'eau interne et le fond des océans.

Woodward rejette l'hypothèse d'un noyau de feu mais garde quand même l'hypothèse de chaleur interne.

D'autres modèles, qui peuvent paraître plus extravagants, sont proposés.  Terre creuse à plusieurs coques concentriques et noyau aimanté séparés par du vide : Edmund Halley En 1693, Halley (1656-1743), astronome contemporain de Newton, est intrigué par la variation temporelle du champ magnétique de la Terre observée au cours du siècle. Pour l'expliquer, il suppose que la Terre est creuse et qu'elle contient un noyau aimanté en rotation libre. Plus tard, il émet des propos plus audacieux : la Terre serait formée de trois arches (ou coquilles) et d'un noyau aimantés tournant avec des vitesses différentielles. Les dimensions des sphères internes correspondent aux rayons de Mercure, Mars et Vénus ! Les arches se tiennent en équilibre grâce à la force magnétique qu'elles génèrent et qui s'oppose à la gravitation. Elles sont supposées habitées et séparées les unes des autres par des milieux raréfiés.

 Terre totalement creuse où la fine croûte externe est en équilibre entre gravité et force centrifuge : Henri Gautier (1660 - 1737) En 1721, Gautier, un ingénieur des Ponts et chaussées, pense que la Terre est entièrement creuse et qu'elle est comparable à un ballon ou à une vessie pleine d'air ! La mince couche externe, qui a moins de 5 km d'épaisseur en moyenne, est maintenue par deux forces opposées : la gravité et une force provenant de la rotation de la Terre. Les deux côtés de la croûte sont parfaitement symétriques et ainsi un monde est également possible sur la face interne avec ses mers et ses montagnes ! Le modèle curieux de Terre creuse de Gautier est fondé sur des intuitions géologiques pénétrantes. Gautier explique ainsi les soulèvements et les effondrements de la croûte, ce qu'il ne pouvait pas faire en supposant une Terre pleine.

La panoplie des représentations du monde souterrain est donc impressionnante au milieu du XVIIIème siècle. Toutes sont judicieuses mais laquelle est juste ?

De l'imagination aux investigations scientifiques En 1749 puis en 1778, George de Buffon (1707-1787), intendant au Jardin du Roi, se propose de développer une théorie de la Terre qui repose sur des arguments solides, durement éprouvés, acceptables pour tous.

Il affirme que la Terre est pleine, en s'appuyant sur la direction que prend un fil à plomb dans le voisinage d'une montagne. Le peu d’influence des masses montagneuses sur la gravité locale tend ainsi à prouver que la Terre n’est pas creuse. Plus précisément, aux stations A et B, les verticales (direction du fil à plomb) sont données par les lignes pleines alors qu'en l'absence de la montagne (qui possède une capacité d'attraction), elles seraient données par les lignes pointillées. Si la Terre est creuse, la montagne représente une masse importante par rapport à la masse totale de la Terre et la déviation doit être grande. Si au contraire la Terre est pleine, la montagne ne représente plus qu'une masse insignifiante et la déviation engendrée est très faible. C'est ce qui est observé.

Il avance également, en donnant trois arguments, que le globe a été entièrement fondu au début de son histoire. Le premier est la forme aplatie de la Terre qui n'a pu être acquise que si le globe a été à un moment de son histoire malléable, donc en fusion. Le deuxième est les mesures de température dans les mines qui montrent que la Terre possède une chaleur propre. Le troisième est la nature des roches des régions montagneuses qui sont le résultat d'une fusion.

En 1798 cependant, Cavendish calcule la densité moyenne de la Terre et en déduit que l'intérieur doit être plus dense que les roches de surface.

En 1825, dans son Traité de Mécanique Céleste, Laplace calcule la pression au centre de la Terre en la modélisant par une sphère en équilibre hydrostatique, et trouve une valeur de 3,1 Mbar.

L'« océan de magma » interne Aux alentours de 1800, la géologie prend son essor et la vision de la Terre se modifie encore. Les savants qui s'interrogent sur la Terre ne sont plus des philosophes ou des théologiens mais des géologues de terrain : les théories vont devoir coller à l’observation et aux mesures géophysiques. Cordier (1777-1861), en poursuivant les travaux de Fourier (1768-1830), observe en 1827 que la température dans les mines augmente de 1 degré tous les 25 mètres de descente. En extrapolant, si la progression se poursuit, la température de l'eau bouillante est atteinte à 2,5 km de profondeur (ce qui est confirmé, le croît-on à l'époque, par les sources d'eau chaude) et dès 50 km de profondeur, on trouve une température de 1600°C, température à laquelle toutes les roches de la surface sont fondues : le centre de notre planète est donc en fusion à une température de plusieurs milliers de degrés. Le globe serait donc constitué d'une énorme masse en fusion, recouvert d'une mince écorce solide ! L'idée est séduisante car elle permet d'expliquer les volcans (communications directes entre la surface et la masse fondue sous-jacente), les tremblements de terre (conséquences des mouvements internes du fluide), mais aussi la formation des montagnes (la Terre en se refroidissant se contracte, ce qui crée des ruptures et des plissements).

L’origine de cette température sera longuement débattue : reste de la chaleur originelle sur un globe en cours de refroidissement ou élévation de la température due à des réactions chimiques ou nucléaires internes ? Certains, tels Davy (1778-1829), Ampère (1775-1836), Poisson (1781-1840) ou Lyell (1794-1875), prétendent que la chaleur intérieure de la Terre ne provient pas d'une fusion originelle mais de réactions thermiques exothermiques, dues à l'oxydation des métaux alcalins. Jules Verne (18281905), dans son roman « Voyage au centre de la Terre » paru en 1865, reprendra les arguments. D’ailleurs, cette chaleur ne serait-elle pas suffisamment intense pour que toute la matière interne soit gazeuse au-delà d’une certaine profondeur ?

La controverse sur la fluidité sous les années 1870-1880 Le XIXème siècle voit s'affronter les théories « solidistes » (le globe est entièrement refroidi et donc rocheux), soutenues notamment par Ampère, et « fluidistes » (l'intérieur de la Terre est un gigantesque réservoir de magma liquide). Les partisans de la solidité complète de la planète s'appuient sur les conceptions géologiques de Lyell et sur les calculs de Lord Kelvin. Liais tente par exemple en 1865 de montrer que tous les phénomènes géologiques (éruptions volcaniques, état cristallin des roches anciennes, figure d'équilibre de la Terre...) peuvent se comprendre sans avoir recours à la fusion et à une chaleur centrale primitive. Reclais s'appuie sur les mathématiques et l'astronomie pour soutenir les conclusions de Lord Kelvin. Les partisans de la fluidité refusent d'abandonner leurs conceptions: la fusion est prouvée par les phénomènes de surface et ne peut être remise en question. Ils cherchent à se libérer de l'emprise des arguments physique set veulent pouvoir adopter sans hésitation l'hypothèse qui satisfait le mieux les observations géologiques. L'opposition géologues physiciens est ici exacerbée et montre une incompréhension profonde entre les savants provenant de disciplines différentes. Le modèle qui cependant réalise un certain consensus est celui d'une terre composée d'une croute solide de faible épaisseur, d'une couche intermédiaire plus ou moins fluide et d'un noyau plus ou moins solide.

Seul Williams Hopkins (1793-1866) sur la base de considérations thermodynamiques, envisage en 1839 la possibilité d'un noyau solide séparé de la croûte rocheuse par une couche liquide : la variation du point de fusion des roches en fonction de la pression fait en effet pencher la balance en faveur d’un noyau solide.

Plus précisément, Hopkins remarque que les affirmations de Cordier sur la fusion interne ne sont pas justifiées car la température de fusion des roches dépend de la pression. Si une roche fond à 1000°C en surface, il lui faut une température bien plus élevée pour entrer en fusion à 100 km de profondeur, où la pression est bien plus importante. Pour connaître l'état des roches internes, il faut donc savoir qui, de la température ou de la pression, a la plus grande influence, et seuls des expériences de laboratoire, impossibles à réaliser à l'époque, pourraient lever l'indétermination. Devant l'insuffisance et l'incertitude des données, Hopkins s'en tient à trois hypothèses remarquables.

a) si la température s'accroît suffisamment avec la profondeur pour dépasser l'influence de la pression, le globe est en fusion sous une croûte dont on ne peut pas connaître directement l'épaisseur. b) si l'influence de la pression augmente plus rapidement que celle de la température, la solidification a commencé au centre, et comme en même temps le refroidissement créait une croûte en surface, le globe est formé d'une enveloppe solide, d'une couche intermédiaire en fusion et d'un noyau solide. c) si le refroidissement est complet, le globe est entièrement solide.

Lord Kelvin (1824-1907), en 1862, défend avec vigueur une Terre entièrement solide. Il argumente que si la Terre était en fusion, la masse fluide interne devrait subir des marées importantes, exactement comme les océans de la surface. Ces marées internes devraient déformer intensément le sol, le soulever et l'abaisser alternativement, ce qui n'arrive pas. Lord Kelvin observe cependant que les marées océaniques sont légèrement réduites par rapport aux prédictions théoriques. Ceci montre que la Terre se comporte comme un solide élastique, dont les propriétés sont sensiblement les mêmes que celles de l'acier. Le globe est donc solide et les seules parties en fusion sont les réservoirs de magmas sous les volcans. Il s'oppose donc énergiquement au modèle fluide défendu par les géologues. a. Si la Terre est absolument indéformable, seule l'eau des océans est mise en mouvement par les forces de marées. b. Si la Terre est fluide, elle se déforme complètement sous l'influence des forces de marées et l'eau des océans ne fait que suivre les mouvements du sol : les marées océaniques n'existent plus. c. Si la Terre se comporte comme un solide élastique, les marées océaniques correspondent à la différence entre la déformation fluide des océans et la déformation élastique du sol. Le niveau très faible des mouvements du sol liés à la marée (évalué par comparaison avec la mesure précise des marées océaniques) plaide, selon Lord Kelvin, pour un globe aux propriétés d’un solide élastique et non pas d’un fluide.

Dans les années 1870-1880, la controverse sur la fluidité intérieure de la Terre reste vive. Fischer cherche à réaliser un compromis en supposant que la Terre est composée d'une croûte solide d'une faible épaisseur, d'une couche intermédiaire fluide également de faible épaisseur, et d'un noyau solide. Ce modèle vérifie la condition de lord Kelvin d'un globe possédant en moyenne les propriétés élastiques de l'acier, tout en permettant de conserver les explications habituelles des phénomènes géologiques.

En 1896, Wiechert observe que le moment d'inertie de la Terre est inférieur à celui d'une sphère homogène et propose un modèle de Terre comportant un noyau de fer de 4700 km de rayon surmonté d'un manteau rocheux.

Jusqu'au début du XXème siècle, toutes les hypothèses concernant l'intérieur du globe s'appuient donc uniquement sur la géologie de surface et des arguments astronomiques. Il faudra attendre 1906 pour que les premières données sismologiques mettent directement en évidence la présence d'un noyau central.

Sources d’information sur la structure interne du globe Il est possible d’étudier de façon directe seulement les quelques premiers km de profondeur de la Terre. Pour déterminer la structure interne de la Terre, les géologues ont donc eu recours à des méthodes indirectes, telle que la sismologie (étude des séismes).

Méthodes directes : la spéléologie et le forage profond La spéléologie Qu’est-ce qui se cache donc vraiment derrière les trésors d’imagination de Jules Verne et son « Voyage au centre de la Terre » ? Sans l’apport de méthodes d’exploration indirecte, les humains seraient restés totalement ignorants du contenu profond du globe au-delà des quelque deux ou trois premiers kilomètres. La spéléologie, activité aux multiples facettes, ne se prête guère, même dans sa composante sportive, à l’établissement de records. Longtemps la cote –1 000 ne fut qu’un rêve que la technologie ne permettait pas de concrétiser. C’est en 1956 au Gouffre Berger, dans le massif du Vercors (Isère), que cette profondeur mythique fut atteinte pour la première fois. En 2005, la profondeur spectaculaire des –2 000 mètres a été dépassée par des spéléologues à Krubera-Voronja (ex gouffre Voronja), dans le Caucase occidental (Abkhazie).

Le forage profond Le forage sg3 ou forage profond de Kola ou encore forage de Zapoliarny, du nom de la ville la plus proche, est un forage effectué à partir du 24 mai 1970 jusqu'en 1989 en Russie, dans la péninsule de Kola (cercle arctique). Le but de ce forage était de creuser le plus profondément possible, avec un objectif à 15 000 mètres, afin de traverser la croûte terrestre, et ainsi d'accéder au Moho pour mieux comprendre sa composition et les mécanismes internes de la Terre.

Il fut stoppé à 12 262 mètres de profondeur, ce qui en fait le forage le plus profond de l'histoire. La raison alors invoquée pour l'arrêt du forage fut la fin de la Guerre froide, en 1989. Cependant, les difficultés techniques rencontrées peuvent aussi avoir motivé ce choix du fait de la profondeur atteinte qui induit une très forte pression, des températures plus élevées que prévues (180 °C au lieu des 100 °C attendus), une grande difficulté d'extraction des matériaux excavés et la longueur de l'axe de forage soumis à de fortes contraintes de torsion. D'autres équipes ont essayé de rééditer l'exploit, notamment dans l'Océan Pacifique (la croûte étant plus fine sous les océans — de l'ordre de 7-8 kilomètres au lieu de 30), mais aucune n'y est parvenue.

Méthode indirecte : sismologie ou étude des séismes Du vocabulaire pour commencer : * Séisme : rupture brutale de roches en profondeur soumises à des tensions qui s’accumulent pendant des années ou des siècles ; * Foyer d’un séisme (ou hypocentre): lieu du séisme où se produit la rupture ; * Epicentre : zone située à la surface du globe à la verticale du foyer ;

* Sismographe ou sismomètre : appareil permettant d’enregistrer des ondes sismiques ; * Sismogramme (ou séismogramme) : courbe dessinée par le sismographe ; c’est un enregistrement sur papier des ondes sismiques qui se propagent lors d'un séisme, généralement réalisé au moyen d'un sismographe.

Sismomètre et sismogramme

L'abscisse du graphique représente habituellement le temps alors que l'ordonnée représente la valeur instantanée de l'accélération du point de mesure de l'onde sismique selon un ou des axes donnés (x, y, ou z).

Sismogramme selon trois composantes perpendiculaires (nord-sud, est-ouest et haut-bas)

Le relevé de l’accélération en fonction du temps permet d’accéder à la vitesse du déplacement et au déplacement en fonction du temps ; l’accélération étant la dérivée de la vitesse, qui est elle-même la dérivée du déplacement par rapport au temps, il faut « intégrer » deux fois l’accélération par rapport au temps pour obtenir le déplacement.

Typologie des ondes sismiques Les ondes sismiques sont des ondes élastiques. L'onde peut traverser un milieu sans modifier durablement ce milieu. Les vibrations engendrées par un séisme se propagent dans toutes les directions. On distingue :  

les ondes de volume qui traversent la Terre les ondes de surface qui se propagent parallèlement à sa surface.

Elles se succèdent et se superposent sur les enregistrements des sismomètres. Leur vitesse de propagation et leur amplitude sont modifiées par les structures géologiques traversées, c'est pourquoi, les signaux enregistrés sont la combinaison d'effets liés à la source, aux milieux traversés et aux instruments de mesure. Ces ébranlements, qui se déplacent sous forme d'ondes, traversent le Globe et donnent des indications irremplaçables sur sa constitution.

Les ondes de volume  Vers 1830, le mathématicien Poisson développe sa Théorie de la Mécanique du solide. Cette théorie fondamentale de la transmission des ondes élastiques à travers un solide prévoit deux types d’ondes, les ondes de compression/dilatation et les ondes de cisaillement. On fera le rapprochement avec les ondes sismiques observées seulement à la fin du XIXème siècle.  En 1889 à Postdam : premier enregistrement d’un séisme lointain, séisme du japon.  Vers 1899, les pulsations P et S sont identifiées comme des ondes de compression / dilatation et de cisaillement par R.D Oldham et W. Wiechert. Les ondes de volumes se propagent à l'intérieur du globe. Leur vitesse de propagation dépend du matériau traversé et d'une manière générale elle augmente avec la profondeur.

Les ondes qui sont enregistrées en premier par le sismographe sont celles qui sont arrivées le plus rapidement du foyer du séisme. On les appelle les ondes P (premières). Le second train d’onde représente les ondes S (secondes), plus lentes à se propager. On enregistre également un troisième train d’onde, encore plus lentes, appelées les ondes L et les ondes R. Ces ondes ont des vitesses différentes et se déplacent différemment dans la lithosphère ; les ondes P et S sont des ondes de volume, les ondes R et L sont des ondes de surface ; Leurs effets en se déplaçant dans la lithosphère sont distincts.

Ondes P : les plus rapides (6 km⋅s-1 près de la surface) et donc les premières à être enregistrées sur les sismogrammes. Ce sont des ondes de volume. Ce sont des ondes longitudinales de compressions et de décompressions se déplaçant dans les milieux solides et fluides ; elles sont responsables du grondement sourd que l'on peut entendre au début d'un tremblement de terre. Lors de leur passage, le sol subit des dilatations et compressions successives, parallèlement à la direction de propagation des ondes. Ce sont ces ondes qui sonnent l’alerte du tremblement de terre, mais ce ne sont pas les plus dangereuses.

L'onde P comprime et étire alternativement les roches. On l'enregistre bien sur la composante verticale du sismomètre.

Onde P plane

Onde P sphérique

Ondes S : les ondes S ou ondes secondaires appelées aussi ondes de cisaillement ou ondes transversales ; leur vitesse est plus lente que celle des ondes P. (environ 4,06 km⋅s-1). Elles apparaissent donc en second sur les sismogrammes. Ce sont des ondes de volume. Ce sont des ondes transversales de cisaillement se déplaçant dans les milieux solides (mais pas en milieu liquide) ; on verra qu’elles sont en particulier arrêtées par le noyau externe, liquide, de la Terre. A leur passage, le sol se déplace perpendiculairement au sens de propagation des ondes. Les ondes S sont les plus destructrices.

L'onde S se propage en cisaillant les roches latéralement à angle droit par rapport à sa direction de propagation. On l'enregistre bien sur les composantes horizontales du sismomètre.

Dans un corps anisotrope, l'ondes S se partage en deux ondes avec une vitesse différente. l'onde SH,de polarisation horizontale, et l'onde SV, de polarisation verticale (biréfringence en optique)  Pour l’onde Sv, le mouvement des particules est contenu dans le plan vertical, perpendiculaire au sens de propagation.  Pour l’onde Sh, le mouvement des particules est contenu dans le plan horizontal, perpendiculaire au sens de propagation.

Onde S plane

Onde S sphérique

Les ondes P compriment et dilatent le sol dans le sens de leur propagation (ondes longitudinales). Les ondes S font vibrer le sol perpendiculairement à la direction de propagation (ondes transversales).

La différence des temps d'arrivée des ondes P et S suffit, connaissant leur vitesse, à donner une indication sur l'éloignement du séisme.

Les ondes de volume se propagent un peu comme les rayons lumineux : elles peuvent être réfléchies ou réfractées, c'est-à-dire déviées à chaque changement de milieu, au passage manteau-noyau par exemple (Lois de Descartes, Principe de Huygens, une onde P ou S peut générer des ondes P et S et donner des ondes PP PS SP SS… PKP SKS SKP …PKIKP SKIKS SKIKP…PKJKS…) . Elles peuvent ainsi suivre des trajets très complexes à l'intérieur de la Terre. Leur temps de parcours dépend de ce trajet, elles n'arrivent pas toutes en même temps au même endroit.

Les ondes de surface Dans un milieu infini, homogène et isotrope, il existe seulement des ondes de volume (P ou S). Quand il y a une surface qui sépare des milieux aux propriétés élastiques différentes, il existe aussi des ondes de surface, dont l’amplitude décroît rapidement avec la profondeur. Les ondes de surface sont des ondes guidées par la surface de la Terre. Leur effet est comparable aux rides formées à la surface d’un lac. Elles sont moins rapides que les ondes de volume mais leur amplitude est généralement plus forte. Ces ondes sont dispersives : les ondes de grande longueur d’onde vont plus vite que les courtes longueurs d’onde. Parmi ces ondes, on distingue les ondes de Love (ondes L) et les ondes de Rayleigh (ondes R).

L’onde de Love L ou LQ L'onde de Love (1911, Théorie de la transmission de l’onde de Love. A-E-H LOVE) déplace le sol d'un côté à l'autre dans un plan horizontal perpendiculairement à sa direction de propagation. Elles correspondent donc à un mouvement de torsion du sol. Le déplacement est essentiellement le même que celui des ondes S sans mouvement vertical. On l'enregistre uniquement sur les composantes horizontales du sismomètre.

Elles provoquent des ébranlements horizontaux qui causent de nombreux dégâts, notamment aux fondations des immeubles ou autres. Les ondes de Love se propagent à environ 4 km/s, elles sont plus rapides que les ondes de Rayleigh. Elles résultent d’interférences constructives entre ondes PH et SH horizontales.

Ondes de Love

 Mouvement transverse et horizontal  Ondes dispersives : la vitesse dépend de la fréquence

L'onde de Rayleigh ou LR  1885 Théorie de l’onde de Rayleigh. Lord Rayleigh.  1924-1926 Mouvement rétrograde (R) et direct (H ) de l’onde de Rayleigh. R STONELEY.  1939-1946 Ondes couplées ( devance R et H). L-D LEET. Le déplacement est complexe, assez semblable à celui d'une poussière portée par une vague, un mouvement elliptique à la fois horizontal et vertical, rétrograde à faible profondeur R et prograde pour une profondeur supérieure au cinquième de la longueur d'onde H.

On appelle aussi l’onde de Rayleigh Ground Roll.

Les particules du sol se déplacent selon une ellipse, dans le plan vertical, créant une véritable vague qui affecte le sol lors des grands tremblements de terre. L’axe horizontal fait les 2/3 de l’axe vertical. La particule tourne dans le sens anti-horaire pour une onde se déplaçant de la gauche vers la droite.

Ondes de Rayleigh

 Mouvement dans le plan vertical  Ondes dispersives : la vitesse dépend de la fréquence  Plus lentes que les ondes de Love

Les vibrations engendrées par cette onde durent plusieurs minutes. Cette onde est enregistrée sur les trois composantes du sismomètre. Elle résulte d’interférences constructives entre ondes Pv et Sv verticales. Les ondes de Love se propagent à environ 4 km/s, elles sont plus rapides que les ondes de Rayleigh.

Mesure d'un tremblement de terre Intensité et magnitude Nous disposons de deux types d’échelles pour évaluer les tremblements de terre: une échelle d’intensité (par exemple celle de Mercalli) et une échelle de magnitude (par exemple celle de Richter). Aujourd'hui, nous n'utilisons que celle de Richter, mais les séismes du passé ne peuvent être évalués que selon celle de Mercalli.  L'intensité d'un séisme est définie en un lieu par rapport aux effets produits par ce séisme, qu'ils soient seulement observés ou ressentis par l'homme (réveil, chute d'objets, fissures ...) ou qu'ils aient causés des dégâts plus ou moins importants aux constructions. On parle alors d'effets macrosismiques. L'intensité d'un séisme dépend du lieu d'observation et des effets causés par le séisme. Elle décroît généralement lorsqu'on s'éloigne de l'épicentre du séisme mais varie aussi selon la structure géologique. Une forte intensité est souvent associée à des zones de roches molles (sable, vase, argile et remblais), alors qu'on note une faible intensité dans des zones de roches plus solides (grès). Pour un séisme donné, on donne souvent uniquement l'intensité à l'épicentre, la plus forte généralement : c'est l'intensité épicentrale.

Plusieurs échelles d'intensité ont été définies. Les plus utilisées sont l'échelle de Mercalli qui date de 1902 et qui a été modifiée en 1956 et l'échelle MSK créée en 1964, du nom des trois sismologues européens Medvedev, Sponheuer et Karnik. Ces deux échelles comportent douze degrés notés généralement en chiffres romains de I à XII. Le degré I correspond aux secousses les plus faibles, à peine ressenties, le degré XII aux secousses les plus fortes, celles ayant entraîné une destruction totale des bâtiments. Le nombre de victimes n'est jamais pris en compte dans ces évaluations car il dépend non seulement de l'intensité, mais du type local de construction, de la densité de population et de l'heure du séisme. Depuis peu, une nouvelle échelle a été adoptée par les pays européens : EMS 92 (European Macroseismic Scale 1992). La France l'utilise depuis janvier 1997. L’ intensité est déterminée par deux facteurs :  l'ampleur des dégâts causés par un séisme  la perception qu'a eu la population du séisme. Il s'agit d'une évaluation qui fait appel à une bonne dose de subjectivité. Comme la perception de la population et l'ampleur des dégâts varient en fonction de la distance à l'épicentre, on a donc avec cette échelle, une échelle variable géographiquement. Mais, à l'époque, on ne possédait pas les moyens d'établir une échelle objective.

On établit généralement après les séismes importants une carte d'intensités. La méthode utilisée varie d'un pays à l'autre; par exemple, pour la France, la valeur du degré d'intensité en chaque lieu est établie à partir de questionnaires distribués par le Bureau Central Sismologique Français (BCSF) aux habitants de la région touchée par le séisme. On reporte sur les cartes d'intensité, les courbes d'égale intensité qu'on appelle isoséistes. Le centre de la courbe de plus forte intensité est appelé l'épicentre macrosismique. Il peut être différent de l'épicentre réel, dit épicentre microsismique.

On ne doit pas confondre magnitude et intensité :  A l'inverse de la magnitude qui se calcule, l'intensité d'un séisme ne peut donner lieu qu'à une estimation.  La magnitude est une valeur associée uniquement au séisme. L'intensité est associée au lieu d'observation.  Il n'existe pas de véritable relation entre magnitude et intensité. Ainsi deux séismes de même magnitude peuvent donner en surface des intensités différentes. Inversement deux séismes de même intensité en un lieu peuvent avoir des magnitudes différentes.

 La magnitude d'un séisme est une valeur intrinsèque du séisme, indépendante du lieu d'observation, des témoignages de la population. La notion de magnitude a été introduite en 1935 par l'Américain Charles Francis Richter pour les séismes locaux Californiens afin d'estimer l'énergie libérée au foyer d'un tremblement de terre et pouvoir ainsi comparer les séismes entre eux. On parle depuis de l'échelle de Richter. Elle se mesure sur une échelle logarithmique ouverte; à ce jour, le plus fort séisme a atteint 9,5 sur l'échelle de Richter (Chili). Cette fois, il s'agit d'une valeur qu'on peut qualifier d'objective: il n'y a qu'une seule valeur pour un séisme donné. Aujourd'hui, on utilise un calcul modifié du calcul originel de Richter (qui ne faisait intervenir que la quantité d'énergie dégagée au foyer) en faisant intervenir la dimension du segment de faille le long duquel s'est produit le séisme. La méthode originale de calcul est la suivante :

 A amplitude maximale mesurée sur un sismogramme enregistré par un sismographe Wood Anderson en millimètre.  logA0 est une valeur standard fonction de la distance épicentrale. Référence de Richter : distance épicentrale de 100 km A=1mm ML=3 :

La magnitude est une fonction continue, qui peut être négative ou positive et, en principe n'a pas de limites. En réalité, sa valeur minimale est liée à la sensibilité du sismographe. Un sismographe très sensible peut enregistrer une magnitude de l'ordre de -2, équivalente à l'énergie dégagée par la chute d'une brique sur le sol d'une hauteur de 1 mètre. Sa valeur maximale est liée à la résistance de la lithosphère aux forces tectoniques et à la longueur maximum de la faille susceptible de se fracturer d'un seul coup. Le séisme de plus grande magnitude connu au cours de ce siècle est celui du Chili en 1960, de magnitude 9.5 ; la zone de rupture de la faille a atteint plus de 1 000 km de long. C'est à cause de cette limite qu'on entend parfois parler des 9 degrés de l'échelle de Richter. Les séismes de magnitude supérieure à 9 sont très rares et la magnitude 10 semble être une limite raisonnable compte tenu de la solidité des roches et de la fragmentation des failles. La magnitude est une fonction logarithmique ; c'est à dire qu’un accroissement de magnitude de 1 correspond à une multiplication par 30 de l'énergie et une multiplication par 10 de l'amplitude du mouvement. Par exemple, un séisme de magnitude 6 est dix fois plus fort en amplitude qu'un séisme de magnitude 5 et cent fois plus fort en amplitude qu'un séisme de magnitude 4.

Lors de la rupture qui se produit au foyer d'un tremblement de terre, la plus grande partie de l'énergie se dissipe sous forme de chaleur. Une partie seulement se propage au loin sous forme d'ondes élastiques. Le rapport entre l'énergie des ondes et l'énergie totale, appelé rendement sismique, est estimé entre 20 et 30 %. La magnitude de Richter mesure l'énergie émise sous forme d'ondes élastiques. Un séisme de magnitude 5.0 correspond à peu près à l'énergie dégagée par la bombe nucléaire qui détruisit Hiroshima. La relation qui existe entre la magnitude et l'énergie sismique libérée montre qu'un séisme de magnitude 7 libère à lui seul autant d'énergie qu'une trentaine de séisme de magnitude 6.

La magnitude est calculée soit à partir de l'amplitude du signal enregistré par un sismomètre, soit à partir de la durée du signal lue sur le sismogramme. Son calcul nécessite plusieurs corrections tenant compte du type de sismographe utilisé, de la distance entre le séisme et la station d'enregistrement, de la profondeur du séisme, de la nature du sous-sol où se trouve la station d'enregistrement. Les corrections permettent de calculer partout dans le monde la même magnitude pour un même séisme. Il existe plusieurs échelles de magnitude : Magnitude locale ML : On l'utilise pour des séismes proches dits séismes locaux. Elle est définie à partir de l'amplitude maximale des ondes de volume. Elle est toujours moyennée sur plusieurs stations en tenant compte des corrections locales

où A est l'amplitude mesurée en mm et ð est la distance en km

Magnitude de durée MD : On l'utilise également pour des séismes proches mais elle est définie à partir de la durée du signal.

où t est la durée du signal mesuré en s , a et c des constantes d’étalonnage et ð est la distance en km.  Magnitude des ondes de surface MS :

Elle est utilisée pour les séismes lointains, dits téléséismes, dont la profondeur est inférieure à 80 km. Elle se calcule à partir de l'amplitude des ondes de surface.

où A est l'amplitude du mouvement du sol en µm où T est la pseudo-période de l’onde mesurée en s a et c sont des constantes d’étalonnage et ð est la distance en km.

 Magnitude des ondes de volume MB : Cette magnitude est définie pour tous les téléséismes et en particulier pour les séismes profonds, car ceux-ci génèrent difficilement des ondes de surface. Elle est calculée à partir de l'amplitude de l'onde P qui arrive au début du sismogramme.

où A est l'amplitude du mouvement du sol en µm où T est la pseudo-période de l’onde mesurée en s a et c sont des constantes d’étalonnage et ð est la distance en km.

 Moment sismique et magnitude de moment Le moment sismique (en N.m) est défini comme le produit : M0 = μ.S.d avec μ la rigidité de la roche (en N.m-2), S la surface du plan de faille ayant rompu (en m2) et d le déplacement le long de ce plan (en m).

D'où une estimation possible via les données de terrain mais aussi par traitement des données de sismogrammes. Remarquons que l'usage utilise le N.m pour l'expression d'un moment qui est un travail et donc une énergie (1 N.m = 1 J). Magnitude de moment sismique (ou d’énergie ou de Kanamori) : MW = 2/3.log10(M0) - 6 cette expression de la magnitude est adaptée aux forts séismes. Elle est calculée à partir d'un modèle physique de source sismique et est reliée au moment sismique M0 :

Les formules de calcul de magnitudes utilisées ont été déterminées de façon à ce que les échelles soient complémentaires et que les magnitudes données soient comparables si on utilise deux échelles a priori adaptées à la détermination de la puissance d'un séisme. Par exemple, la formule de calcul de Kanamori (1977) (magnitude de moment) est telle qu'un séisme de magnitude 5 correspond exactement à un séisme de magnitude 5 sur l'échelle de Richter. Ainsi, quel que soit le mode précis de calcul de la puissance d'un séisme, on peut parler de « magnitude sur l'échelle de Richter ». Dans les faits, ce sera une magnitude de Richter au sens strict ou bien une magnitude rapportée à une échelle de Richter « élargie ». La précision d'une magnitude est de l'ordre de 0,25 degré de magnitude. Souvent, une première estimation est ensuite affinée au fur et à mesure de l'accumulation des données des différents réseaux sismiques.

Magnitude et énergie sismique Énergie sismique et moment peuvent être déterminés selon les sismomètres disponibles. Richter avait aussi proposé une estimation de l'énergie sismique à partir de la magnitude, à partir d'une relation empirique. Magnitude (M), énergie sismique (Es) et moment sismique (M0) sont donc reliés par des équations.

Magnitude - énergie sismique : M = 2/3.log10(Es) - 2,88 log10(Es) =3/2.M + 4,32 Énergie sismique - moment sismique : log10(Es) = log10(M0) - 4,68 soit : Es = M0.10-4,68 ≃ 2.10-5.M0 cette expression, dérivée d'estimations empiriques et restant pour partie empirique, considère que l'énergie sismique ne représente qu'une fraction (1/50 000) du moment sismique, énergie totale libérée par le séisme.

Le graphique qui suit met en relation, la magnitude des séismes, sur échelle arithmétique, et l'énergie dégagée au foyer, sur échelle logarithmique ; il présente aussi une comparaison entre quelques séismes les plus connus.

Séismes, bombes nucléaires, comparaisons énergétiques Il existe une comparaison usuelle entre séisme et bombes, telle qu'une bombe atomique d'un kilotonne de TNT correspond à un séisme de magnitude 4. Cette comparaison implique, si on reprend la formule magnitude - énergie sismique et qu'on trouve l'équivalence TNT - énergie (1g de TNT équivaut à 1000 calories, soit 4184 kJ), qu'il est considéré dans cette « analogie » empirique que seul 0,5% (1/200) de l'énergie de la bombe est propagée sous forme sismique. La conversion de la totalité de l'énergie « explosive » en énergie sismique aboutirait donc à un séisme 200 fois plus énergétique, soit, pour une bombe d'une kilotonne de TNT, à un séisme de magnitude 5,53. La bombe Little Boy, ayant explosé au-dessus d'Hiroshima le 6 août 1945, avait une puissance de 15 kilotonne de TNT. L'énergie de cette bombe correspond donc soit à un séisme de magnitude ~4,8 (comparaison usuelle des bombes), soit à un séisme de magnitude 6,3 (toute l'énergie en énergie sismique).

Propagation des ondes sismiques

Réflexion et réfraction des ondes sismiques Les ondes de volume se propagent comme toutes les ondes, et en particulier comme les rayons lumineux : elles peuvent être réfléchies ou réfractées, c'est-à-dire déviées à chaque changement de milieu, au passage manteau-noyau par exemple. Elles peuvent ainsi suivre des trajets très complexes à l'intérieur de la Terre. Leur temps de parcours dépend de ce trajet, elles n'arrivent pas toutes en même temps au même endroit.

Si les distances n'excèdent pas quelques centaines de kilomètres, on peut admettre que la surface de discontinuité est plane, ainsi que la surface du sol. Dans chaque transformation, les vitesses Vi et Vr sont reliées à l'angle i d'incidence et à l'angle r de réflexion ou de réfraction par l'équation que l'on appelle aussi loi de Descartes.

Remarque : des ondes P peuvent exciter des ondes S Envisageons une onde P qui arrive à l'interface séparant un liquide d'un solide. Si l'onde P n'est pas perpendiculaire à cette interface, elle « secoue » la surface dans son propre plan, de manière non uniforme. Ce phénomène induit donc des zones de cisaillement source d'ondes S à l'intérieur du solide. Pour bien comprendre ce phénomène, il faut raisonner sur le front d'onde plutôt que sur le trajet du rai sismique, et envisager le transfert des contraintes au travers de l'interface à un instant donné. Lorsque l'onde arrive sur l'interface, du fait de l'inclinaison du rayon incident, les points A et B ne reçoivent pas la même contrainte à un instant donné. La surface ne se déplace donc pas de la même quantité en A et en B. Ce mouvement différentiel est source d'une onde S qui se propage dans le solide. Ainsi, une onde P incidente excite une onde P et une onde S au passage de l'interface.

Pour des distances supérieures à quelques centaines de kilomètres on considère un modèle de Terre à couches concentriques homogènes, on a (fig. 1)

Si on désigne par R la distance au centre de la Terre, on peut donc écrire d'une façon générale :

Le paramètre P caractérise le trajet des ondes entre le foyer et un point sur la surface de la Terre. Supposons qu'un rai s'enfonce (0