ICI ; LE REEL NOUS INTERPELLE
ICI… ; DANS CE CONTINUUM ESPACE-TEMPS… ; Seul, les « REELS » nous interpellent…
https://www.facebook.com/media/set/?set=a.1231148060354802.1073741859.100003788581173&type=3
MATIERE, CORPS, ET CORPUSCULE
La matière est ce qui compose tout corps ayant une réalité tangible. Les quatre états les plus communs connus sont l'état solide, l'état liquide, l'état gazeux et l'état plasma. La matière occupe de l'espace et possède une masse.
Ainsi, en physique, tout ce qui a une masse est de la matière.
La matière ordinaire qui nous entoure est formée de baryons et constitue la matière baryonique. Cette définition exclut les bosons fondamentaux, qui transportent les quatre forces fondamentales (forces faible, forte, électromagnétique et gravitationnelle), bien qu'ils aient une masse et/ou une énergie.
Ne pas confondre avec matériau, qui est le type, la sorte ou la classe de matière utilisé pour réaliser une pièce.
PHYSIQUE
Les états de la matière
La matière peut se retrouver dans plusieurs états ou phases. Les quatre états les plus connus sont solide, liquide, gazeux, et plasma. Il existe aussi d'autres états un peu plus exotiques, tels que le cristal liquide, condensats de Bose-Einstein, superfluide et fluide supercritique. Lorsque la matière passe d'un état à l'autre, elle effectue une transition de phase. Attention : un changement d'état n'est pas une transformation chimique ! Ce phénomène est étudié en thermodynamique via les diagrammes de phase. La transition de phase se produit lorsque certaines caractéristiques de la matière changent : pression, température, volume, densité, énergie, etc...
La matière en physique des particules
La matière au niveau fondamental est constituée de quarks et de leptons. Les quarks se combinent pour former des hadrons, principalement des baryons et des mésons via la force nucléaire forte, et sont présumés toujours confinés ainsi. Parmi les baryons se trouvent le proton (dont la charge électrique est positive) et le neutron (de charge électrique nulle), qui eux se combinent pour former les noyaux atomiques de tous les éléments chimiques du tableau périodique. Normalement, ces noyaux sont entourés d'un nuage d'électrons (de charge électrique négative et exactement opposée à celle du proton).
L'ensemble formé par un noyau et un nuage qui comprend autant d'électrons négatifs que de protons positifs présents dans le noyau est un atome. Il est électriquement neutre, sinon, c'est un ion. Les atomes peuvent s'agencer entre eux pour former des structures plus grosses et plus complexes, telles que les molécules. Une quantité de particules de matière s'exprime avec l'unité : la mole.
NOMBRE D’AVOGADRO
En chimie et en physique, le nombre d'Avogadro (ou constante d'Avogadro), noté NA, est défini comme étant le nombre d'entités qui se trouvent dans une mole. Il correspond au nombre d'atomes de carbone dans 12 grammes de l'isotope 12 du carbone. De par sa définition, le nombre d'Avogadro possède une dimension, l'inverse d'une quantité de matière, et une unité d'expression dans le système international d'unités : la mole à la puissance moins un. Sa valeur numérique est :
NA = 6,02214129(27) × 1023 mol−1.
Le nombre d'Avogadro est nommé en l'honneur du physicien et chimiste italien Amedeo Avogadro (1776 - 1856).
La chimie est la science qui étudie comment se combinent les noyaux et les électrons pour former divers éléments et molécules.
Chaque particule d'atomes est associée à une (anti-)particule d'antimatière (par exemple électron-positron). Une particule d'antimatière se distingue de sa partenaire par le fait que toutes ses différentes "charges" (charge électrique, charge de couleur, spin, etc.) sont opposées. Toutefois de telles particules possèdent la même masse.
Bien que les lois fondamentales de la physique n'indiquent pas une préférence pour la matière par rapport à l'antimatière, les observations cosmologiques indiquent que l'Univers est presque exclusivement constitué de matière chargée énergétiquement, dont le pourcentage Matière/Energie est tributaire de l’espace de référence fonction des différents états de transitions et de liaisons des constituants élémentaires de cet univers ‘’observable’’.
La matière et la théorie de la relativité
Les travaux d'Albert Einstein en relativité restreinte nous ont légué la fameuse équation E = mc², où E est l'énergie au repos d'un système, m est sa masse et c, est la vitesse de la lumière dans le vide.
Cela implique donc que la masse est équivalente à de l'énergie et vice-versa.
Ainsi par exemple lorsque plusieurs particules se combinent pour former des atomes, la masse totale (au repos) de l'assemblage est plus petite que la somme des masses des constituants (au repos) car en fait une partie de la masse des constituants est convertie en énergie de liaison, nécessaire pour assurer la cohésion de l'ensemble. On appelle ce phénomène le défaut de masse.
Ce même physicien a établi le lien entre la courbure de l'espace-temps et de la masse-énergie grâce à la théorie de la relativité générale : la masse (l'inertie) de la matière (ou une équivalence en énergie) courbe l'espace-temps et l'espace-temps "indique" les géodésiques à suivre, les trajectoires possibles. Ainsi, en relativité générale, la matière et l'énergie sont regroupées sous la même bannière et une façon d'en mesurer la quantité est d'observer la courbure de l'espace-temps qui les contient.
HISTOIRE DU CONCEPT DE L'ATOME
Frise chronologique de la physique microscopique.
La notion d'atome est particulièrement bien admise par le grand public, pourtant, paradoxalement, les atomes ne peuvent pas être observés par des moyens optiques et seuls quelques rares physiciens manipulent des atomes isolés. L'atome est donc un modèle essentiellement théorique. Bien que ce modèle ne soit plus aujourd'hui remis en cause, il a beaucoup évolué au cours du temps pour répondre aux exigences des nouvelles théories physiques et rendre compte des résultats expérimentaux obtenus au fil du temps.
Antiquité : un concept philosophique
Il est probable que plusieurs peuples aient développé la notion de « grain composant la matière », tant ce concept semble évident lorsque l'on morcelle une motte de terre, ou en regardant une dune. Dans la culture européenne, ce concept apparaît pour la première fois dans la Grèce antique au Vème siècle av. J.-C., chez les philosophes présocratiques, notamment Leucippe, env. 460-370 av. J.-C., Démocrite et, plus tard, Épicure. La théorie atomiste sera ensuite magnifiquement exposée par le Romain Lucrèce dans son œuvre De rerum natura, qui nous est parvenue.
Il s'agit d'une conception du monde qui fait partie de la recherche des principes de la réalité, recherche qui caractérise les premiers philosophes : on suppose que la matière ne peut se diviser indéfiniment, qu'il y a donc une conservation des éléments du monde, qui se transforment ou se combinent selon des processus variés. La décomposition du monde en quatre éléments (eau, air, terre, feu) peut donc compléter cette thèse.
L'atomisme est une solution concurrente, qui naît de l'opposition de l'être et du néant : l'atome est une parcelle d'être qui se conserve éternellement, sans quoi, les choses finiraient par disparaître. Les atomes sont indivisibles; ils composent la matière comme les lettres composent les mots. Ce fut, sans aucun doute, un tournant philosophique majeur, à l'origine du matérialisme et de la séparation de la science et de la religion. Cependant, même si l'empirisme épicurien tente d'établir cette hypothèse sur des bases scientifiques, l'atome demeure une intuition sans confirmation.
La chimie du XVIIIe siècle — les éléments
Depuis des millénaires, on a remarqué que les produits se transforment : le feu, la métallurgie (transformation du minerai en métal), la corrosion (dégradation du métal), la vie, la cuisson des aliments, la décomposition de la matière organique… Par exemple, pour Empédocle, les transformations de la matière s'expliquaient de la manière suivante : il y avait quatre types d'éléments (eau, air, terre, feu) qui s'associaient et se dissociaient, en fonction de l'amour ou de la haine qu'ils se portaient- les fameux « atomes crochus ».
Au Moyen Âge, les alchimistes ont étudié ces transformations et remarqué qu'elles suivent des règles bien précises. Vers 1760, des chimistes britanniques commencent à s'intéresser aux gaz produits par les réactions, afin d'en mesurer le volume et de les peser. Ainsi, Joseph Black, Henry Cavendish et Joseph Priestley découvrent différents « airs » (c'est-à-dire gaz) : l'« air fixe » (le dioxyde de carbone), l'« air inflammable » (le dihydrogène), l'« air phlogistique » (le diazote), l'« air déphlogistiqué » (le dioxygène)… (Le terme « phlogistique » provient de la théorie du chimiste allemand Georg Ernst Stahl, au début du XVIIIème siècle, pour expliquer la combustion ; cette théorie fut balayée par Lavoisier.)
Antoine Laurent de Lavoisier (chimiste français) énonce en 1775 que : « Rien ne se perd, rien ne se crée, tout se transforme » (formulé d'une manière légèrement différente à l'époque) signifiant par-là que :
• la masse se conserve pendant les réactions chimiques.
Les scientifiques avaient observé que si l'on pesait la matière solide avant et après la combustion, on avait une variation de masse ; ceci provient d'un échange avec l'air (l'oxygène s'incorpore et alourdit, le dioxyde de carbone et la vapeur d'eau s'en vont et allègent). Il suffit pour s'en rendre compte de faire brûler dans une cloche fermée, et de peser la cloche en entier, somme solide et gaz (compris) : la masse totale ne change pas ;
• les substances se décomposent en « éléments », c'est l'organisation de ces éléments qui change lors d'une réaction.
Cette notion marque la véritable naissance de la chimie. Les chimistes ont donc commencé à recenser les éléments dont sont composées toutes les substances et à créer une nomenclature systématique — oxygène : qui produit des acides (οξυs signifie « acide » en grec) — hydrogène : qui produit de l'eau… Par exemple, en1774, Lavoisier, en suivant les travaux des chimistes britanniques, établit que l'air se compose en « air vital » (dioxygène) et en « air vicié et méphitique, mofette » (diazote) ; en 1785, il décompose l'eau (en faisant passer de la vapeur d'eau sur du fer chauffé au rouge) et montre donc que ce n'est pas un élément, mais que l'eau est décomposable en éléments (c'est en fait une pyrolyse). Le terme d'« analyse » provient d'ailleurs de cette notion de décomposition, lusis (λυσιs) signifie « dissolution » en grec : on décompose les produits (par attaque acide, en les brûlant, en les distillant, etc.) jusqu'à obtenir des substances simples reconnaissables facilement (l'hydrogène, l'oxygène, le carbone, le fer, etc.).
On a donc la première constatation expérimentale de la décomposition de la matière en substances élémentaires.
La physique du XVIIIème siècle — les particules...
Un autre pas, fait en parallèle, vient de l'étude des propriétés des gaz et de la chaleur (thermodynamique).
Les fluides (liquides et gaz) sont étudiés en Europe depuis l'Antiquité, mais c'est au milieu du XVIIème siècle que l'on commence vraiment à cerner leur propriétés, avec l'invention du thermomètre (thermoscope de Santorre Santario, 1612), du baromètre et du vide pompé (Evangelista Torricelli, 1643), l'étude de l'expansion des gaz (Gilles Personne de Roberval, 1647), la pression atmosphérique (Blaise Pascal et Florin Perrier, 1648), les relations entre pression et volume (Robert Boyle en1660, Edmé Mariotte en 1685), la notion de zéro absolu (Guillaume Amontons, 1702), etc...
René Descartes (mathématicien, physicien et philosophe français) émet l'idée, en 1644, que les gaz sont composés de particules tourbillonnantes. Mais il ne s'agit là encore que d'une conception imagée, sans appui expérimental ; dans le même ordre d'idées, Descartes pensait que c'était aussi un tourbillon de « matière subtile » qui entraînait la rotation des planètes (ceci fut mis en défaut par Isaac Newton avec l'attraction universelle en 1687).
Cependant, cette notion de corpuscules inspira d'autres scientifiques. Les mathématiciens suisses Jakob Hermann (1716) et Leonhard Euler (1729), mais surtout le physicien suisse Daniel Bernoulli (1733), effectuent des calculs en supposant que les gaz sont formés de particules s'entrechoquant, et leurs résultats sont en accord avec l'expérience. C'est la conception « cinétique » des gaz, c'est-à-dire l'explication de la température et de la pression par des particules en mouvement.
Une autre science se développe à la fin du XVIIIe siècle : la cristallographie. Ce qui intrigue les scientifiques, c'est l'observation des formes géométriques des cristaux naturels, et leur capacité à se cliver selon des plans lisses respectant ces symétries. Reprenant l'idée de classification des êtres vivants de Carl Von Linné, on commence à rechercher et classer les minéraux (Jean-Baptiste Romé de L'Isle, minéralogiste français, 1772). L'abbé René-Just Haüy (cristallographe français), en1781, suppose que la forme des cristaux reflète la symétrie d'une « brique élémentaire », le cristal étant un assemblage de ces briques. On retrouve ici cette notion de composant élémentaire de la matière.
XIXe siècle — le triomphe de l'atome
À ce stade, ressortaient trois notions :
• les corps chimiques sont décomposables en substances élémentaires ;
• les gaz sont composés de corpuscules qui volent et s'entrechoquent ;
• les cristaux sont composés de cellules dont la forme détermine la forme extérieure du cristal.
Ces notions ont en commun le fait que la matière homogène est composée de corpuscules tous semblables entre eux, mais trop petits pour être visibles. Les découvertes du XIXe siècle vont permettre de faire converger ces trois notions, et d'établir les notions de molécule et d'atome.
John Dalton (chimiste et physicien britannique), en 1804, mesure les masses des réactifs et des produits de réaction, et en déduit que les substances sont composées d'atomes sphériques, identiques pour un élément, mais différents d'un élément à l'autre, notamment par la masse de ces atomes. Il découvre également la notion de pression partielle (dans un mélange de gaz, la contribution d'un gaz donné à la pression totale). Il fut le premier à émettre les idées de la théorie atomique.
En 1807, Louis Joseph Gay-Lussac (physicien et chimiste français), établit la loi reliant la température et la pression d'un gaz. En 1808, il établit que les gaz réagissent en proportions déterminées ; les rapports des volumes des réactifs et des produits de réaction sont des nombres entiers petits. Le fait que ce soit des nombres entiers, a induit fortement à penser que la matière n'est pas « continue » (pensée dominante à cette époque), mais faite d'éléments discontinus.
Amedeo Avogadro (physicien italien), en 1811, énonce, sans preuve, que pour une température et une pression fixées, un volume donné de gaz contient toujours le même nombre de molécules, et ce quel que soit le gaz.
Il fait également l'hypothèse que les gaz sont poly-atomiques, et définit nettement molécules et atomes. André-Marie Ampère (1814), Jean-Baptiste Dumas (1827) et William Prout (1834) arrivent à la même conclusion.
En 1813, Jöns Jacob Berzelius inventa et fit admettre universellement des formules chimiques analogues aux formules algébriques pour exprimer la composition des corps ; le système actuel de notation fut adopté grâce à lui qui le proposa.
En 1821, John Herapath (mathématicien britannique) publie une théorie cinétique des gaz pour expliquer la propagation des sons, les changements de phase (vaporisation, liquéfaction) et la diffusion des gaz. Robert Brown (botaniste britannique), en 1827, observe le mouvement de grains de pollen dans l'eau ; les grains vont en ligne droite, et ne changent de direction que lors d'un choc avec un autre grain ou bien contre une paroi.
C'est de ce comportement, le « mouvement brownien », dont s'inspireront les physiciens pour décrire le mouvement des molécules de gaz.
Gabriel Delafosse, en 1840, suppose que l'on peut dissocier la composante élémentaire du cristal et son organisation ; ainsi, la brique élémentaire de Haüy pourrait être un réseau aux nœuds duquel se trouveraient des « molécules » ; ce serait la forme du réseau qui donnerait la forme au cristal et non pas nécessairement la forme des molécules.
Louis Pasteur (chimiste et biologiste français), en 1847, établit le lien entre la forme des molécules et la forme des cristaux (en fait, la molécule donne sa forme au réseau, et le réseau sa forme au cristal). Auguste Bravais (physicien français), en 1849, détermine les 32 réseaux cristallins possibles.
En 1858, Stanislao Cannizzaro insiste sur la distinction, précédemment émise par Avogadro sous forme d'hypothèse, entre le poids moléculaire et atomique et montre comment le poids atomique des éléments contenus dans des composés volatils peut être déduit de la connaissance de leur chaleur spécifique et comment le poids atomique des composés dont la densité de vapeur est inconnue peut aussi être déduit de la chaleur spécifique.
La même année, Rudolf Clausius (physicien allemand) définit le libre parcours moyen d'une molécule dans un gaz (distance moyenne parcourue entre deux chocs). Partant de là, en 1859, James Clerk Maxwell (physicien écossais) introduit la notion de dispersion statistique des vitesses des molécules dans la cinétique des gaz. Ceci permit à Ludwig Boltzmann (physicien autrichien), en 1858, d'estimer la taille des molécules et de définir la répartition statistique des vitesses dans un gaz.
En 1863, John Alexander Reina Newlands publie le premier tableau périodique des éléments, ordonnés en fonction de leur masses atomiques relatives, et émit l'hypothèse, en 1865, de la 'loi des octaves' selon laquelle les propriétés chimiques d'un élément de la table se retrouvent tous les huit éléments. Personne n'y croit à l'époque.
Bilan
La notion d'atome et de molécule a donc permis le succès de la thermodynamique statistique, de la chimie et de la cristallographie. À cette notion, vont correspondre des modèles qui seront affinés au cours du développement par les sciences physiques et particulièrement précisés par les découvertes de la physique quantique durant le XXe siècle, et notamment :
• la découverte de l'électron (Joseph John Thomson, 1897) ;
• les expériences de déviation des particules alpha par la matière (Ernest Rutherford of Nelson, 1911) ;
• les expériences de diffraction des rayons X sur les cristaux (Max von Laue, 1912).
Tableau des éléments
La première version du tableau périodique des éléments de Mendeleïev
HISTOIRE DE l’ATOME
Historique des modèles de l'atome
Dans l'histoire des sciences, plusieurs modèles de l'atome ont été développés, au fur et à mesure des découvertes des propriétés de la matière. Aujourd'hui encore, on utilise plusieurs modèles différents ; en effet, le modèle le plus récent est assez complexe, l'utilisation de modèles « anciens » ou partiellement faux, mais plus simples, facilite la compréhension, donc l'apprentissage et la réflexion.
Depuis l'antiquité grecque, on supposait que la matière pouvait se fractionner en petits morceaux jusqu'à obtenir des grains indivisibles, qu'elle était comme « de la poussière dans la lumière ». C'est avec l'expérience de Rutherford que l'on atteint enfin ce grain : les particules alpha, en traversant la matière, voient leur trajectoire perturbée, ce qui va permettre enfin de savoir comment est organisée cette « poussière »…
• 1675 : Jean Picard observe une luminescence verte en agitant un tube de baromètre ; on découvrira quelques siècles plus tard que cela est dû à l'électricité statique et aux vapeurs de mercure ;
• 1854 : Heinrich Geissler et Julius Plücker découvrent les rayons cathodiques, des rayons verts luminescents lorsque l'on établit une forte tension électrique dans une ampoule dont on a pompé l'air (faible pression de gaz) ; ils inventent ainsi la lampe à décharge, qui éclaire maintenant nos supermarchés d'une lumière blanche, nos rues et nos stationnements d'une lumière orange (lampes au sodium) ;
Comparaison de 4 premiers modèles atomiques sur l'exemple de l'atome de bore
• 1897 : J. J. Thomson établit que ces rayons cathodiques sont constitués de particules chargées négativement arrachées à la matière, et découvre ainsi l'électron ; c'est la première décomposition de l'atome ;
• 1900 : Max Planck montre la quantification des échanges d'énergie dans la matière (recherches sur le corps noir) ;
• 1911 : Expérience de Rutherford : il bombarde une feuille d'or par des particules alpha (des noyaux d'hélium, chargés positivement, obtenus par radioactivité) ; il en déduit que : la plupart des particules vont en lignes droites, donc la matière est « pleine de trous » ; mais certaines sont déviées et même rebroussent chemin, donc elles rencontrent des îlots très concentrés de matière chargée positivement (les + se repoussent entre eux).
Il en déduit le modèle atomique planétaire : l'atome est constitué d'un noyau positif très petit et d'électrons tournant autour ; ce modèle pose un gros problème : en tournant, les électrons devraient perdre de l'énergie par rayonnement, et donc s'écraser sur le noyau… (Ex.: Capture K)
• 1913 : Niels Bohr réunit les concepts de Planck et de Rutherford, et propose un modèle atomique quantique: les orbites des électrons ont des rayons définis, il n'existe que quelques orbites « autorisées » ; ainsi, les échanges d'énergie quantifiés correspondent à des sauts entre les orbites définies, et lorsque l'électron est sur l'orbite la plus basse, il ne peut pas descendre en dessous et s'écraser (mais ce modèle n'explique pas pourquoi) ;
• 1914 : L'expérience de Franck et Hertz valide le modèle de Bohr : ils bombardent de la vapeur de mercure avec des électrons ; l'énergie cinétique perdue par les électrons traversant les vapeurs est toujours la même ;
• 1924 : Louis de Broglie postule la dualité onde-corpuscule ;
• 1926 : Schrödinger modélise l'électron comme une onde, l'électron dans l'atome n'est donc plus une boule mais un « nuage » qui entoure le noyau ; ce modèle, contrairement aux autres, est stable car l'électron ne perd pas d'énergie.
Modèles obsolètes
Les modèles présentés dans cette section sont trop éloignés de la réalité pour pouvoir être utilisés. Ils ne sont présentés ici qu'à titre historique.
Le modèle de J.J. Thomson ou modèle de l’électron élastiquement lié à l’atome.
Le pudding de Thomson, la charge positive est répartie uniformément dans tout le volume, qui est parsemé d’électrons.
Avec la découverte de l’électron en 1897, on savait que la matière était composée de deux parties : une négative, les électrons, et une positive, le noyau. Dans le modèle imaginé alors par Joseph John Thomson, les électrons, particules localisées, baignaient dans une « soupe » positive, à l’image des pruneaux dans le far breton (ou dans le plum-pudding pour les Britanniques ou encore comme des raisins dans un gâteau). Ce modèle fut invalidé en 1911 par l'expérience d’un de ses anciens étudiants, Ernest Rutherford.
Le modèle planétaire de Rutherford
L'expérience de Rutherford met en évidence que les charges positives ne sont pas « étalées » entre les électrons, mais sont concentrées en de petits points. Il bombarda une fine feuille d'or par un faisceau de particules alpha (particules de charges électriques positives). Il observa que les particules étaient déviées faiblement, ce qui ne correspondait pas au résultat prévu par le modèle de Thomson, pour lequel, elles n'auraient pas dû la traverser.
Rutherford imagine donc un modèle planétaire : l'atome est constitué d'un noyau positif autour duquel tournent des électrons négatifs. Entre le noyau — très petit par rapport à l'atome (environ 100 000 fois) — et ses électrons, un très grand vide existe.
Ce modèle fut très vite mis en défaut par les équations de Maxwell d'une part, qui prédisent que toute charge accélérée rayonne de l'énergie, et par les expériences montrant la quantification des niveaux d'énergie d'autre part.
Modèles approchés couramment employés
Le modèle des sphères dures
Le modèle le plus simple pour représenter un atome est une boule indéformable. Ce modèle est très utilisé en cristallographie. Une molécule peut se voir comme plusieurs boules accolées, un cristal comme des boules empilées. On utilise parfois une représentation « éclatée » : les atomes sont représentés comme des petites boules espacées, reliées par des traits, permettant de faire ressortir les directions privilégiées, les angles et de visualiser le nombre des liaisons.
Modèle des sphères dures pour représenter l'atome ; représentation d'une molécule d'eau et d'un cristal cubique à faces centrées, compacte (gauche) et éclatée (à droite)
Ce modèle correspond bien à certaines propriétés de la matière, comme, par exemple, la difficulté de comprimer les liquides et les solides, ou bien le fait que les cristaux ont des faces bien lisses. En revanche, il ne permet pas d'expliquer d'autres propriétés, comme la forme des molécules : si les atomes n'ont pas de direction privilégiée, comment expliquer que les liaisons chimiques révèlent des angles bien définis ?
Le modèle de Bohr
Modèle de l’atome de Bohr : un modèle planétaire dans lequel les électrons ont des orbites définies
Un modèle fut développé par Niels Bohr en 1913 à partir des propriétés mises en évidence par Planck et Rutherford. Dans le modèle des sphères dures, l’atome est un objet entier, indécomposable. Or, on sait depuis le milieu du XIXe siècle que l’on peut en « arracher » des particules portant une charge électrique négative, les électrons. Dans le modèle de Bohr, l’atome est composé d’un noyau chargé positivement, et d’électrons tournant autour, les rayons des orbites des électrons ne pouvant prendre que des valeurs bien précises.
Le noyau est très compact, d’un diamètre d’environ 10-15 à 10-14 m, c’est-à-dire que le noyau est cent mille à un million de fois plus petit que l’atome ; il porte une charge électrique positive. C’est aussi la partie la plus lourde de l’atome, puisque le noyau représente au moins 99,95 % de la masse de l’atome. Les électrons sont ponctuels, c’est-à-dire que leur rayon est admis quasi nul (tout du moins plus petit que ce que l’on peut estimer). Ils portent une charge négative. Pour des raisons de lisibilité, le schéma ci-dessous n’est donc pas à l’échelle, en ce qui concerne les dimensions du noyau et des électrons, ni aussi pour les rayons des différentes orbites (on notera ici que le nombre d’électrons sur les orbites n’est pas prédit par le modèle).
Un modèle fut développé par Niels Bohr en 1913 à partir des propriétés mises en évidence par Planck et Rutherford. Dans le modèle des sphères dures, l’atome est un objet entier, indécomposable. Or, on sait depuis le milieu du XIXe siècle que l’on peut en « arracher » des particules portant une charge électrique négative, les électrons. Dans le modèle de Bohr, l’atome est composé d’un noyau chargé positivement, et d’électrons tournant autour, les rayons des orbites des électrons ne pouvant prendre que des valeurs bien précises.
Le noyau est très compact, d’un diamètre d’environ 10?¹? à 10?¹? m, c’est-à-dire que le noyau est cent mille à un million de fois plus petit que l’atome ; il porte une charge électrique positive. C’est aussi la partie la plus lourde de l’atome, puisque le noyau représente au moins 99,95 % de la masse de l’atome. Les électrons sont ponctuels, c’est-à-dire que leur rayon est admis quasi nul (tout du moins plus petit que ce que l’on peut estimer). Ils portent une charge négative. Pour des raisons de lisibilité, le schéma ci-dessous n’est donc pas à l’échelle, en ce qui concerne les dimensions du noyau et des électrons, ni aussi pour les rayons des différentes orbites (on notera ici que le nombre d’électrons sur les orbites n’est pas prédit par le modèle).
Cette vision permet de décrire les phénomènes spectroscopiques fondamentaux, c’est-à-dire le fait que les atomes absorbent ou émettent seulement certaines longueurs d’onde (ou couleur) de lumière ou de rayons X. En effet, le système {noyau + électrons} étant stable et confiné, d’énergie négative, il ne possède qu’un ensemble discret d’états (et donc de niveaux) d’énergie : c’est le passage d’un état à l’autre de l’atome qui provoque une émission discrète d’énergie, ce qui explique donc les raies spectroscopiques des atomes. Le modèle de Bohr, décomposant l’atome en deux parties, un noyau et un nuage d'électrons, est plus précis que le modèle des sphères dures, pour lequel la surface de la sphère correspond à l’orbite des électrons extérieurs.
Cependant, très vite, le modèle de l’atome de Bohr ne permettra pas d’expliquer l’ensemble des observations (effet Zeeman, etc.). Il faut attendre 1924–1926 pour qu’avec Schrödinger, les orbites deviennent orbitales avec des énergies stationnaires : la mécanique quantique est née.
Le modèle actuel : modèle de Schrödinger
La naissance de la mécanique ondulatoire de Louis de Broglie en 1924, généralisée par Erwin Schrödinger en 1926 amène à proposer un nouveau modèle, dont les aspects relativistes furent décrits par Paul Dirac en 1928 ; il permet d'expliquer la stabilité de l'atome et la description des termes spectroscopiques.
Dans ce modèle, les électrons ne sont plus des billes localisées en orbite, mais des nuages de probabilité de présence. Ce point de vue, révolutionnaire, peut choquer en première approche. Cependant la représentation que l'on pouvait se faire d'un électron — une petite bille ? — était dictée par les formes observées dans le monde macroscopique, transposées sans preuves dans le monde microscopique. Il faut bien se douter du fait que ce que l'on connaît de l'électron ne repose que sur des manifestations indirectes : courant électrique, tube cathodique (télévision)…
Depuis les années 1930, on modélise ainsi l'électron par une « fonction d'onde » dont le carré de la « norme représente la densité de probabilité de présence ». Pour représenter fidèlement les propriétés de l'électron, on ne dispose que des fonctions mathématiques compliquées. Cette abstraction rebute encore bien des physiciens. Nous allons essayer de donner une image de cette notion de fonction d'onde, image nécessairement imparfaite.
Imaginons que hors de l'atome, l'électron soit une petite bille. Lorsque l'électron est capturé par l'atome, il se « dissout » et devient un nuage diffus, il s'« évapore ». Quand on l'arrache de l'atome, il redevient une petite bille, il se « recondense ». Il existe d'autres exemples d'objet qui changent de forme, par exemple, hors de l'eau, le sel est sous forme de cristaux ; mis dans l'eau, il se dissout, et si l'on fait s'évaporer l'eau, on retrouve des cristaux. Le sel change de forme (cristal compact ou dissous dans l'eau), mais on a tout le temps du sel.
Image simplifiée de l'arrachement d'un électron du nuage électronique dans le modèle de Schrödinger
De manière un peu plus exacte : un électron, hors d'un atome, est représenté par un paquet d'ondes, qui peut être considéré, dans certaines limites, comme une petite bille. La mécanique quantique démontre qu'un tel paquet d'ondes s'étale au cours du temps ; au contraire, un électron d'un atome conserve la structure de la fonction d'onde associée à l'orbite qu'il occupe (tant qu'il n'est pas éjecté de l'atome). La mécanique quantique postule donc, non la conservation de la forme (non connue) de l'électron, mais l'intégrale de la probabilité de présence.
Dans le modèle de Schrödinger, les nuages correspondant aux différents électrons s'interpénètrent ; il n'est pas question de se donner une représentation individuelle des électrons chacun sur son orbite, comme cela était dans le cas du modèle de Bohr. Cela est d'autant plus vrai que les électrons sont des particules identiques indiscernables. Les effets d'échange amènent à considérer que chaque électron de l'atome est à la fois sur chaque orbitale occupée (correspondant à une configuration électronique donnée). L'ionisation de l'atome (l'arrachement d'un électron de l'atome) peut alors être représentée par le schéma simplifié ci-dessous.
Pour éviter des complications inutiles, on considérera l'atome le plus simple afin de montrer quelques schémas dévoilant les points fondamentaux du modèle :
• le nuage électronique associé à l'état fondamental, révélant (comme d'autres états) la possibilité pour l'électron d'être au sein du noyau, ce qui a des conséquences en physique nucléaire : capture électronique ;
• le nuage électronique associé à une combinaison linéaire de deux orbitales associées au premier niveau excité. Cet exemple montre la possibilité d'obtenir des nuages électroniques pointant vers l'extérieur de l'atome… nous sommes ainsi préparés aux liaisons moléculaires.
Soit ρ(r, θ, φ) la densité de probabilité de présence au point de coordonnées sphériques (r, θ, φ). Pour l'état fondamental, la densité de probabilité, ρ, est maximale au centre de l'atome. Considérons maintenant la densité radiale de probabilité de présence (à la distance r du noyau, toutes les directions confondues) : Cette densité radiale est maximale pour r = r1 de la première orbite du modèle de Bohr (dans l'expression ci-dessus, on a tenu compte de la symétrie sphérique de ρ, identique pour toutes les directions).
On a en fait :
Ρ (0,0,0) > ρ(r1,0,0), mais P(0) < P(r1).
Densité de probabilité de présence de l'électron, état fondamental de l'hydrogène — la densité, dans un plan x y, section droite passant par le centre de l'atome, est indiquée par des niveaux de gris (elle est maximale au centre). La courbe en superposition (axe 0r) donne la densité de probabilité radiale en fonction de la distance r, c'est-à-dire la probabilité d'être en r pour toutes directions confondues : elle est maximale pour le premier rayon de Bohr (0,0529 nm).
En fonction de l'état quantique de l'électron (fondamental, excité…) ces nuages peuvent prendre différentes formes, qui sont décrites en particulier par les harmoniques sphériques. La forme la plus simple est la symétrie sphérique, montrée en particulier, ci-dessus, dans le cas de l'état fondamental, |1s>.
Graphe de la densité de probabilité de présence.
Des combinaisons linéaires de fonctions d'onde, utilisant des harmoniques sphériques distinctes, permettent l'apparition d'une anisotropie qui va devenir essentielle pour le passage de la notion d'atome à celle de molécule. Le schéma ci-contre montre une coupe de la densité de probabilité de présence de l'orbitale hybride | > de l'atome d'hydrogène, coupe contenant Oz axe de symétrie de l'orbitale atomique. Pour cet exemple, l'axe Oz devient une direction privilégiée, mais de plus la densité de probabilité de présence s'étale plus loin pour une orientation donnée.
Ce modèle permet d'expliquer :
• la stabilité de l'atome, les charges sont accélérées, mais elles sont contraintes par la mécanique quantique (relations d'incertitude) ;
• la forme des molécules : orientation préférentielle des nuages électroniques ;
• l'organisation des cristaux : le nuage électronique se comporte comme une coquille dure ;
• les effets spectroscopiques (la quantification des échanges d'énergie) : le nuage ne peut prendre que des formes déterminées, notamment en ce qui concerne la distance r1 du maximum de densité au noyau.
On notera pour terminer que des corrections relativistes sont à apporter, dans le cas des atomes de numéro atomique élevé, pour la détermination des niveaux internes (les vitesses des électrons sur les orbites du modèle de Bohr sont alors importantes).
Le noyau atomique
Si la mécanique quantique permit d'expliquer rapidement les caractéristiques spectroscopiques des atomes et des molécules, le cœur de l'atome, son noyau, fut plus difficile à comprendre. Les difficultés sont ici de deux ordres : l'une correspondant à l'importance de l'énergie des particules sondes permettant d'atteindre les dimensions de l'ordre du fermion (10-12), l'autre à la nécessaire invention d'au moins une interaction supplémentaire permettant la stabilité d'un noyau constitué de protons (qui se repoussent électriquement) et de neutrons.
Cette compréhension de la cohésion du noyau devait aussi expliquer les phénomènes de radioactivité alpha, bêta et gamma, dont les premières observations dataient de la dernière décennie du XIXe siècle.
La décennie qui précéda la Seconde Guerre mondiale mena à la découverte des deux interactions maîtresses de la stabilité du cœur : l'interaction forte et l'interaction faible. La petitesse de la portée de ces deux interactions, respectivement 10P-15 m et 10P-18 m explique les difficultés expérimentales rencontrées. Les difficultés théoriques ne manquent pas, non plus ; il ne s'agit pas de lois physiques aussi simples que celles de l'électromagnétisme, même compliquées par la mécanique quantique, mais de la compréhension de toutes les particules élémentaires… L'invention des quarks et des gluons donne ainsi la vision actuelle de l'interaction qui maintient ensemble les nucléons.
Les quarks interagissent par l'intermédiaire de l'interaction forte, décrite par la chromodynamique quantique qui a une structure voisine, mais plus compliquée, de celle de l'électrodynamique quantique. La charge de couleur pour l'interaction forte joue alors un rôle analogue à celui de la charge électrique pour l'interaction électromagnétique.
Le proton est un baryon constitué de deux quarks up et d'un seul quark down. Sa charge électrique est de : 2/3 + 2/3 - 1/3 = 3/3 soit +1.
Le neutron est aussi un baryon composé de deux quarks down et d'un seul quark up. Sa charge électrique est de: 2/3 - 1/3 - 1/3 = 0/3 soit 0. Il est donc neutre.
Le fait que l'on ne puisse pas isoler de quark rend la mesure de leur masse extrêmement approximative (voir les fourchettes d'erreur sur le tableau). Il n'est même pas clair que la notion de masse d'un quark puisse avoir un sens bien défini.
Le comportement des quarks lors par exemple de la transmutation d'un proton en neutron (ou l'inverse) laissent soupçonner aux chercheurs que les quarks ne sont pas le stade ultime de la matière et qu'ils seraient eux aussi composés d'entités plus petites nommées préons.
Un proton est constitué de deux quarks up et d'un quark down.
Les hadrons (particules lourdes) sont constitués de quarks, comme l'ont supposé Gell-Man et Néman en 1964 par des considérations de symétrie liées à des matrices 3x3 opérant sur un C-ev. L'hypothèse des quarks a été confirmée par l'étude des diffusions profondément inélastiques d'électrons sur des nucléons, qui mit en évidence trois centres diffuseurs (Feynman en 1968). Les quarks ont cette caractéristique que l'on ne les observe jamais seuls. En effet, ils sont toujours groupés de telle sorte que :
Un proton est constitué de deux quarks up et d'un quark down.
La somme de leurs charges électriques est un multiple entier de la charge élémentaire (en général 0, comme pour le neutron, et 1, pour le proton. On rappelle que l'électron n'est pas composé de quarks, mais est un lepton) ;
La somme de leurs charges de couleur est blanche (selon les règles de la synthèse additive des couleurs, c’est-à-dire composé de quarks des trois couleurs. Mais, il est aussi possible de trouver des paires quarks-antiquarks, de couleurs complémentaires qui s'annulent).
Les quarks ne peuvent exister de manière isolée (phénomène de confinement) et s'assemblent ainsi en hadrons. Il en existe deux sortes principales, distinguées par leur nombre de quarks principaux, dits « quarks de valence » :
- assemblage d'un quark et d'un antiquark : les mésons, qui ont un spin entier et sont donc des bosons ;
- assemblage de trois quarks des trois couleurs différentes : les baryons, qui ont un spin demi-entier et sont donc des fermions.
D'autres assemblages de quarks, tels les penta-quarks, formés de cinq quarks (deux paires Up-Down et un anti-Strange) ce qui désigne en fait quatre quarks et un antiquark, sont en principe possibles et auraient été observés en 2003 mais leur existence reste controversée.
En plus des quarks de valence, les hadrons sont composés d'une « mer » de paires quark-antiquark qui participent aux propriétés globales du hadron, et en particulier à sa masse.
Note : À l'extrême, on peut considérer que les étoiles étranges (étoiles à quarks) sont des assemblages macroscopiques de quarks (U ; D et S) liés par l'interaction de couleur, avant de l'être par la gravité comme ça l'est pour les étoiles à neutrons. Ces dernières ont une masse (théorique) minimale de 0,09 masse solaire, alors que théoriquement les étoiles à quarks n'auraient pas de masse minimale. Les étoiles à quarks sont à la limite entre observation et théorie.
Ces associations de quarks ont été évoquées pour rendre compte de la matière sombre de l'Univers. Elles auraient été formées dans les premiers instants du Big Bang, mais leur conservation aurait été problématique de par les conditions régnant alors.
Cette physique nucléaire mène aussi à l'explication de la nucléosynthèse, expliquant les aspects nucléaires du tableau de Mendeleïev. On se retrouve là dans le foisonnement de la naissance de l'univers et de la dynamique des étoiles.
Notation
Un atome est couramment désigné par son symbole chimique, complété par son nombre de masse A (égal au nombre de nucléons de l'atome) placé en haut et à gauche du symbole.
Exemple : le carbone 12 de nombre de masse 12 est noté : .
Il est d'usage de compléter cette écriture par le numéro atomique Z, placé en bas et à gauche du symbole, pour décrire une réaction nucléaire dans laquelle intervient un isotope.
Le carbone 12 est ainsi noté .
Ainsi, le carbone 14 et le carbone 12 sont deux isotopes.
Tableau des éléments
Date de dernière mise à jour : 02/06/2018
Ajouter un commentaire