Quantification de l'énergie des particules. Estimation de l'énergie moyenne pour différents l et m

12.4. Énergie d'une particule relativiste

12.4.1. Énergie d'une particule relativiste

énergie totale particule relativiste se compose de l'énergie au repos de la particule relativiste et de son énergie cinétique :

E \u003d E 0 + T,

Équivalence de masse et d'énergie(formule d'Einstein) permet de déterminer l'énergie au repos d'une particule relativiste et son énergie totale comme suit :

  • énergie de repos -

E 0 \u003d m 0 c 2,

où m 0 est la masse au repos d'une particule relativiste (la masse de la particule dans son propre référentiel) ; c est la vitesse de la lumière dans le vide, c ≈ 3,0 ⋅ 10 8 m/s ;

  • énergie totale -

E \u003d mc 2,

où m est la masse de la particule en mouvement (la masse d'une particule se déplaçant par rapport à l'observateur avec une vitesse relativiste v); c est la vitesse de la lumière dans le vide, c ≈ 3,0 ⋅ 10 8 m/s.

Relation entre les masses m 0 (masse d'une particule au repos) et m (masse d'une particule en mouvement) est donnée par

Énergie cinétique particule relativiste est déterminée par la différence :

T = E - E 0 ,

où E est l'énergie totale de la particule en mouvement, E = mc 2 ; E 0 - énergie au repos de la particule indiquée, E 0 = m 0 c 2 ; les masses m 0 et m sont liées par la formule

m = m 0 1 - v 2 c 2 ,

où m 0 est la masse de la particule dans le référentiel par rapport à laquelle la particule est au repos ; m est la masse de la particule dans le référentiel par rapport à laquelle la particule se déplace à une vitesse v ; c est la vitesse de la lumière dans le vide, c ≈ 3,0 ⋅ 10 8 m/s.

explicitement énergie cinétique la particule relativiste est définie par la formule

T = m c 2 - m 0 c 2 = m 0 c 2 (1 1 - v 2 c 2 - 1) .

Exemple 6. La vitesse d'une particule relativiste est de 80% de la vitesse de la lumière. Déterminez combien de fois l'énergie totale de la particule est supérieure à son énergie cinétique.

Solution . L'énergie totale d'une particule relativiste est la somme de l'énergie au repos de la particule relativiste et de son énergie cinétique :

E \u003d E 0 + T,

où E est l'énergie totale de la particule en mouvement ; E 0 - énergie au repos de la particule spécifiée; T est son énergie cinétique.

Il s'ensuit que l'énergie cinétique est la différence

T = E - E 0 .

La valeur souhaitée est le rapport

E T = E E - E 0 .

Pour simplifier les calculs, on trouve l'inverse de la valeur souhaitée :

T E = E - E 0 E = 1 - E 0 E ,

où E 0 \u003d m 0 c 2; E = mc 2 ; m 0 - masse au repos; m est la masse de la particule en mouvement ; c est la vitesse de la lumière dans le vide.

La substitution des expressions pour E 0 et E dans la relation (T /E ) donne

T E = 1 - m 0 c 2 m c 2 = 1 - m 0 m .

La relation entre les masses m 0 et m est déterminée par la formule

m = m 0 1 - v 2 c 2 ,

où v est la vitesse de la particule relativiste, v = 0,80c.

Exprimons le rapport de masse à partir d'ici :

m 0 m = 1 - v 2 c 2

et remplacez-le par (T /E ):

T E = 1 - 1 - v 2 c 2 .

Calculons :

T E \u003d 1 - 1 - (0,80 s) 2 c 2 \u003d 1 - 0,6 \u003d 0,4.

La valeur souhaitée est le rapport inverse

E T \u003d 1 0,4 \u003d 2,5.

L'énergie totale d'une particule relativiste à la vitesse indiquée dépasse son énergie cinétique d'un facteur 2,5.

Page 1


L'énergie maximale des particules dans le générateur Van de Graaff, comme dans tout accélérateur à action directe, est limitée par la tension de claquage entre la balle et les objets environnants. Même avec les précautions les plus soigneuses dans les installations existantes, la tension de claquage ne peut être élevée au-dessus de dix millions de volts.

Calculons l'énergie maximale de la particule. Le coefficient V2 à la valeur d'amplitude de l'EQ du champ est obtenu car la valeur moyenne du champ est calculée sur un demi-cycle d'oscillations.

Calculons l'énergie maximale de la particule. Le coefficient 1/2 à la valeur d'amplitude E0 du champ est obtenu car la valeur moyenne du champ est calculée pour la demi-période des oscillations.

Calculons l'énergie maximale de la particule.

La valeur de W égale à l'énergie maximale des particules à T0 K est appelée énergie niveau de Fermi ou simplement niveau de Fermi.

Les pertes d'énergie par les rayons cosmiques limitent l'énergie maximale des particules qui composent les rayons cosmiques ; cette limitation dépend de l'âge de la particule. Dans la période 1969 - 1971. les expériences de fusée ont donné une densité totale de rayonnement relique 20 à 100 fois surestimée.

Le tritium est pur (3 émetteurs avec une énergie maximale des particules de 18 61 0 02 keV et une demi-vie de 12 43 ans.

Le champ magnétique dans le cyclotron atteint des dizaines de milliers d'oersteds, le rayon de la chambre est de plusieurs mètres et l'énergie maximale des particules peut atteindre 107 eV. Cette énergie est relativement faible, bien qu'elle ait été considérée comme suffisante dans les premières expériences sur la fission nucléaire. Une grande énergie sur le cyclotron ne peut pas être atteinte: comme il ressort de la théorie de la relativité, la masse des particules augmente avec la vitesse, grâce à quoi la fréquence de leur circulation diminue pendant le mouvement.

La spécificité de l'action du rayonnement tritium est déterminée par la portée de ses 3 particules. L'énergie maximale des particules dans le spectre p du tritium correspond à une plage de matière d'environ 6 µm, à une densité de substance de 1 g/cm3, et 90 % de l'énergie de rayonnement est dépensée à une distance d'environ 0,5 µm de la source. Cette dernière circonstance s'avère extrêmement importante, car l'absorption du rayonnement de tritium se produit à une distance de l'ordre de la taille d'une cellule vivante, contrairement à des émetteurs p tels que le phosphore-32 ou l'yttrium-90, le rayonnement de qui est absorbé par l'organe irradié. À cet égard, il est important de prendre en compte la localisation intracellulaire du tritium, car la radiosensibilité des unités subcellulaires est très variable.


Coleman [31, 851] a utilisé un résonateur unique, dans lequel, à l'aide de deux magnétrons, des oscillations de type TM010 avec une fréquence de 2 8 GHz sont excitées à travers des trous de couplage indépendants. Avec une puissance d'entrée totale de 800 kW, l'énergie maximale des particules est de 1 5 MeV. Pour injecter des électrons dans le résonateur accélérateur à la vitesse et au déphasage requis, ce qui fournira une énergie de sortie élevée, un résonateur de pré-groupage est utilisé . Les électrodes série sont reliées à un diviseur résistif de manière à ce que leurs potentiels soient répartis selon une loi parabolique.

Du point de vue de la génération de nouvelles particules, les accélérateurs de faisceaux en collision (VI.5.4.3, VI.5.3.4), dans lesquels des particules à impulsion totale nulle entrent en collision, sont particulièrement efficaces. Grâce à cela, toute leur énergie cinétique peut être convertie en énergie de repos des particules nées, dont l'impulsion totale est également égale à zéro. C'est déjà assez proche de l'énergie maximale des particules de rayonnement cosmique.

particules bêta émises par noyaux atomiques avec toutes les énergies initiales possibles (de zéro à un certain maximum), ont différentes gammes dans la matière. Le pouvoir de pénétration des particules bêta de divers isotopes radioactifs est généralement caractérisé par l'épaisseur minimale d'une couche d'une substance qui absorbe complètement toutes les particules bêta. Par exemple, à partir du flux de particules bêta avec une énergie maximale de particules égale à 2 MeV, une couche de luminescence de 3 à 5 mm d'épaisseur protège avec une couche de polystyrène. Les particules alpha, qui ont une masse beaucoup plus grande que les particules bêta, lors de collisions avec des électrons de coquilles atomiques, subissent de très petits écarts par rapport à la direction de mouvement d'origine et se déplacent presque de manière rectiligne.

DANS dernières années un certain nombre de découvertes importantes en physique nucléaire ont été faites grâce à utilisation généralisée méthode des plaques à couches épaisses (p. La pratique a montré que cette méthode allie une extrême simplicité et une grande précision de recherche. Les plaques photographiques, soulevées sur des ballons et des fusées dans les couches supérieures de l'atmosphère, permettent d'étudier les transformations nucléaires causées par le cosmique particules de rayons avec des énergies des milliers de fois supérieures à l'énergie maximale des particules accélérées dans des conditions de laboratoire.

16 juillet 2015 à 00:57

Demandez à Ethan #14 : Les particules les plus énergétiques de l'univers

  • Science populaire,
  • La physique
  • Traduction
Les résultats de mes observations s'expliquent mieux par l'hypothèse que le rayonnement d'une énorme énergie pénétrante pénètre dans notre atmosphère par le haut.
-Victor Hess

On pourrait penser que les accélérateurs de particules les plus puissants - SLAC, Fermilab, LHC - sont les sources des énergies les plus élevées que nous puissions voir. Mais tout ce que nous essayons de faire sur terre n'est rien comparé à processus naturels Univers.

Le lecteur demande :

Depuis que j'ai commencé à lire les bandes dessinées Fantastic Four quand j'étais enfant, je voulais en savoir plus sur les rayons cosmiques. Peux-tu m'aider avec ceci?

Voyons voir.

Avant même que Youri Gagarine ne puisse décoller de la surface de notre planète, il était bien connu que là-bas, au-delà de la protection de l'atmosphère, l'espace est rempli de rayonnement à haute énergie. Comment l'avons-nous su ?

Les premiers soupçons sont apparus lors des expériences les plus simples avec un électroscope.


Si vous donnez une charge électrique à un tel appareil dans lequel deux tôles sont connectées l'une à l'autre, elles recevront la même charge et se repousseront. Vous vous attendez à ce que la charge s'échappe dans l'air ambiant au fil du temps - vous pourriez donc penser à isoler l'appareil, par exemple en créant un vide autour de lui.

Mais même dans ce cas, l'électroscope est déchargé. Même si vous l'isolez avec du plomb, il se déchargera toujours. Comme les expérimentateurs l'ont découvert au début du XXe siècle, plus vous élevez un électroscope haut, plus il se déchargera rapidement. Plusieurs scientifiques ont émis l'hypothèse que la décharge est due à un rayonnement à haute énergie. Il a une énergie de pénétration élevée et une origine extérieure à la Terre.

En science, il est de coutume de tester des hypothèses. En 1912, Victor Hess a mené une expérience avec un ballon dans lequel il a essayé de trouver ces particules cosmiques de haute énergie. Et les trouva en abondance, devenant le père des rayons cosmiques.

Les premiers détecteurs étaient remarquablement simples. Vous mettez en place une émulsion spéciale qui "sent" le passage des particules chargées à travers elle, et vous mettez le tout dans un champ magnétique. Lorsque les particules traversent cela, vous pouvez apprendre deux choses importantes :

  • rapport charge/masse des particules
  • et sa vitesse
qui dépendent de la façon dont le chemin de la particule se plie. Ceci peut être calculé en connaissant la force du champ magnétique appliqué.

Dans les années 1930, plusieurs expériences, à la fois avec les premiers accélérateurs au sol et avec des détecteurs de rayons cosmiques, ont donné beaucoup Une information intéressante. Par exemple, la plupart des particules de rayonnement cosmique (90 %) avaient différents niveaux d'énergie - de quelques mégaélectrovolts à des énergies aussi élevées que vous pouviez les mesurer ! La plupart des autres étaient des particules alpha, ou des noyaux d'hélium avec deux protons et neutrons, aux mêmes niveaux d'énergie.

Lorsque ces rayons cosmiques frappent la haute atmosphère terrestre, ils interagissent avec elle et déclenchent des réactions en cascade qui créent une pluie de particules de haute énergie, dont deux nouvelles : le positon, dont l'existence a été émise en 1930 par Dirac. C'est le jumeau d'un électron du monde de l'antimatière, de même masse mais de charge positive, et le muon est une particule instable de même charge qu'un électron, mais 206 fois plus lourde. Le positon a été découvert par Karl Andersen en 1932, et le muon par lui et son élève Seth Neddermeier en 1936, mais le premier positron a été découvert par Paul Kuenze quelques années plus tôt, ce que l'histoire a oublié pour une raison quelconque.

Ce qui est étonnant, c'est que si vous étirez votre bras parallèlement au sol, environ 1 muon le traversera chaque seconde.

Chaque muon qui traverse votre main naît sous une pluie de rayons cosmiques, et chacun d'eux confirme la relativité restreinte ! Vous voyez, ces muons sont créés à une altitude d'environ 100 km, mais la durée de vie moyenne des muons est de l'ordre de 2,2 microsecondes. Même s'ils se déplaçaient à la vitesse de la lumière, ils ne pourraient parcourir que 660 mètres avant de se désintégrer. Mais en raison de la distorsion temporelle, due au fait que le temps d'une particule se déplaçant à une vitesse proche de la vitesse de la lumière ralentit du point de vue d'un observateur stationnaire, ces muons en mouvement rapide peuvent voyager jusqu'à la surface de la terre avant leur décadence.

Si nous avançons rapidement jusqu'à aujourd'hui, il s'avère que nous avons mesuré avec précision à la fois le nombre et le spectre d'énergie de ces particules cosmiques.

Les particules d'énergie d'environ 100 GeV sont les plus courantes, et environ 1 de ces particules traverse mètre carré la surface de la terre à chaque seconde. Et, bien qu'il existe des particules d'énergie plus élevée, elles sont beaucoup plus rares - plus elles sont rares, plus nous prenons d'énergie. Par exemple, si nous prenons une énergie de 10 16 eV, ces particules ne traverseront un mètre carré qu'une fois par an. Et les particules les plus énergétiques avec une énergie de 5 × 10 10 GeV (ou 5 × 10 19 eV) passeront une fois par an à travers un détecteur de 10 km de côté.

Une telle idée semble plutôt étrange - et pourtant, il y a une raison à sa mise en œuvre : il doit y avoir une limite à l'énergie des rayons cosmiques et une limite à la vitesse des protons dans l'Univers ! Il n'y a peut-être pas de limite à l'énergie que nous pouvons donner à un proton : les particules chargées peuvent être accélérées à l'aide de champs magnétiques, et les trous noirs les plus grands et les plus actifs de l'univers peuvent accélérer les protons à des énergies bien supérieures à celles que nous avons observées.

Mais ils doivent voyager à travers l'univers pour arriver jusqu'à nous, et l'univers est rempli de beaucoup de rayonnement froid et de faible énergie - le rayonnement de fond cosmique.

Les particules de haute énergie ne sont créées que dans les zones où se trouvent les trous noirs les plus massifs et les plus actifs de l'Univers, et tous sont très éloignés de notre galaxie. Et si une particule surgit avec une énergie supérieure à 5 × 10 10 GeV, elle ne peut parcourir que quelques millions d'années-lumière jusqu'à ce que l'un des photons restant de Big Bang, n'interagit pas avec lui, ayant reçu un pion. L'énergie excédentaire sera rayonnée et l'énergie restante tombera à la limite d'énergie cosmique connue sous le nom de limite de Grisen-Zatsepin-Kuzmin.

Par conséquent, nous avons fait la seule chose qui semble raisonnable aux physiciens : nous avons construit un détecteur d'une taille irréaliste et avons commencé à chercher des particules !

Observatoire. C'est exactement ce que fait Pierre Auger : confirmer qu'il existe des rayons cosmiques qui atteignent, mais ne dépassent pas, cette limite d'énergie, 10 millions de fois supérieure aux énergies atteintes au LHC ! Cela signifie que les protons les plus rapides que nous ayons jamais vus se déplacent presque à la vitesse de la lumière (qui est exactement de 299,792,458 m/s), mais légèrement plus lentement. Mais combien plus lent?

Les protons les plus rapides, qui sont juste à la limite de la limite, se déplacent à une vitesse de 299 792 457,999999999999918 mètres par seconde. Si vous lancez un tel proton et un tel photon avant

Boris Arkadievitch Khrenov,
Docteur en Sciences Physiques et Mathématiques, Institut de recherche en physique nucléaire. Université d'État DV Skobeltsyn de Moscou MV Lomonossov

"Science et Vie" n°10, 2008

Près de cent ans se sont écoulés depuis la découverte des rayons cosmiques - des flux de particules chargées provenant des profondeurs de l'Univers. Depuis lors, de nombreuses découvertes ont été faites concernant le rayonnement cosmique, mais il reste encore de nombreux mystères. L'une d'entre elles est peut-être la plus intrigante : d'où viennent les particules d'une énergie supérieure à 10 20 eV, c'est-à-dire près d'un milliard de billions d'électrons-volts, un million de fois plus que ce qui sera obtenu dans l'accélérateur le plus puissant - le Grand Collisionneur de hadrons ? Quelles forces et quels champs accélèrent les particules à des énergies aussi monstrueuses ?

Les rayons cosmiques ont été découverts en 1912 par le physicien autrichien Victor Hess. Il était membre de l'Institut du Radium de Vienne et a fait des recherches sur les gaz ionisés. À cette époque, on savait déjà que tous les gaz (y compris l'atmosphère) sont toujours légèrement ionisés, ce qui indiquait la présence d'une substance radioactive (comme le radium) soit dans la composition du gaz, soit à proximité d'un instrument qui mesure l'ionisation, très probablement dans la croûte terrestre. Expériences de levage du détecteur d'ionisation pour montgolfière ont été conçus pour tester cette hypothèse, puisque l'ionisation du gaz devrait diminuer avec la distance de la surface de la terre. La réponse s'est avérée être le contraire : Hess a découvert une sorte de rayonnement dont l'intensité augmentait avec l'altitude. Cela suggérait qu'il venait de l'espace extra-atmosphérique, mais finalement prouver origine extraterrestre les rayons n'ont réussi qu'après de nombreuses expériences (le prix Nobel n'a été décerné à W. Hess qu'en 1936). Rappelons que le terme « rayonnement » ne signifie pas que ces rayons sont de nature purement électromagnétique (comme la lumière du soleil, les ondes radio ou les rayons X) ; il a servi à la découverte d'un phénomène dont la nature n'était pas encore connue. Et bien qu'il soit vite devenu clair que le composant principal des rayons cosmiques est constitué de particules chargées accélérées, les protons, le terme a été conservé. L'étude d'un nouveau phénomène a rapidement commencé à donner des résultats que l'on attribue habituellement à la « pointe de la science ».

La découverte de particules cosmiques de très haute énergie immédiatement (bien avant la création de l'accélérateur de protons) a soulevé la question : quel est le mécanisme d'accélération des particules chargées dans les objets astrophysiques ? Aujourd'hui, nous savons que la réponse s'est avérée non triviale : un accélérateur « spatial » naturel est fondamentalement différent des accélérateurs artificiels.

Il est vite devenu clair que les protons cosmiques, volant à travers la matière, interagissent avec les noyaux de ses atomes, donnant naissance à des particules élémentaires instables jusque-là inconnues (elles ont été observées principalement dans l'atmosphère terrestre). L'étude du mécanisme de leur production a ouvert une voie fructueuse pour construire une systématique des particules élémentaires. En laboratoire, protons et électrons ont appris à accélérer et à recevoir leurs immenses flux, incomparablement plus denses que dans les rayons cosmiques. En fin de compte, ce sont des expériences sur l'interaction de particules recevant de l'énergie dans des accélérateurs qui ont conduit à la création peinture contemporaine micromonde.

En 1938, le physicien français Pierre Auger a découvert un phénomène remarquable - les gerbes de particules cosmiques secondaires, résultant de l'interaction de protons primaires et de noyaux d'énergie extrêmement élevée avec les noyaux d'atomes atmosphériques. Il s'est avéré que dans le spectre des rayons cosmiques, il y a des particules avec une énergie de l'ordre de 10 15 -10 18 eV - des millions de fois supérieure à l'énergie des particules accélérées en laboratoire. L'académicien Dmitry Vladimirovich Skobeltsyn a donné sens spécialétude de ces particules et immédiatement après la guerre, en 1947, avec ses collègues les plus proches G. T. Zatsepin et N. A. Dobrotin, il a organisé une étude approfondie des cascades de particules secondaires dans l'atmosphère, appelées douches d'air extensives (EAS). L'histoire des premières études des rayons cosmiques se trouve dans les livres de N. Dobrotin et V. Rossi. Au fil du temps, l'école de D.V. Skobeltsyna est devenue l'une des plus fortes au monde et de longues années déterminé les grandes orientations de l'étude des rayons cosmiques à très haute énergie. Ses méthodes ont permis d'élargir la gamme des énergies étudiées de 10 9 –10 13 eV, enregistrées à des ballons et satellites, jusqu'à 10 13 –10 20 eV. Deux aspects ont rendu ces études particulièrement attractives.

Premièrement, il est devenu possible d'utiliser des protons de haute énergie créés par la nature elle-même pour étudier leur interaction avec les noyaux des atomes atmosphériques et déchiffrer la structure la plus fine des particules élémentaires.

Deuxièmement, il est devenu possible de trouver des objets dans l'espace capables d'accélérer des particules à des énergies extrêmement élevées.

Le premier aspect s'est avéré moins fructueux qu'on le souhaiterait : l'étude de la structure fine des particules élémentaires a nécessité beaucoup plus de données sur l'interaction des protons que les rayons cosmiques ne permettent d'en obtenir. Parallèlement, une contribution importante au concept de micromonde a été apportée par l'étude de la dépendance des plus caractéristiques générales interactions des protons sur leur énergie. C'est au cours de l'étude des EAS qu'une caractéristique a été découverte dans la dépendance du nombre de particules secondaires et de leur distribution d'énergie à l'énergie de la particule primaire, associée à la structure quark-gluon des particules élémentaires. Ces données ont ensuite été confirmées dans des expériences sur des accélérateurs.

Aujourd'hui, des modèles fiables de l'interaction des rayons cosmiques avec les noyaux des atomes atmosphériques ont été construits, ce qui a permis d'étudier le spectre d'énergie et la composition de leurs particules primaires aux énergies les plus élevées. Il est devenu clair que les rayons cosmiques dans l'évolution de la Galaxie ne jouent pas moins un rôle que ses champs et flux de gaz interstellaire : l'énergie spécifique des rayons cosmiques, du gaz et du champ magnétique est approximativement égale à 1 eV par cm 3 . Avec un tel équilibre d'énergie dans le milieu interstellaire, il est naturel de supposer que l'accélération des particules de rayons cosmiques se produit très probablement dans les mêmes objets qui sont responsables du chauffage et de l'émission de gaz, par exemple, dans les étoiles New et Supernova pendant leur explosion.

Le premier mécanisme d'accélération des rayons cosmiques a été proposé par Enrico Fermi pour des protons entrant en collision de manière aléatoire avec des nuages ​​​​magnétisés de plasma interstellaire, mais n'a pas pu expliquer toutes les données expérimentales. En 1977, l'académicien Germogen Filippovich Krymsky a montré que ce mécanisme devrait accélérer les particules dans les restes de supernova beaucoup plus fortement aux fronts d'onde de choc, dont les vitesses sont des ordres de grandeur supérieurs à celles des nuages. Aujourd'hui, il a été démontré de manière fiable que le mécanisme d'accélération des protons et des noyaux cosmiques par une onde de choc dans les coquilles de supernova est le plus efficace. Mais il est peu probable qu'il soit possible de le reproduire dans des conditions de laboratoire : l'accélération est relativement lente et nécessite une énorme dépense d'énergie pour retenir les particules accélérées. Dans les coquilles des supernovae, ces conditions existent en raison de la nature même de l'explosion. Il est remarquable que l'accélération des rayons cosmiques se produise dans un objet astrophysique unique, qui est responsable de la synthèse de noyaux lourds (plus lourds que l'hélium) réellement présents dans les rayons cosmiques.

Dans notre Galaxie, il existe plusieurs supernovae connues de moins de mille ans qui ont été observées à l'œil nu. Les plus célèbres sont la nébuleuse du Crabe dans la constellation du Taureau ("Crabe" est le vestige d'une explosion de supernova en 1054, noté dans les annales orientales), Cassiopée-A (elle a été observée en 1572 par l'astronome Tycho Brahe) et la supernova de Kepler en la constellation Ophiuchus (1680). Le diamètre de leurs coquilles est aujourd'hui de 5 à 10 années-lumière (1 année-lumière = 10 16 m), c'est-à-dire qu'elles se dilatent à une vitesse d'environ 0,01 de la vitesse de la lumière et sont situées à des distances d'environ dix mille années-lumière de La terre. Des coquilles de supernova ("nébuleuses") dans les gammes optique, radio, rayons X et gamma ont été observées par les observatoires spatiaux Chandra, Hubble et Spitzer. Ils ont montré de manière fiable que les électrons et les protons accélèrent effectivement dans les coquilles, accompagnés de rayons X.

Une soixantaine de restes de supernova âgés de moins de 2000 ans pourraient remplir l'espace interstellaire de rayons cosmiques d'une énergie spécifique mesurée (~1 eV en cm 3 ), alors que moins d'une dizaine d'entre eux sont connus. Cette pénurie s'explique par le fait que dans le plan de la Galaxie, où se concentrent les étoiles et les supernovas, il y a beaucoup de poussière qui ne transmet pas de lumière à un observateur sur Terre. Les observations en rayons X et gamma, pour lesquels la couche de poussière est transparente, ont permis d'allonger la liste des "jeunes" coquilles de supernova observées. Le dernier de ces obus nouvellement découverts était Supernova G1.9+0.3, observé avec le télescope à rayons X Chandra depuis janvier 2008. Les estimations de la taille et du taux d'expansion de sa coquille montrent qu'elle s'est enflammée il y a environ 140 ans, mais n'était pas visible dans la gamme optique en raison de l'absorption complète de sa lumière par la couche de poussière de la Galaxie.

Aux données sur les supernovae explosant dans notre Galaxie voie Lactée, des statistiques beaucoup plus riches sur les supernovae dans d'autres galaxies sont ajoutées. Une confirmation directe de la présence de protons et de noyaux accélérés est le rayonnement gamma à haute énergie photonique, résultant de la désintégration de pions neutres - les produits de l'interaction des protons (et des noyaux) avec le matériau source. Ces photons aux énergies les plus élevées sont observés à l'aide de télescopes qui enregistrent la lueur Vavilov-Cherenkov émise par les particules secondaires EAS. L'instrument le plus avancé de ce type est une installation à six télescopes construite en collaboration avec HESS en Namibie. Le rayonnement gamma du crabe a été mesuré en premier, et son intensité est devenue une mesure d'intensité pour d'autres sources.

Le résultat obtenu confirme non seulement l'existence d'un mécanisme d'accélération des protons et des noyaux dans une supernova, mais permet également d'estimer le spectre des particules accélérées : les spectres des quanta gamma "secondaires" et des protons et noyaux "primaires" sont très proches. Le champ magnétique de Crab et sa taille permettent l'accélération de protons jusqu'à des énergies de l'ordre de 10 15 eV. Les spectres des particules de rayons cosmiques dans la source et dans le milieu interstellaire sont quelque peu différents, car la probabilité de sortie des particules de la source et la durée de vie des particules dans la Galaxie dépendent de l'énergie et de la charge de la particule. La comparaison du spectre d'énergie et de la composition des rayons cosmiques mesurés près de la Terre avec le spectre et la composition à la source a permis de comprendre combien de temps les particules voyagent entre les étoiles. Les noyaux de lithium, de béryllium et de bore dans les rayons cosmiques près de la Terre se sont avérés beaucoup plus gros que dans la source - leur nombre supplémentaire apparaît à la suite de l'interaction de noyaux plus lourds avec du gaz interstellaire. En mesurant cette différence, nous avons calculé le nombre X la substance à travers laquelle les rayons cosmiques sont passés, errant dans le milieu interstellaire. En physique nucléaire, la quantité de matière qu'une particule rencontre sur son chemin est mesurée en g/cm2. Cela est dû au fait que pour calculer la diminution du flux de particules dans les collisions avec les noyaux de la matière, il est nécessaire de connaître le nombre de collisions d'une particule avec des noyaux qui ont une surface (section) différente transversalement à la direction de la particule. En exprimant la quantité de matière dans ces unités, une seule échelle de mesure est obtenue pour tous les noyaux.

Valeur trouvée expérimentalement X~ 5–10 g/cm2 permet d'estimer la durée de vie t rayons cosmiques dans le milieu interstellaire : tXc, où c- vitesse des particules, approximativement égale à la vitesse de la lumière, ρ ~ 10 -24 g/cm 3 - densité moyenne du milieu interstellaire. La durée de vie des rayons cosmiques est donc d'environ 10 8 ans. Ce temps est beaucoup plus long que le temps de vol d'une particule se déplaçant à une vitesse à partir de en ligne droite de la source à la Terre (3 10 4 ans pour les sources les plus éloignées du côté opposé de la Galaxie à nous). Cela signifie que les particules ne se déplacent pas en ligne droite, mais sont dispersées. Les champs magnétiques chaotiques des galaxies avec une induction de V ~ 10–6 gauss (10–10 Tesla) les déplacent le long d'un cercle avec un rayon (gyroradius) R = E/3 × 10 4 B, où R dans M E- énergie des particules en eV, V - induction du champ magnétique en gauss. Aux énergies modérées des particules E

Approximativement en ligne droite, seules les particules énergétiques proviendront de la source E> 10 19 eV. Par conséquent, la direction des particules créant des EAS avec des énergies inférieures à 10 19 eV n'indique pas leur source. Dans cette gamme d'énergie, il ne reste plus qu'à observer le rayonnement secondaire généré dans les sources elles-mêmes par les protons et les noyaux des rayons cosmiques. Dans la région des énergies de rayonnement gamma accessibles pour l'observation ( E

Le concept des rayons cosmiques en tant que phénomène galactique "local" s'est avéré vrai uniquement pour les particules d'énergies modérées E

En 1958, Georgy Borisovich Khristiansen et German Viktorovich Kulikov ont découvert un changement brusque dans la forme du spectre d'énergie des rayons cosmiques à une énergie de l'ordre de 3·10 15 eV. Aux énergies inférieures à cette valeur, les données expérimentales sur le spectre des particules étaient généralement présentées sous une forme "puissance", de sorte que le nombre de particules N avec une énergie E donnée était considérée comme inversement proportionnelle à l'énergie des particules à la puissance γ : N(E) = une/Eγ (γ est l'indice différentiel du spectre). Jusqu'à une énergie de 3 10 15 eV, l'exposant γ = 2,7, mais lors du passage à des énergies plus élevées, le spectre d'énergie subit un "pli" : pour les énergies E> 3·10 15 eV γ devient 3,15. Il est naturel d'associer ce changement de spectre à l'approche de l'énergie des particules accélérées à la valeur maximale possible calculée pour le mécanisme d'accélération dans les supernovae. La composition nucléaire des particules primaires dans la gamme d'énergie 10 15 –10 17 eV plaide également en faveur d'une telle explication de la rupture de spectre. Les informations les plus fiables à ce sujet sont fournies par les installations complexes de l'EAS - "MSU", "Tunka", "Tibet", "Cascade". Avec leur aide, non seulement des informations sont obtenues sur l'énergie des noyaux primaires, mais également sur des paramètres qui dépendent de leurs numéros atomiques - la "largeur" ​​de la gerbe, le rapport entre le nombre d'électrons et de muons, entre le nombre des plus électrons énergétiques et leur nombre total. Toutes ces données indiquent qu'avec une augmentation de l'énergie des particules primaires de la limite gauche du spectre avant sa rupture à l'énergie après la rupture, il y a une augmentation de leur poids moyen. Un tel changement dans la composition massique des particules est cohérent avec le modèle d'accélération des particules dans les supernovae - il est limité par l'énergie maximale, qui dépend de la charge de la particule. Pour les protons, cette énergie maximale est de l'ordre de 3·10 15 eV et augmente proportionnellement à la charge de la particule accélérée (noyau), de sorte que les noyaux de fer sont effectivement accélérés jusqu'à ~10 17 eV. L'intensité des flux de particules dont les énergies dépassent le maximum chute rapidement.

Mais l'enregistrement de particules d'énergies encore plus élevées (~3·10 18 eV) a montré que non seulement le spectre des rayons cosmiques ne se brise pas, mais revient à la forme observée avant la rupture !

Mesures du spectre d'énergie dans la région d'énergie "ultra-élevée" ( E> 10 18 eV) sont très difficiles en raison du petit nombre de ces particules. Pour observer ces événements rares, il est nécessaire de créer un réseau de détecteurs de flux de particules EAS et de rayonnement Vavilov-Cherenkov et de rayonnement ionisant (fluorescence atmosphérique) générés par ceux-ci dans l'atmosphère sur une superficie de centaines voire de milliers de kilomètres carrés. Pour des installations aussi vastes et complexes, des sites à activité économique limitée sont choisis, mais capables d'assurer un fonctionnement fiable d'un grand nombre de détecteurs. De telles installations ont d'abord été construites sur des surfaces de plusieurs dizaines de kilomètres carrés (Iakoutsk, Havera Park, Akeno), puis des centaines (AGASA, Fly's Eye, HiRes), et enfin des installations de milliers de kilomètres carrés sont en cours de création (Observatoire Pierre Auger à Argentine, installation télescopique dans l'Utah, États-Unis).

La prochaine étape dans l'étude des rayons cosmiques à ultra-haute énergie sera le développement d'une méthode d'enregistrement des EAS en observant la fluorescence atmosphérique depuis l'espace. En coopération avec plusieurs pays, le premier détecteur spatial EAS, le projet TUS, est en cours de création en Russie. Il est prévu d'installer un autre détecteur de ce type à l'International station spatiale ISS (projets JEM-EUSO et KLPVE).

Que savons-nous aujourd'hui des rayons cosmiques à ultra-haute énergie ? La figure du bas montre le spectre en énergie des rayons cosmiques d'énergies supérieures à 10 18 eV, qui a été obtenu sur les installations de dernière génération (HiRes, observatoire Pierre Auger) ainsi que des données sur les rayons cosmiques de plus basse énergie, qui, comme indiqué ci-dessus, appartiennent au Galaxie de la Voie Lactée. On peut voir qu'à des énergies de 3 10 18 –3 10 19 eV, l'indice du spectre d'énergie différentiel a diminué jusqu'à une valeur de 2,7 à 2,8, exactement la même que celle observée pour les rayons cosmiques galactiques, lorsque les énergies des particules sont beaucoup plus faibles. que le maximum possible pour les accélérateurs galactiques. Cela n'indique-t-il pas qu'aux ultra-hautes énergies le flux principal de particules est créé par des accélérateurs d'origine extragalactique avec un maximum d'énergie bien supérieur à celui galactique ? La rupture du spectre des rayons cosmiques galactiques montre que la contribution des rayons cosmiques extragalactiques change fortement dans la transition de la région des énergies modérées de 1014 à 1016 eV, où elle est environ 30 fois inférieure à la contribution des rayons galactiques (le spectre indiquée par la ligne pointillée sur la figure), à ​​la région des ultra-hautes énergies où elle devient dominante.

Au cours des dernières décennies, de nombreuses données astronomiques ont été accumulées sur des objets extragalactiques capables d'accélérer des particules chargées à des énergies bien supérieures à 10 19 eV. signe évident que l'objet est dimensionné peut accélérer les particules en énergie E, est la présence dans tout cet objet d'un champ magnétique B tel que le rayon gyroscopique de la particule soit inférieur à . Ces sources candidates comprennent les radiogalaxies (celles qui émettent de fortes émissions radio); noyaux de galaxies actives contenant des trous noirs ; galaxies en collision. Tous contiennent des jets de gaz (plasma) se déplaçant à des vitesses énormes approchant la vitesse de la lumière. De tels jets jouent le rôle d'ondes de choc nécessaires au fonctionnement de l'accélérateur. Pour estimer leur contribution à l'intensité observée des rayons cosmiques, il est nécessaire de prendre en compte la répartition des sources sur les distances de la Terre et la perte d'énergie des particules dans l'espace intergalactique. Avant la découverte de l'émission radio cosmique de fond, l'espace intergalactique semblait "vide" et transparent non seulement pour le rayonnement électromagnétique, mais aussi pour les particules à très haute énergie. La densité de gaz dans l'espace intergalactique, selon les données astronomiques, est si faible (10–29 g/cm 3 ) que même à de vastes distances de centaines de milliards d'années-lumière (10 24 m) les particules ne rencontrent pas les noyaux de gaz atomes. Cependant, lorsqu'il s'est avéré que l'Univers est rempli de photons de faible énergie (environ 500 photons/cm 3 d'énergie E f ~10 –3 eV) restant du Big Bang, il est devenu clair que les protons et les noyaux avec des énergies supérieures à E~5 10 19 eV, la limite de Greisen-Zatsepin-Kuzmin (GZK), devrait interagir avec les photons et perdre plus de dizaines de millions d'années-lumière en chemin sur la majeure partie de votre énergie. Ainsi, la grande majorité de l'Univers, située à des distances de plus de 10 7 années-lumière de nous, s'est avérée inaccessible à l'observation dans des rayons d'une énergie supérieure à 5·10 19 eV. Les dernières données expérimentales sur le spectre des rayons cosmiques d'ultra-haute énergie (installation HiRes, observatoire Pierre Auger) confirment l'existence de cette limite d'énergie pour les particules observées depuis la Terre.

Comme on peut le voir, il est extrêmement difficile d'étudier l'origine des rayons cosmiques de très haute énergie : la plupart des sources possibles des rayons cosmiques de plus haute énergie (au-dessus de la limite GZK) sont si éloignées que les particules en route vers la Terre perdre l'énergie acquise dans la source. Et à des énergies inférieures à la limite GZK, la déviation des particules champ magnétique Les galaxies sont encore grandes, et il est peu probable que la direction d'arrivée des particules puisse indiquer la position de la source sur la sphère céleste.

Dans la recherche de sources de rayons cosmiques à très haute énergie, une analyse de la corrélation de la direction d'arrivée des particules mesurée expérimentalement avec suffisamment hautes énergies- de sorte que les champs de la Galaxie dévient légèrement les particules de la direction vers la source. Les installations de la génération précédente n'ont pas encore fourni de données convaincantes sur la corrélation de la direction d'arrivée des particules avec les coordonnées d'une classe d'objets astrophysiques spécialement distinguée. Les dernières données de l'observatoire Pierre Auger peuvent être considérées comme un espoir d'obtenir dans les années à venir des données sur le rôle des sources de type AGN dans la création ruisseaux lourds particules d'énergie de l'ordre de la limite GZK.

Fait intéressant, l'installation AGASA a fourni des indications sur l'existence de directions "vides" (celles où il n'y a pas de sources connues) le long desquelles arrivent deux voire trois particules pendant le temps d'observation. Cela a causé grand intérêt des physiciens impliqués dans la cosmologie - la science de l'origine et du développement de l'univers, inextricablement liée à la physique des particules élémentaires. Il s'avère que dans certains modèles de la structure du micromonde et du développement de l'Univers (théorie du Big Bang), la préservation de particules élémentaires supermassives de masse de l'ordre de 10 23 –10 stade précoce Big Bang. Leur répartition dans l'Univers n'est pas très claire : elles peuvent soit être uniformément réparties dans l'espace, soit « tirées » vers des régions massives de l'Univers. Leur principale caractéristique est que ces particules sont instables et peuvent se désintégrer en particules plus légères, notamment des protons, des photons et des neutrinos stables, qui acquièrent d'énormes énergies cinétiques - plus de 10 20 eV. Les endroits où de telles particules sont préservées (défauts topologiques de l'Univers) peuvent être des sources de protons, de photons ou de neutrinos à ultra-haute énergie.

Comme dans le cas des sources galactiques, l'existence d'accélérateurs extragalactiques de rayons cosmiques à ultra-haute énergie est confirmée par les données des détecteurs de rayons gamma, par exemple, les télescopes de l'installation HESS, visant les objets extragalactiques énumérés ci-dessus - candidats pour les rayons cosmiques sources.

Parmi eux, les noyaux de galaxies actives (AGN) à jets de gaz se sont révélés les plus prometteurs. L'un des objets les plus étudiés de l'installation HESS est la galaxie M87 dans la constellation de la Vierge, à une distance de 50 millions d'années-lumière de notre Galaxie. En son centre se trouve un trou noir, qui fournit de l'énergie aux processus proches de lui et, en particulier, à un jet de plasma géant appartenant à cette galaxie. L'accélération des rayons cosmiques dans M87 est directement confirmée par les observations de son rayonnement gamma, dont le spectre d'énergie des photons d'une énergie de 1–10 TeV (10 12 –10 13 eV), observé à l'installation HESS. L'intensité observée du rayonnement gamma de M87 est d'environ 3 % de celle du crabe. En tenant compte de la différence de distance à ces objets (5000 fois), cela signifie que la luminosité de M87 dépasse la luminosité du Crabe de 25 millions de fois !

Les modèles d'accélération de particules créés pour cet objet montrent que l'intensité des particules accélérées dans M87 peut être si élevée que même à une distance de 50 millions d'années-lumière, la contribution de cette source peut fournir l'intensité observée des rayons cosmiques avec des énergies supérieures à 10 19 eV.

Mais voici le mystère : dans les données modernes sur les EAS en direction de cette source, il n'y a pas d'excès de particules d'une énergie de l'ordre de 10 19 eV. Mais cette source ne se manifestera-t-elle pas dans les résultats des futures expériences spatiales, à de telles énergies, lorsque les sources lointaines ne contribueront plus aux événements observés ? La situation avec une rupture du spectre d'énergie peut se répéter une fois de plus, par exemple à une énergie de 2.10 20 . Mais cette fois, la source devrait être visible dans les mesures de la direction de la trajectoire de la particule primaire, puisque les énergies > 2·10 20 eV sont si élevées que les particules ne devraient pas être déviées dans les champs magnétiques galactiques.

Comme vous pouvez le voir, après cent ans d'histoire d'étude des rayons cosmiques, nous attendons à nouveau de nouvelles découvertes, cette fois le rayonnement cosmique à ultra haute énergie, dont la nature est encore inconnue, mais qui peut jouer un rôle important dans la structure de l'Univers.

Littérature:
1) Dobrotine N.A. rayons cosmiques. - M. : Éd. Académie des sciences de l'URSS, 1963.
2) Murzin V.S. Introduction à la physique des rayons cosmiques. - M. : Éd. Université d'État de Moscou, 1988.
3) Panasyuk M.I. Wanderers of the Universe ou Echos du Big Bang. - Friazino : "Vek2", 2005.
4) Rossi B. rayons cosmiques. - M. : Atomizdat, 1966.
5) Khrenov BA Météores relativistes// La science en Russie, 2001, n° 4.
6) Khrenov BA et Panasyuk M.I. Messagers cosmiques : loin ou près ?// Nature, 2006, n° 2.
7) Khrenov BA et Klimov P.A. Ouverture prévue// Nature, 2008, n° 4.

Les lois de conservation ont été strictement observées dans tous les cas décrits dans les chapitres précédents. Lorsqu'une des lois s'avérait imparfaite, il fallait l'interpréter différemment. Ainsi, l'ancienne loi de conservation de la masse a été élargie et transformée en une loi plus générale de conservation de l'énergie. D'autre part, lorsque les événements attendus ne se sont pas réellement produits, ils ont proposé nouvelle loi conservation (comme ce fut le cas avec la loi de conservation du nombre de baryons). Cependant, il n'est pas toujours facile de prouver que les lois de conservation sont exactes. Une situation particulièrement mystérieuse s'est présentée à l'aube du développement de la physique nucléaire dans l'étude de l'énergie cinétique des particules émises par les substances radioactives.

L'énergie d'une particule ß peut être déterminée en mesurant les masses du noyau radioactif initial, de la particule ß et du noyau final. La masse totale de la particule ß et du noyau final doit être légèrement inférieure à la masse du noyau initial, et l'équivalent énergétique de la masse manquante doit être égal à l'énergie cinétique de la particule ß. Les physiciens n'ont pu mesurer avec une grande précision les masses de divers noyaux et autres particules que dans les années 20 de notre siècle. Cependant, ils ont tiré des conclusions importantes sur les énergies des particules sans connaître la valeur exacte des masses.

Considérez le thorium-232, qui se désintègre en une particule ? (hélium-4) et en radium-228. Tous les noyaux de thorium-232 ont les mêmes masses. Les masses de tous les noyaux de radium-228 ont également la même valeur, de même que les masses de toutes les particules ?. Sans connaître la grandeur de ces masses, on peut encore dire qu'à chaque fois qu'un atome de thorium-232 émet une particule ?, le déficit de masse doit être le même, et, par conséquent, l'énergie cinétique des particules ? doit également être le même. En d'autres termes, le thorium-232 doit émettre des particules ? avec la même énergie.

Comment déterminer l'énergie cinétique des ?-particules ? On sait que plus l'énergie d'une particule ? est grande, plus elle pénètre profondément dans la matière. ?-Les particules sont très décélérées fine couche matière solide, mais peut traverser une couche d'air de quelques centimètres d'épaisseur. Dans ce cas, les particules α transfèrent continuellement de l'énergie aux molécules d'air avec lesquelles elles entrent en collision, ralentissent progressivement et, capturant des électrons, finissent par devenir des atomes d'hélium ordinaires. Dans cet état, elles ne peuvent plus être détectées par les méthodes par lesquelles les particules ß sont détectées, de sorte qu'en fait elles disparaissent.

Vous pouvez détecter des ? -particules à l'aide d'un film composé chimique appelé sulfure de zinc. Chaque fois qu'une particule α frappe un tel film, elle produit un léger éclair de lumière. Si à côté d'une source de ?-particules (par exemple, un morceau de thorium-232 dans un récipient en plomb avec une ouverture très étroite) compteur à scintillation, alors le nombre d'éclairs correspondra au nombre de particules ? formées. Si le compteur à scintillation est placé de plus en plus loin de la source, les particules α devront traverser de plus en plus d'air pour y pénétrer. Si les particules α étaient émises avec des énergies différentes, alors celles ayant l'énergie la plus faible disparaîtraient très rapidement, les particules α plus "énergétiques" parcourraient un chemin plus long dans l'air, etc. la source, le nombre de ? tombant dans le compteur devrait diminuer progressivement. Si les particules α étaient émises avec la même énergie, elles suivraient toutes le même chemin dans l'air. Par conséquent, le compteur à scintillation devrait enregistrer le même nombre de particules à mesure qu'il s'éloigne de la source, jusqu'à un certain point critique, au-delà duquel il n'enregistrerait plus un seul éclair.

Ce phénomène a été observé par le physicien anglais William Henry Bragg en 1904. Presque toutes les ?-particules émises par les noyaux d'un même élément avaient la même énergie et avaient le même pouvoir de pénétration. Toutes les particules de thorium 232 ont traversé une couche d'air d'une épaisseur de 2,8 cm, tous ? -particules de radium-226- 3,3 cm, a?-particules de polonium-212 - 8,6 cm. En fait, il y a des écarts. En 1929, on a découvert qu'une petite fraction des particules d'un même noyau radioactif peut avoir une énergie cinétique et un pouvoir plus pénétrant que les autres. La raison en est que le noyau radioactif d'origine peut se trouver dans l'un des états excités. Dans les états excités, les noyaux ont plus d'énergie que dans leur état normal. état de base. Lorsque le noyau émet une particule ß, étant dans un état excité, la particule ß reçoit de l'énergie supplémentaire. En conséquence, en plus du groupe principal de particules ß, de petits groupes de particules ß avec un plus grand pouvoir de pénétration sont formés, un groupe pour chaque état excité.

Lorsqu'un noyau radioactif se forme à partir de la désintégration d'un autre noyau, il est parfois dans un état excité dès sa formation. Ensuite, la plupart des particules α émises par celui-ci ont une énergie inhabituellement élevée, et les particules α avec une énergie inférieure forment de petits groupes. Ces groupes séparés de particules ? (de 2 à 13) avec des énergies différentes forment intervalle?-particules de ce noyau. Chaque composante du spectre correspond, comme prévu, à l'un des états excités du noyau. Ainsi, la loi de conservation de l'énergie des particules ? est remplie, ce qui ne peut pas être dit dans le cas des particules ?.

Énergie?-particules

Si toutes les conclusions tirées pour les particules ß étaient applicables aux particules ß et si les relations d'énergie considérées étaient satisfaites, toutes les particules ß formées lors de la désintégration des noyaux auraient la même énergie cinétique. Cependant, dès 1900, l'impression a été créée que les particules α étaient émises avec n'importe quelle énergie jusqu'à une certaine valeur maximale. Au cours des quinze années suivantes, les preuves se sont progressivement accumulées jusqu'à ce qu'il devienne absolument clair que les énergies des particules ? forment un spectre continu.

Chaque noyau, émettant en cours de désintégration ? -particule, perd une certaine quantité de masses. La réduction de masse doit correspondre à l'énergie cinétique de la particule α. Dans ce cas, l'énergie cinétique d'une particule ß de n'importe lequel des noyaux radioactifs que nous connaissons ne dépasse pas l'énergie équivalente à une diminution de masse. Ainsi, la diminution de masse lors de toute désintégration radioactive correspond à la valeur maximale de l'énergie cinétique des particules α formées au cours de cette désintégration.

Mais, selon la loi de conservation de l'énergie, aucune des particules α ne devrait avoir une énergie cinétique inférieure à l'énergie équivalente à une diminution de masse, c'est-à-dire que l'énergie cinétique maximale de la particule α doit être simultanément minimale. En réalité, ce n'est pas le cas. Très souvent, les particules ? sont émises avec une énergie cinétique inférieure à celle à laquelle on devrait s'attendre, et la valeur maximale correspondant à la loi

conservation de l'énergie, atteint à peine une particule ? Certaines ?-particules ont une énergie cinétique un peu inférieure à la valeur maximale, d'autres - beaucoup moins, les autres - beaucoup moins. La valeur la plus courante de l'énergie cinétique est le tiers de la valeur maximale. En général, plus de la moitié de l'énergie qui devrait survenir en raison de la diminution de la masse des désintégrations radioactives, accompagnée de la formation de particules α, ne peut pas être détectée.

Dans les années 20, de nombreux physiciens étaient déjà enclins à abandonner la loi de la conservation de l'énergie, du moins pour les processus au cours desquels se forment des particules ?. La perspective était troublante, car la loi était vraie dans tous les autres cas. Mais y a-t-il une autre explication à ce phénomène ?

En 1931, Wolfgang Pauli a proposé l'hypothèse suivante : la particule α ne reçoit pas toute l'énergie du fait qu'une seconde particule se forme, qui emporte le reste de l'énergie. L'énergie peut être répartie entre deux particules dans n'importe quelle proportion. Dans certains cas, la quasi-totalité de l'énergie est transférée à l'électron, et il a alors une énergie cinétique presque maximale, équivalente à une diminution de masse.

Parfois, presque toute l'énergie est transférée à la deuxième particule, alors l'énergie de l'électron est en fait nulle. Lorsque l'énergie est plus uniformément répartie entre deux particules, l'électron a des valeurs intermédiaires d'énergie cinétique.

Quelle particule satisfait l'hypothèse de Pauli ? Rappelez-vous que les particules ? apparaissent chaque fois qu'un neutron à l'intérieur du noyau se transforme en proton. Lorsqu'on considère la transformation d'un neutron en proton, il est sans doute plus facile de traiter d'un neutron libre. Le neutron n'avait pas été découvert lorsque Pauli a proposé sa théorie pour la première fois. Nous pouvons profiter du recul.

Lorsqu'un neutron libre se désintègre en un proton et un électron, ce dernier s'envole avec n'importe quelle énergie cinétique jusqu'au maximum, qui est approximativement égal à 0,78 moi. La situation est analogue à l'émission d'un noyau radioactif?-particules, par conséquent, lorsque l'on considère la désintégration d'un neutron libre, il est nécessaire de prendre en compte la particule de Pauli.

Notons la particule de Pauli X et essayez de découvrir ses propriétés. Écrivons la réaction de désintégration des neutrons :

P> p++ e-+ X.

Si la loi de conservation de la charge électrique est satisfaite lors de la désintégration d'un neutron, X-la particule doit être neutre. En effet, 0=1–1+0. Lorsqu'un neutron se désintègre en un proton et un électron, la perte de masse est de 0,00029 unités sur l'échelle de masse atomique, ce qui est approximativement égal à la moitié de la masse de l'électron. Si X-la particule a même reçu toute l'énergie formée à la suite de la disparition de la masse, et si toute l'énergie est allée à la formation de la masse, la masse X n'aurait que la moitié de la masse d'un électron. En conséquence, X- la particule doit être plus légère qu'un électron. En fait, il devrait être beaucoup plus léger, car généralement l'électron reçoit la majeure partie de l'énergie libérée, et parfois presque toute. De plus, il est peu probable que l'énergie transférée X-particule, se transforme complètement en masse ; une grande partie est convertie en énergie cinétique X-particules. Au fil des ans, l'estimation du poids X-les particules sont devenues de moins en moins. Enfin, il est devenu clair que X-la particule, comme un photon, n'a pas de masse, c'est-à-dire que, comme un photon, elle se propage à la vitesse de la lumière dès son apparition. Si l'énergie d'un photon dépend de la longueur d'onde, l'énergie X-particules dépend de quelque chose de similaire.

Par conséquent, la particule de Pauli n'a ni masse ni charge, et on comprend pourquoi elle reste "invisible". Les particules chargées sont généralement détectées par les ions qu'elles forment. Le neutron non chargé a été découvert en raison de sa grande masse. Une particule sans masse et sans charge déconcerte le physicien et le prive de toute possibilité de l'attraper et de l'étudier.

Peu de temps après Pauli a suggéré l'existence X-particules, elle a un nom. Au début, ils voulaient l'appeler "neutron", car il n'est pas chargé, mais un an après l'apparition de l'hypothèse de Pauli, Chadwick a découvert une particule lourde non chargée, qui a reçu ce nom. Le physicien italien Enrico Fermi, ce qui signifie que X-la particule est beaucoup plus légère que le neutron de Chadwick, proposé de nommer la particule x neutrino, qui en russe signifie "quelque chose de petit, de neutre". La proposition a été très réussie, et depuis lors, elle s'appelle ainsi. Les neutrinos sont généralement notés lettre grecque? "nu" ) et la désintégration des neutrons s'écrit :

P> p++ e-+ ?..

Le neutrino est essentiel

L'hypothèse de Pauli sur l'existence du neutrino et la théorie détaillée ultérieure de la production de neutrinos, créée par Fermi, ont été reçues différemment par les physiciens. Personne n'était prêt à abandonner la loi de conservation de l'énergie, bien qu'il y ait eu de sérieux doutes quant à la nécessité de sauver cette loi avec une particule sans masse et sans charge, une particule qui ne peut pas être détectée, une particule dont la seule raison d'être était simplement le désir de sauver la loi de la conservation de l'énergie. Certains physiciens l'ont considéré comme une particule fantôme, une sorte d'astuce pour économiser l'énergie "comptable". En fait, le concept de neutrino n'était qu'une façon de dire que "la loi de la conservation de l'énergie ne tient pas". La loi de conservation de l'énergie n'était pas la seule sauvée par les neutrinos.

Considérons un neutron stationnaire, c'est-à-dire un neutron avec une impulsion nulle par rapport à l'observateur. Lors de sa désintégration, la quantité de mouvement totale du proton et de l'électron doit être égale à zéro si la désintégration s'accompagne de la formation de seulement deux particules. L'électron doit s'envoler dans une direction, et le proton dans la direction exactement opposée (mais à une vitesse plus lente, puisque sa masse est plus grande ).

Cependant, ce n'est pas le cas. Un électron et un proton sont émis dans des directions qui forment un certain angle. Une petite impulsion totale dans la direction d'échappement des particules apparaît comme si elle venait de rien, et la loi de conservation de l'impulsion est violée. Cependant, si un neutrino est produit dans ce cas, il peut s'envoler dans une direction telle qu'il compense exactement l'impulsion totale des deux autres particules (Fig. 6).

En d'autres termes, la loi de conservation de la quantité de mouvement n'est remplie que grâce au neutrino.

Riz. 6. Désintégration des neutrons.


Il est facile de voir que la situation est similaire avec le moment cinétique. Le neutron, le proton et l'électron ont chacun un spin de +1/2 ou -1/2. Supposons que le spin du neutron soit +1/2. Lors de sa désintégration, le spin total du proton et de l'électron doit être égal à +1/2, si la loi de conservation du moment cinétique est valide et que seules ces deux particules se forment lors de la désintégration. Est-il possible? Les spins d'un proton et d'un électron peuvent être égaux à +1/2 et +1/2 ; +1/2 et -1/2 ; -1/2 et -1/2, c'est-à-dire que le spin total des deux particules est respectivement de +1, 0 et -1. Ce n'est pas, et ne peut jamais être, +1/2 ou -1/2 si le spin du neutron était de -1/2 au début. En bref, si le neutron ne se désintègre qu'en un proton et un électron, la loi de conservation du moment cinétique est violée.

Mais supposons que la désintégration produise un neutrino avec un spin de +1/2 ou -1/2. Alors le spin total des trois particules formées lors de la désintégration sera toujours égal au spin du neutron initial. Par conséquent, l'existence des neutrinos "sauve" au moins trois lois : la loi de conservation de l'énergie, de la quantité de mouvement et du moment cinétique. Il est à noter que la même particule effectue un triple travail.

Il est difficile de dire ce qui était pire : admettre l'existence d'une particule mystérieuse et fantomatique ou la violation d'une loi de conservation. Il est beaucoup plus facile de faire un choix entre une particule fantôme et une violation de trois lois de conservation à la fois. Les physiciens devaient choisir une particule fantôme. Peu à peu, l'existence des neutrinos a été reconnue par les scientifiques nucléaires. Ils ont cessé de douter de la réalité du neutrino, qu'ils puissent le détecter ou non.

Conservation du nombre de leptons

Non seulement le neutrino sauve trois lois de conservation, mais il en crée également une nouvelle. Pour comprendre comment cela se produit, considérons les neutrinos par rapport aux antiparticules.

L'antineutron se désintègre en un antiproton et un positron (antiélectron). La situation est analogue à la désintégration d'un neutron. Le positron s'envole avec moins d'énergie cinétique qu'il ne le devrait, le positron et l'antiproton ne s'envolent pas dans des directions opposées et leurs spins ne s'additionnent pas correctement. L'ajout de neutrinos équilibrera tout dans ce cas également.

Naturellement, la question se pose : le même neutrino se forme-t-il dans la désintégration d'un antineutron et dans la désintégration d'un neutron ?

Il est facile de prouver que les neutrinos sont différents. Un neutrino, qui a un spin, comme un neutron, crée un champ magnétique qui a deux directions différentes. Par conséquent, le neutrino et l'antineutrino existent exactement de la même manière que le neutron et l'antineutrino. Lorsqu'un neutron se désintègre, l'un des jumeaux neutrinos apparaît, et lorsqu'un antineutron se désintègre, un autre. Mais lequel d'entre eux accompagne cette déchéance ?

J'ai déjà décrit la loi de conservation du nombre de baryons, qui stipule que le nombre total de baryons d'un système fermé reste constant. Existe-t-il un semblable loi de conservation des nombres de leptons, selon lequel le nombre total de leptons d'un système fermé reste inchangé ? Pourquoi n'exigerions-nous pas la même chose des leptons que des baryons ? Malheureusement, si le neutrino n'est pas inclus dans la considération, cela ne peut pas être fait.

On attribue à l'électron nombre de leptons+1, et un positron ou un antiélectron - numéro de lepton -1. Un photon, qui est sa propre antiparticule, ne peut pas avoir un nombre de lepton de +1 ou -1, et il serait logique de lui attribuer un nombre de lepton nul. Tous les baryons ont également des nombres de leptons nuls.

Revenons encore à la désintégration du neutron. Commençons par un neutron, qui a un nombre baryonique de 1 et un nombre de lepton nul. Supposons que la désintégration d'un neutron ne produise qu'un proton et un électron. Le proton et l'électron doivent avoir un nombre total de baryons de 1 et un nombre total de leptons de 0 si ces deux nombres sont conservés. En effet, la somme des nombres de baryons de deux particules est +1 (c'est-à-dire 1 + 0) conformément à la loi de conservation des nombres de baryons. Le nombre total de leptons du proton et de l'électron est également +1 (c'est-à-dire 1 + 0), bien qu'au début de la réaction, le nombre de leptons soit nul. Par conséquent, le nombre de leptons n'est pas conservé.

Supposons que les neutrinos et les antineutrinos avec des nombres de leptons + 1 et -1, respectivement, appartiennent à des leptons. Ensuite, lorsqu'un neutron se désintègre en un proton, un électron et un antineutrino, le nombre de leptons est conservé (0 + 1–1 = 0), et la désintégration peut s'écrire comme suit :

P> p++ e-+ "?,

où "? - antineutrino.

Lorsqu'un antineutron avec un nombre de leptons nul se désintègre, un antiproton, un positron et un neutrino sont produits. Les nombres de leptons des trois particules formées sont respectivement 0, -1 et +1, et leur somme est nulle :

"P> "R-+ "e++ ?.

A l'état libre, neutrons et antineutrons se désintègrent en protons et antiprotons, la situation inverse ne se produit pas. Cependant, à l'intérieur des noyaux, les protons se transforment parfois spontanément en neutrons (par exemple, dans le cas du phosphore-30). De même, dans l'antimatière, les antiprotons se transforment en antineutrons.

Lorsqu'un proton se transforme en neutron, un positron et un neutrino se forment :

p + > n + "e + + ?.

Lorsqu'un antiproton se transforme en antineutron, un électron et un antineutrino se forment :

"p - >" n + e - + ?.

Dans les deux cas, le nombre de leptons est conservé. En résumé, on peut dire que lorsqu'un électron est émis, un antineutrino doit apparaître, et lorsqu'un positron est émis, un neutrino doit apparaître, de sorte qu'à la fin de la désintégration le nombre de leptons est égal à zéro.

Si l'on tient compte des neutrinos et des antineutrinos, le nombre de leptons est conservé dans tous les processus subatomiques étudiés. Ainsi, l'existence de neutrinos et d'antineutrinos a non seulement sauvé les lois de conservation de l'énergie, de la quantité de mouvement et du moment cinétique, mais a également permis d'établir la loi de conservation du nombre de leptons. Il était donc très difficile pour les physiciens de ne pas reconnaître l'existence de ces particules.

Remarques:

Plus le pouvoir de pénétration des particules ? d'un noyau donné est grand, plus le déficit de masse dans le processus de désintégration radioactive est grand et plus probable cette désintégration, c'est-à-dire que plus le pouvoir de pénétration des particules ? est grand, plus moins de période demi-vie du noyau. Si le thorium-232 a une demi-vie de 14 milliards d'années, la demi-vie du radium-226 est de 1620 ans et celle du polonium-212 est de trois dix millionièmes de seconde.

En effet, si j'étais tenté d'introduire le concept de neutrinos au tout début du livre, il serait difficile de prouver que les neutrinos ne sont pas le fruit d'une mystique scientifique. Cependant, puisque la première moitié du livre met l'accent sur le sens et l'importance des lois de conservation, on peut maintenant montrer que le neutrino, malgré toutes ses propriétés étranges, est une particule réelle et absolument nécessaire.