SRP LOGO Articles publiés Soft Collision Side
Français
English
English
Deutsch

SRP Table à coussin d'air Comment commander Books The Science Journal The Minkowski Institute International Council of Academics or Progressive Education

Neurolinguistique et Physique Fondamentale

Physique fondamentale

Autres articles publiés et exposés


Présentation en session plénière le 7 juillet 2000
au congrès CONGRESS-2000
tenu à l'Université d'État de St-Petersbourg, Russie

(Introduction à l'article intitulé
"On an Expanded Maxwellian Geometry of Space"
(À propos d'une géométrie maxwellienne plus étendue de l'espace)
presenté au congrès [page 291 à 310 des comptes rendus])

Selon ma perspective, une théorie physique doit être élaborée exclusivement à partir d'information obtenue expérimentalement, comme par exemple, la Théorie de Newton, la Théorie de Maxwell, et le concept du quantum d'action de Planck.

(1- À propos de l'identification de l'ensemble restreint de particules stables)

Au cours des 100 dernières années, toutes les particules élémentaires stables qui pouvaient être déviées par collision, soit l'électron, le positon, et les quarks up et down , ainsi que toutes leurs propriétés physiques ont clairement été identifiées.

L'observation que la gravitation n'a pas encore été expliquée, en dépit de ces découvertes vérifiées m'a conduit à soupçonner, comme beaucoup d'autres, chacun pour ses raisons propres, que quelque chose de très fondamental pourrait avoir été mal compris ou négligé en physique fondamentale.

Ce soupçon m'a conduit à reconsidérer la géométrie de l'espace acceptée et à soigneusement réexaminer quelles propriétés des particules avaient été positivement vérifiées, un exercice qui a conduit à l'élaboration de la présente solution théorique, qui est fondée exclusivement sur les propriétés objectivement vérifiées des particules fondamentales stables.

(2- À propos de la perte d'intérêt pour la séquence temporelle des événements)

Rétrospectivement, je constate que l'acceptation comme théories physiques au lieu de simples outils mathématiques pratiques, de l'Électrodynamique Quantique, qui introduisit le concept des photons virtuels, et de son rejeton direct, la Chromodynamique Quantique, qui étendit le concept de photon virtuel à celui de particules virtuelles, fut un facteur déterminant dans la négligence au cours du dernier demi-siècle, de l'importance de l'interaction coulombienne au niveau fondamental, parce qu'il généralisa la perception que des entités virtuelles pseudo-quantifiées pouvaient physiquement représenter le potentiel coulombien qui est progressivement induit entre des particules réelles durant les expériences de collision ou de déviation à haute énergie, en fonction de l'inverse du carré de la distance entre les particules en interaction.

Je pense aussi que l'acceptation générale de la méthode lagrangienne statique au lieu de la méthode hamiltonienne dynamique, tel que suggéré par Feynman dans le cadre de sa définition de l'Électrodynamique Quantique (QED), fut une cause directe de la perte d'intérêt pour le fait que les collisions et déviations de particules sont des séquences d'événement temporelles précises.

La conclusion de Feynman que l'utilisation de la méthode hamiltonienne forçait l'adoption du point de vue de champs de force au lieu du point de vue interaction est non fondée selon moi, parce qu'il est facile d'argumenter qu'une interaction entre des particules ne peut être autre que simultanée et mutuelle, tout comme dans le point de vue de champs de force.

Si, comme le suggère Feynman, l'interaction coulombienne se communique seulement par un échange de photons virtuels entre les particules concernées, les questions suivantes me viennent à l'esprit :

(3- À propos du fait que toute interaction implique à la fois une force et de l'énergie)

Je vois un net problème de causalité ici, car une médiation de l'échange par photons virtuels telle que proposée par Feynman mélange deux aspects fondamentalement très différents de la relation entre les particules:

Il y a aussi le problème que les photons virtuels sont par définition des quantités discrètes, ce qui semble impliquer que le potentiel est induit par incréments discrets entre les particules, ce qui est en contradiction directe avec le fait que l'énergie de mouvement est induite progressivement à n'importe quelle distance en fonction de loi infinitésimalement progressive de l'inverse du carré de la distance.

(4- À propos de l'importance de la séquence temporelle des événements)

Les événements de collision et de déviation n'étant pas physiquement instantanés, je crois aussi qu'il y a de sérieuses raisons pour remettre en question l'opinion de Feynman lorsqu'il déclare, et je cite :

"Pour plusieurs problèmes, par exemple, la collision de particules, nous ne sommes pas intéressés à la séquence temporelle précise des événements. Il n'est d'aucun intérêt de pouvoir dire à quoi ressemble la situation à chaque moment pendant une collision et comment elle progresse d'un instant au suivant." ([6], p.771)

Il va sans dire que je suis en profond désaccord avec Feynman, parce que cette philosophie de recherche a conduit les générations de physiciens qui ont suivi à éviter d'explorer durant les 50 dernières années, la dernière frontière encore inexplorée en physique fondamentale.

Un argument supplémentaire supportant le point de vue que des photons virtuels ne peuvent pas être une réalité physique, est l'observation de Bohr lui-même à l'effet que les états quantifiés de l'atome étant stables, ces états ne peuvent s'accompagner d'aucun rayonnement, et que l'existence de ces états non radiants est conforme à l'idée de stabilité quantique ([1], p.134). Je suis de plus en accord total avec de Broglie lorsqu'il dit que l'existence des quanta implique une limite inférieure d'un genre très particulier aux perturbations qui peuvent exister dans les systèmes considérés ([1], p.20).

Par conséquent, la perception qu'une radiation pourrait être émise par des électrons sur les orbitales de repos, par exemple, par le biais de photons virtuels ou tout autre mécanisme, semble être en contradiction directe avec le fondement même de la Mécanique Quantique, parce que les observations de Bohr et de Broglie semblent impliquer qu'une sorte de seuil d'excès d'intensité d'énergie au niveau local d'équilibre du potentiel coulombien doit être atteint ou dépassé avant qu'un photon puisse être émis; l'atteinte d'un tel seuil initierait la conversion à l'état de photon et l'évacuation du système considéré d'une portion mesurée du potentiel local non quantifié, ce qui permet à l'équilibre local d'être rétabli.

En vue de l'existence possible d'un tel seuil relatif de quantification , l'existence physique de photons virtuels comme médiateurs d'une interaction qui résulte en l'induction entre les particules impliquées d'une énergie potentielle qui est non quantifiée par définition, du simple fait que son intensité locale relative n'a pas encore atteint ce seuil, me semble hautement discutable, sauf en tant que représentation mathématique pratique.

(5- À propos de la nécessité d'une redéfinition de la géométrie fondamentale de l'espace)

En ce qui concerne la géométrie de Maxwell, la description la plus élaborée qui soit venue à ma connaissance de la géométrie de l'espace qui doit obligatoirement sous-tendre la Théorie de Maxwell indique simplement qu'un champ magnétique et un champ électrique s'intersectent orthogonalement et que la combinaison des deux intersecte la direction de mouvement de l'énergie dans l'espace à angle droit.

Étant donné qu'une telle énergie ondulatoire, si elle existait comme telle, serait en expansion sphérique dans l'espace, et quoique je n'aie jamais eu connaissance que ce point soit mis en évidence, il m'est éventuellement apparu que contrairement au point de vue généralement accepté, les champs magnétique et électrique qui s'intersectent orthogonalement envisagés par Maxwell pourraient ne pas résider à l'intérieur de notre espace tridimensionnel tel que nous le connaissons, puisque leur intersection semblerait devoir être définie comme étant orthogonale à l'espace lui-même, comme nous le verrons bientôt. La conclusion logique me semblait être que cette géométrie sous-entendait l'existence de dimensions extra-spatiales non encore explorées.

Pour visualiser plus facilement la géométrie de Maxwell, étant donné qu'il nous semble impossible de visualiser plus de 3 dimensions à la fois, j'ai ainsi pris l'habitude de plier mentalement les trois dimensions de l'espace normal comme s'il s'agissait des baleines d'un métaphorique parapluie à 3 baleines. Cet artifice me permettait de visualiser la géométrie complète comme si je considérais un système géométrique à 3 axes euclidiens normal, l'axe des x représentant le champ magnétique, l'axe des y, le champ électrique, et le plan déterminé par les axes des x et y se déplaçant à la vitesse de la lumière le long de l'axe des z, qui représente l'espace normal à 3 dimensions.

Ayant appliqué l'idée du "parapluie" à l'axe représentant l'espace normal, l'idée me vint naturellement de l'appliquer aussi aux deux autres axes, définissant ainsi une étrange géométrie à trois espaces coexistant orthogonalement, chacun desquels possédant 3 dimensions, un "Cube de Rubik" métaphorique que je me plaisais beaucoup à manipuler, ouvrant ou fermant un à un les petits parapluies, de manière à pouvoir continuer à visualiser facilement la géométrie complète. Bien sûr, ces ouvertures et fermetures de "parapluies" n'ont aucun impact sur les espaces réels qui sont représentés. Ces espaces sont pleinement ouverts en permanence dans toute leur étendue.

C'est à ce cadre de référence que j'ai subséquemment tenté d'associer toutes les propriétés vérifiées des particules fondamentales, chacune desquelles devenant le point focal d'une occurrence locale d'une intersection des 3 espaces, et chacune desquelles étant séparées des autres particules par le vide total.

(6- À propos de la structure électromagnétique dynamique interne du photon de de Broglie)

L'élément d'information précis qui a déclenché l'enchaînement de raisonnement qui a conduit à la solution proposée ici est cependant une conclusion tirée par Louis de Broglie que les photons doivent être constitués non pas d'un corpuscule, comme il est généralement supposé, mais de deux corpuscules, ou demi-photons, qui seraient complémentaires comme l'électron est complémentaire du positon.

Éventuellement, j'ai développé une vision claire d'une mécanique de conversion qui explique de manière plausible comment un tel photon, possédant suffisamment d'énergie, pouvait se convertir en une paire électron/positon dans une telle géométrie. Éventuellement, une mécanique plausible d'interaction des électrons et positons prit forme, qui procure une clé pour comprendre comment les protons et neutrons peuvent être créés.

Le résultat est une série continue de séquences d'interaction clairement définies qui procure un lien de causalité ininterrompu à partir des quantités d'énergie de mouvement non quantifiées qui s'induisent par accélération entre les particules par interaction coulombienne, à la quantification de cette énergie sous forme de photons lorsque le seuil relatif de quantification est atteint localement, à la création d'électrons et positons lors de la déstabilisation de photons d'énergie suffisante, et finalement à la création de protons et neutrons à partir de l'interaction d'électrons et positons lorsqu'ils sont forcés d'interagir dans des volumes d'espace suffisamment restreints.

Une telle géométrie à 9 dimensions répartie dans 3 espaces est, selon moi, le cadre de référence le plus restreint qui puisse encore permettre l'élaboration d'un lien de causalité aussi clairement défini.

(7- À propos de l'harmonisation des théories établies)

La conséquence la plus surprenante cependant, semble être une confirmation de la Théorie de la Gravitation de Newton sous une forme plus précise qui, en remplaçant le concept de "particule ponctuelle" par celui de "particule ponctuelle chargée", ce qui permet une explication alternative à celle de la Relativité Générale de l'erreur newtonienne dans le calcul de l'avance du périhélie de Mercure, du calcul correct de la déflection des trajectoires des photons par le Soleil, de l'augmentation de la fréquence des photons émis par les atomes de césium dans les horloges au césium avec l'altitude, et qui offre une solution gravitationnelle au problème de l'accélération constante résiduelle anormale inexpliquée dirigée vers le Soleil observée chez les modules spatiaux Pioneer 10/11, Galileo et Ulysses.

Autre conséquence surprenante, cette solution semble établir un pont naturel entre la Théorie Électromagnétique de Maxwell - qu'elle confirme d'une manière qui lui permet de décrire directement les photons, l'interaction coulombienne et la Théorie Gravitationnelle de Newton, et qu'elle offre une nouvelle perspective sur l'ensemble des théories orthodoxes acceptées, soit la Relativité Restreinte, la Mécanique Quantique, l'Électrodynamique Quantique, la Chromodynamique Quantique, ainsi que sur plusieurs des postulats qui sont maintenant pris pour acquis.

(8- À propos des problèmes non résolus)

Un certain nombre de questions non résolues seront abordées dans cet article. Par exemple, l'importante conclusion de de Broglie concernant une structure interne possible pour les photons, qui, en conjonction avec la découverte d'Abraham et Kaufmann concernant l'insensibilité de l'énergie cinétique unidirectionnelle à toute force appliquée transversalement, semble être la clé même de la construction du dernier lien de causalité manquant entre l'énergie cinétique qui s'accumule par le biais de l'accélération électromagnétique des particules et l'énergie dont doivent être constitués les quarks up et down.

La Relativité Restreinte pour sa part n'a pas encore été adaptée pour rendre compte de la contraction et de l'expansion adiabatique interne de particules complexes comme les protons et les neutrons en fonction de l'intensité locale des interactions électrostatiques entre les composants élémentaires chargés de la matière environnante (quarks up et down) et de l'impact de cette interaction sur la masse au repos locale de ces particules complexes en fonction de la densité locale de la matière environnante (l'intensité locale de la gravité). La RR continue de traiter les protons et les neutrons comme s'ils étaient des particules élémentaires dont la masse au repos serait invariante !

Serait-ce la raison pour laquelle personne ne peut actuellement calculer correctement les trajectoires des sondes spatiales Pioneer 10 et 11, même avec les équations de la Relativité Générale, une théorie censée être le dernier mot à propos de tous les phénomènes gravitationnels inertiels observés ? De plus, les données recueillies pour d'autres engins spatiaux laissent définitivement entrevoir la possibilité que ce phénomène d'accélération "supposé anormal" serait systématique et dû à un aspect de la réalité fondamentale non encore couvert par les théories traditionnelles.

En fait, la RG a fait l'objet de recherches persistantes et infructueuses au cours de la dernière décennie pour trouver le moyen de rendre compte de deux soi-disant anomalies distinctes observées concernant les vaisseaux spatiaux Pioneer, l'une concernant une perte soi-disant " anormale " rarement documentée de moment angulaire autour de leur axe de rotation, et l'autre se rapportant à une accélération dite "anormale" dirigée vers le Soleil pendant qu'ils sont en processus de s'échapper du système solaire sur leurs trajectoires hyperboliques.

Est-ce que ces défaillances de la RG pourraient être dues au fait que la RR (à laquelle la RG est intimement associée) ne prend pas encore en compte les implications relativistes du fait que les protons et les neutrons ne sont pas élémentaires, et que leur masse au repos momentanée pourrait bien dépendre des vitesses locales qui dépendent de l'intensité de la force électrostatique entre les quarks qui composent leur structure ? Ce modèle mettra en perspective la manière dont la masse effective au repos des particules complexes peut être correctement intégrée.

D'autres phénomènes très bien documentés que la RR et la RG sont incapables d'expliquer sont le fait que la Lune s'éloigne progressivement de la Terre à un rythme d'environ 3,8 cm par an et que la rotation de la Terre est plus élevée en été qu'en hiver et qu'elle diminue régulièrement d'année en année, d'une manière qu'aucune théorie actuelle ne peut expliquer.

Nous étudierons comment ces phénomènes peuvent éventuellement être expliqués pour la même raison fondamentale qui explique l'anomalie apparente des trajectoires des vaisseaux spatiaux Pioneer 10 et 11 et le ralentissement des horloges atomiques. Le nouveau modèle prédit en fait que cette soi-disant anomalie n'est pas une anomalie, mais un comportement normal de tous les petits corps se déplaçant dans l'espace.

Il est bien connu qu'à courte distance gravitationnelle, comme la distance entre Mercure et le Soleil, la RG s'est avérée plus précise que la théorie classique de Newton.

Cependant, il a été prouvé que les deux théories donnent les mêmes résultats pour tous les mouvements de translation de toute la "matière observable" aux distances galactiques et intergalactiques auxquelles toutes les planètes et les corps d'étoiles se comportent comme s'ils étaient ponctuels les uns par rapport aux autres, pour les deux méthodes de luminosité et du théorème viriel.

(9- À propos de la matière observable et de la "matière noire")

Une note d'intérêt ici concernant la "matière observable" aux distances galactiques et intergalactiques concerne la soi-disant "matière noire". Comprenons bien que la "matière observable" à ces distances est associée exclusivement à la matière dont la luminosité est détectable depuis ces galaxies lointaines.

En 1933, l'astronome Fritz Zwicky a observé que la masse d'un amas de galaxies lointaines calculée à partir de sa luminosité comparée à la masse du même amas calculée par une méthode différente donnait un chiffre beaucoup plus important avec cette dernière méthode (le théorème viriel) que celui qui pouvait être estimé à partir de la seule luminosité. Cette observation a donné naissance à la théorie selon laquelle il doit exister une matière invisible "sombre" pour expliquer cette différence.

Dès le départ, il est facile d'observer que la plus grande partie de la matière du système solaire, depuis les astéroïdes, les planètes, les particules et débris interplanétaires de toutes sortes captifs du champ magnétique du Soleil, jusqu'au nuage d'Oort et aux nuages de poussières et débris interstellaires de toutes natures qui se sont accumulés depuis le début de l'univers, n'émettent pas de lumière et ne peuvent que réfléchir une partie de la lumière provenant du Soleil. La masse de toute cette matière non émettrice de lumière apparaîtrait également comme non calculable à partir de la luminosité du Soleil, sans parler de l'effet de masquage qu'elle apporterait en interférant avec la lumière du Soleil si le système solaire était observé depuis des distances interstellaires.

Étant donné l'âge de l'Univers et l'éjection constante de matière des étoiles et de leurs coronas depuis leur naissance, le bon sens ne suggère-t-il pas minimalement que la plus grande partie, sinon la totalité de la masse dite manquante (calculée à partir de la luminosité) pourrait simplement être ce type de matière très normale, indétectable à de telles distances simplement parce qu'elle n'est pas assez chaude pour émettre de la lumière ?

Mais des théories plus exotiques semblaient beaucoup plus attrayantes dès le départ pour la communauté dans son ensemble cependant, qui a donc eu tendance à préférer la conjecture de l'existence de grandes quantités d'une hypothétique "matière noire" supplémentaire anormale, inconnue, indétectable et omniprésente, et à postuler l'existence d'une tout aussi hypothétique "énergie étrange ou sombre" indétectable pour "expliquer" la divergence.

Le fait qu'aucune des particules exotiques qui ont été imaginées en théorie pour remplacer la matière normale comme composant cette " matière noire " ne se trouve nulle part sur la Terre ni dans le système solaire, mais serait abondante très loin, là où il est impossible de les détecter, ne devrait-il pas être un indice qu'elles n'existent peut-être pas du tout ?

(10- Proposition d'une solution plus simple)

Le temps n'est-il pas venu de revenir à des explications simples et logiques et d'explorer ces pistes beaucoup plus prometteuses en résultats concrets ? Voyons où nous mènera le suivi de la piste fournie par les particules collisionnables qui existent réellement et sont réellement détectables ici sur la Terre.

Nous verrons également pourquoi le boson de Higgs dont l'existence est postulée pour expliquer l'existence de la masse n'est même pas nécessaire, et qu'une explication beaucoup plus simple découlant directement de la simple inertie de l'énergie et de l'électromagnétisme justifie complètement l'existence de la masse.

BIBLIOGRAPHIE

· [ 1] Louis de Broglie. LA PHYSIQUE NOUVELLE ET LES QUANTA,
France, Flammarion, France 1937, Second Édition 1993, avec nouvelle Préface de
1973 par L. de Broglie

· [ 6] Richard Feynman. Space-Time Approach to Quantum Electrodynamics,
Phys. Rev. 76, 769 (1949).

· [7] Anderson, Laing, Lau, Liu, Nieto and Turyshev. Indications from
Pioneer 10/11, Galileo, and Ulysses Data, of an Apparent Anomaleous, Weak,
< Long-Range Acceleration, grqc/ 9808081, v2, 1 Oct 1998.

Sommaire
et Table des
matières
Sommaire et Table des matières de l'article

L'ensemble des articles publiés dans le projet de "Mécanique électromagnétique des particules élémentaires" sont disponibles ici:

INDEX - Mécanique électromagnétique des particules élémentaires



Haut de la Page