La formulation du théorême de Bell doit changer !

Dans sa fameuse expérience, pour résoudre le problème de l’interprétation quantique ,Bell compare la courbe de la MQ à une courbe d’Einstein , dite naïve , obtenue en imaginant une expérience déterministe parfaite et ce qu’Einstein pouvait en tirer de mieux.

Que la MQ soit capable de prédire le résultat n’est pas une preuve en soi de la pertinence de l’intrication quantique violant la causalité et la localité. Pour conclure, il faudrait démontrer qu’il n’y a aucune autre explication , non réfutée par l’expérience , rendant les mêmes résultats. Or les démonstrations acceptées prêtent au courant Einstein de nombreuses hypothèses qu’il n’a jamais avancées.

Contrairement à ce qu’en écrivait Bell, au prix de quelques hypothèses raisonnables et facilement acceptables, il est possible de proposer une meilleure interprétation numérique de ces corrélations d’une première famille de fonctions gamoviennes d’Einstein.

Pour éviter tout risque découlant d’approximations des calculs ou de l’arrière plan théorique choisi, tous les résultats sont établis sur la base de simulations randomisées , découpées en étapes isolées, avec des dizaines de millions de tirages et plus, facilement contrôlables et reproductibles.

L’hypothèse de la pertinence physique de cette première famille de fonctions implique une dégradation de la prédiction quantique simple avec l’amélioration de la sensibilité des appareils de mesure et la présence de motifs. Les publications l’ont explicitement réfutée.

On peut donc seulement en conclure qu’il y a des fonctions plus performantes que la naïve mais que celles de cette première famille offrent le moyen de les détecter dans les applications de cryptographie quantique. Elles montrent aussi la difficulté de récupérer assez de signal d’écoute purement quantique dans une application de cryptographie.

Un théorème de Bell modernisé devrait en tenir compte !

 


Schéma d’une expérience moderne à double canaux

Solutions qu’aurait pu proposer Einstein après les expériences

Einstein n’a pas eu l’occasion de critiquer les résultats de l’expérience de Bell. Mais quelle aurait pu être sa démarche ?

Le réalisme consiste d’abord à reconnaitre les résultats expérimentaux puis à chercher d’autres explications ou renoncer. Soit Bohr avait raison, soit la fonction d’Einstein n’était pas la bonne pour décrire l’expérience.

Le schéma sous les yeux, il aurait constaté qu’il y a 2 bras , chacun comportant plusieurs dispositifs de régulation et de mesure de l’expérience, identiques des 2 côtés.

Tous les dispositifs, dont les polariseurs , possèdent des efficacités étalonnées. Leur cumul est important et pourrait jouer un rôle.

 

Si ces pertes en ligne sont uniformes, cela ne change rien.  Mais si une partie de ces matériels se comportent comme des barrières de potentiel , les corrélations en seront affectées. On pourrait aussi faire intervenr des interférences classiques. Cela revient un petit peu au même mais couterait beaucoup d’hypothèses inutiles pour ce sujet particulier. Peu importe les dessous ontologiques, le problème peut être ramené à une simple production numérique , déterministe par essence , versus les résultats bruts des expériences physiques en laboratoire.

Enfin, il serait raisonnable d’introduire un peu d’aléas. En effet, la contre-théorie des variables cachées, communes ou globales, ne dit pas quel est leur nombre. Comme il n’est pas raisonnable d’espérer toutes les retrouver dans cette application, l’hypothèse du caractère aléatoire apparent général peut être conservée. Bell, Clauser et Horne ainsi que d’autres pensaient avoir démontré que cet aléas ne changerait rien à la violation. Nous essaierons quand même.

Cet aléas pourrait porter sur l’angle d’incidence sur le polariseur avant sa rotation et/ou d’un aléas provenant d’irrégularités de structure.

Postuler que les atténuations se comportent comme des barrières de potentiel et que la loi contiendra un tout petit peu d’aléas reste raisonnable et conforme à la physique acceptée, jusqu’à réfutation expérimentale numérique et ensuite physique.

  • – Serait il possible mathématiquement d’en tirer d’autres corrélations dues aux dispositifs en partie dupliqués et à des variables non prises en compte jusque là ? A priori, oui.
  • – Serait ce suffisant pour expliquer la forme et les amplitudes ? Il faudra essayer.
  • – Si c’est le cas, est ce que l’interprétation physique tient ? Aujourd’hui, tant de publications l’affirmant , nous savons que non.

Tenter d’imaginer ce qu’Einstein aurait pu dire est prétentieux car il aurait surement proposé des arguments plus élaborés.

Mais partir de ce minimum permet d’alimenter le débat avec des productions comparées et surtout d’apprendre à reconnaître des séries de données artificielles, qu’il ne faut pas ignorer si elles existent.

Modélisation de l’expérience de pensée

Il y a vraiment plusieurs façons de faire entrer ces idées dans des calculs. On pourrait aller vers Cummins , revenir à Gamow ou rester en MQ mais avec une limitation relativiste. Beaucoup de physiciens ne s’intéressant pas à la controverse ont effleuré le fond du sujet comme Cummins. En choisir une serait à la fois présumer d’une théorie en remplacement et faire preuve de calculs complexes dont les approximations seraient discutées.

Il ne s’agit pas de prouver le possible mais de l’exhiber.

Le plus court chemin vers ce qui est l’essentiel de ce document passe par une expérimentation numérique avec un randomiseur fiable.

Elle comportera des variables cachées , un polariseur et d’autres dispositifs en barrières de potentiels. Les valeurs des rotations des polariseurs ne seront pas échangées entre eux , il n’y aura pas de mémoire des entrées sorties passées. Mais nous ferons l’hypothèse que les corrélations pourraient provenir d’autres similarités, les globales qui sont les caractéristiques techniques des deux bras et peut être bien une variable commune partagée au départ.

Simplification

Cette première famille de fonctions procède à une simplification : le polariseur est considéré comme le seul dispositif d’atténuation, concentrant en lui celles de tous les autres dispositifs, détecteur final compris. Cette simplification réduit la performance obtenue mais est plus simple à exposer et vérifier. Même si d’autres dispositifs sont évoqués, seul le polariseur sera simulé ici.

Mise en oeuvre

  • Les « particules » partent avec un lot de variables communes générées aléatoirement sur chaque voie, tentent de passer un polariseur dont l’angle est déterminé par un générateur aléatoire sur le bras ou bien au préalable par une méthode sure de randomisation.
  • Pour passer le polariseur, une loi ad hoc , résultant d’un calcul élémentaire simple, est appliquée avec une marge d’erreur.
  • Toutes les particules envoyées sont comptées, qu’elles passent ou non.
  • Ensuite les corrélations entre paires sont constatées.
  • Quand au moins un des 2 éléments de la paire est absent, il n’y a pas de calcul de corrélation possible.
  • Les totaux à statistiques sont incrémentés.
  • La loi de Malus statistique doit être vérifiée.
  • Le taux de propagation sera au minimum en accord avec les efficacités annoncées dans les publications et les rares collections de données expérimentales publiées.

Il n’y pas d’échange d’informations entre les bras. Mais les deux partagent :

  • – le même algorithme ,
  • – des variables communes explicites mémorisées au départ,
  • – les paramètres de la loi
  • – et les paramètres de chaque barrière de potentiel, représentés ici par un nombre maximum de tentatives autorisé.

Il faut bien noter que :

  • – rien n’oblige de calculer les 2 bras simultanément ou séquentiellement après chaque émission.
  • – rien n’interdit ici de calculer N bras et de les comparer 2 à 2.
  • – et par conséquent, à partir des mêmes paramètres d’émission et de caractéristiques des bras, on peut calculer à tout moment un nouveau bras candidat à la même comparaison.

Simulation numérique de barrières de potentiel

Ces barrières de potentiel sont imaginées comme deux chaînes de portes dont il faut en traverser une entièrement.

Si c’est une chaîne de portes en 0, ce sera une polarité négative et si c’est celle en 1 , une polarité positive.

En cas d’échec, une nouvelle tentative est autorisée jusqu’à un maximum fixé d’avance.

Après ce maximum, ce sera une polarité inconnue car non détectée.

Par exemple avec 7 portes

1 2 3 4 5 6 7

↑ ↑ ↑ ↑ ↑ ↑ ↑ est une série réussie rendant 1 , on arrête de tenter, c’est passé

↓ ↓ ↓ ↓ ↓ ↓ ↓ est une série réussie rendant -1 , on arrête de tenter, c’est passé

↓ ↑ ↓ ↑ ↑ ↑ ↑ est une série échouée , on continue de tenter au dessous d’un nombre maximum de tentatives. Quand ce maximum est atteint , la fonction rend 0 , c’est à dire une donnée indétectable par ce dispositif.

Les probabilités de rendre ↑ ou ↓ à chaque porte dépend des propriétés de la barrière : polariseur, simple verre, lentille , air. Chaque dispositif aura en caractéristique un coefficient d’efficacité et une « fonction élémentaire de propagation ». Utiliser ou non une simplification markovienne change la qualité du résultat.

Ce n’est qu’une façon simpliste de rendre compte d’une barrière de potentiel classique. Cette image est utilisée par George Gamow dans sa vulgarisation d’introduction de l’effet tunnel. Mais il s’agit bien ici dans cette famille de fonctions d’une simple barrière de potentiel.

 

Loi de traversée élémentaire du polariseur

Il s’agit de l’application de la loi pour le polariseur à l’échelle d’une « particule ». Elle doit respecter le comportement statistique.

Dans le cas du polariseur, la probabilité de rendre 0 ou 1 va dépendre de l’angle d’incidence , d’une petite part d’aléas et d’une variable cachée , plus précisément partagée par les 2 bras.

Nous pourrions partir de

M(1,teta) = cos²(teta) , teta étant la différence entre angles d’incidence sur les polariseurs.

M(0,teta) = 1-M(1,teta) = sin²(teta)

Une version « élémentaire » modifiée serait de la forme

M(1,teta,varca) = cos²( function( teta, varca) )

Si la loi consiste en l’ajout d’une variable cachée à chaque porte, p probabilité en sortie de polariseur , la probabilité d’ontenir 1 à l’angle teta sera le produit de 1 à n de cos² de teta plus une variable cachée.

 

\(p_1 = \prod_{i=1}^{n}{ cos^2( a + i \frac{L}{n}-\vartheta -\frac{L}{2}}) ; \\p_2 = \prod_{i=1}^{n}{ sin^2( a + i \frac{L}{n}-\vartheta -\frac{L}{2}}) ; \\p_0 = 1.0 – p_1 – p_2 ; \\ \\P_1 = \frac{p_1 p_0^m}{ \left(p_1+p_2\right)} ; \\P_2 = \frac{p_2 p_0^m}{ \left(p_1+p_2\right)} ; \\P_0 = 1.0 -P_1-P_2 ; \\ \\ \\\big(n,m\big) \in \big\{ \big(5,7\big),\big(6,12\big), … \big\}\\L \rightarrow \frac{\pi}{8}\)

 

p(0) > 0 provient du nombre maximum de tentatives qui devrait être infini pour obtenir p(0)=0.

On peut éviter le calcul ci-dessus en faisant une randomisation pour chaque porte.

Il faut noter que dans cette famille , on peut considérer n variables cachées choisies aléatoirement pour la simulation, ou bien en utiliser une seule et en déduire les autres par un algorithme.

 

Décomposition de la simulation en sous-simulations

Au lieu de reprendre les anciennes simulations synthétiques, nous allons simuler chaque dispositif.

Chacun aura un fichier de paramètres en entrée et rendra un fichier de résultats en sortie

* Un producteur de paires intriquées

C’est la source des paires, il n’y a pas de fichier d’entrée mais la fonction prend en argument le nombre de variables communes au départ.

Le fichier F.0 contiendra L lignes pour L paires implicites symbolisées par la liste de variables cachées de la ligne.

Celles ci sont générées aléatoirement et uniformément sur une plage de 360 unités ou ce qu’on veut pour peu d’ajuster les autres paramètres. Il est tout à fait possible de tester des séquences originales, aléatoires ou moins.

* Deux polariseurs

On les considérera comme identiques dans cette étude, c’est à dire ayant exactement les mêmes caractéristiques techniques.

La fonction prendra en argument le fichier F.0 et des paramètres globaux :

  • – le nombre de variables cachées,
  • – le nombre de portes de la barrière de potentiel,
  • – le nombre maximum de tentatives pour la passer
  • – et un paramètre de variabilité de la loi.

Elle tirera au sort pour chaque ligne un angle de rotation du polariseur et appliquera la loi avec ces paramètres.

Les fichiers de sortie , F.1.Alice et F.1.Bob , contiendront pour chaque ligne l’angle de rotation du polariseur et le résultat -1 , 0 ou 1 de sa fonction de propagation.

* Un comparateur et totalisateur de coïncidences

Il prendra en argument 2 fichiers F.1 , par exemple F.1.Alice et F.1.Bob et produira le fichier F.2.Alice.Bob .

Normalement, ils seront de la même combinaison de paramètres Vv mais rien n’interdit d’analyser l’impact de variations.

La fonction constate les corrélations ligne par ligne et produit pour chaque différence d’angles des polariseurs les totaux à statistiques des corrélations

En général, une expérience fait le bilan de ce qu’elle détecte. Il faut donc faire de même.

* Une mise en graphe

Nous avons utilisé la suite RGraph, facile à mettre en oeuvre sur internet dans une page HTML.

Le graphe présente la courbe dite de la MQ , la courbe naïve et la courbe améliorée. Si la courbe théorique de la MQ avec les interprétations de Bohr prévoit une efficacité proche de 100%, cette solution modélise ce qui est observé dans les expériences de physique, c’est à dire un taux de non détections non négligeable.

Non seulement il n’y a aucune raison de l’ignorer en physique dans une expérience aussi sensible, mais c’est ce qu’il y aura dans la réalité. Même dans les expériences calculant « plus de 90% de détection », le taux de détection brut est de plusieurs ordres de grandeur inférieur.

Résultats de l’expérience numérique

Les programmes utilisent plusieurs paramètres globaux qu’il fallait déterminer par tâtonnements.

Le numérique permet de balayer tous les angles de rotation et de délivrer des courbes plus denses.

 

Voici la courbe obtenue avec la fonction de polariseur fine. Les valeurs sont en annexe mais l’allure de la courbe verte est explicite.

En incrustation, le taux de détection brut des paires , des singletons et les non détections croisées.

Ces valeurs ne sont pas retouchées. Aucun élément détecté n’est exclu de la statistique.

Voici une courbe obtenue avec un mauvais choix de paramètres. Vous noterez que les corrélations sont nettement proches de la courbe théorique et bien démarquées de la courbe naïve. En jouant sur la luminosité, on peut même simuler des effets observés dans l’expérience physique , comme les imperfections à 0 et pi/2.

La variable commune ne semble pas posséder un rôle fondamental dans la physique du photon.

Par contre, l’uniformité de sa distribution est indispensable.

En prenant pour référence le tableau alpha pour tableur, qui n’est pas ce qu’on peut faire de mieux, on observe exactement pour les inégalités de Bell et CSCH aux différences d’angles suivantes :

  • Bell Simu 22,22,22,66° : \(3 E(22) – E(66) =\) 2,40308
  • CSCH Simu 22,22,22,66° : \(3 E_{csch}(22) – E_{csch}(66) =\) 2,80617
  • Bell Simu 23,23,23,69° : \(3 E(23) – E(69) =\) 2,39320
  • CSCH Simu 23,23,23,69° : \(3 E_{csch}(23) – E_{csch}(69) =\) 2,78640
  • Bell Simu 24,24,24,72° : \(3 E(24) – E(72) =\) 2,39978
  • CSCH Simu 24,24,24,72° : \(3 E_{csch}(24) – E_{csch}(72) =\) 2,79955

 

L’étonnante valeur du CSCH tient au bonus qu’il donne à la régularité dans le cas de détections partielles.

De nombreux tests sont consultables en ligne. Ils sont faciles à reproduire avec les codes sources fournis, des scripts simples et modifiables. Cet algorithme est si rapide qu’il est testable dans un navigateur de PC privé , en local. Cependant, on pourrait espérer encore mieux ; il reste de nombreuses voies à explorer.

Invalidations expérimentales de cette solution

Dans un comparatif brut, une simulation fait mieux que n’importe quelle expérience physique sur photons publiée à ce jour. En effet, il est tout à fait inutile de retraiter les données. De 65 à 75% des paires y sont détectées alors que c’est nettement moins en laboratoire d’optique. Il n’est pas encore intéressant d’évaluer des données numériques retraitées bien que les courbes de détection donnent de bonnes indications pour y parvenir. Les données ne devraient pas être retraitées pour éviter de postuler plus que le théorême.

Puisque tout finit en flots numériques, la performance d’une expérience numérique sera supérieure à tous les égards sauf un : sans contexte quantique pour utiliser les interprétations de Bohr, il ne sera pas possible de détecter une intrusion par interdiction de copie, ni reproduire une quelconque ( spooky ) intrication . Une de ces preuves , absolument non reproductibles par simulations numériques dans un consensus indéniable , sera déterminante.

0 Contributions croisées

Une possible faille de ces fonctions a été testée : le résultat serait produit par les contributions de toutes les rotations entre -90 et 90°. En ne travaillant que sur un nombre réduit de rotations, la courbe aurait pu changer. Il n’en est rien. En prenant 4 valeurs aux choix, 2 par bras, les résultats sont similaires à ceux des simulations avec un pas de 1°.

Deux caractéristiques essentielles devraient permettre de reconnaître un flux artificiel sans propriétés quantiques :

1 Efficacité du dispositif global

 

En vert, les paires détectées, en rouge les singletons et en noir les paires non détectées. Les taux de détection par différence d’orientations ne sont pas constants.

Avec les meilleurs paramètres, on observe une différence d’efficacité des paires d’environ 10% entre les maxima à -90° , 0° et 90° et les minima à -45° et 45°. Ces variations sont réparties sur les paires partiellement ou totalement non détectées.

C’est bien la non observation de ces effets d’interférence qui invalide ces fonctions.

 

 

 

 

Il est important de préciser qu’il s’agit de variations de détections de paires. Les probabilités de détection par angle simple sont bien constantes et conformes à la loi de Malus.

2 Sensibilité aux appareils de mesure

* Une barrière plus forte conduit à des courbes dont les différences avec la courbe naïve sont plus prononcées que cos².

Les rapports de données de laboratoire disponibles ne permettent pas encore de le savoir.

Autres fonctions

** Uniformité

Plusieurs randomisations sont appliquées uniformément sur des plages. Si la distribution est différente , tout en étant continue, on trouve des résultats similaires mais dont il reste à trouver les meilleurs paramètres.

** Utiliser plus d’un atténuateur que le seul polariseur

Dans les vraies expériences de physique, il y a toujours plus d’un dispositif entre l’un des 2 photons et le détecteur de son bras. Même si l’essentiel de l’atténuation provient du polariseur, on pourrait simuler une à une les barrières disposées en série.

** Modéliser la particule comme une onde

D’un point de vue pratique, cela revient au remplacement de l’uniformité de certaines distributions et à trouver d’autres explications ontologiques à la loi pour une « particule ».

En conclusion

Difficile de démêler qui d’Einstein ou Bohr avait raison mais ce n’est pas si naïf que cela a été présenté jusque là ; la décision finale reste difficile pour le non expert qui ne peut pas ignorer l’avis du grand expert. Plusieurs expériences d’optique ne sont pas probantes à elles seules. Au delà de la somme des résultats publiés , les avancées en informatique quantique , la téléportation certifiée de qbits et les vifs succès des projets de la cryptographie quantique concourent peut être à la preuve. A chacun de faire son opinion.

Les physiciens ayant donc invalidé cette famille de fonctions, du point de vue de l’application à la cryptographie, le technicien doit s’assurer avoir éliminé tout « bruit » classique dont les corrélations pourraient être confondues avec les théoriques , qu’il faut isoler et analyser, pour par exemple détecter des écoutes en cryptographie.

Il faut cependant noter que, dans l’expérience de Bell moderne, c’est bien les fonctions de cette famille et ses cousines à venir qui devront être invalidées par l’expérience physique et non plus la fonction naïve , devenue obsolète.

 


Soyez le premier à commenter

Poster un Commentaire