lunes, 12 de marzo de 2018

¿Eistein vs Bohr?

---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

Estado GHZ:
 ]










---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

¿El entrelazamiento cuántico, implica necesariamente la existencia de interacciones superlumínicas –descartando atajos extra-dimensionales –?
Bien, 
podríamos concluir que: siendo las partículas adimensionales (en ocasión de salvar ese límite de velocidad infranqueable de la (RE)), bajo circunstancias específicas; éstas están conectadas (a través de cualquier distancia). Conformando, lo que denominaremos como: sistema entrelazado. Debiendo aclarar, que tal unión-fantasmal-a-distancia (correlación no-local) no implica: ni que las componentes del sistema dejen de ser adimensionales (hasta cierta precisión: localmente coordenable), ni un nexo dimensional (tentáculo) entre ellas. Para ello, solo necesitamos aceptar que: la distancia entre los componentes del sistema, es cero; independientemente de la separación (distancia mayor a cero), en que dispongamos los dispositivos de medición. Parafraseando: son uno, cualquier similitud con la new age; es mera coincidencia).
Según mi experiencia, es más fácil para los físicos actuales aceptar que: lo-separado, en ocasiones está unido a pesar de “la distancia”/“contener distancia” (apelando a una entidad matemática: no-separabilidad), a preocuparse por lo contradictorio de la descripción. Además, ¿qué relevancia puede tener, el que nos carguemos una circunstancial separación (distancia); con tal de salvar ese límite de velocidad infranqueable de la (RE)? E incluso, podríamos considerarla: una solución ad-hoc y listo.
Siento que, por alguna razón, los contrasentidos no limitan a la ciencia. Y congruentemente, ésta no desvaloriza otros modelos por contenerlos. ¿O estaré siendo demasiado ingenuo?
Nota: la frutilla del postre, según mi experiencia, confrontados con una interacción superlumínica y/o que lo separado este unido a pesar de contener distancia, parecen restringir, ese efecto fantasmal a distancia, solo a interacciones con SG(F) de diferente orientación angular.

La evolución científica, fue acotando ese límite de velocidad infranqueable de la RE, a:
§  Partículas usadas en la transmisión de datos (vía de comunicación (señal: influencia física, en su acepción pragmática) que pueda ser utilizada, en la transmisión de datos).
§  Partículas que deban acelerar hasta dicho límite (contraejemplo: taquión, hipotética partícula superlumínica).

¿La causalidad relativista está en problemas?
§  En problemas, puesto que según la interpretación Einsteniana de la causalidad relativista, ninguna influencia física puede propagarse superlumínicamente.
§  Temporalmente a salvo, puesto que según la interpretación pragmática de la causalidad relativista, estas influencias físicas que se propagan superlumínicamente; no entran en conflicto con la causalidad relativista. Dado que, los fenómenos donde se viola la separabilidad; no permiten la transmisión de señales superlumínicas (utilizables).

Interacción física:
Consiste en una acción recíproca entre componentes físicos (relación).
§  Interacción: Acción que se ejerce recíprocamente entre dos o más objetos, agentes, fuerzas, funciones, etc.

Señal: 
Alteración que se introduce o surge en el valor de una magnitud física, que sirve para la transmisión de datos.

No-separabilidad:
La no-separabilidad (entidad matemática) que representa: la imposibilidad de factorizar la distribución de probabilidad de dos variables, como producto de distribuciones independientes.
§  En el contexto físico:
Dado que, básicamente la función de onda de probabilidad (entidad físico-matemática) describe el estado físico de un sistema (cuántico); mediante la distribución de probabilidades de sus observables (magnitudes físicas). En los casos donde los estados de dos o más partículas, se expresen como: una superposición lineal de dos o más estados, que no sea factorizable como producto de estados independientes. Las distribuciones de probabilidad para observables de ambas partículas serán en general dependientes (redundantemente: no-separable). 
¿Cómo determinar (experimentalmente) que las correlaciones de los componentes de un sistema entrelazadoson instantáneas?
¿Cómo determinar (experimentalmente) que el colapso de la función de onda de un sistema entrelazado es instantáneo?
§  Experimento 1.0: usar dos locaciones muy separadas (cada una con una componente de un sistema entrelazado) y efectuar las mediciones (en ambas locaciones) de forma sincronizada (simultáneamente). De mantenerse las correlaciones típicas (violaciones de las desigualdades de Bell – estadísticamente hablando) de un sistema entrelazado, dicha correlación (representada como un colapso de la función de onda del sistema) al menos debería ser superlumínica – aunque no necesariamente instantánea. Claro que actualmente usan el eufemismo-cuántico: correlación no-local (probablemente instantánea).
§  

PD: Los términos: correlación no-localdependencia estadísticano-separabilidad y violación de una desigualdad de Bell, son sinónimos en este contexto. Puesto que son denominaciones diferentes, para un mismo tipo particular de vínculo (correlación independiente de la distancia – necesariamente superlumínica –).


---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------


Higgs y el efecto masa:
Tengamos en cuenta que, para la física actual existen dos propiedades medibles diferenciables (efectos) denominados masa: la masa gravitacional y la masa inercial – diferenciación que obviamente no remite alprincipio de equivalencia –. Y dado que, en la actualidad la gravedad no forma parte del modelo estándar de física de partículas elementales – y en consecuencia del campo de Higgs – remitiré el termino masaexclusivamente a: la masa inercial.
Siendo la consecuencia del mecanismo de Higgs – establecido para explicar lo que denominamos: ruptura espontanea de la simetría electrodébil – el (efecto) masa de las partículas fundamentales. Más precisamente de:
§  Bosones de la interacción débilW+/- y Z^0.
§  Quarks: UpDownCharmStrangeTop y Bottom.
§  Leptones: ElectrónMuónTauón y Neutrino (electrónMuón y Tauón).
Dado que, estas partículas elementales son los constituyentes fundamentales del átomo, cabría de esperar que dieran cuenta de toda su masa. Lamentablemente no parece ser el caso. Según datos experimentales – acarreando las dificultades de su medición –, la masa del quark Up oscila entre (1,7 y 3,1 MeV) y la delquark Down oscila entre (4,1 y 5,7 MeV), siendo la masa del protón aprox. de (939 MeV). Bien, según nuestro modelo, el protón está constituido por tres quarks (dos Up y un Down – denominados: [quarks de valencia] –); por lo tanto, a lo mucho estaríamos rondando el [1% de su masa] – desestimando obviamente alelectrón, puesto que su masa es solo de aprox. (0,51 MeV) –. Entonces, ¿y el resto? Bueno, no se preocupen, puesto que se considera actualmente que el resto – [99% de su masa] –, se debe a la [energía de suinteracción fuerte (campo de gluones)], y a la [energía cinética y potencial de sus quarks y antiquarks]– ver nota siguiente –.

Nota: en la interacción fuerte, existe una zona donde los quarks y antiquarks están tan próximos entre sí que la energía de confinamiento resulta insignificante: libertad asintótica. Pero, a medida que se alejan unos de otros, esta crece indefinidamente: confinamiento de color. Es común, representar esta interacción con la analogía de un resorte – dado que, la energía de confinamiento (resistencia en nuestra analogía) crece con la distancia (estiramiento en nuestra analogía) –. En condiciones normales, los quarks y antiquarks que componen un nucleón intentan constantemente alejarse entre sí, aunque sin lograr escindirse. Dado que, la energía de escisión resulta ser enorme, y el proceso de alcanzarla implicaría la creación de pares de partícula-antipartícula – energía que así empleada resta energía cinética al quark/antiquark –, el quark/antiquark no logra escindirse: confinándolo.

Nota: <actualización> un nucleón está conformado por un número no especificado de quarks y gluones. La masa de un nucleón – por ejemplo, el protón –, según la cromodinámica cuántica (QCD) – análogo a lainteracción fuerte –, está conformada – aproximadamente – de la siguiente forma:
1)   [H(m)≈(1/8) de su masa] – siendo la mitad de ésta debido a la masa de sus quarks extraños (que conforman solo una parte de los quarks de no-valencia) –, corresponde a la masa de sus quarks y antiquarks – valor derivado del mecanismo de Higgs –.
2)   [H(q)≈(1/3) de su masa], corresponde a la energía cinética y potencial de sus quarks y antiquarks.
3)   [H(g)≈(1/3) de su masa], corresponde a la energía cinética y potencial de sus gluones.
4)   [H(a)≈(1/4) de su masa], corresponde a la anomalía de traza de sus gluones – básicamente representa el confinamiento de los gluones –.
Técnicamente, la energía total del protón – responsable de su masa –, se compone mediante los Hamiltonianosanteriores: [H(QCD)=H(m)+H(q)+H(g)+H(a)].
Lo que en (MeV) seria:
§  Masa de sus quarks de valencia ≈ (10 MeV).
§  Masa del resto de quarks y antiquarks ≈ (110 – 160 MeV).
§  Energía cinética y potencial de sus quarks y antiquarks ≈ (270 – 300 MeV).
§  Energía cinética y potencial de sus gluones ≈ (320 MeV).
§  Anomalía de traza de sus gluones ≈ (190 - 210 MeV).
Nota: si desactivásemos el mecanismo de Higgs, el protón, resultaría ser más pesado que el neutrón – debido a que es una partícula cargada (lo que incrementaría su masa) –. Y el electrón – que obtiene su masa por elmecanismo de Higgs –, carecería de masa – por ende, viajaría a la velocidad de la luz en el vacío –. Ergo: ningún núcleo atómico, sería capaz de atrapar en una órbita estable a un electrón – es decir: no existirían los átomos como los conocemos –.

Nota: gravedad y mecánica cuántica: https://www.youtube.com/watch?v=eIMUQB0rfdE


-----------------------------------------------------------------------------------------------
-----------------------------------------------------------------------------------------------

El (H: campo de Higgs) su (V: potencial) y el falso vacío de (H):
El campo de (H), permea todo el cosmos.
El bosón de (H), es una excitación del campo de (H) – solo se producen a energías muy altas, por ej.: en elLHC –.
Según experimentos en el LHC, el valor del (H) en el vacío, es de: 246 GeV. Valor, que deviene de (V). Laforma de (V) – según experimentos actuales –, es la mostrada en la figura de abajo (línea continua). Las líneas puntuadas, indican su forma esperada, para energías más elevadas o tiempos futuros. Siendo, la línea puntuada morada, la menos probable – según datos actuales –. En consecuencia, nos encontraríamos en un falso vacío del campo de (H) – falso mínimo de (H). Aunque, la probabilidad de que este presunto falso vacío del campo,decayera en el presunto vacío verdadero del campo, en nuestra vida, seria infinitesimal – cargándose así, toda estructura de nuestro universo –. En consecuencia, de darse en estos momentos, dicho decaimiento, seriamodelado por el efecto túnelpudiese ser que, en el futuro, descubriésemos nueva física, que apoyase la hipótesis de que nuestro vacío actual, resulte ser en realidad, el vacío verdadero del campo – nunca decaería –.




---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------


Teorema de Bell (1.1): ------------------------------------------------------------------------------------------------------------------------------------------------------------ <En proceso>
Afirma que: ninguna teoría física de variables ocultas localespuede reproducir, todos los resultados experimentales de la mecánica cuántica.

§  El (TB), remite exclusivamente a: una diferencia estadística, entre correlaciones clásicas y cuánticas(TB)®(Máx. correlación de (MCu())>Máx. correlación de (MCl=())).

§  Dado que, todo teorema debe restringe (o debería) exclusivamente a lo teorético, intentare mencionar dicha obviedad la menor cantidad de veces que pueda, así como, su errónea/insufrible extrapolación fuera de dicho ámbito.

§  

Nota: aunque, con la intención de restringirme lo más posible a mi (fuente principal: Wikipedia) y siendo ambos, superiores a la predicción clásica, tomaré como técnicamente idénticos – sin serlo, incluso en el mismo artículo –, a: (resultados experimentales y predicciones cuánticas) –. Y, de momento: hagamos a un lado el problema del Super-determinismo ( pormenorización al respecto ).

El (TB), se sustenta en tres – no dos, como suelo encontrar – premisas fundamentales:

1)   La realidad: (Re)

Los valores – estados bien definidos – de las propiedades físicas existenindependientemente de su medición – nota: tomemos en consideración que: aun, la oscilación de neutrinos, mismo que actualmente crítico (interpretación del mecanismo y variabilidad energética: ( pormenorización al respecto )) y que, remite a un realismo, y aunque, indiferente para esta premisa, es incluso local según creo entender el modelo –.

2)   La localidad: (Lo)

Las interacciones físicas, dependen de la distancia – es decir: las interacciones físicas a considerar en un efecto físico, están restringidas localmente –.

3)   La equiprobabilidad angular: () {revisión personal}

Los valores de las propiedades físicas – al menos respecto: del spin (experimentos de Stern-Gerlach (no-Débiles)) y de la polarización electromagnética (experimentos de Polarización EM) –, se consideran angularmente equiprobables – que, presentado en forma algo más precisa, seria: (experimentalmente aprox. del 50%) y (teóricamente exactamente del 50%) –, implicando así, la existencia de un máximo de predicción estadística de exactamente el 50%. 

Critica de (): esta presunción, se acepta/se oculta/se ignora a pesar de que, en los (experimentos de Stern-Gerlach (no-Débiles)) y en (experimentos de Polarización EM) secuenciales, los resultados experimentales del spin son angularmente no-equiprobables. Ergo, ¿seriamente, les resulta asombroso y extrapolable, fuera de esta comparativa, concluir de lo que se parte? (¿comparación injusta/inconducente?). Es decir. Hacer foco, en dicha diferenciación angular, como fundamento/prueba de por ej.: entrelazamiento cuántico de estados/no-localidad/no-realidad/afines – es decir (ya no sé cómo explicitar lo para mi obvio): que existe algún tipo de interacción super-lumínica [ISL] entre los componentes del sistema presuntamente entrelazado de estados (a su vez, comprobados al verificar dicha diferenciación {de circularidad nada, ¿verdad?}) y, en general, erróneamente/injustificadamente extrapolada al resto de componentes del cosmos (con sentencias como: la naturaleza, es difusa y/o no-local) –. Parafraseando/parodiando: este “teorema”, pretende comparar, considerándolos como suficientemente idénticos en la propiedad medida/comparadael desplazamiento (por ej.: rodar, mediante una única fuerza inicial (significativa), por una única y presuntamente inmodificable pendiente poco rugosa y poco inclinada) de naranjas y bananas y la precisión en la predicción de la distancia recorrida – tan solo, por ser ambos frutas, sin ponderar adecuadamente/justamente/probatoriamente/representativamente/conducentemente/afines sus diferencias estructurales/pesos/afines (error que, en caso contrario, evitaría las injustificadas extrapolaciones de este “teorema”) –, para luego, maravillarse de la superior distancia recorrida por las naranjas y, en particular, del superior acierto predictivo de su modelo (naranjil). Peor aún, considerar, a las mencionadas diferencias, como fundantes/pruebas de interpretaciones/modelos por fuera de esta específica comparativa – símil: a razón de, los resultados experimentales anteriormente mencionados, queda indiscutiblemente fundamentado/probado que la naturaleza (es decir: lo físico) es naranjil. En consecuencia: también lo hace, la superioridad naranjil (modelo) respecto de la bananil (modelo) –.

Nota: sumado a la crítica anterior, no debemos desestimar el que, dados esos mismos experimentos, el spin de las partículas medidas, no debería entenderse como: la exclusiva determinación del valor de dicha propiedad intrínseca (el spin) de una partícula, sino, la correlación entre el gradiente del campo magnético del aparato de medida, el spin incidente de la partícula a medir, su ángulo y velocidad de entrada. En consecuencia, a mi entender actual: este “teorema”, no sostiene/prueba sus conclusiones descriptivas/explicativas respecto de la empírea – sintéticamente: ni tan siquiera, tendríamos que remitirnos a la incomprobable potestad de la teoría respecto de la empírea ( pormenorización al respecto ) para desestimar este teorema .

           §  Limitantes observacionales y consistencias:
               Respecto de algunas limitantes observacionales ( pormenorización al respecto ).
               Respecto de, condiciones iniciales idénticas y estados físicos bien definidos o no (independientemente de que sea localmente o no) y resultados observacionales diferentes, acotaría que: ¿el compendio de [ pruebas irrefutables de no-realidad y/o no-localidad en la (MMC)»Violaciones de desigualdades tipo Bell ] implican algún tipo de [ mecanismo-intrínsecamente inconexo de la/s moneda/s-maravillosa/s ]?: ( pormenorización al respecto ).
           §  

[ISL]: accesorio. Al parecer, para no tan pocos, con tan solo aclarar que dicho entrelazamiento cuántico de estados, no puede emplearse para enviar/recibir información, parece eliminarse el problema de una interacción física no-local. Obviamente, éste vendría siendo un pseudo-problema en mecánica cuántica – dado que: depende de lo que uses/abuses, lo que concluyes/confundes – pues, se presume a la misma como no-local.

Actualización: ahora. Sumado, según corresponda, a lo vertido previamente y en (Objeciones (Populares) ( pormenorización al respecto ) y Objeciones (Capitales) ( pormenorización al respecto )). Respecto de la ¿comparación injusta/inconducente?, estoy analizando si: ¿en el resto de presuntas demostraciones – y, consecuentes comprobaciones experimentales – de las desigualdades tipo Bell, se incurre en similar error de comparación/elección sesgada/afines? ¿Sera lo mismo para el caso de la siguiente demostración algebraica/comprobación experimental, solo que solapada?:

Estados GHZ: (discrepancia no-estadística de resultados) -------------------------------------------------------------------------------------------------------- <En revisión>
Configuraciones de los [Dn]: (detectores)
[CP.Dn]: Configuraciones posibles = [21]: ({DX,DX,DX} {DX,DX,DY} {DX,DX,DZ} {DX,DY,DX} {DX,DY,DY} {DX,DY,DZ} {DX,DZ,DX} {DX,DZ,DY} {DX,DZ,DZ} {DY,DX,DX} {DY,DX,DY} {DY,DX,DZ} {DY,DY,DX} {DY,DY,DY} {DY,DY,DZ} {DY,DZ,DX} {DY,DZ,DY} {DY,DZ,DZ} {DZ,DX,DX} {DZ,DX,DY} {DZ,DX,DZ} {DZ,DY,DX} {DZ,DY,DY} {DZ,DY,DZ} {DZ,DZ,DX} {DZ,DZ,DY} {DZ,DZ,DZ}), se descartan ternas de más de (2) ángulos diferentes – es decir: descarto [6] de las [27] –. Ahora. Como buscamos estados GHZ, en general, y para (3) partículas, son posibles [8] estados GHZ{-, -, -} {+, +, +} {-, +, +} {+, -, -} {+, -, +} {-, +, -} {+, +, -} {-, -, +}).
[CP.DGHZ]: Configuración estado GHZ (sesgadamente elegida, debido, al menos, a particularidades del decaimiento/emisión de la terna de este específico sistema no-abstracto respecto de los ángulos de los detectores – mismo ángulo, el (producto=-1) y diferentes ángulos, el (producto=+1) –, con la intención de constituir una contradicción entre modelos/estadísticas) = [4]: ({DY,DX,DY} {DX,DY,DY} {DY,DY,DX} {DX,DX,DX}, configuraciones que, según resultados experimentales, tienes solo (4) resultados diferentes posibles – precisados más adelante – y con igual probabilidad cada uno de ellos).
Actualmente, desconozco los ángulos representados por (XY y Z) de estos experimentos. Dejando, en consecuencia, abierta la posibilidad de que el principal problema, sea similar a lo que acontece en la desigualdad tipo Bell (principal) de este posteo – es decir: una no-equiprobabilidad angular y en ello, una injusta comparación con la estadística clásica –. Aunque. De todas formas. Se apela a una – por mí, desconocida comprobación de equiprobabilidad angular del decaimiento/emisión de la terna de este específico sistema no-abstracto para cada configuración posible (consecuentemente, para esas [21] – dada su comparativa con la estadística clásica – {fea costumbre esa de ir pidiendo imposibles o inconvenientes/vergonzantes para nuestro relato, ¿verdad?, eso sí, diametralmente opuesto es ir comparando injusta e inconducentemente} {si, sarcasmo}–, comparativa entre las [64] combinaciones presuntamente resultantes de asignar realismo local a priori (desplegadas en (6) columnas, unas [(2)^6] combinaciones secuenciales de (+1/-1) en fila) – entendida como: lo mejor que una estadística clásica puede predecir en estos experimentos sesgados – y un arbitrariamente sesgado subgrupo de [4] configuraciones de estados GHZ (desplegados en columnas). Descubriendo {¿enserio, les sorprende tanto?} que: ninguna de esas [64] combinaciones, se comprueba experimentalmente para el arbitrariamente sesgado grupo de configuraciones de estados GHZ – es decir: impongamos siempre una, misma o no, terna de ángulos iguales, acto seguido, mostrémonos sorprendidos del resultado –. Mientras que, se ha alcanzado una comprobación experimental del 98% – esto, para mí, es muy significativo, pues hasta donde creo entender, vuelve a colar la estadística por la ventana en esta presunta comprobación empírica de no-localidad –, de lo que denominamos como estadística cuántica (en particular, la concerniente al entrelazamiento cuántico de estados).

 DY DX DY    DX DY DY    DY DY DX   DX DX DX   DY DY DY  ¿DZ DZ DZ?  …

 (+1 +1 +1)   (+1 +1 +1)     (+1 +1 +1)   ( -1  -1  -1)   ( -1  -1  -1)   (+1 +1 +1)    …

 (+1  -1  -1)   (+1  -1  -1)     (+1  -1  -1)   ( -1 +1 +1)   ( -1 +1 +1)   ( -1  -1  -1)    …

 ( -1 +1  -1)   ( -1 +1  -1)     ( -1 +1  -1)   (+1  -1 +1)   (+1  -1 +1)   ( ……....  )    … 

 ( -1  -1 +1)   ( -1  -1 +1)     ( -1  -1 +1)   (+1 +1  -1)   (+1 +1  -1)   ( ……….. )    …

  -------------    -------------      -------------     -------------    -------------     -------------

 ([D.C.]:+1)   ([D.C.]:+1)     ([D.C.]:+1)    ([D.C.]:-1)     ([D.C.]:-1)    ([D.C.]1)

            [D.C.]: [[+1]: ((3+) o (2- y 1+)) y [- 1]: ((3- ) o (2+ y 1-))]

DY(1)*DX(2)*DY(3) = +1

DX(1)*DY(2)*DY(3) = +1

DY(1)*DY(2)*DX(3) = +1

DX(1)*DX(2)*DX(3) =  -1

¿Existen valores para DX(i), DY(i) que cumplan simultáneamente todas las ecuaciones? Pues no. Y se demuestra multiplicando (miembro a miembro) las ecuaciones: dado que, si un sistema de ecuación es cierto, la multiplicación de sus ecuaciones también es cierta (mientras que las variables no sean cero).

((DY(1)*DX(1))^2*(DX(1)*DX(2))^2*(DY(1)*DX(3))^2)…) ≠ (+1*+1*+1*-1) ® (+1 ≠ -1). Es decir: el específico sistema de ecuaciones, no posee una solución que lo satisfaga¡O sorpresa! Hemos arribado a una contradicción – ergo: algo, no puede existir ( pormenorización al respecto ) –. Que extrapolado al problema EPR – a mi entender, sesgada y en ello inconducentemente {¿mezclando inconducentemente bananas y naranjas?} –: presume refutar experimentalmentela localidad (realismo local), de cualquier tipo de variables ocultas.mentalmentela localidad (realismo local), de cualquier tipo de variables ocultas.

Resultados experimentales que, estadísticamente, comprobaría el (TB):

§  VOL: variables ocultas locales.

§  VOno-L: variables ocultas no-locales.

§  PME: puntuación media esperada.

§  CC: coeficiente de correlación.

§  PCM: porcentaje de correlación máxima.

§  


Detectores-spin(no-intrínseco) de fermiones, secuenciales:
Básicamente. A la salida de un previo detector – con la intención de evitar aleatoriedades innecesarias, injustificada/ilógicamente, referenciadas como ontológicas/intrínsecas/absolutas/afines –. Medimos – a mi entender, sería más preciso expresar: constituimos –, el spin – momento angular intrínsecos – de un fermión, según (q) – es decir: el valor absoluto de la diferencia angular entre el spin de la partícula incidente y el ángulo del detector; empleando como detector un equipamiento Stern-Gerlach (no-Débil) e infravalorando/ignorando, injustificadamente según objetivo, otras magnitudes físicas implicadas en dicha interacción física – y obtenemos que para:

§  q=0º: (ej.: 0º,0º; 45º,45º; 90º,90º; …), implica un CC=1.00 – significa obtener el PCM=100% de las veces idénticos resultados (predicción/correlación cuántica) –.

§  q=½45°½: (ej.: 0º,45º; 45º,90º; 90º,135º; …), implica un CC=0.85 – significa obtener aprox. el PCM=85% de las veces idénticos resultados (predicción/correlación cuántica) –. .

§  q=½90º½: (ej.: 0º,90º; 90º,180º; …), implica un CC=0.00 – significa obtener aprox. el PCM=50% de las veces idénticos resultados (predicción/correlación cuántica) –.

§  q=½180º½: (ej.: 0º,180º; 180º,0º; …), implica un CC=-1.00 – significa obtener el PCM=100% de las veces diferentes resultados (predicción/correlación cuántica) –.

§  

Me gustaría resaltar que: salvo en los casos donde (q=0 o ½180º½), según afirmaciones de aquellos que han realizado estos experimentos, las correlaciones no son exactas – es decir: son aproximaciones/porcentuales –. Además de, obviamente, alcanzarse un diferencial estadístico superior al del presunto entrelazamiento cuántico de estados – es decir: un PCM>85%>71%>50% (predicción/correlación clásica) –, volviendo en consecuencia, irrelevantes a las desigualdades de Bell.

Detectores-spin(no-intrínseco) de fermiones entrelazados:
Básicamente. Medimos – a mi entender, sería más preciso expresar: constituimos –, el spin – momento angular intrínsecos – de dos fermiones – presuntamente entrelazados (estado singlete de spin0) –, según (q) – es decir: el valor absoluto de la diferencia angular entre los ángulos de los detectores; empleando como detector un equipamiento Stern-Gerlach (no-Débil) e infravalorando/ignorando, injustificadamente según objetivo, otras magnitudes físicas implicadas en dicha interacción física – y obtenemos que para:

§  q=0º: (ej.: 0º,0º; 45º,45º; 90º,90º; …), implica un CC=-1.00 – significa obtener el PCM=100% de las veces diferentes resultados (predicción/correlación cuántica) –.

§  q=½45°½: (ej.: 0º,45º; 45º,90º; 90º,135º; …), implica un CC=0.71 – significa obtener aprox. el PCM=71% de las veces idénticos resultados (predicción/correlación cuántica) –. En todos los pares de configuraciones arbitrariamente elegidos del teorema de Bell principal de este posteo, existe un ángulo diagonal (+/-45º respecto del ángulo recto) de diferencia, donde (PCM>50%¿comparación injusta/inconducente? –).

§  q=½90º½: (ej.: 0º,90º; 90º,180º; …), implica un CC=0.00 – significa obtener aprox. el PCM=50% de las veces idénticos resultados (predicción/correlación cuántica) –.

§  q=½180º½: (ej.: 0º,180º; 180º,0º; …), implica un CC=1.00 – significa obtener el PCM=100% de las veces idénticos resultados (predicción/correlación cuántica) –.

§  

Siendo que, un (q=<de 0° a ½359°½> + VOL x q): (ej.: 0º,0º; 1º,43º; 45º,45º; 47º,79º; 90º,90º; 91°,359°; …), implica un CC=0.50 – significa obtener aprox. el PCM=50% de las veces idénticos resultados (predicción/correlación clásica) –.
Me gustaría resaltar que: salvo en los casos donde (q=0 o ½180º½), según afirmaciones de aquellos que han realizado estos experimentos, las correlaciones no son exactas – es decir: son aproximaciones/porcentuales –. Y, obviamente: comprobamos experimentalmente la existencia de configuraciones donde (PCM>71%>50% – predicción/correlación clásica –).

Polarizadores-lineales de fotones, secuenciales:
Básicamente. Medimos – a mi entender, sería más preciso expresar: constituimos –, el spin/polarización-lineal – momento angular intrínseco/orientación del campo (E)s – de un/os fotón/es, con una diferencia angular fotón-detector de (q) – detector: polarizador lineal (l(q): intensidad pos-Detector=coseno^2(q) y Øl(q): intensidad bloqueada=seno^2(q)) – y obtenemos que para:

§  q=0º: (ej.: 0º,0º; 45º,45º; 90º,90º; …), implica un CC=1.00 – significa que el PCM=100% de los fotones incidentes lo atravesaran (predicción/correlación cuántica) –.

§  q=½45°½: (ej.: 0º,45º; 45º,90º; 90º,135º; …), implica un CC=0.00 – significa que aprox. el PCM=50% de los fotones incidentes lo atravesaran (predicción/correlación cuántica) –.

§  q=½90º½: (ej.: 0º,90º; 90º,180º; …), implica un CC=-1.00 – significa que el PCM=100% de los fotones incidentes no lo atravesaran (predicción/correlación cuántica) –.

§  q=½180º½: (ej.: 0º,180º; 180º,0º; …), implica un CC=1.00 – significa que el PCM=100% de los fotones incidentes lo atravesaran (predicción/correlación cuántica) –.

§  

Me gustaría resaltar que: para cualquier (q), según afirmaciones de aquellos que han realizado estos experimentos, las correlaciones igualan o superan el 50% – es decir: PCM>=50% –.

Polarizadores-lineales de fotones entrelazados:
Básicamente. Medimos, el spin – momento angular intrínsecos – de un/os fotón/es, con una diferencia angular fotón-detector de (q) – detector: polarizador lineal (l(q): intensidad pos-Detector=-coseno(q) y Øl(q): intensidad bloqueada=-seno(q)) – y obtenemos que para:

§  q=0º: (ej.: 0º,0º; 45º,45º; 90º,90º; …), implica un CC=-1.00 – significa que el PCM=100% de los fotones incidentes no lo atravesaran (predicción/correlación cuántica) –.

§  q=½45°½: (ej.: 0º,45º; 45º,90º; 90º,135º; …), implica un CC=0.71 – significa que aprox. el PCM=71% de los fotones incidentes lo atravesaran (predicción/correlación cuántica) –.

§  q=½90º½: (ej.: 0º,90º; 90º,180º; …), implica un CC=0.00 – significa que significa el PCM=50% de los fotones incidentes lo atravesaran (predicción/correlación cuántica) –.

§  q=½180º½: (ej.: 0º,180º; 180º,0º; …), implica un CC=1.00 – significa que el PCM=100% de los fotones incidentes lo atravesaran (predicción/correlación cuántica) –.

§  

Me gustaría resaltar que: para cualquier (q), según afirmaciones de aquellos que han realizado estos experimentos, las correlaciones igualan o superan el 50% – es decir: PCM>=50% –.






Nota: con la intención, de reducir variables estadísticas respecto de diferencias angulares que no sean de45º – critica: puesto que, medir el valor de la propiedad angular de algo a 45º (P1^45º y P2^45º), resulta experimentalmente diferente de hacerlo a 45º entre sí (P1^90º y P2^135º), es que, este enfoque de medir ángulos entre sí, entiendo, tiene la finalidad (a la vista de los resultados experimentales sindiferencia angular), de introducir incertidumbre en la medida (resultados experimentales), para posteriormente, determinar si, la correlación cuántica en estas específicas configuraciones experimentales, resulta ser idéntica o no, a la correlación clásica –, propondría: contar con el mismo algoritmo pseudo-aleatorio, en ambas locaciones de detección, que variará el ángulo del respectivo detector, de forma que, siempre fuesen 45º entre sí.

Recordemos que: (a=0°b=45°a’=90°b’=135° y ((+1: significa obtener el mismo resultado), (-1: significa obtener el resultado opuesto) – a excepción de que: uno mida (a) y su contraparte (b’), en cuyo caso, los significados se invertirían –).
En consecuencia. Dado que, se agrupan los resultados experimentales altamente correlacionados y losmenormente correlacionados – a mí entender actual, injustificadamente [G] –, teóricamente descubrimos que:
§  Puesto que, para VOL (altamente correlacionadas), alcanzamos una (PME= (03[+1]-01[-1])/04[+1 y -1]=+0.50puntuación de correlación por columna del gráfico, equivalente a una: (Corr06[+1]/08[+1 y-1] =+0.75%puntuación de correlación por fila del gráfico.
§  Puesto que, para VOL (menormente correlacionadas), alcanzamos una (PME= (01[+1]-03[-1])/04[+1 y-1] =-0.50puntuación de correlación por columna del gráfico, equivalente a una: (Corr06[-1]/08[+1-1] =-0.75%puntuación de correlación por fila del gráfico.
§  

Conclusión:
En consecuencia y desestimando por completo [G], concluimos: puesto que, la predicción cuántica – (45ºentre sí ® (PME=+0.71=coseno(45º))) –, para estas específicas configuraciones experimentales, supera, a la predicción clásica – (VOL por (q) ® (PME=+0.50)) –, la desigualdad de Bell resulta violada. Implicando a su vez que: la predicción clásica, que se presume máxima, para cualquier teoría de variables ocultas locales, no resulta ser tal.
Finalmente. Dado que, se viola la desigualdad de Bell – es decir: es posible, predecir estadísticamente, con una probabilidad mayor al 50% (predicción clásica) –, implica que: al menos, una de las premisas fundamentales del teorema de Bell, resulta no ser verdadera – por ej.: existe, alguna forma decomunicación superlumínica (señal actualmente no-utilizable), entre las componentes del sistema entrelazado que alcanza una correlación de +0.71 –.
Nota: éste teorema de la física, no prueba la completitud de la mecánica cuántica – (MC) –. Puesto que, en el futuro, se podrían construir:
§  una (MC’=   Re +   Lo + Ø).
§  una (MC’=   Re + ØLo +   ).
§  una (MC’=   Re + ØLo + Ø).
§  una (MC’= ØRe +   Lo +   ).
§  una (MC’= ØRe +   Lo + Ø).
§  una (MC’= ØRe + ØLo +   ).
§  una (MC’= ØRe + ØLo + Ø).

[G]: Es que. Si, se pretende justificar dicha agrupación, apelando a que: solo esas, poseen una (PME=+0.50) – y de entre estos, calcular el porcentaje de coincidencias: (+0.75%) –, en consonancia, con la máxima predicción clásica; sería como: seleccionar mayoritariamente las coincidencias yminoritariamente las discrepancias. Es decir: sesgar la muestra. Evitando así, que sea válido transformar la, en principio, hipótesis de Bell, en un teorema de la física.

Oscilación de neutrinos (1.1):
Los neutrinos, poseen las siguientes características mensurables:
§  Tres tipos: (electrónico: e), (muónico: m), (taúonicoty sus respectivas antipartículas.
§  Un spin de (1/2).
§  La interacción electromagnética, no les afecta por carecer de carga eléctrica.
§  La interacción fuerte, no les afecta – no los confina –.
§  La interacción débil, resulta ser su creador – desintegración radiactiva –.
§  La interacción gravitatoria, los condiciona muy débilmente – dada su insignificante masa (entre 2eV y 18MV) –.
§  Un proceso de oscilación de tipo – denominado: oscilación de neutrinos –, que transforma un tipo en otro, desde su creación – fuente –. En consecuencia, el tipo detectado depende del emitido y de la distancia – y lo que esta contenga, presumo – recorrida hasta su detección.
§  
Nota: según la (MC), este proceso de oscilación, no puede darse, si la diferencia entre las masas de las partículas fuese nula. Por lo que, deducen que: al menos uno de los tipos de neutrinos es masivo –actualmente se acepta que los tres tipos lo son –.
Critica: según este modelo (más precisamente: una de sus interpretaciones), la ley de conservación de la energía total aislada se conserva pues, recurren a tecnicismos (jerga del ámbito) – ¿en su interpretación? (en forma alguna problemática {si, sarcasmo}) – como: los neutrinos, no poseen su sabor leptónico bien definido – es decir: no son ni electrónico, ni muónico, ni taúonico (su sabor leptónico), sino una combinación de los tres –. Ni siquiera su masa (que se pretende describir como: una matriz de masa), se encuentra/está bien definida (mismo que, se suele referenciar como: el auto-vector de sabor leptónico no es auto-vector de la matriz de masa {ellos se lo montan y ellos se lo comen y, tan satisfechos que parecen quedar}) pues resulta ser, una combinación lineal de tres masas (que, por separado, si se encuentran/están bien definidas), a determinar (se acepta, como determinada: su cota superior combinada). Sin olvidarnos que, dichas “oscilaciones de sabor/masa (temporal y porcentual solapamientos/des-solapamientos)”, afortunadamente acaban al ser observadas/interaccionar – ¿no sea que el absurdo continúe indefinidamente? –. Sería algo como que: la masa del neutrino, no cambia de la “presumida/parcialmente observada” para un determinado sabor leptónico a otro sino, a combinaciones de porcentajes de la de cada uno de ellos {a mí no me miren, que se les considera de lo mejorcito a estas lumbreras} – cualquier absurdo, imprecisión/observación contra fáctica, será rápidamente adjudicada a los misteriosos/mágicos y en ocasiones insondables designios de la mecánica cuántica y/o a la energía de vacío (ese insondable/inagotable sumidero para problemas/absurdos de los teóricos trasnochados{si los dejan: lo no-conservado, se conserva y viceversa} –. Las masas y sus respectivas contabilizaciones (es decir: energías) están, pero no están (¿cambio imperceptible del término a: manifiestan/potencialmente observables?), sin por ello, dejar de estar – algo así como: no te complique, es que están temporal y porcentualmente apantalladas {aquí todos somos conservadores de lo conservable} –. En síntesis. Para estos teóricos trasnochados y sus devotos adoradores. No es que aparece y desaparece masa/energía (y consecuente: varié su velocidad de desplazamiento), durante la trayectoria {¿cuantos se rasgaran las vestiduras con ese término?} de un neutrino. Es que, estas masas/energías, que “realmente” están, se encuentran temporal y porcentualmente apantalladas. Pero. En consecuencia: tal masa/energía correspondiente a cada sabor leptónico, debería no solo poseer la capacidad de adoptar signos contrarios (positivo y negativo) – ¿masa/energía negativa? (debido al presunto apantallamiento) – sino aun peor, cambiar temporal y porcentualmente – es decir: ser arbitrariamente subdividida – su signo (debido a la presunta combinación lineal de la masa/energía del neutrino). Nada. Ni modo de entrarles. Lo dicho. Depende de lo que uses/abuses, lo que concluyes/confundes.



Nota: según resultados experimentales del CERN (2017) – excesos, en la cantidad de detecciones de neutrinos – podrían existir otro tipo de neutrinos. Los neutrinos estériles. Denominados así, debido a que, solo serían afectado por la interacción gravitatoria y no por la interacción débil – como el resto de neutrinos –. Si bien, recientes resultados experimentales del IceCube – detector de neutrinos del Ártico –, refuta la existencia de estos neutrinos estériles, lo hace, en un específico rango de masa/energía.
Su búsqueda: al poseer una partícula masa, cabe la posibilidad de que tenga spin. A los neutrinos del (modelo estándar de partículas elementalesMEPE), se los considera como neutrinos zurdos (¿CERN comunista?). Y al, aun no detectado, neutrino diestro – más conocidos como neutrinos estériles –.
Además, debería hacer notar que: el mecanismo de Higgs, no otorgaría su masa a los neutrinos (zurdos e diestros) del MEPE.

Objeciones (Populares):

§  Hipótesis del muestreo justo (juego limpio): (loophole)

Afecta exclusivamente, a experimentos donde los resultados posibles son: (01 y no-detectado) – por ej.: aun con los mejores fotodetectores disponibles, se pierden una fracción de estos –. Así como, una eficacia estadística, de la creación de los componentes entrelazados alejada del 100%.

§  Hipótesis de localidad o causalidad-relativista: (loophole)

Afecta exclusivamente, a experimentos donde la medición de los componentes entrelazados, no se realiza, con una separación que elimine la posibilidad de una señal a (c) entre estos.

§  … 

Objeciones (Capitales):

§  Invariancia estadística a prueba de decoherencia-selectiva: (limites observacionales)

Con la intención de descartar o disminuir, posibles variaciones estadísticas – no tomadas en consideración ( pormenorización al respecto ) –, debidas a interacciones físicas en el trayecto – recuérdese que, por alguna razón, no se da la decoherencia en el trayecto, a pesar de atravesar, entre otros sistemas físicos, el vacío cuántico –, se debería variar progresivamente, tanto la distancia como el medio transitado. Máxime, a sabiendas de que: los valores (resultados experimentales) de las propiedades físicas medidos, no son intrínsecos.

§  Propiedades físicas no-intrínseca: (análisis epistémico equivocado)

Puesto que, tanto en los experimentos de spin – experimentos secuenciales de Stern-Gerlach – así como, en los de polarización electromagnética – experimentos secuenciales de Polarización electromagnética (0º+45º+90º–, reaparecen valores (resultados experimentales) de las propiedades físicas – previamente filtrados –, es que, como mínimo, dichos valores (resultados experimentales) no pueden ser intrínsecos. Es decir: como mínimo, se deberán a una específica interacción física entre, el actual estado físico de lo por medirse (fundamentalmente dependiente: del ángulo de ataque de la partícula hacia el dispositivo de detección, su ángulo del momento magnético orbital y su spin) – resultado de posibles variaciones en su trayecto {desestimamos, de momento, las posibles interacciones con el resto de componentes del sistema entrelazado} – y la actual configuración física del aparato de medida – presumiblemente, conocida con precisión (aunque, a mi entender actual, existan fluctuaciones indetectables/incontrolables en el sistema): del gradiente de campo magnético transversal –.

§  Variaciones significativas del ángulo y velocidad de entrada al SG: …

§  Variaciones significativas del gradiente de un campo magnético del SG: … 

§  Plausibilidad de interacciones inobservables (temporales o no/locales o no): …

§  ¿La idiotez al desnudo?: (que va, al parecer, no realizo milagros)

¿La realidad y/o la localidad, no están amplia e indiscutiblemente refutadas (experimental y lógicamente hablando) en los SG°++ – es decir: secuenciales de /180° – ni en los SG°+- – es decir: entrelazados de /180° – para estados físicos entrelazados? (obviamente, sin entrar en los resultados experimentales para ángulos diferentes a los anteriores y en la diferencia entre desconocimiento/aleatoriedad epistémica y aleatoriedad ontológica). Es decir. Tienen el atrevimiento de afirmar – con suficiencia como para denostar a quienes dudan de ello/lo consideran inconducente –, que: unos resultados experimentales donde alcanzamos una previsibilidad del 100% (entre otros porcentajes menores, pero significativos), se desestiman y se generalizan/totalizan otros resultados experimentales, al menos en principio, con cierto desconocimiento/aleatoriedad epistémica, donde se afirma probar (empírica y lógicamente hablando) la existencia de aleatoriedad ontológica de cosmos – aunque algunos, confrontados con tamaña inconsecuencia, pretender reducirla a: bueno, al menos, la de una no-localidad –.

§  



Experimento de Stern-Gerlach: (sintéticamente)
Dado que, lo de (spin arriba+1/2) y (spin abajo-1/2), es solo una convención física – donde (1/2), referencia la probabilidad de deflexión de cualquiera de los dos ángulos (+ o -) –. En consecuencia. Lo de spin (+) o (-), en estos experimentos, remite exclusivamente al ángulo de deflexión – por convención física: orientado hacia el (polo norte: (+)) y (polo sur: (-) del dispositivo Stern-Gerlach) – del últimocampo magnético no-homogéneo que atravesó – desestimando alteraciones del mismo, en su trayectoria –. De ahí, que parezca como si misteriosamente,reaparecieran valores medibles de spin, previamente filtrados.
Se presume – descripción clásica –, que: como el electrón de valencia – partícula cargada eléctricamente – de por ejemplo, los átomos de plata (Ag), se encuentra en movimiento en torno a su núcleo – orbitándolo –, induce una corriente eléctrica en torno al átomo. Produciendo, al estar inmersa dicha corriente eléctrica, en un (campo magnético del dispositivoB), un efecto de torque en el electrón de valencia(único), que tiende a alinear el (momento magnético del electrón de valencia (orbital)m) con (B). Efecto, que produce una variación de la energía del sistema(siendo (­.eje z: gradiente de B), Si (m.­=B.­V:®E=(-m*B) {el átomo, tenderá a desplazarse en la dirección en la que (B) aumenta y terminando en (+)} F:®E=(+m*B){el átomo, tenderá a desplazarse en la dirección en la que (B) disminuye y terminando en (-)}), por lo que: una partícula cargada, que atraviesa un campo magnético no-homogéneo, perderá o ganará energía, dependiendo de la variación que (B) produzca en la orientación de (m) – esencialmente: los campos magnéticos, ejercen fuerzas sobre objetos que poseen momentos magnéticos –.
En los experimentos de Phipps y Taylor, donde se emplearon átomos de hidrógenos (H) – por tener un único electrón, se esperaba observar una (única franja (ecuador) de detección: 0 {siendo el estado fundamental (L=0) y sus autovalores(2L+1), entonces: 1 única franja}), como cuando (B=0deflexión nula); pero, se observaron las dos características –, los resultados fueron idénticos {aunque, en ambos experimentos, se termine empleado: un átomo eléctricamente neutro (Ag y H), con un electrón de valencia (único)}.
Bien. Pero, ¿cómo se determina que su deflexión, depende exclusivamente de la interacción entre el momento angular intrínseco del electrón de valencia y elcampo magnético no-homogéneo externo? A ver. Si su fuente, fuese exclusivamente el (momento magnético nuclearm), los resultados experimentales (ángulos de deflexión) de Phipps y Taylor, deberían ser aproximadamente: tres órdenes de magnitud mayores (masa(p)»masa(e-)*10^+4). Además. Según la teoría del átomo de hidrógeno, encontrándose éste, en su estado fundamental y en ausencia de un momento magnético diferente al del proveniente del momento angular intrínseco (S) de un electrón de valencia (único) – (1s1/5s1), puesto que, de ser más de uno {¿incluso electronesprotones o neutrones libres?}, los electrones de valencia, se fastidiaría el cálculo de la deflexión {¿será que, se llevaría puesto hastala cuantización (magnitudes físicas discretas), al menos, en estos específicos experimentos?} –, un campo magnético externo no-homogéneo (B), no afectaría su trayectoria – dato: en 1927, Ronald Fraser, recalculo el momento magnético nuclear de (Ag), resultando ser (m=0); en consecuencia, si fuese exclusivamente por (m), no se observaría deflexión alguna –.

Nota: cada vez, que considero aumentado mi conocimiento en mecánica cuántica, más me convenzo de que: resulta excluyente, la forma no-homogénea del campo magnético – no así su orientación –, creada por el dispositivo Stern-Gerlach, el que, se manifiesten o no fenómenos cuánticos – al menos, en estos específicos experimentos (obviamente, debemos determinar el grado de injerencia de las dimensiones y demás magnitudes físicas de los elementos del haz {por ej.: átomos de plata, que son eléctricamente neutros}) –, y no necesariamente, debido a cierto grado de discreción (discontinuidad) intrínseca en específicas propiedades y estados físicos de estos sistemas físicos – la deflexión de los elementos del haz, resulta ser proporcional al spin y a la magnitud del gradiente de campo magnético (si aumenta la intensidad del campo magnético, aumenta el ángulo de deflexión) –. Quiero creer, que el uso de campos magnéticos no-homogéneos – siendo que: los átomos de plata, no son desviados por un (campo magnético homogéneo: (∂Bx/∂x=0, ∂By/∂y=0 y ∂Bz/∂z=0)) –, no tiene la exclusiva finalidad de introducir cuantización(discontinuidad) y consecuentemente incertidumbre (aleatoriedad) en la medida en estos específicos experimentos – a excepción de dispositivos Stern-Gerlach consecutivos, idénticamente configurados –. Sino que, enfrentados con estenuevo suceso físico, se dispusieron a modelarlo, alcanzando tan solo, una precisión estadística. Ahora, si no podemos alcanzar una precisión no-estadística, ni tan siquiera, en el experimento de arrojar una moneda al aire y predecir la orientación en la que se detendrá; en principio, debido a insuficiente precisión y capacidad de cálculo – es decir: solo alcanzando una precisión estadística –. ¿Sería experimentalmente consistente, pretender alcanzar una precisión no-estadística, cuando las insuficiencias en ambos experimentos, resultan ser similares?


Sintéticamente. Puesto que, existen específicas configuraciones experimentales – incluso a escala cuántica (dispositivos Stern-Gerlach consecutivos idénticamente configurados) –, donde alcanzamos experimentalmente una precisión no-estadística:

La incertidumbre (aleatoriedad) en la medida, al menos, la remitida a estos específicos experimentos, no debería atribuirse a cierto grado de incertidumbre (aleatoriedad) intrínseca en específicas propiedades y estados físicos de estos sistemas físicos, sino exclusivamente, a limitaciones teórico-experimentales actuales.
Así como, cierto grado de cuantización (discontinuidad) en la medida, al menos,la remitida a estos específicos experimentos – en principio, introducida artificialmente, al emplear campos magnéticos no-homogéneos –, no debería atribuirse a cierto grado de cuantización (discontinuidad) intrínseca enespecificas propiedades y estados físicos de estos sistemas físicos – al menos, hasta obtener resultados experimentales comprobatorios, empleando haces departícula elementales de spin (1/2), así como, de compuestos de spin diferente a (1/2)–, sino, hasta entonces, a limitaciones teórico-experimentales actuales.
De hecho, inmersos en una concepción infinitamente reduccionista de la realidad – misma, que pondría de manifiesto estas limitaciones experimentales –, resulta imposible conocer/medir con precisión arbitraria una magnitud física (ni tan siquiera en sistemas físicos de escala clásica) – dada la imposibilidad de alcanzar una precisión infinita en el ámbito físiconota: la existencia de magnitudes físicas complementarias y con ellas, las relaciones de incertidumbre de Heisenberg, remite exclusivamente, a la imposibilidad de medir sin alterar imprevisiblemente un sistema físico; y no, a la inexistencia de específicas propiedades y estados físicos en estos sistemas físicos (por ej.: posición, velocidad, energía y tiempo) –.




§  Aplicabilidad limitada: (haciendo a un lado la premisa fundamental (3))
Algo, que por experiencia, se pasa por alto en la divulgación científica – incluso corregida por expertos en la materia –, de este presunto teorema de la física, es su equivocada extensión a todo el mundo cuántico – cosmos –. Es decir: puesto que, en apariencia, hemos descubierto una violación, sea de realidad y/o de localidad, en estas específicas configuraciones experimentales – sistemas cuánticos entrelazados –, afirmamos, en forma inconducentemente a mi entender, que: el cosmos, o carece de realidad y/o de localidad. Afirmación que, aun de ser verdaderamente este un teorema de física, resulta ser inconducente. Esencialmente, porque: no todo el cosmos, se encuentra en uncosmológico estado de entrelazamiento cuántico, y menos aún, ha podido mantenerlo desde el BB.
§  
Nota: debido, a una cantidad nada despreciable de objeciones en pos de: las demostraciones matemáticas, son apodícticas – ¿cómo puedes, siquiera dudar de un teorema? –. Argumentando, que hacerlo, implicaría caer en contradicciones como que: 1+1¹2 –. Es que, siento que debo acotar la siguiente opinión: lo teorético, no reviste potestad sobre lo empírico. Y hasta donde creo entender, la físicaconstruye conocimientos mediante: la observación de sucesos físicos y su posterior modelización. Que dicha modelización, contenga o no entidades y relaciones matemáticas – herramienta eficiente –, resulta ser contingente. Es decir: no es que, las matemáticas provoquen o impidan, específicos resultados experimentales, lo que los provocan o impiden, son las propias interacciones físicas, quemodelamos empleando matemáticas. Máxime, siendo, como creo que es, El corolario del método científicopuesto que, el conocimiento seguro resulta inverificable en el método científico, en última instancia, tan solo podemos aspirar a modelizar circunstancialmente lo observado; mismas que, de variar, terminara por provocar una variación en consonancia de su modelo representativo – otro ejemplo, aunque menos representativo, podría ser: la utilización de una misma ley científica, en diferentes marcos explicativos teóricos (teorías científicas), que en ocasiones, hasta llegan a ser antagónicos – {descartando errores humanos en las demostraciones matemáticas, así como en su ámbito de aplicación}.

Según el fisicalismo, ¿ciertos resultados de experimentos secuenciales de Stern-Gerlach y depolarizaciones electromagnéticas, dan indicios de que ciertos valores de las propiedades físicas no son intrínsecos?

Actualizaciones:
§  Ronald Hanso, experimento tipo Bell, presuntamente libre de loopholes: (2015)
Puesto que, la desigualdad CHSH–Bell, para una teoría relista local implica que (S≤2). Y lamecánica cuántica predice (S=(2*√2)=2.83)Ronald, afirma que su experimento, ha demostrado(S=2.42 ±0.20). Lo que implicaría verificar la violación de la desigualdad con (2.1 sigmas de confianza estadística=78.5%).
Nota: la afirmación de Ronald, de que su experimento está libre de loopholes, queda, a la fecha de este artículo, por confirmarse.
§   http://francis.naukas.com/2015/08/28/un-experimento-tipo-bell-libre-de-loopholes/
§  Carsten Robens, experimento tipo Bell, presuntamente bajo en loopholes: (2015)
La desigualdad de Leggett–Garg, se cumple en un sistema físico que tiene estados macroscópicos bien definidos, y donde es posible medir en instantes de tiempo diferentes. Estos sistemas físicos, se denominan: macrorrealistas. La mecánica cuánticaviola la desigualdad de Legget–Garg.Carsten y sus colegas, afirman haber verificado la violación de esta desigualdad a (6 sigmas de confianza estadística=99.9997%)empleando átomos de cesio atrapados en redes ópticas.
§   http://francis.naukas.com/2015/01/22/violacion-de-la-desigualdad-de-leggett-garg-seis-sigmas/


§  Medida débil:

En 1988, Lev Vaidman y Yakir Aharonov y David Albert, descubrieron que: un campo magnético débil vertical no equivale a la ausencia de una medida cuántica, sino que corresponde a un tipo especial de medida cuántica, que se bautizó como medida débil. Imagina que el haz de átomos original ha sido preparado con un espín en dirección horizontal que apunta hacia la izquierda. Un campo magnético horizontal fuerte haría que todos los átomos se desviaran hacia la izquierda (ninguno hacia la derecha). Sin embargo, si se utiliza primero un campo magnético vertical débil, los átomos no se separan en dirección vertical, pero al pasar por el campo magnético fuerte en dirección horizontal se observa que parte de los átomos se desvían hacia la derecha. Originalmente todos los átomos tenían espín hacia la izquierda y ninguno hacia la derecha, pero la medida débil del imán vertical ha permitido que algunos átomos tengan espín hacia la derecha. El imán débil no ha separado totalmente los espines en la dirección vertical (no se ha producido el colapso de la función de onda) pero ha permitido medir espines a la derecha donde inicialmente no los había. Parece mucho ruido y pocas nueces. Parece como si una medida débil diera la misma información que una medida convencional, pero no es así. La intensidad observada en la pantalla depende de la relación matemática entre las dos componentes horizontales del espín. Por ejemplo, si el haz original tiene un pequeño ángulo respecto a la horizontal, podemos saber si este ángulo es positivo o negativo gracias a la medida débil, algo imposible con una medida convencional. La medida débil no solo mide la amplitud de probabilidades sino también la fase de la función de onda.

¿Para qué puede servir las medidas cuánticas débiles? La aplicación práctica más importante es la medida ultra precisa de ángulos. En 2009 se llegó a medir la desviación de un espejo que reflejaba fotones con un ángulo de 400 femtoradianes. ¿Cuán pequeño es este ángulo? Si se enviara un láser a la Luna que se desviara 400 femtoradianes se habría movido en la Luna el ancho de un cabello humano. Medidas tan precisas tendrán grandes aplicaciones en la industria. Las probabilidades negativas son parte de la realidad cuántica, porque las mediciones débiles lo son, y permiten medir cosas que parecían imposibles. Por ejemplo, en el experimento de la doble rendija con fotones el patrón de interferencia indica que cada fotón pasa por las dos rendijas y no tiene trayectoria bien definida. Sin embargo, gracias a las medidas débiles se puede reconstruir la trayectoria “promedio” de los fotones una vez atravesada la pantalla con las dos rendijas. Este experimento ha sido realizado por Aephraim Steinberg (Science, junio 2011). Su idea fue alterar la polarización de los fotones en función del ángulo en el que salen de cada rendija. La polarización permite determinar el momento promedio de los fotones al golpear cada punto en la pantalla. Gracias a esta información se pudo reconstruir las trayectorias promedio de los fotones sin violar la mecánica cuántica, sin desmentir que cada fotón individual pasa por las dos rendijas. Más aún, Jeff Lundeen, físico canadiense, y sus colegas lograron reconstruir la función de onda de un fotón gracias a medida débiles.




---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------


(ER=EPR), la nueva conjetura de Maldacena y Susskind: (2013)
La ecuación (ER=EPR), hace referencia a dos ideas que Albert Einstein publicó en 1935, los (ERpuentes de Einstein−Rosen) y el (EPRentrelazamiento cuántico de Einstein−Podolsky−Rosen).
La conjetura (ER=EPR), afirma que existe un puente de Einstein-Rosen – un tipo de agujero de gusano inestable entre un agujero negro y otro blanco – asociado a cada pareja de estados cuánticos entrelazados – estados EPR –.
Maldacena y Susskind, han aplicado esta idea para resolver el problema de los “firewalls” de Polchinski et al. (AMPS), en el horizonte de sucesos.
La idea de que las correlaciones EPR – entrelazamiento cuántico – entre los estados de dos agujeros negros, es dual, a la existencia de un puente de ER entre dichos agujeros negros parece tan natural que ha formado parte del imaginario colectivo de los físicos durante mucho tiempo.
Pero la relación (ER=EPR), es mucho más general, implica que: todo entrelazamiento cuántico, de cualquier par de estados de cualquier sistema cuántico, resulta ser equivalente, vía la dualidad gauge/gravedad o AdS/CFT, a un puente de ER adecuado.
¿Qué nos dicen este (toy model: conjunto simplificado de objetos y las ecuaciones que los relacionan para que, sin embargo, puedan ser utilizados para entender un mecanismo que también es útil en la teoría completa, no simplificada) y la conjetura (ER=EPR), respecto de la no-localidad en mecánica cuántica? Por el momento, realmente nada. Los pares quark-antiquark entrelazados están conectados por correlaciones “formales” capaces de violar las desigualdades de Bell y conectar regiones con horizontes causales separados, pero apuntan a una dualidad y no a una “realidad” subyacente.
¿Cómo resuelve la propuesta (ER=EPR) el problema de los “firewall” de Polchinski? La radiación de Hawking, es debida a la producción espontánea de pares partícula-antipartícula en el espacio-tiempo del agujero negro, siendo una de ellas absorbida por el agujero negro y escapando la otra en forma de radiación; como ambas tienen un origen cuántico común están entrelazadas. Permitiendo que, un observador cruce elhorizonte de sucesos y ejecute un protocolo cuántico de entrelazamiento entre dos partículas de radiación Hawking dentro del agujero negro, una muy vieja y otra muy reciente, viola el principio de “monogamia” – sólo dos partículas pueden estar entrelazadas cuánticamente – en el entrelazamiento. Esto no es un problema salvo para un agujero negro muy viejo (con edad superior a la de Page) y AMPS proponen que en dicho caso aparece un “firewall” que impide que un observador penetre dentro del horizonte y pueda realizar dicho protocolo cuántico – que violaría el principio cuántico de que la información ni se crea ni se destruye –.
La solución de (ER=EPR), al problema de la aparición de los “firewall” es que: como el entrelazamiento requiere conectar agujeros de gusano, el protocolo cuántico no se puede ejecutar, porque para ello habría que enviar información a través de los puentes de ER, que por fortuna no son transitables. Así que, no hay necesidad de proponer que exista un “firewall” que impida al observador que cae en el agujero negro hacer algo que es imposible que pueda hacer (repito, debido a que los puentes ER son agujeros de gusano no transitables y colapsan al tratar de enviar información por su interior).
---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

Según la (RE), la contracción longitudinal de Lorentz, implica que: ¿un objeto acelerando a velocidades relativistas (próximas a (c)), indefectiblemente, al menos parte de sus constituyentes, terminaran por superar el radio de Schwarzschild (es decir: convertirse en un (AN))/por aproximarse peligrosamente al cero absoluto (astro-antpalette) o que, dicha contracción longitudinal (respecto de su dirección de avance), es solo aparente (debido a los diferentes marcos/sistemas de referencias inerciales – aunque, más precisamente, entiendo que, se debería atribuir a: la presunción de constancia de (c) e indiferenciación entre marcos/sistemas de referencias inerciales)?

-----------------------------------------------------------------------------------------------
-----------------------------------------------------------------------------------------------

¿Computación cuántica, mito o realidad?:
La computación cuántica – esencialmente, el intento de aprovechar, en computación, la superposición cuántica de estados –, remite esencialmente, a la ontologización (dotar de existencia – la realidad/lo real –) de específicas interpretaciones cuánticas – por ej.: la interpretación de Copenhague – respecto de resultados experimentales. Es decir. Puesto que, según unas específicas interpretaciones cuánticas, de resultados experimentales – por ej.: el efecto túnella presunta violación de desigualdades tipo Belllos efectos casimirla dualidad onda-corpúsculoel problema de la medidaobservables conjugadossuperposición cuántica de estadosetc. –, las partículas, parecen estar en todas/muchas partes al mismo tiempo y, en cierto grado, interrelacionadas entre sí – descriptas por una función de onda {¿colapso de la función de onda, instantáneo o al menos superlumínico?} –: las partículas, están en todas/muchas partes al mismo tiempo y aprovechablemente interrelacionadas en cierto gradoantes de una medida – al menos, de una no-débil {aunque para mí, ésta, debería modelarse, en este mismo contexto, como un colapso anómalo de la función de onda} –.
Dicha presunción ontológica – no-contradictoria, exclusivamente en sistema lógicos para-consistentes y/o con replanteos improcedentes – de especificas correlaciones matemáticas, a mi entender, deriva fundamentalmente, de confundir el modelo con lo modelado – más precisamente: confunden una interpretación en el contexto antes acotado, con la realidad/lo real –. Lo de fundamentalmente, se remite a que: confunden limitaciones experimentales con propiedades ontológicas.
A pesar del anterior análisis: sí, que parece posible el aprovechar, ciertas técnicas estadísticas de resolución de problemas – obviamente, en aquellos susceptibles a dichas técnicas (por ej.: los de optimización (combinatoria) – computación adiabática –) – sea, en simuladores de computación cuántica (por ej.: los de Digital Annealer) o en computadores cuánticos de puertas (por ej.: los de Google e IBM). En principio, por su rapidez.
Además, no deberíamos olvidar que: predecir, no implica necesariamente saber cómo funciona, menos aún, de que está compuesto (en la realidad/lo real). Lo que, no impide aprovechar su eficacia/eficiencia ( pormenorización al respecto ).
En el mismo sentido, la lógica cuántica (básicamente (en física): conjunto de reglas algebraicas que rigen las operaciones para combinar y los predicados para relacionar proposiciones asociadas a acontecimientos físicos que se observan a escalas atómicas), suele ser erróneamente entendida por especialistas y no, como: una demostración/prueba de coexistencia de partículas elementales en más de un sitio a un mismo tiempo, de interacciones super-lumínicas/instantáneas, de un vacío cuántico (símil del aleo vera – cada día le encuentran más propiedades, incluso contradictorias –) y toda clase de propiedades contradictorias. En esencia (habría otros errores y confusiones – por ej.: confundir el principio de causalidad con el principio de uniformidad –), por confundir el modelo (una de sus interpretaciones) con lo modelado.

Sólo la mitad de las veces (https://www.abc.es/ciencia/abci-demuestran-ordenador-cuantico-201208200000_noticia.html)
(2012): Los investigadores eligieron el 15 porque «es el número más pequeño que cumple las condiciones para probar el algoritmo de Shor: es el producto de dos números primos y no es par». El algoritmo de Shor es un método matemático de factorización de números utilizando ordenadores cuánticos.
«Tras repetir el experimento 150.000 veces, mostramos que nuestro procesador cuántico dio con la respuesta adecuada algo menos de la mitad de las veces», explicó Lucero. «Lo máximo que se puede esperar del algoritmo de Shor es obtener la respuesta correcta un 50% de las veces, por lo que nuestros resultados son básicamente los que podíamos esperar».

Implementación semi-clásica con truco: (https://francis.naukas.com/2013/07/10/factorizan-un-numero-entero-de-20-000-bits-utilizando-el-algoritmo-cuantico-de-shor-pero-con-truco/)
(2013): El paradigma de los algoritmos cuánticos es el algoritmo de Shor para factorizar números enteros. Para reducir el número de cubits necesarios se puede utilizar un truco llamado «precompilación» basado en conocer a priori los factores del número. Gracias a esta técnica, usando dos cubits en una implementación semiclásica, se han factorizado el número RSA-768 (de 768 bits) y el llamado N-20000 (de 20.000 bits). Sin el truco de la precompilación del algoritmo de Shor hubieran sido necesarios 1.154 cubits y 30.002 cubits, resp. Dicho truco no es aplicable cuando no se conocen los factores del número por lo que no puede utilizarse en criptoanálisis de claves públicas. Además, dicho truco puede utilizarse incluso en una implementación clásica del algoritmo de Shor utilizando números aleatorios generados tirando monedas (que salga cara H o cruz T); el nuevo récord se ha obtenido usando dicho truco. Pero lo importante a destacar es que, hasta el momento, el algoritmo de Shor nunca ha sido implementado en un ordenador cuántico de forma completa (sin «precompilación»).
En 2001 (Nature) se factorizó el número 15 utilizando 7 cubits en lugar de 8 {revisión: algoritmo de Shor original requiere 3 log N cubits de ahí que sean 12 para N=15}; en 2009 (Science) se utilizaron 5 cubits, en 2007 (PRL,PRL) fueron 4 cubits y en 2012 (Nat.Phys.) sólo 3 cubits {revisión: para N=21}. El récord se obtuvo en 2012 (Nat.Phot. cuyo primer autor es el español Enrique Martín-López) con la factorización del número 21 utilizando 1+log 3 cubits en lugar de 10 cubits (en realidad son dos cubits, pero uno se usa siempre y el otro sólo en ciertos pasos del algoritmo, de ahí el valor log 3). El truco que se utiliza para reducir el número de cubits es «precompilar» el algoritmo en el «cableado» de la implementación (ya que se conocen los factores), lo que permite reducir el número de cubits hasta solamente 1 cubit.

Critica: si, lo anterior es cierto. Ese ejemplo de factorización por algoritmo de Shor es, para mí, una chapuza. En particular, por eso de: solo la mitad de las (150000) veces. Y, por si lo anterior fuese poco: en (2021), se necesitan, en muchas tecnologías qubits, aprox. 9 qubits (físicos) por cada qubit (lógico – es decir: efectivo/codificado –). Repito. Quizás, el verdadero futuro de esta tecnología radique en: simuladores de computación cuántica.

-----------------------------------------------------------------------------------------------
-----------------------------------------------------------------------------------------------








No hay comentarios:

Publicar un comentario