lunes, 12 de marzo de 2018

¿Cuestión de principios?

Principio: Fundamento, aseveración fundamental que permite el desarrollo de un razonamiento o estudio científico.
1.    Principio de Relatividad:
En realidad no es porque "todo es relativo", sino por el principio de relatividad. Galileo Galilei estableció el principio de relatividad por vez primera. Era un principio de relatividad del movimiento:
"Todo movimiento es relativo a un sistema de referencia"
Según esto no podemos determinar si un objeto se mueve o no de modo rectilíneo y uniforme si no tomamos primero un  sistema de referencia respecto al cual exista ese movimiento. Se puede resumir en un principio de indeterminación del reposo absoluto, pues si pudiéramos determinar que algo está en reposo absoluto, entonces ya tendríamos un sistema de    referencia privilegiado al que referir todos los demás movimiento y el principio de relatividad no sería válido.
2.    Principio de Localidad:
Sin esta presunción no se podrían comprobar las leyes. En física, el principio de localidad establece que dos objetos suficientemente alejados uno de otro no pueden interactuar directamente, de manera que cada objeto sólo puede ser influido por su entorno inmediato. En palabras de Albert Einstein sobre este principio. La siguiente idea caracteriza la independencia relativa de objetos que están muy alejados uno de otro en el espacio (A y B): una influencia externa en A no puede influir directamente sobre B; esto es conocido como el principio de acción local, y es empleado una y otra vez en teoría de campos. Si suprimiéramos por completo este axioma, resultaría inviable la idea de la existencia de sistemas semi-cerrados, y no podríamos postular leyes que se pudieran comprobar experimentalmente en el sentido aceptado.
  • Realismo local: Es la combinación del Principio de Localidad con la suposición de que: “Todos los objetos tienen sus propiedades antes de que las mismas sean observadas”. A Einstein le gustaba observar que la Luna está “ahí fuera” aunque nadie la esté observando.
  • Interpretaciones Convencionales de la Mecánica Cuántica: Como la de Copenhague donde la función de onda no es real, la interpretación de mundos diversos y la basada en historias consistentes, se rechaza el “Realismo Local”. Las verdaderas propiedades definidas de un sistema físico no existen antes de la medición, y la función de onda es entendida como una herramienta matemática que permite calcular las probabilidades del resultado de los experimentos.
  • La interpretación de Bohm: Busca preservar el “Realismo Local”, necesita violar el principio de localidad para lograr las correlaciones necesarias. De hecho, también debe violar el principio de casualidad, violando la teoría de la relatividad especial ya que requiere la propagación de señales reales con velocidades superiores a la de la luz.
3.    Principio de Inducción:
Cualquiera sea la forma en que se entienda la inducción, siempre se encontrara que parte de un presupuesto o principio.
  • Si de algunos pasamos a todos, es porque creemos que el curso de la naturaleza es uniforme.
  • Si del hecho pasamos a su forzosidad, es que creemos que nada de lo que sucede en la naturaleza hubiera podido no suceder, es decir que en la naturaleza todo está determinado.
  • Si del hecho pasamos a la ley es porque creemos que la naturaleza, toda, obedece a leyes y en todo hecho se expresa una ley.
Regularidad de la naturaleza, determinismo, legalidad; esos son los tres principios presupuestos por la inducción. Esos tres principios pueden ser reducidos al último, ya que en los tres se trata de la afirmación de la existencia de relaciones invariables.
Suponemos que la realidad está regida por leyes que son siempre las mismas, y por eso buscamos las leyes que rigen los hechos de la realidad. Ese principio es indemostrable. Pero no es evidente en sí, mismo. La realidad podría no estar regida por leyes; pero si no admitimos que está regida por leyes no podemos intentar conocerla científicamente, pues la ciencia consiste en la búsqueda de relaciones invariables.
·         Critica Contemporánea:
La inducción no es nada más que un acto de adivinación metódicamente dirigido. Para demostrar la falacia de la inducción se invocan ejemplos como el de las gallinas que ante la aparición de una persona acuden a recibir el alimento que se les ha venido dando diariamente; pero un día en vez de recibir el alimento, son atrapadas y degolladas.
Lachelier critico el razonamiento inductivo, considerándolo insuficiente para la explicación de lo real. Para Lachelier el efecto contiene algo más o más complejo que la causa, esa explicación sería insuficiente; ya que habría que completarla con la explicación por las causas finales, entendiendo a la realidad también como un proceso sujeto a planes, o sea a una persecución de objetivos.
·         Matemática de vanguardia gracias a la Analogía:
En matemática, la semejanza de las figuras permite concluir la posibilidad de sus transformaciones comunes; y es por analogía que se extienden a los números fraccionarios, y después a los negativos, etc., las leyes de las operaciones fundamentales solo aplicadas al principio a los números enteros. “La invención en matemática está fundada en la analogía y no en la deducción”. Es la analogía y no la deducción la que permite pasar de un espacio euclidiano a los espacios no euclidianos y hablar de espacios de n dimensiones.
§  Analogía:
Relación de semejanza entre cosas distintas. Método por el que una regla de ley o de derecho se extiende, por semejanza, a casos no comprendidos en ella.
·         La Inducción enriquece al contrario que la Deducción:
Si expreso el juicio inductivo “Todas las S son P”, la inferencia deductiva inmediata que puedo sacar de ella, es que “Algunas P son S”; y si convierto este último juicio obtengo deductivamente que “Algunas S son P”. O sea que la deducción ha empobrecido nuestro conocimiento de “Todas las S son P”, hemos obtenido que “Algunas S son P”. Claro que la inducción acarrea siempre el problema de que “¿Con que derecho afirmamos más que lo que sabemos?”, o sea ¿con que derecho decimos que si algunos cuerpos caen en el vacío con la misma velocidad, todos caen en el vacío a la misma velocidad? Y ¿con que derecho extendemos esa afirmación al pasado y al futuro?
Desde el punto de vista de la lógica sabemos que un juicio en particular no permite inferir un juicio universal: ni de algunos podemos pasar a todos, ni de lo que sucede a lo que forzosamente ha de suceder, ni de las relaciones en que consiste un hecho a las relaciones invariables en que consiste una ley.
4.    Principio de Causalidad:
El principio de causalidad, postula que: todo efecto – suceso –, debe tener siempre una causa. No debemos confundirlo, con el principio de uniformidad que postula que: en idénticas circunstancias, una causa tendrá siempre un mismo efecto.
Entonces, puesto que: todo efecto remite a una causa; de encontrarse algún efecto que no sea remitido a causa alguna, éste quedara limitado
.
·         El Problema de la Causalidad: (reitero, Hume equivoco el principio de su crítica, debió ser el de uniformidad – y en ello, su crítica queda, a lo menos, problematizada –)
Cuando un acontecimiento continuamente sucede tras otro, la mayoría de la gente piensa que una conexión entre ambos acontecimientos hace que el segundo suceda al primero. Hume desafió a esta creencia en su primer libro Tratado de la naturaleza humana y más tarde en su Investigación sobre el entendimiento humano. Se dio cuenta de que aunque percibimos que un elemento suceda al otro, no percibimos ninguna condición necesaria y suficiente entre los dos. Y de acuerdo con su epistemología escéptica, sólo podemos confiar en el conocimiento que adquirimos a través de nuestras percepciones. Hume declaró que nuestra idea de causalidad consiste en poco más que la esperanza de que ciertos acontecimientos se den tras otros que los preceden, «No tenemos otra noción de causa y efecto, excepto que ciertos objetos siempre han coincidido, y que en sus apariciones pasadas se han mostrado inseparables. No podemos penetrar en la razón de la conjunción. Sólo observamos la cosa en sí misma, y siempre se da que la constante conjunción de los objetos adquiere la unión en la imaginación». En realidad no podemos decir que un acontecimiento causó al otro. Todo lo que sabemos es con seguridad que un acontecimiento está correlacionado con el otro. Para describir esto, acuñó el término conjunción constante. Que consiste en que cuando vemos cómo un acontecimiento siempre causa otro lo que en realidad estamos viendo es que un acontecimiento ha estado siempre en conjunción constante con el otro. En consecuencia, no tenemos ninguna razón para creer que el primero causó al segundo, o que continuarán apareciendo siempre en conjunción constante en el futuro. La razón por la que presentamos este comportamiento no es que la causa-efecto sea el comportamiento de la naturaleza, sino los hábitos de la psicología humana. Esta concepción le quita toda la fuerza a la causación, y otros humanos posteriores, como Bertrand Russell han desechado la misma noción de causación aduciendo que es un tipo de superstición. Pero esto desafía al sentido común, creando el problema de la causación – ¿Qué justifica nuestra confianza en la existencia de una conexión causal y de qué clase de conexión podemos saber? – un problema para el que no se ha encontrado solución. Hume sostuvo que tanto nosotros como otros animales tenemos una tendencia instintiva a creer en la causación debido al desarrollo de hábitos de nuestro sistema nervioso, una creencia que no podemos eliminar, pero que no podemos probar mediante ningún argumento, deductivo o inductivo.
·         El Problema de la Inducción:
Hume articuló su tesis de que todo el razonamiento humano pertenece a dos clases, Relaciones de ideas y hechos. Mientras que las primeras involucran conceptos abstractos como las matemáticas y están gobernadas por las certezas deductivas, los segundos comportan la experiencia empírica donde todos los razonamientos son inductivos. Dado que de acuerdo con Hume no podemos conocer nada de la naturaleza con anterioridad a la experimentación, incluso un hombre racional sin experiencia «no podría haber inferido de la transparencia y la fluidez del agua que sofocaría su sed, o a partir de la luz y el calor del fuego que le consumiría» Así que todo lo que podemos decir, pensar o predecir de la naturaleza debe venir de la experiencia previa, lo que lleva a la necesidad de la inducción. La inferencia inductiva presupone que se puede confiar en los actos pasados como regla a partir de la que se puede predecir el futuro. Por ejemplo, si en el pasado ha llovido el 60% del tiempo cuando se dan unas condiciones atmosféricas determinadas, entonces en el futuro probablemente lloverá un 60% del tiempo si se dan las mismas condiciones. Pero aún queda el problema de cómo justificar tal inferencia, conocida como el principio de inducción. Hume sugirió dos posibles justificaciones, que sin embargo rechazó.
1.    La primera justificación descansa en la suposición, tomada como una necesidad lógica, de que el futuro debe de parecerse al pasado. Pero Hume puntualiza que podemos concebir un mundo caótico y errante en el que el futuro no tiene nada que ver con el pasado – o un mundo como el nuestro hasta el presente, que llegado a un punto cambia totalmente. Así que nada hace que el principio de inducción sea una necesidad lógica.
2.    La segunda justificación, más modesta, apela a los éxitos anteriores de la inducción – en el pasado ha funcionado en la mayoría de las ocasiones, así que probablemente seguirá haciéndolo en el futuro. Pero, como Hume comenta, esta justificación hace uso del razonamiento circular en un intento de justificar la inducción mediante la reiteración, lo que nos devuelve al punto de partida.
A pesar de la crítica de Hume a la inducción, sostuvo que era superior a la deducción en el reino del pensamiento empírico. Tal y como declara: «esta operación de la mente, por la que podemos inferir los efectos de las causas y viceversa, es esencial para la subsistencia de todas las criaturas humanas, es probable que pueda confiarse más en ella que en las falacias de la deducción de nuestra razón, que es lenta en sus operaciones; no aparece en los primeros años de la infancia; y como mucho es, en cualquier edad y periodo de la vida humana, extremadamente proclive al error.
5.    Principio de Parsimonia:
La navaja de Occam (navaja de Ockham o principio de economía o de parsimonia) hace referencia a un tipo de razonamiento basado en una premisa muy simple: en igualdad de condiciones la solución más sencilla es probablemente la correcta. El postulado es: “No ha de presumirse la existencia de más cosas que las absolutamente necesarias”.
El principio de la Navaja de Occam se utiliza fundamentalmente como complemento de las leyes de la lógica, con el fin de evitar el pensamiento mágico. Según este principio, siempre que se encuentren varias explicaciones a un fenómeno, se debe escoger la más sencilla que lo explique por completo.
6.    Principio de Falsabilidad:
El principio de falsabilidad exige que una teoría científica de predicciones se pueda falsar, es decir, que se puedan comprobar. Lo que no exige es que sean comprobables con nuestro nivel de tecnología, sino que sean comprobables en general.
  • Criterio de Demarcación:
El criterio de demarcación o problema de demarcación se refiere, dentro de la filosofía de la ciencia, a la cuestión de definir los límites que deben configurar el concepto "ciencia". Las fronteras suelen establecerse entre lo que es conocimiento científico y no científico, entre ciencia y pseudociencia, y entre ciencia y religión. El planteamiento de este problema conocido como problema generalizado de la demarcación abarca estos tres casos. El problema generalizado, en último término, lo que intenta es encontrar criterios para poder decidir, entre dos teorías dadas, cuál de ellas es más "científica". El teórico del criterio de demarcación, Karl Popper, consideró que sistemas tan conocidos y universalmente aplicados como el psicoanálisis, de Sigmund Freud, y el materialismo dialéctico de Karl Marx, incurrían, en errores de concepto y método que autorizaban a incluirlos, según sus tesis, dentro de la categoría de pseudociencia. Posteriormente, Feyerabend sostuvo, con Imre Lakatos, que el problema de demarcación de distinguir por razones objetivas la ciencia de la pseudociencia es irresoluble y, por lo tanto fatal para la idea de la ciencia de acuerdo a un correr fijo y universal de normas.
a)   Popper propuso el Falsacionismo como una forma de determinar si una teoría es científica o no. Simplificando, se podría decir que si una teoría es falsable, entonces es científica; si no es falsable, entonces no es ciencia. Algunos han llevado este principio hasta el extremo de dudar de la validez científica de muchas disciplinas (tales como la macroevolución y la cosmlogía).
  • El Falsacionismo:
El falsacionismo, refutacionismo o principio de falsabilidad es una corriente epistemológica fundada por el filósofo austríaco Karl Popper. Para Popper constatar una teoría significa intentar refutarla mediante un contraejemplo. Si no es posible refutarla, dicha teoría queda corroborada, pudiendo ser aceptada provisionalmente, pero nunca verificada. Dentro del falsacionismo metodológico, se pueden diferenciar el falsacionismo ingenuo inicial de Popper y el falsacionismo sofisticado de la obra tardía de Popper y la metodología de los programas de investigación de Imre Lakatos. El problema de la inducción nace del hecho de que nunca podremos afirmar algo universal a partir de los datos particulares que nos ofrece la experiencia. Por muchos millones de cuervos negros que veamos nunca podremos afirmar que "todos los cuervos son negros". En cambio si encontramos un solo cuervo que no sea negro, si podremos afirmar "No todos los cuervos son negros". Por esa razón Popper introduce como criterio de demarcación científica el falsacionismo. Popper en realidad rechaza el verificacionismo como método de validación de teorías. La tesis central de Popper es que no puede haber enunciados científicos últimos, es decir, que no puedan ser contrastados o refutados a partir de la experiencia. La experiencia sigue siendo el método distintivo que caracteriza a la ciencia empírica y la distingue de otros sistemas teóricos. Para Popper la racionalidad científica no requiere de puntos de partida incuestionables, pues no los hay. El asunto es cuestión de método. Aunque la ciencia es inductiva, en primera instancia, el aspecto más importante es la parte deductiva. La ciencia se caracteriza por ser racional, y la racionalidad reside en el proceso por el cual sometemos a la crítica y reemplazamos nuestras creencias. Frente al problema de la inducción Popper propone una serie de reglas metodológicas que nos permiten decidir cuándo debemos rechazar una hipótesis. Popper propone un método científico de conjetura por el cual se deduce las consecuencias observables y se ponen a prueba. Si falla la consecuencia, la hipótesis queda refutada y debe entonces rechazarse. En caso contrario, si todo es comprobado, se repite el proceso considerando otras consecuencias deducibles. Cuando una hipótesis ha sobrevivido a diversos intentos de refutación se dice que está corroborada, pero esto no nos permite afirmar que ha quedado confirmada definitivamente, sino sólo provisionalmente, por la evidencia empírica.
  • Verificacionismo:
El verificacionismo es el término que se usa por oposición al falsacionismo. Si en este último lo que se busca es el hecho observacional que pueda anular la hipótesis inicial (y si no se encuentra, la hipótesis se refuerza de algún modo), en el verificacionismo se considera que han de añadirse hechos observacionales que corroboren la hipótesis, con lo que ésta queda consolidada.
7.    Interpretación de la Mecánica Cuántica:
Según la interpretación más extendida de la mecánica cuántica sugiere que todo es incierto hasta que lo observamos, y que la observación inevitablemente altera la realidad (otra posibilidad que se está estudiando es la Teoría de la Medición Débil.
  • El Problema de la Medida: En mecánica cuántica el proceso de medición altera de forma “incontrolada” la evolución del sistema. Constituye un error pensar dentro del marco de la física cuántica que medir es revelar propiedades que estaban en el sistema con anterioridad. La información que nos proporciona la función de onda es la distribución de probabilidades, con la cual se podrá medir tal valor de tal cantidad. Cuando medimos ponemos en marcha un proceso que es indeterminable a priori, lo que algunos denominan azar, ya que habrá distintas probabilidades de medir distintos resultados.
  • La Paradoja de Hardy:
Nos propone que puesto que nosotros no podemos influir sobre el pasado, al no poderlo modificar, no tiene sentido hablar del pasado ya que no podemos conocerlo puesto que de acuerdo con la teoría cuántica: “Conocer implica cambiar, modificar”.
§  Teoría de la Medición Débil:
La medida débil es una herramienta por la cual la presencia de un detector es menor que el nivel de incertidumbre alrededor de lo que se está midiendo, por lo que existe un impacto imperceptible en el experimento. “Encontramos que las conclusiones aparentemente paradójicas en la Paradoja de Hardy Paradox pueden, de hecho, verificarse experimentalmente”, dijo Steinberg, “dado que el uso de la medida débil elimina la contradicción”. “Hasta hace poco parecía imposible llevar a cabo la propuesta de Hardy, muchos menos confirmar o resolver la paradoja”, añade. “Por fin hemos sido capaces de hacerlo y aplicar los métodos de Aharonov al problema, demostrado que existe una forma, incluso en la mecánica cuántica, en la que se puede discutir de forma bastante consistente eventos pasados incluso después de que hayan concluido. La medida débil encuentra lo que hay allí sin perturbarlo”.
  • Principio de Superposición Cuántica: 
Superposición cuántica es la aplicación del principio de superposición a la mecánica cuántica. Ocurre cuando un objeto "posee simultáneamente" dos o más valores de una cantidad observable (Ej. la posición o la energía de una partícula). Más específicamente, en mecánica cuántica, cualquier cantidad observable corresponde a un autovector de un operador lineal hermético. La combinación lineal de dos o más autovectores da lugar a la superposición cuántica de dos o más valores de la cantidad. Si se mide la cantidad, el postulado de proyección establece que el estado colapsa aleatoriamente sobre uno de los valores de la superposición (con una probabilidad proporcional al cuadrado de la amplitud de ese autovector en la combinación lineal). Inmediatamente después de la medida, el estado del sistema será el autovector que corresponde con el autovalor medido.
  • Ecuación de Schrödinger:
Las soluciones a estas ecuaciones se conocen como funciones de onda, dado que son inherentemente ondulatorias en su forma. Pueden difractarse e interferirse consigo misma, llevándonos a los efectos ondulatorios ya observados. Además, las funciones de onda se interpretan como descriptores de la probabilidad de encontrar una partícula en un punto del espacio dado. Quiere decirse esto que si se busca una partícula, se encontrará una con una probabilidad dada por la raíz cuadrada de la función de onda. En el mundo macroscópico no se observan las propiedades ondulatorias de los objetos dado que dichas longitudes de onda, como en las personas, son demasiado pequeñas. La longitud de onda se da, en esencia, como la inversa del tamaño del objeto multiplicada por la constante de Planck h, un número extremadamente pequeño.
  • El Gato de Schrödinger:
Schrödinger nos propone un sistema formado por una caja cerrada y opaca que contiene un gato, una botella de gas venenoso, una partícula radiactiva con un 50% de probabilidades de desintegrarse en un tiempo dado y un dispositivo tal que, si la partícula se desintegra, se rompe la botella y el gato muere.
Al depender todo el sistema del estado final de un único átomo que actúa según las leyes de la mecánica cuántica, tanto la partícula como la vida del gato estarán sometidas a ellas. De acuerdo a dichas leyes, el sistema gato-dispositivo no puede separarse en sus componentes originales (gato y dispositivo) a menos que se haga una medición sobre el sistema. El sistema gato-dispositivo está en un entrelazamiento.
§  Según la Interpretación de Copenhague:
Mientras no abramos la caja, el sistema, descrito por una función de onda, tiene aspectos de un gato vivo y aspectos de un gato muerto, por tanto, sólo podemos predicar sobre la potencialidad del estado final del gato y nada del propio gato. En el momento en que abramos la caja, la sola acción de observar modifica el estado del sistema tal que ahora observamos un gato vivo o un gato muerto. Esto se debe a una propiedad física llamada superposición cuántica que explica que el comportamiento de las partículas a nivel subatómico no puede ser determinado por una regla estricta que defina su función de onda. La física cuántica postula que la pregunta sobre la vida del gato sólo puede responderse probabilísticamente.
La paradoja ha sido objeto de gran controversia (tanto científica como filosófica), al punto que Stephen Hawking ha dicho«cada vez que escucho hablar de ese gato, empiezo a sacar mi pistola», aludiendo al suicidio cuántico, una variante del experimento de Schrödinger.
§  Suicidio Cuántico:
El experimento supone un hombre sentado con un arma que apunta hacia su cabeza. El arma es manipulada por una máquina que mide la rotación de una partícula subatómica. Cada vez que el hombre apriete el gatillo el arma se disparará dependiendo del sentido de la rotación de la partícula: Si gira en sentido horario el arma dispara, en sentido contrario no lo hace.
Según la interpretación de Copenhague, con cada ejecución del experimento existe un 50 % de posibilidad de que el arma sea disparada y el hombre muera: finalmente el experimentador morirá.
ü  Postulado de Sucesos: (Licencia del autor)
La teoría de los universos múltiples, por su parte, plantea que cada ejecución del experimento divide el universo en dos: uno en que el hombre vive y otro mundo en que muere.
Después de muchas series de la prueba, habrá muchos universos. En todos ellos menos en uno el hombre dejará de existir, pero siempre habrá un universo donde siga existiendo (claro dependiente del “Postulado de Sucesos”). Desde el punto de vista del hombre, por mucho que apriete el gatillo del arma nunca se disparará, toda vez que su conciencia seguirá existiendo en muchos de los universos. Esto último es lo que se denomina “Inmortalidad cuántica”.
  • Principio de Incertidumbre:
En mecánica cuántica, la relación de indeterminación de Heisenberg afirma que no se puede determinar, simultáneamente y con precisión arbitraria, ciertos pares de variables físicas (magnitudes complementarias), como son, por ejemplo, la posición y el momento lineal (cantidad de movimiento) de un objeto dado (magnitudes complementarias). En otras palabras, cuanta mayor certeza se busca en determinar la posición de una partícula, menos se conoce su cantidad de movimiento lineal. Este principio fue enunciado por Werner Heisenberg en 1927.
  • Coherencia Cuántica:
El comportamiento físico de los bosones resulta ser el contrario de los fermiones. Tienden a ser bosones las partículas más primigenias. Los fotones son así el ejemplo paradigmático de los bosones. No existe principio de exclusión para ellos y su tendencia es a estar en el mismo estado (en las propiedades vibratorias u ondulatorias de su función de onda). Esta "convergencia" de los bosones conduce, por ejemplo en un caso máximo, a un estado de concentración en un mismo estado simple que se conoce como condensación de Bose-Einstein (en la base de la tecnología del láser y en la explicación de fenómenos de superconductividad). En general pueden producirse variadas interacciones entre masas de bosones para entrar en estados globales de vibración unitaria que conocemos como estados de coherencia cuántica. Pero, así como los fermiones tienden a mantener su individualidad ondulatoria (principio de exclusión), los bosones tienden a constituir estados físicos donde la individualidad se diluye en estados cuánticos de conjunto para grandes masas con funciones de onda simétricas.
  • Decoherencia:
En la mecánica cuántica las partículas son tratadas como ondas que se comportan según la ecuación de Schrödinger. De este modo, este comportamiento entra en contradicción con la mecánica clásica donde es bien sabido que las partículas no presentan fenómenos típicos de las ondas como la interferencia. Cómo es posible que las partículas cuánticas formen cuerpos más grandes que se comportan de manera clásica es un fenómeno que se conoce como decoherencia cuántica.
Este término está íntimamente ligado con la computación cuántica, ya que la decoherencia de los qubits representa un problema. Se basa en que los sistemas físicos no residen aislados sino que interactúan con otros, y esta interacción es la que provoca que se deshagan los estados de superposición de los qubits (mientras no interactúe, es un sistema coherente, es decir, se encuentra en una indefinida superposición de estados). A este intervalo de pérdida de coherencia se le asocia que lo que esencialmente es un sistema cuántico lo podamos describir por medio de variables clásicas.
La decoherencia se debe al acoplamiento del qubit con el entorno (ordenador cuántico). En consecuencia el qubit debe considerarse como un sistema abierto. El acoplamiento del qubit y el ordenador cuántico produce un entrelazamiento entre ambos sistemas que modifica el qubit de forma, a priori, incontrolable. Generalmente se asume que una vez que el qubit ha perdido la coherencia la computación completa falla y, en consecuencia, los resultados que se obtienen no son correctos. En el modelo de computación cuántica los cálculos se realizan aplicando transformaciones unitarias al qubit.
Sin embargo esto sólo se cumple de forma aproximada ya que, debido al acoplamiento entre los dos sistemas, la evolución del qubit generalmente no es unitaria.
8.    Principio de Superposición (Interferencia):
El principio de superposición de ondas establece que la magnitud del desplazamiento ondulatorio en cualquier punto del medio es igual a la suma de los desplazamientos en ese mismo punto de todas las ondas presentes. Esto es consecuencia de que la Ecuación de onda es lineal, y por tanto si existen dos o más soluciones, cualquier combinación lineal de ellas será también solución.
9.    Principio de Dualidad (Onda-Partícula):
La dualidad onda-corpúsculo, también llamada dualidad onda-partícula, resolvió una aparente paradoja, demostrando que la luz puede poseer propiedades de partícula y propiedades ondulatorias. De acuerdo con la física clásica existen diferencias entre onda y partícula. Una partícula ocupa un lugar en el espacio y tiene masa mientras que una onda se extiende en el espacio caracterizándose por tener una velocidad definida y masa nula.
  • Toda la materia presenta características tanto ondulatorias como corpusculares comportándose de uno u otro modo dependiendo del experimento específico (De Broglie).
  • Actualmente se considera que la dualidad onda-partícula es un concepto de la mecánica cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa.
10. Determinismo Científico:
El determinismo científico es un paradigma científico que considera que a pesar de la complejidad del mundo y su impredictibilidad práctica el mundo físico evoluciona en el tiempo según principios o reglas totalmente predeterminadas y el azar es sólo un efecto aparente.
  1. Determinismo Fuerte:
El determinismo fuerte sostiene que no existen sucesos genuinamente aleatorios o azarosos, y en general el futuro es potencialmente predecible a partir del presente (aunque lógicamente predictibilidad y determinación son independientes, ya que la primera requiere además cierto tipo de conocimiento de las condiciones iniciales).
  1. Determinismo Débil:
El determinismo débil sostiene que es la probabilidad lo que está determinado por los hechos presentes, o que existe una fuerte correlación entre el estado presente y los estados futuros, aun admitiendo la influencia de sucesos esencialmente aleatorios e impredecibles.
Bien, vamos a empezar con lo que es un modelo cientifico. Bueno pues un modelo científico, a groso modo, es una representación abstracta y matematizada de algún suceso de la realidad. Por ejemplo, un movimiento en un plano, tiene una ecuación, que es la que lo modela. El aumento de número de unas determinadas bacterias, sigue una determinada ecuación, que lo determina y modela. Y así con infinidad de procesos. De hecho casi cualquier proceso se puede modelar matemáticamente.
Bien, pues hay tres maneras fundamentales de hacer un modelo científico.
  1. Utilizando ecuaciones diferenciales. Modelar cualquier sistema físico, químico, real, económico, etc.; requiere la utilización de tan grandioso e intrincado invento.
  2. Utilizando la teoría de la probabilidad. Asignando probabilidades a sucesos, e intentando hacer una inferencia para predecir el comportamiento de un determinado sistema.
  3. Haciendo una mezcla de las dos anteriores formas.








 ...

No hay comentarios:

Publicar un comentario