Ir al contenido principal

El camino hacia la ventaja computacional cuántica

La mecánica cuántica es, muy probablemente, la teoría física más precisa de la historia. Tras su consolidación durante la primera mitad del siglo XX, ha servido de pilar sobre el que han ido evolucionando muchas otras disciplinas de conocimiento y buena parte de la industria general. 

Sin embargo, el desarrollo de esta teoría siguió un camino que contrasta con el que era habitual en ciencia hasta esa fecha.

Era un momento histórico en que la mayoría de físicos consideraban haber andado ya todo el camino. No quedaban secretos por descubrir. Había algunas lagunas, por supuesto; pero se consideraban anecdóticas, desviaciones pintorescas que nombrar a pie de página. 

Lo cierto es que la ciencia había ido respondiendo con aparente acierto a todo aquello que, de forma más o menos intuitiva, percibíamos a nuestro alrededor. 

Sin embargo, la tecnología no dejaba de avanzar, y sucedió que las técnicas experimentales se fueron depurando hasta tal punto que comenzaron a poner en entredicho buena parte de esta intuición. 2+2 habían dejado de sumar 4. 

En este contexto, figuras como Planck (1900), Einstein (1905), de Broglie (1924) y Bohr (1913) dieron un paso al frente y apuntaron en otra dirección, una en la que el mundo obedecía a un paradigma cuantizado, discreto, y además sin una línea clara entre ondas y partículas.

Aunque una visión tan contraintuitiva de la realidad supuso un choque intelectual monumental, enfrentando entre sí a alguno de los padres de la criatura, la mecánica cuántica se asentó como teoría consistente y, en décadas sucesivas, fue siendo paulatinamente reafirmada en laboratorio. 

Finalmente, ya casi a final del siglo XX, se demostraría que también se podía computar usando sistemas cuánticos, y que hacerlo ofrecía ventajas muy destacables en algunos casos.

¿Cómo se modeló esta evolución hasta nuestros días? ¿Cuales fueron los pasos más relevantes de cara a construir un paradigma de computación primero y procesadores cuánticos después? En este artículo recorreremos algunos de ellos.

Formalizando la base matemática con von Neumann

La primera etapa de este recorrido nos sitúa en un momento muy temprano. Hacía falta que emergiera una figura que asentara el maremagnum de conceptos con el adecuado formalismo matemático, de modo que la potencia teórica de esta nueva disciplina pudiera ser convenientemente explotada. 

Esta figura sin duda fue John von Neumann.

Si alguna vez has estudiado matemáticas, teoría de la información o teoría de la computación, coincidirás conmigo en que hablamos de una de las mentes más brillantes de la historia. Las palabras del premio nobel Eugene Wigner resumen muy bien el sentir de su generación: "Hay dos tipos de personas en este mundo: Johnny von Neumann y el resto de nosotros"

Podríamos echar el día listando todas sus contribuciones, desde la propia formalización de los estados cuánticos como vectores en espacios de Hilbert complejos, el teorema espectral para descomponer observables en proyectores asociados a valores propios mediables, o la definición de entropía en sistemas cuánticos (que lleva su nombre). Vamos a centrarnos sin embargo en dos de ellas, a mi juicio particularmente relevantes.

von Neumann (1932) estableció el significado matemático de la medición de un sistema cuántico en términos de proyección, por contraposición a la evolución que conseguimos con operadores unitarios (como las puertas lógicas cuánticas), que es reversible.

De este modo, todo observable $A$ con descomposición espectral $A=\sum_ka_kP_k$ cumple: \begin{equation} \ket{\psi} \longrightarrow\frac{P_k \ket{\psi}}{\sqrt{\langle \psi | P_k | \psi \rangle}}, \tag{1} \end{equation}

donde $P_k$ son los operadores de proyección asociados a uno de los autovalores $a_k$.

Esta es la forma matemática de expresar que tras medir un valor $a_k$, el nuevo estado $\ket{\psi}$ es un estado proyectado y normalizado. La superposición original desaparece en la base del observable medido y el proceso es irreversible.

En paralelo además introdujo el operador densidad, que generalizaba el propio concepto de estado de un sistema cuántico según la forma: \begin{equation} \rho=\sum_ip_i\ket{\psi_i}\bra{\psi_i}, \tag{2} \end{equation}

donde el operador densidad $\rho$ se define como una combinación lineal de los productos exteriores de los diferentes estados puros multiplicados por su peso estadístico.

von Neumann (1932) de esta forma nos enseñó a describir tanto estados puros como estados mixtos, entendidos estos últimos como una mezcla estadística clásica de estados cuánticos (no confundir con las amplitudes complejas de un estado en superposición).

Recordemos que en el mundo real la información cuántica se diluye en los grados de libertad del entorno. Los sistemas pierden su capacidad de generar interferencias observables y, en ausencia de una estrategia de corrección de errores, pierden su capacidad de computar. 

Se abría la puerta por primera vez a la formalización matemática de sistemas reales que existen en un mundo de ruido y decoherencia, donde no contamos con vectores estado ideales como los que usamos en la pizarra.

El entrelazamiento existe

La siguiente piedra en el camino nos lleva a detenernos en la legitimidad, discutida durante décadas, de otro de los conceptos clave, el entrelazamiento. Bueno, o como Einstein (1947) lo llamó en una de sus famosas cartas: "acción fantasmal a distancia".

Y es que no todos los nombres clave de la época secundaron sin reservas los postulados de la mecánica cuántica. Si bien la base matemática, como hemos visto en la sección anterior, era francamente sólida, había algunas implicaciones que personas de la relevancia de Albert Einstein o Erwin Schrödinger no lograron conciliar. 

Recordemos que, desde un punto de vista formal, el entrelazamiento se describe como un estado no separable, es decir, aquel que no se puede descomponer en un producto tensorial:

\begin{equation} \ket{\psi} \notin \left\{ \ket{\phi_A} \otimes \ket{\phi_B} \;|\; \ket{\phi_A} \in \mathcal{H}_A,\; \ket{\phi_B} \in \mathcal{H}_B \right\}. \tag{3} \end{equation}

Aunque las matemáticas estaban claras, las implicaciones eran dramáticas para muchos científicos. Lo cierto es que el entrelazamiento parecía violar el principio de localidad, ya que podría intuirse que se transmite información de manera instantánea entre dos partículas con independencia de la distancia que les separa. Esto entraba en clara contraposición con la teoría de la relatividad especial (Einstein, 1905), ya que implicaría que la información puede viajar más rápido que la luz.

En este contexto, Einstein, Podolsky y Rosen (1935) idearon lo que se conoce como Paradoja EPR. 

Se trata de un experimento mental. En él se establece que dadas dos partículas entrelazadas A y B, que se encuentran separadas, para que se pueda deducir unívocamente una propiedad de B al medir A, esa información ha debido de estar siempre allí. Es lo que se denominaría más adelante una variable oculta.

Esta paradoja, que de alguna manera venía a plantear dudas sobre la mecánica cuántica como teoría completa, suscitó uno de los enfrentamientos intelectuales más celebrados de la historia, con Bohr (1935) argumentando que la propia formulación de la paradoja atendía a una noción de realidad que le resultaba obsoleta, dado que para él la realidad no podía existir ajena al propio proceso de experimentación y medida.

Hubo que esperar varios años hasta que Bell (1964) publicó el teorema que lleva su nombre y diseñó desigualdades encaminadas a establecer el marco metodológico para llegar a una conclusión definitiva.

La desigualdad de Bell se expresó originalmente de la siguiente manera: \begin{equation} \bigl| E(a,b) - E(a,b') \bigr|\;\le\;1 + E(b,b'), \tag{4} \end{equation}

donde $E(a,b)$ correlacionaba los resultados de A y B y $a, b, b'$ eran las distintas orientaciones a la hora de medir.

Según esta formulación, una teoría que satisfaga realismo y localidad debería cumplir siempre la desigualdad. Sin embargo, veremos que hay multitud de estados cuánticos que no lo hacen, siendo el caso más extremo los estados entrelazados.

Para un estado entrelazado $\ket{\psi^-}$ como el descrito a continuación: \begin{equation} \ket{\psi^-}=\frac{1}{\sqrt{2}}\left( \ket{01} - \ket{10} \right) \longrightarrow E(a,b)=-\cos{\theta}_{ab}, \tag{5} \end{equation}

Si tomamos, por ejemplo, valores $\theta_{ab}=0$, $\theta_{ab'}=110º$ y $\theta_{bb'}=110º$, resultará: \begin{equation} \bigl| -1 - \cos(110^\circ) \bigr|\;>\;1 - \cos(110^\circ), \tag{6} \end{equation}

Lo que a su vez implica violar la desigualdad, como vemos a continuación: \begin{equation} \bigl| E(a,b) - E(a,b') \bigr|\;>\;1 + E(b,b'), \tag{7} \end{equation}

La desigualdad de Bell se reformularía años más tarde de una forma algo más estándar y, sobre todo, más adecuada para su validación experimental (Clauser, Horne, Shimony y Holt, 1969): \begin{equation} S \;=\; E(a,b) + E(a,b') + E(a',b) - E(a',b'); \qquad |S| \;\le\; 2, \tag{8} \end{equation}

Esto dio lugar a varias comprobaciones experimentales como Freedman y Clauser (1972) y después Aspect, Dalibard y Roger (1982), donde se observaría efectivamente la violación de la desigualdad y por tanto la prevalencia, ahora con base tanto teórica como experimental, del fenómeno de entrelazamiento. 

Retrospectivamente estos experimentos de algún modo legitimaron el dilema que originó la paradoja EPR, dado que efectivamente se violaba el principio de realismo local; pero reforzaron definitivamente la postura que durante toda su vida había defendido Niels Bohr

La teoría cuántica no requería de variables ocultas para funcionar correctamente, y quedaba patente que no se comprometía la relatividad especial, dado que el entrelazamiento no podía utilizarse para transmitir información en modo alguno.

El tortuoso camino hacia la ventaja cuántica

Las siguientes décadas fueron años de consolidación de la computación cuántica como disciplina. Los fundamentos teóricos, ahora ya consistentes con los resultados experimentales, junto con un aparato matemático a la altura, permitieron establecer las bases de la teoría de la información cuántica así como entender, desde un punto de vista formal, cuales podían ser sus ventajas y también sus potenciales retos a nivel computacional.

Por un lado quedó claro que, en términos de información, la computación cuántica no ofrecía una mejora en tratamiento y almacenamiento neto. El límite de Holevo (1973) obliga a que la información accesible esté siempre limitada por la entropía de Shannon (1948), según la forma: \begin{equation} \chi= S(\rho)-\sum_x p_x S(\rho_x)\leq S(\rho),\qquad\chi\leq H(p_x), \tag{9} \end{equation}

Esto tiene todo el sentido, y se explica en el hecho de que estamos limitados a interpretar y almacenar sólo aquello que podamos medir. Al fin y al cabo, aunque podemos trabajar con sistemas en superposición, siempre vamos a tener que colapsar en uno de los estados de la base ortonormal.

No fue esta la única limitación que surgió durante la época. En los años 80 se demostró el teorema de no clonación (Wootters y Zurek, 1982), que establecía que no existe forma de crear una copia de un estado cuántico desconocido arbitrario. Dicho de otro modo, no existe operador unitario $U$ en la forma: \begin{equation} U\ket{\psi}_A\ket{e}_B=\ket{\psi}_A\ket{\psi}_B, \qquad\mathcal{H}_A=\mathcal{H}_B=\mathcal{H}, \tag{10} \end{equation}

donde $e$ sería un estado inicial vacío o en blanco. Esto, si bien perfectamente alineado con la relatividad especial y el principio de entrelazamiento a nivel teórico, suponía un desafío destacable a la hora de diseñar algoritmos cuánticos y, sobre todo, rompía conceptualmente con una de las premisas fundamentales de la ingeniería de software clásica.

En cualquier caso, con una teoría de la información cuántica ya más consolidada, sólo habría que esperar unos pocos años para que surgieran los primeros algoritmos con ventaja cuántica real.

La ventaja es real

En primer lugar surgiría el algoritmo de Shor (1994), y mostraría por primera vez una ventaja computacional real frente a algoritmos clásicos en problemas de gran relevancia industrial. 

Este algoritmo, con el número de cúbits adecuado, conseguiría reducir la dificultad a la hora de factorizar números enteros muy grandes, y convertiría un problema de orden sub-exponencial en uno de orden polinómico, haciéndolo de facto atacable, y generando con ello toda una revolución en la industria de la ciberseguridad.

Poco más tarde aparecería el algoritmo de Grover (1996), con objeto de facilitar la búsqueda de datos en secuencias no ordenadas, que aunque ofrecía una mejora menos espectacular (hablamos aquí de orden cuadrático), supuso un gran paso adelante en términos de ingeniería de software cuántico. 

Grover (1996) planteó una solución de diseño más genérica que puede reutilizarse en diferentes dominios y disciplinas, e incluso servir de subrutina para otros algoritmos más complejos. 

Coincidiendo con la aparición de los primeros algoritmos que ofrecían ventaja computacional demostrable, se publicó también, y casi al mismo tiempo, la primera especificación viable de un computador cuántico basado en iones atrapados (Cirac y Zoller, 1995).

Esto supuso el colofón del proceso de maduración de la teoría de computación cuántica durante la segunda mitad del siglo XX, ya que los autores ofrecieron una solución completa que permite desde la creación e inicialización de cúbits como estados internos en los iones atrapados, a su control mediante pulsos láser. Todo ello pasando por la implementación de puertas lógicas de 1 y 2 cúbits, donde los modos vibracionales del sistema actúan como una suerte de bus cuántico y posibilitan la creación de pares entrelazados.

Aún tardaríamos varios años en ver implementaciones precisas siguiendo este enfoque, y es cierto que se sigue trabajando en mejorar la escalabilidad y corrección de errores de los sistemas; pero el trabajo de Cirac y Zoller (1995) permitió sentar las bases de una implementación universal, es decir, un sistema que puede en teoría modelar cualquier puerta lógica, así como ejecutar cualquier algoritmo.

Se abría la puerta a un futuro de computación cuántica.

Referencias

Aspect, A., Dalibard, J., & Roger, G. (1982). Experimental test of Bell’s inequalities using time-varying analyzers. Physical Review Letters, 49(25), 1804–1807.

Bell, J. S. (1964). On the Einstein Podolsky Rosen paradox. Physics Physique Fizika, 1(3), 195–200.

Bohr, N. (1913). On the constitution of atoms and molecules. Philosophical Magazine, 26(151), 1–25.

Bohr, N. (1935). Can quantum-mechanical description of physical reality be considered complete? Physical Review, 48(8), 696–702.

Cirac, J. I., & Zoller, P. (1995). Quantum computations with cold trapped ions. Physical Review Letters, 74(20), 4091–4094.

Clauser, J. F., Horne, M. A., Shimony, A., & Holt, R. A. (1969). Proposed experiment to test local hidden-variable theories. Physical Review Letters, 23(15), 880–884.

de Broglie, L. (1924). Recherches sur la théorie des quanta (Doctoral dissertation, Université de Paris).

Einstein, A. (1905). Zur Elektrodynamik bewegter Körper. Annalen der Physik, 17, 891–921.

Einstein, A. (1971). The Born–Einstein letters (I. Born, Ed.). Macmillan.

Einstein, A., Podolsky, B., & Rosen, N. (1935). Can quantum-mechanical description of physical reality be considered complete? Physical Review, 47(10), 777–780.

Freedman, S. J., & Clauser, J. F. (1972). Experimental test of local hidden-variable theories. Physical Review Letters, 28(14), 938–941.

Grover, L. K. (1996). A fast quantum mechanical algorithm for database search. Proceedings of the 28th Annual ACM Symposium on Theory of Computing (STOC), 212–219.

Holevo, A. S. (1973). Bounds for the quantity of information transmitted by a quantum communication channel. Problemy Peredachi Informatsii, 9(3), 3–11.

Planck, M. (1900). Zur Theorie des Gesetzes der Energieverteilung im Normalspektrum. Verhandlungen der Deutschen Physikalischen Gesellschaft, 2, 237–245.

Shannon, C. E. (1948). A mathematical theory of communication. Bell System Technical Journal, 27(3), 379–423.

Shor, P. W. (1994). Algorithms for quantum computation: Discrete logarithms and factoring. Proceedings of the 35th Annual Symposium on Foundations of Computer Science (FOCS), 124–134.

von Neumann, J. (1932). Mathematische Grundlagen der Quantenmechanik. Springer.

Wootters, W. K., & Zurek, W. H. (1982). A single quantum cannot be cloned. Nature, 299, 802–803.

Comentarios

Entradas populares de este blog

Fate of Atlantis, la mayor aventura de nuestra vida

Existe bastante consenso respecto a que las aventuras gráficas que Lucasarts lanzó al mercado entre finales de los 80 y principios de los 90 son las mejores del género. La verdad es que el talento creativo que se reunió en aquella época fue un auténtico espectáculo.  Nombres como Dave Grossman , Tim Schafer y, sobre todo, Ron Gilbert marcaron la industria con títulos inolvidables. A todos nos vienen a la cabeza sin pensarlo mucho los  Maniac Mansion , The Secret of Monkey Island 1 y 2 o Day of the Tentacle . Sin embargo, y aunque adoro los juegos arriba citados, hay otro que en mi opinión se sitúa por encima de estos y constituye la referencia absoluta del género. Me estoy refiriendo por supuesto a Indiana Jones and the Fate of Atlantis . Hal Barwood y Noah Falstein se sacaron de la manga un guión de película -bastante mejor de hecho que el de la última entrega de la franquicia- y clavaron una aventura ambiciosa que brilla con luz propia en todos sus aparta...

Rabia contra la agonía de la luz

Me gustaría poder decir otra cosa; pero lo cierto es que no fue hasta Bloodborne , bien entrado el año 2015, que me metí de lleno en la obra de Hidetaka Miyazaki . Recuerdo el boca a boca de Demon's Souls , recuerdo lo que me costó hacerme con mi copia para PS3  en 2010, y también recuerdo como lo dejé de lado tras muy poco tiempo, frustrado y convencido de que se trataba de un juego mecánicamente roto y totalmente injusto con el jugador. Una suerte de obra de nicho para masoquistas; pero no algo que yo pudiera apreciar y mucho menos disfrutar. Con estas premisas no fue raro que pasara olímpicamente de Dark Souls . Simplemente el juego no entraba en mis planes. En aquella época Skyrim y, sobre todo, Battlefield 3  centraban mi atención. Como digo, hubo que esperar a 2015, con cambio generacional incluido, para que volviera a interesarme por el trabajo de From Software . Fue tangencialmente. No seguí el desarrollo de Project Beast. Tampoco estuve pegado a youtube viendo pr...

Rage against the dying of the light

I would like to tell a different story, but it was not until Bloodborne , in 2015, that I really started enjoying Hidetaka Miyazaki 's games. I remember the word of mouth with Demon's Souls , I also remember how difficult it was to get my copy for PS3 , and on top of all that, I do perfectly remember me putting the game aside, frustrated and convinced that it was mechanically broken, totally unfair with the player. Some short of niche title for super hardcore players, but not something I could appreciate, not to mention enjoy. With these premises it was not strange that I didn't care about Dark Souls. It simply was not in my agenda. By that time Skyrim and Battlefield 3 were my principal focus. As I've said, I had to wait until 2015, with a new generation of consoles in between, before playing again a game from From Software . I was not super fascinated about Project Beast at the beginning, I did not follow the development, someday it was just released and I told mys...