Ir al contenido principal

Información cuántica para Ingeniería - Un enfoque teórico y divulgativo

Nota inicial IPQ - Este texto puede resultar durillo si no tenéis conocimientos de teoría de la información y computación. No obstante, os animo a leerlo en todo caso. Aunque nos perdamos cosas, resultará interesante para cualquiera que busque entender superficialmente las capacidades y limitaciones de la computación cuántica. 

Cuando nos acercamos a la computación cuántica, aunque tengamos formación técnica, tendemos a pensar que al movernos de un enfoque clásico a un enfoque cuántico -con el consiguiente cambio de reglas del juego- habrá una suerte de crecimiento explosivo en cuanto a capacidad de cómputo, asociado a su vez a un crecimiento igualmente explosivo en la capacidad de representar información. 

Sin embargo, si atendemos a los principios más básicos de la mecánica cuántica, ya sabemos por distintos autores como Von Neumann (1932) que cuando medimos un estado superpuesto $\ket{\psi}=\sum_ic_i\ket{a_i}$ este colapsa a uno de los estados de la base ortonormal $\ket{a_k}$ con probabilidad $|c_k|^2$. 

En otras palabras; nuestro castillo de naipes cuántico se reduce -siempre que efectuemos una medición- a una colección de estados que es exactamente la misma que tenemos en computación clásica. Un qubit se reduce a un bit. Nuestro gozo en un pozo.

Parecería que este principio iguala lo que es factible en sistemas cuánticos a lo que ya era factible en sistemas clásicos. Estamos viendo que, por mucho que tengamos superposición, no parece que desde un punto de vista de información eso nos esté aportando gran cosa. 

Por otra parte, no queremos rendirnos tan fácilmente, si fuéramos capaces de manipular los sistemas sin establecer ninguna medición, tal vez esto abriría nuevos escenarios de computación.

¿Podemos afirmar que trabajamos efectivamente con más información si sabemos que estamos limitados por la propia naturaleza de la medición y su significado físico intrínseco? ¿Hay diferencia entre operar con información y tratar, almacenar e intercambiar dicha información? ¿Nos impide el proceso de medición, con su colapso de función de onda, manipular datos en todas las circunstancias?

Se nos plantean varias preguntas muy interesantes que, como veremos más adelante, invitan a mirar el problema desde diferentes ángulos; pero antes necesitamos algo de contexto.



Motivación de la teoría de la información

Lo que conocemos como teoría de la información clásica nace a mitad del siglo pasado con el trabajo de Shannon (1948)

Se trataba de aportar un enfoque formal, desde la ingeniería, que permitiera diseñar sistemas de información y telecomunicaciones, lidiando con algunos de los retos conocidos, entre ellos el ruido en los canales de comunicación.

Shannon (1948) adoptó conceptos ya existentes en otras disciplinas como la entropía; pero los expresó de manera sensiblemente diferente, abandonando la idea de desorden e incorporando en su lugar una medida de la incertidumbre, o visto de otra manera, la limitación para comprender el estado preciso de un sistema. \begin{equation} H=-\sum p_i\log p_i, \end{equation}

Fijémonos que de la expresión anterior, y asumiendo que los estados son equiprobables, podemos inferir cómo de "difícil" es representar nuestro sistema o, dicho de otra manera, cuantos bits precisamos para codificarlo.

Shannon (1948), ahondando en este concepto, describió la capacidad máxima de un canal como $C=\max I(X;Y)$, donde la información mutua entre la entrada $X$ y la salida $Y$ se expresa como la diferencia entre la entropía de $X$ y la entropía de $X$ condicionada a $Y$ según: \begin{equation} I(X;Y)=H(X)-H(X|Y), \end{equation}Finalmente, Shannon (1948) estableció el concepto de códigos de canal como un modo de garantizar el envío de mensajes sin pérdidas, incluso en escenarios de canales con ruido, sirviéndonos de un sistema de redundancia que posibilite la reconstrucción precisa del mensaje en destino.

El modelo clásico se nos queda corto

En la segunda mitad del siglo XX, autores como Landauer (1961) comenzaron a hacerse preguntas que, en última instancia, planteaban la necesidad de un nuevo marco conceptual. 

La premisa es irrefutable, si la información está condicionada por el soporte físico que la alberga, cuando dicho soporte es cuántico la información se verá condicionada por un conjunto de leyes que es también cuántico y no clásico.

Además, tras la publicación de Shannon (1948) queda claro que hay una relación de características de los sistemas cuánticos (superposición, entrelazamiento, colapso al medir,...) que no sólo no se describen correctamente en la teoría clásica, sino que en muchos casos ni siquiera se contemplan. 

En este contexto surgen trabajos muy destacables como Schumacher (1995), que establece la relación entre los qubits necesarios para representar una fuente cuántica y la entropía de Von Neumann (1927):

\begin{equation} n_{qubits}=S\bigg(\sum_z p_z \rho_z\bigg), \end{equation} Y se le ponen límites al volumen de información que es accesible con Holevo (1973): \begin{equation} \chi\leq S(\rho)-\sum_x p_x S(\rho_x), \end{equation} donde se nos dice que la información clásica accesible a partir de estados cuánticos está limitada por la entropía de Von Neumann (1927)

El colofón llega a finales de los años 90 del siglo pasado, donde Shor (1997) y Grover (1997) publican los primeros algoritmos que operan sobre una base computacional cuántica. Estos algoritmos, como veremos más adelante, suponen una revolución en el tratamiento de problemas con aplicación industrial real. 

Queda totalmente patente que el formalismo teórico de la información cuántica es ya una necesidad de ingeniería, y se cierra el círculo iniciado por Shannon (1948). Ahora tenemos una teoría completa.

¿Supera la teoría cuántica a la clásica en manejo e intercambio de información?

Una vez establecido el contexto, entramos en el quid de la cuestión. 

Parecería que la mecánica cuántica, al introducir la superposición y entrelazamiento, nos aporta un marco de trabajo que multiplica las posibilidades a la hora de diseñar sistemas de información y telecomunicaciones. 

Sin embargo, como hemos visto al comienzo de esta publicación, tenemos una limitación fundamental debido al colapso de la función de onda y su traducción matemática: Sólo podemos medir estados de nuestra base ortonormal. Por si esto fuera poco, como hemos visto en el punto anterior, hay un límite claro en cuanto a la información clásica accesible a partir de estados cuánticos. 

¿Qué sucede aquí? Bien, como decíamos hace algunas páginas, hay que mirar el problema desde distintos ángulos.

Sobre el procesamiento cuántico

El principio de superposición nos dice que podemos representar el estado de un sistema cuántico mediante una combinación de los estados de la base ortonormal multiplicados por sus amplitudes complejas, expresado por Von Neumann (1932) según la forma: 

\begin{equation} \ket{\psi}= \sum_n c_n \ket{\phi_n}, \end{equation}Si pensamos en qubits, que para eso estamos hablando de computación, debemos verlo de la siguiente manera: Nuestro sistema clásico opera con dígitos binarios (bits). Estos bits pueden tomar valores discretos {0,1}. Lo conocemos bien y nos sentimos cómodos con él.

Pues lo vamos a sustituir por nuestro flamante sistema cuántico.

En un sistema cuántico operaremos con qubits, y los qubits son vectores. Si nos ceñimos a un escenario sencillo con 1 único qubit para no entrar en productos tensoriales, tendríamos que los estados base del espacio $\mathbb{C}^2$ son: $$ \lvert 0 \rangle = \begin{pmatrix} 1 \\ 0 \end{pmatrix}, \qquad \lvert 1 \rangle = \begin{pmatrix} 0 \\ 1 \end{pmatrix}. $$

los cuales -siguiendo las reglas de la mecánica cuántica- pueden tomar los siguientes valores en superposición, donde $\alpha$ y $\beta$ son las amplitudes complejas: \begin{equation} \ket{\psi}=\alpha\ket{0}+\beta\ket{1}, \end{equation}

Desde un punto de vista computacional esto es un cambio de paradigma total. Podríamos teóricamente operar con un conjunto infinito de opciones.

Sin embargo, ya hemos visto que hay una barrera insalvable que surge a la hora de medir el estado de nuestro sistema. Siempre que lo hagamos colapsaremos en uno de los estados básicos $\ket{0}$ o $\ket{1}$ 

¿Hasta qué punto nos bloquea esta circunstancia? 

Bueno, si pudiéramos establecer algoritmos que operen con un sistema cuántico a la vez que preservan la superposición, manipulando las amplitudes complejas y modificando el estado sin necesidad de medir, tendríamos una herramienta computacional netamente superior. 

Vale; -estaréis pensando- pero en algún momento habrá que medir. Y es correcto, tendremos que medir; pero hasta que eso suceda nuestro castillo de naipes cuántico permanecerá intacto. Y ya hemos visto que es un castillo MUY grande.

Las puertas lógicas cuánticas hacen exactamente esto que queremos. 

Una puerta lógica cuántica es, en esencia, un operador unitario que permite reconfigurar el estado de un sistema cuántico tantas veces como sea necesario; pero -y esto es crucial- sin alterar su superposición y entrelazamiento salvo que queramos hacerlo de forma explícita. \begin{equation} \mathrm{Hadamard} = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix}, \qquad \mathrm{CNOT} = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 1 & 0 \end{pmatrix}, \end{equation}

Mediante la sucesiva aplicación de este tipo de puertas nos beneficiaremos de la naturaleza ondulatoria de nuestro sistema cuántico, y forzaremos interferencias constructivas sobre las amplitudes asociadas a los estados solución. Del mismo modo, podremos generar interferencias destructivas sobre aquellas amplitudes que no nos interesen. 

Cuando efectuemos una medición, solo al completar el algoritmo, el sistema colapsará inevitablemente en uno de los estados de la base ortonormal; pero nosotros ya habremos actuado. Sabemos por Von Neumann (1932) que la probabilidad de medir cada uno de los estados básicos depende del cuadrado del módulo de su amplitud compleja asociada. 

Esta es la clave.

Gracias a nuestro algoritmo y sus interferencias constructivas y destructivas, estaremos ante un escenario en el que tenderemos con mucha mayor probabilidad a colapsar en estados que sean solución a nuestro problema. 

Pinta muy bien. Parece que lo tenemos.

¿Cuál es la mejora computacional? 

Utilicemos los ejemplos de la sección anterior, concretamente la factorización de enteros muy grandes.

  • El mejor algoritmo clásico, General Number Field Sieve (Lenstra et al, 1993) consigue un orden subexponencial $\mathcal{O}\!\left(\exp((\log N)^c)\right)$.
  • Sin embargo el algoritmo de Shor (1997) rompe todos los registros y se queda nada menos que en orden polinómico $\mathcal{O}((\log N)^3)$.

Sin duda la mejora es sustancial. De hecho es tan sustancial que, aunque no entraremos en ello en profundidad, ha hecho replantearse sus bases a la industria de la ciberseguridad al completo. 

Confirmamos. Sí que lo tenemos.

Sobre el almacenamiento y transporte cuántico

En el punto anterior hemos visto que, gracias a la superposición, la capacidad de procesamiento de un sistema cuántico es netamente superior a la de un sistema clásico. Siempre, claro está, que existan algoritmos a tal efecto. 

Sin embargo, en lo que se refiere a almacenamiento propiamente dicho, no parece que vayamos a ser capaces de sortear esta vez la limitación que establece el hecho de que, para poner en valor cualquier elemento de información, hemos de ser capaces de leerlo. 

En otras palabras, estamos limitados a interpretar y almacenar sólo aquello que podemos medir. En esencia, y por mucho que un sistema cuántico pueda en algún momento estar en superposición, siempre vamos a tener que colapsar dicha superposición en uno de los estados de la base ortonormal. 

No hay manera de escapar de esta circunstancia y así lo indican también las bases teóricas. Aunque el valor de entropía de Von Neumann (1927) puede ser en principio mayor a la entropía de Shannon (1948), el límite de Holevo (1973) obliga a que la información accesible esté siempre limitada por Shannon (1948), según la forma: \begin{equation} \chi= S(\rho)-\sum_x p_x S(\rho_x)\leq S(\rho), \qquad \chi\leq H(p_x), \end{equation}

¿No hay entonces ninguna ventaja?

Aunque, como hemos visto en el apartado anterior, la teoría de la información cuántica no ofrece mejoras netas en cuanto a nuestra capacidad de almacenar y transmitir información, sí que aporta ventajas sustanciales a nivel criptográfico.

Podemos ver en propuestas como la de Bennett y Brassard (1984) que, en este caso particular, el colapso provocado al medir un estado actúa en nuestro favor.

Imaginemos que queremos intercambiar información y que queremos conocer, de manera fehaciente, si el canal ha sido comprometido.

Podríamos preparar los qubits en diferentes bases ortonormales, intercambiarlos sin revelar qué base hemos utilizado, y comparar resultados en destino. 

Estados en la base de Hadamard (eje \(X\)): $$ \lvert + \rangle = \frac{1}{\sqrt{2}}\bigl(\lvert 0 \rangle + \lvert 1 \rangle\bigr), \qquad \lvert - \rangle = \frac{1}{\sqrt{2}}\bigl(\lvert 0 \rangle - \lvert 1 \rangle\bigr). $$ Estados con fase imaginaria (relacionados con el eje \(Y\)): $$ \lvert i+ \rangle = \frac{1}{\sqrt{2}}\bigl(\lvert 0 \rangle + i \lvert 1 \rangle\bigr), \qquad \lvert i- \rangle = \frac{1}{\sqrt{2}}\bigl(\lvert 0 \rangle - i \lvert 1 \rangle\bigr). $$

Si un tercero malintencionado consiguiera interceptar la comunicación, al desconocer la base de inicialización, realizaría inadvertidamente para él mediciones incompatibles con el estado original. 

Sin quererlo, este tercero habría introducido una perturbación estadísticamente detectable en el sistema. 

La potencia de este mecanismo radica en que obedece al funcionamiento natural de la propia mecánica cuántica. No hay algoritmo involucrado, ni clave que sea atacable por fuerza bruta. 

Salvo que las leyes de la mecánica cambien, el canal de comunicación será infalible detectando intrusiones. Para siempre.

¿Está contenida la teoría clásica dentro de la cuántica?

En el apartado anterior hemos estudiado qué cambios incorpora la teoría de la información cuántica desde un punto de vista de diseño de sistemas. Hemos comprobado como a nivel de capacidad de proceso hay una mejora sustancial, aunque sin embargo en lo relativo a interpretación, almacenamiento y transporte no conseguimos mejorar los números de los sistemas clásicos.

Podríamos pensar pues que la teoría de la información clásica está contenida dentro de la teoría de la computación cuántica, siendo esta última una generalización y la primera un caso particular.

Generalizando la teoría clásica

Los sistemas cuánticos están construidos con una capa de incertidumbre, modelada como amplitud compleja, que se aplica sobre una base ortonormal de estados. Si eliminamos esta amplitud y todos los estados son diagonales a la misma base, desaparecería de nuestro sistema las superposiciones y, en la práctica, estaríamos volviendo a la definición fundamental de entropía y capacidad del canal ordinarias. Veámoslo.

  1. Diagonalidad. Cuando $\rho$ es diagonal el estado se comporta exactamente como una variable clásica con probablidad $P_i$: \begin{equation} \rho=\sum_i P_i\ket{i}\bra{i}, \end{equation}
  2. Entropía. Si $\rho$ es diagonal con autovalores $p_i$ entonces se cumple que: \begin{equation} S(\rho)=-\sum_i p_i \log p_i=H(p_i), \end{equation}
  3. Distancia de traza. Según Helmstrom (1976), si dos estados $\rho$ y $\sigma$ son diagonales a la misma base con probabilidades $p_i$ y $q_i$, entonces su distancia de traza se reduce a la forma clásica: \begin{equation} D_{tr}=\frac{1}{2}\sum_i |p_i-q_i|,\qquad D_{tr}(\rho,\sigma)=\frac{1}{2}||\rho-\sigma||_1, \end{equation}
  4. Fidelidad. Aplicando Uhlmann (1976) y Bhattacharyya(1943), sabemos que la fidelidad cuántica entre dos estados $\rho$ y $\sigma$, si ambos son diagonales a la misma base, se reduce a la formulación clásica: \begin{equation} F(\rho, \sigma)=\bigg(\mathrm{Tr}\sqrt{\sqrt{\rho}\sigma\sqrt{\rho}}\bigg)^2, \qquad F=\bigg(\sum_i\sqrt{p_iq_i}\bigg)^2, \end{equation}

Una generalización con restricciones

¿Es por tanto correcto concluir que la teoría de información cuántica es una generalización de la teoría clásica?.

Lo cierto es que no.

Si bien, como hemos discutido en el apartado anterior, la teoría clásica parece una forma particular de la teoría cuántica, existen algunas propiedades del formalismo cuántico que son inherentemente más restrictivas, de modo que impiden realizar operaciones que sí son perfectamente plausibles en el mundo clásico. 

También vemos como la propia naturaleza física de los sistemas descritos obliga a incorporar conceptos que no existen en los sistemas clásicos, como la coherencia, entendida aquí como una medida de la capacidad de sistema cuántico de preservar la superposición y entrelazamiento.

  1. Principio de no clonación. Al contrario que los bits clásicos, según el teorema de Wootters, W. K. y Zurek, W. H. (1982), los qubits son, por definición, imposibles de clonar. No existe operador unitario U en la forma siguiente: \begin{equation} U\ket{\psi}_A\ket{e}_B=\ket{\psi}_A\ket{\psi}_B, \qquad \mathcal{H}_A=\mathcal{H}_B=\mathcal{H}, \end{equation}
  2. Principio de indistinguibilidad. Según Helmstrom (1976), sólo los estados ortogonales son distinguibles en una medición. Eso nos limita a los estados de la base ortonormal. \begin{equation}P_{\mathrm{max}} = \frac{1}{2}\left(1 + D_{tr}(\rho,\sigma)\right),\end{equation}
  3. Principio de coherencia. Este concepto, que ni siquiera existe en la teoría clásica, establece según Schumacher (1996) la medida de la la información coherente de un canal en la forma ($\mathcal{E}$ representa al canal de comunicación en sí): \begin{equation} I(\rho, \mathcal{E})=S(\mathcal{E}(\rho))-S(\rho, \mathcal{E}), \end{equation}
  4. Medición como colapso de la función de onda. Este es otro concepto que no existe en la teoría clásica, y supone uno de los elementos distintivos de la teoría cuántica, como hemos visto a lo largo de esta publicación. Ahondando en la naturaleza dual de las particulas (corpuscular y ondulatoria), según Schrödinger (1926), la evolución de un sistema se describe: \begin{equation} |\psi(t)\rangle = e^{-i\omega t}\,|\psi(0)\rangle, \qquad \omega = \frac{E}{\hbar}, \end{equation} Esta función de onda no se preserva infinitamente. En un sistema cuántico el hecho de medir altera fundamentalmente el estado del mismo, haciendo que obligatoriamente colapse en uno de los estados de la base ortonormal.

Nota final IPQ - Este artículo es una adaptación divulgativa de un trabajo académico realizado en el contexto de la asignatura Información Cuántica, dentro del Máster Universitario en Computación Cuántica que estoy cursando en UNIR.

Bibliografía

Bennett, C. H. y Brassard, G. (1984). Quantum cryptography: Public key distribution and coin tossing. En Proceedings of IEEE International Conference on Computers, Systems and Signal Processing, pp. 175–179, Bangalore, India.

Bhattacharyya, A. (1943). On a measure of divergence between two statistical populations defined by their probability distributions. Bulletin of the Calcutta Mathematical Society, 35:99–109.

Grover, L. K. (1997). Quantum mechanics helps in searching for a needle in a haystack. Physical Review Letters, 79(2):325–328.

Helstrom, C. W. (1976). Quantum Detection and Estimation Theory. Academic Press.

Holevo, A. S. (1973). Bounds for the quantity of information transmitted by a quantum communication channel. Problems of Information Transmission, 9(3):177–183.

Landauer, R. (1961). Irreversibility and heat generation in the computing process. IBM Journal of Research and Development, 5(3):183–191.

Lenstra, A. K., Lenstra, H. W., Manasse, M. S., y Pila, J. (1993). The number field sieve. En Proceedings of the Twenty-Fifth Annual ACM Symposium on Theory of Computing, pp. 564–572.

Schrödinger, E. (1926). Quantisierung als Eigenwertproblem. Annalen der Physik, 79(4), 361–376.

Schumacher, B. (1995). Quantum coding. Physical Review A, 51(4).

Schumacher, B. y Nielsen, M. A. (1996). Quantum data processing and error correction. Physical Review A, 54(4).

Shannon, C. E. (1948a). A mathematical theory of communication. Bell System Technical Journal, 27(3):379–423.

Shannon, C. E. (1948b). A mathematical theory of communication, part ii. Bell System Technical Journal, 27(4):623–656.

Shor, P. W. (1997). Polynomial-time algorithms for prime factorization and discrete logarithms on a quantum computer. SIAM Journal on Computing, 26(5):1484–1509.

Uhlmann, A. (1976). The “transition probability” in the state space of a *-algebra. Reports on Mathematical Physics, 9(2):273–279.

Von Neumann, J. (1927). Thermodynamik quantenmechanischer gesamtheiten. G¨ottinger Nachrichten, 1:273–291.

Von Neumann, J. (1932). Mathematische Grundlagen der Quantenmechanik, volumen 38 de Ergebnisse der Mathematik und ihrer Grenzgebiete. Springer, Berlin.

Wootters, W. K. y Zurek, W. H. (1982). A single quantum cannot be cloned. Nature, 299:802–803.

Comentarios

Entradas populares de este blog

Fate of Atlantis, la mayor aventura de nuestra vida

Existe bastante consenso respecto a que las aventuras gráficas que Lucasarts lanzó al mercado entre finales de los 80 y principios de los 90 son las mejores del género. La verdad es que el talento creativo que se reunió en aquella época fue un auténtico espectáculo.  Nombres como Dave Grossman , Tim Schafer y, sobre todo, Ron Gilbert marcaron la industria con títulos inolvidables. A todos nos vienen a la cabeza sin pensarlo mucho los  Maniac Mansion , The Secret of Monkey Island 1 y 2 o Day of the Tentacle . Sin embargo, y aunque adoro los juegos arriba citados, hay otro que en mi opinión se sitúa por encima de estos y constituye la referencia absoluta del género. Me estoy refiriendo por supuesto a Indiana Jones and the Fate of Atlantis . Hal Barwood y Noah Falstein se sacaron de la manga un guión de película -bastante mejor de hecho que el de la última entrega de la franquicia- y clavaron una aventura ambiciosa que brilla con luz propia en todos sus aparta...

Rabia contra la agonía de la luz

Me gustaría poder decir otra cosa; pero lo cierto es que no fue hasta Bloodborne , bien entrado el año 2015, que me metí de lleno en la obra de Hidetaka Miyazaki . Recuerdo el boca a boca de Demon's Souls , recuerdo lo que me costó hacerme con mi copia para PS3  en 2010, y también recuerdo como lo dejé de lado tras muy poco tiempo, frustrado y convencido de que se trataba de un juego mecánicamente roto y totalmente injusto con el jugador. Una suerte de obra de nicho para masoquistas; pero no algo que yo pudiera apreciar y mucho menos disfrutar. Con estas premisas no fue raro que pasara olímpicamente de Dark Souls . Simplemente el juego no entraba en mis planes. En aquella época Skyrim y, sobre todo, Battlefield 3  centraban mi atención. Como digo, hubo que esperar a 2015, con cambio generacional incluido, para que volviera a interesarme por el trabajo de From Software . Fue tangencialmente. No seguí el desarrollo de Project Beast. Tampoco estuve pegado a youtube viendo pr...

Rage against the dying of the light

I would like to tell a different story, but it was not until Bloodborne , in 2015, that I really started enjoying Hidetaka Miyazaki 's games. I remember the word of mouth with Demon's Souls , I also remember how difficult it was to get my copy for PS3 , and on top of all that, I do perfectly remember me putting the game aside, frustrated and convinced that it was mechanically broken, totally unfair with the player. Some short of niche title for super hardcore players, but not something I could appreciate, not to mention enjoy. With these premises it was not strange that I didn't care about Dark Souls. It simply was not in my agenda. By that time Skyrim and Battlefield 3 were my principal focus. As I've said, I had to wait until 2015, with a new generation of consoles in between, before playing again a game from From Software . I was not super fascinated about Project Beast at the beginning, I did not follow the development, someday it was just released and I told mys...