Computadora cuántica versus computadora clásica: quién gana. Computadoras cuánticas

El mundo está al borde de otra revolución cuántica. La primera computadora cuántica resolverá instantáneamente problemas que el dispositivo moderno más potente actualmente tarda años en resolver. ¿Cuáles son estas tareas? ¿Quién se beneficia y quién se ve amenazado por el uso masivo de algoritmos cuánticos? ¿Qué es una superposición de qubits? ¿Cómo aprendió la gente a encontrar la solución óptima sin pasar por billones de opciones? Respondemos estas preguntas bajo el título "Simplemente sobre lo complejo".

Antes de la teoría cuántica, se utilizaba la teoría clásica de la radiación electromagnética. En 1900, el científico alemán Max Planck, que no creía en los cuantos y los consideraba una construcción ficticia y puramente teórica, se vio obligado a admitir que la energía de un cuerpo calentado se emite en porciones: cuantos; Por tanto, los supuestos de la teoría coincidieron con las observaciones experimentales. Y cinco años después, el gran Albert Einstein recurrió al mismo enfoque al explicar el efecto fotoeléctrico: ¡cuando se irradiaba con luz, surgía una corriente eléctrica en los metales! Es poco probable que Planck y Einstein hubieran imaginado que con su trabajo estaban sentando las bases de una nueva ciencia: la mecánica cuántica, que estaría destinada a transformar nuestro mundo más allá del reconocimiento, y que en el siglo XXI los científicos estarían cerca de crear. una computadora cuántica.

Al principio, la mecánica cuántica permitió explicar la estructura del átomo y ayudó a comprender los procesos que ocurren en su interior. En general, el viejo sueño de los alquimistas de transformar los átomos de algunos elementos en átomos de otros (sí, incluso en oro) se ha hecho realidad. Y la famosa fórmula de Einstein E=mc2 condujo al surgimiento de la energía nuclear y, como consecuencia, de la bomba atómica.

Procesador cuántico de cinco qubits de IBM

Además. Gracias al trabajo de Einstein y del físico inglés Paul Dirac, en la segunda mitad del siglo XX se creó un láser, también una fuente cuántica de luz ultrapura recogida en un haz estrecho. La investigación sobre láser ha otorgado el Premio Nobel a más de una docena de científicos, y los propios láseres han encontrado su aplicación en casi todas las áreas de la actividad humana, desde cortadoras industriales y pistolas láser hasta escáneres de códigos de barras y corrección de la visión. Casi al mismo tiempo, se estaban realizando investigaciones activas sobre semiconductores, materiales con los que se puede controlar fácilmente el flujo de corriente eléctrica. Sobre esta base se crearon los primeros transistores; más tarde se convirtieron en los principales elementos de construcción de la electrónica moderna, sin los cuales ya no podemos imaginar nuestras vidas.

El desarrollo de máquinas informáticas electrónicas (computadoras) ha permitido resolver muchos problemas de manera rápida y eficiente. Y la reducción gradual de su tamaño y costo (debido a la producción en masa) allanó el camino para que las computadoras llegaran a todos los hogares. Con la llegada de Internet, nuestra dependencia de los sistemas informáticos, incluso para la comunicación, se ha vuelto aún más fuerte.

Richard Feynman

La dependencia crece, la potencia informática crece constantemente, pero ha llegado el momento de admitir que, a pesar de sus impresionantes capacidades, las computadoras no han podido resolver todos los problemas que estamos dispuestos a plantearles. El famoso físico Richard Feynman fue uno de los primeros en hablar de esto: en 1981, en una conferencia, afirmó que es fundamentalmente imposible calcular con precisión un sistema físico real en computadoras comunes. ¡Se trata de su naturaleza cuántica! Los efectos a microescala se explican fácilmente mediante la mecánica cuántica y muy mal mediante la mecánica clásica a la que estamos acostumbrados: describe el comportamiento de objetos grandes. Fue entonces cuando, como alternativa, Feynman propuso utilizar ordenadores cuánticos para calcular sistemas físicos.

¿Qué es una computadora cuántica y en qué se diferencia de las computadoras a las que estamos acostumbrados? Se trata de cómo presentamos la información.

Si en las computadoras convencionales los bits (ceros y unos) son responsables de esta función, en las computadoras cuánticas son reemplazados por bits cuánticos (abreviados como qubits). El qubit en sí es algo bastante simple. Todavía tiene dos valores fundamentales (o estados, como les gusta decir a la mecánica cuántica) que puede tomar: 0 y 1. Sin embargo, gracias a una propiedad de los objetos cuánticos llamada “superposición”, un qubit puede tomar todos los valores. que son una combinación de los fundamentales. Además, su naturaleza cuántica le permite estar en todos estos estados al mismo tiempo.

Éste es el paralelismo de la computación cuántica con los qubits. Todo sucede a la vez: ya no es necesario revisar todas las opciones posibles para los estados del sistema, y ​​esto es exactamente lo que hace una computadora normal. Buscar en grandes bases de datos, trazar una ruta óptima, desarrollar nuevos fármacos son sólo algunos ejemplos de problemas que pueden resolverse muchas veces más rápido mediante algoritmos cuánticos. Estas son aquellas tareas en las que, para encontrar la respuesta correcta, es necesario pasar por una gran cantidad de opciones.

Además, para describir el estado exacto del sistema ya no se necesitan enormes potencias de cálculo ni cantidades de RAM, porque para calcular un sistema de 100 partículas bastan 100 qubits y no billones de billones de bits. Además, a medida que aumenta el número de partículas (como en los sistemas complejos reales), esta diferencia se vuelve aún más significativa.

Uno de los problemas de enumeración se destacó por su aparente inutilidad: descomponer números grandes en factores primos (es decir, divisibles sólo por ellos mismos y por uno). Esto se llama "factorización". El hecho es que las computadoras comunes pueden multiplicar números con bastante rapidez, incluso los muy grandes. Sin embargo, las computadoras convencionales resuelven muy mal el problema inverso de descomponer un gran número resultante de multiplicar dos números primos en sus factores originales. Por ejemplo, para factorizar un número de 256 dígitos en dos factores, incluso la computadora más poderosa necesitará más de una docena de años. Pero en 1997 el matemático inglés Peter Shor inventó un algoritmo cuántico que puede resolver este problema en unos pocos minutos.

Con la aparición del algoritmo de Shor, la comunidad científica se enfrentó a un grave problema. A finales de la década de 1970, basándose en la complejidad del problema de factorización, los criptografistas crearon un algoritmo de cifrado de datos que se ha generalizado. En particular, con la ayuda de este algoritmo comenzaron a proteger datos en Internet: contraseñas, correspondencia personal, transacciones bancarias y financieras. Y después de muchos años de uso exitoso, de repente resultó que la información cifrada de esta manera se convierte en un objetivo fácil para el algoritmo de Shor que se ejecuta en una computadora cuántica. El descifrado con su ayuda se convierte en cuestión de minutos. Una cosa era buena: aún no se había creado una computadora cuántica en la que se pudiera ejecutar el algoritmo mortal.

Mientras tanto, en todo el mundo, decenas de grupos científicos y laboratorios comenzaron a realizar estudios experimentales sobre los qubits y las posibilidades de crear una computadora cuántica a partir de ellos. Después de todo, una cosa es inventar teóricamente un qubit y otra muy distinta hacerlo realidad. Para ello, era necesario encontrar un sistema físico adecuado con dos niveles cuánticos que pudieran utilizarse como estados base del qubit: cero y uno. El propio Feynman, en su artículo pionero, propuso utilizar fotones retorcidos en diferentes direcciones para estos fines, pero los primeros qubits creados experimentalmente fueron iones capturados en trampas especiales en 1995. A los iones les siguieron muchas otras implementaciones físicas: núcleos atómicos, electrones, fotones, defectos en cristales, circuitos superconductores: todos cumplían los requisitos.

Esta diversidad tenía sus méritos. Impulsados ​​por una intensa competencia, varios grupos científicos crearon qubits cada vez más avanzados y construyeron circuitos cada vez más complejos a partir de ellos. Había dos parámetros competitivos principales para los qubits: su vida útil y la cantidad de qubits que podían funcionar juntos.

Empleados del Laboratorio de Sistemas Cuánticos Artificiales

La vida útil de los qubits determinaba durante cuánto tiempo se almacenaba en ellos el frágil estado cuántico. Esto, a su vez, determinó cuántas operaciones computacionales se podían realizar en el qubit antes de que "muriera".

Para el funcionamiento eficiente de los algoritmos cuánticos no se necesitaba un qubit, sino al menos cien, y trabajando juntos. El problema fue que a los qubits no les gustaba mucho estar uno al lado del otro y protestaron reduciendo drásticamente su vida útil. Para solucionar esta incompatibilidad de los qubits, los científicos tuvieron que recurrir a todo tipo de trucos. Y, sin embargo, hasta la fecha, los científicos han logrado que un máximo de una o dos docenas de qubits funcionen juntos.

Así pues, para deleite de los criptógrafos, el ordenador cuántico sigue siendo cosa del futuro. Aunque no está tan lejos como podría parecer, porque tanto las corporaciones más grandes como Intel, IBM y Google, como los estados individuales, para los cuales la creación de una computadora cuántica es una cuestión de importancia estratégica, están participó activamente en su creación.

No te pierdas la conferencia:

29 de enero de 2017

Para mí, la frase “computadora cuántica” es comparable, por ejemplo, a “motor de fotones”, es decir, es algo muy complejo y fantástico. Sin embargo, ahora leo en las noticias: “Se está vendiendo una computadora cuántica a cualquiera que la quiera”. Es extraño, ¿ahora quieren decir algo más con esta expresión o es simplemente falsa?

Echemos un vistazo más de cerca...


¿CÓMO EMPEZÓ TODO?

No fue hasta mediados de la década de 1990 que la teoría de las computadoras cuánticas y la computación cuántica se estableció como un nuevo campo de la ciencia. Como suele ocurrir con las grandes ideas, es difícil identificar al creador. Al parecer, el matemático húngaro J. von Neumann fue el primero en llamar la atención sobre la posibilidad de desarrollar la lógica cuántica. Sin embargo, en aquel momento aún no se habían creado no sólo los ordenadores cuánticos, sino también los clásicos ordinarios. Y con la llegada de este último, los principales esfuerzos de los científicos se dirigieron principalmente a encontrar y desarrollar nuevos elementos para ellos (transistores y luego circuitos integrados), y no a crear dispositivos informáticos fundamentalmente diferentes.


En la década de 1960, el físico estadounidense R. Landauer, que trabajaba en IBM, intentó llamar la atención del mundo científico sobre el hecho de que los cálculos son siempre algún proceso físico, lo que significa que es imposible comprender los límites de nuestras capacidades informáticas sin especificando a qué implementación física corresponden. Lamentablemente, en aquella época, la opinión dominante entre los científicos era que el cálculo era una especie de procedimiento lógico abstracto que debía ser estudiado por matemáticos, no por físicos.

A medida que los ordenadores se generalizaron, los científicos cuánticos llegaron a la conclusión de que era prácticamente imposible calcular directamente el estado de un sistema en evolución formado por sólo unas pocas docenas de partículas en interacción, como una molécula de metano (CH4). Esto se explica por el hecho de que para describir completamente un sistema complejo, es necesario mantener en la memoria de la computadora un número exponencialmente grande (en términos de número de partículas) de variables, las llamadas amplitudes cuánticas. Ha surgido una situación paradójica: conociendo la ecuación de la evolución, conociendo con suficiente precisión todos los potenciales de interacción de las partículas entre sí y el estado inicial del sistema, es casi imposible calcular su futuro, incluso si el sistema consta únicamente de 30 electrones en un pozo de potencial y se dispone de una supercomputadora con RAM, cuyo número de bits es igual al número de átomos en la región visible del Universo (!). Y al mismo tiempo, para estudiar la dinámica de dicho sistema, simplemente puede realizar un experimento con 30 electrones, colocándolos en un potencial y un estado inicial determinados. Esto, en particular, lo señaló el matemático ruso Yu I. Manin, quien en 1980 señaló la necesidad de desarrollar una teoría de los dispositivos de computación cuántica. En la década de 1980, el mismo problema fue estudiado por el físico estadounidense P. Benev, quien demostró claramente que un sistema cuántico puede realizar cálculos, así como por el científico inglés D. Deutsch, quien teóricamente desarrolló una computadora cuántica universal superior a su contraparte clásica.

El premio Nobel de Física R. Feynman llamó mucho la atención sobre el problema del desarrollo de ordenadores cuánticos. Gracias a su autoridad, el número de especialistas que prestaron atención a la computación cuántica se multiplicó.


La base del algoritmo de Shor: la capacidad de los qubits para almacenar múltiples valores simultáneamente)

Sin embargo, durante mucho tiempo no estuvo claro si la hipotética potencia de cálculo de una computadora cuántica podría usarse para acelerar la solución de problemas prácticos. Pero en 1994, el matemático estadounidense y empleado de Lucent Technologies (EE. UU.), P. Shor, sorprendió al mundo científico al proponer un algoritmo cuántico que permite la factorización rápida de grandes números (la importancia de este problema ya se discutió en la introducción). En comparación con el mejor método clásico conocido hoy en día, el algoritmo cuántico de Shor proporciona una aceleración múltiple de los cálculos, y cuanto más largo sea el número factorizado, mayor será la ganancia de velocidad. El algoritmo de factorización rápida es de gran interés práctico para varias agencias de inteligencia que han acumulado bancos de mensajes no descifrados.

En 1996, L. Grover, colega de Shore en Lucent Technologies, propuso un algoritmo cuántico para una búsqueda rápida en una base de datos desordenada. (Un ejemplo de una base de datos de este tipo es una guía telefónica en la que los nombres de los suscriptores no están ordenados alfabéticamente, sino de forma arbitraria). La tarea de buscar y seleccionar el elemento óptimo entre numerosas opciones se encuentra muy a menudo en los sectores económico, militar, problemas de ingeniería y en juegos de computadora. El algoritmo de Grover permite no sólo acelerar el proceso de búsqueda, sino también aproximadamente duplicar el número de parámetros que se tienen en cuenta al elegir el óptimo.

La creación real de computadoras cuánticas se vio obstaculizada esencialmente por el único problema grave: errores o interferencias. El hecho es que el mismo nivel de interferencia estropea el proceso de la computación cuántica mucho más intensamente que la computación clásica.


Para decirlo en palabras simples: " un sistema cuántico produce un resultado que es correcto sólo con cierta probabilidad. En otras palabras, si cuentas 2+2, entonces 4 solo saldrá con cierto grado de precisión. Nunca obtendrás exactamente 4. La lógica de su procesador no se parece en nada al procesador al que estamos acostumbrados.

Existen métodos para calcular el resultado con una precisión predeterminada, naturalmente con un aumento del tiempo de computadora.
Esta característica determina la lista de tareas. Y esta característica no se anuncia, y el público tiene la impresión de que una computadora cuántica es lo mismo que una PC normal (los mismos 0 y 1), solo que es rápida y costosa. Esto es fundamentalmente falso.

Sí, y una cosa más: para una computadora cuántica y la computación cuántica en general, especialmente para utilizar la "potencia y la velocidad" de la computación cuántica, se necesitan algoritmos y modelos especiales desarrollados específicamente para las características específicas de la computación cuántica. Por lo tanto, la dificultad de utilizar una computadora cuántica radica no solo en la disponibilidad de hardware, sino también en el desarrollo de nuevos métodos de cálculo, hasta ahora no utilizados. "

Y ahora volvamos a la implementación práctica de una computadora cuántica: ¡¡¡un procesador comercial D-Wave de 512 qubit ya existe desde hace algún tiempo e incluso se vende!!!

¡¡¡Parece que esto es un verdadero avance!!! Y un grupo de científicos de renombre en la igualmente reputada revista Physical Review testifica de manera convincente que efectivamente se han descubierto efectos de entrelazamiento cuántico en D-Wave.

En consecuencia, este dispositivo tiene todo el derecho a ser llamado una verdadera computadora cuántica; su arquitectura permite un mayor aumento en el número de qubits y, por lo tanto, tiene maravillosas perspectivas para el futuro... (T. Lanting et al. Entanglement in un procesador de recocido cuántico. REVISIÓN FÍSICA X 4, 021041 (2014) (http://dx.doi.org/10.1103/PhysRevX.4.021041))

Es cierto que, un poco más tarde, otro grupo de científicos de renombre en la no menos reputada revista Science, que estudió el mismo sistema informático D-Wave, lo evaluó de forma puramente práctica: qué tan bien este dispositivo realiza sus funciones informáticas. Y este grupo de científicos demuestra, de manera tan completa y convincente como el primero, que en pruebas reales de verificación, óptimamente adaptadas a este diseño, el ordenador cuántico D-Wave no proporciona ningún aumento de velocidad en comparación con los ordenadores clásicos convencionales. (T.F. Ronnow, M. Troyer et al. Definición y detección de aceleración cuántica. SCIENCE, junio de 2014 Vol. 344 #6190 (http://dx.doi.org/10.1126/science.1252319))

De hecho, no había tareas para la costosa pero especializada “máquina del futuro” en las que pudiera demostrar su superioridad cuántica. En otras palabras, el significado mismo de los costosos esfuerzos para crear un dispositivo de este tipo está en gran duda...
Los resultados son los siguientes: ahora en la comunidad científica ya no hay duda de que en el procesador de computadora D-Wave el funcionamiento de los elementos realmente se produce sobre la base de efectos cuánticos reales entre qubits.

Pero (y esto es un PERO extremadamente serio) las características clave en el diseño del procesador D-Wave son tales que durante el funcionamiento real, toda su física cuántica no proporciona ninguna ganancia en comparación con una computadora poderosa ordinaria que tiene un software especial diseñado para resolver problemas de optimización.

En pocas palabras, los científicos que prueban D-Wave hasta ahora no solo no han podido ver un solo problema del mundo real en el que una computadora cuántica pueda demostrar de manera convincente su superioridad computacional, sino que incluso la propia empresa fabricante no tiene idea de cuál podría ser ese problema. ..

Se trata de las características de diseño del procesador D-Wave de 512 qubits, que se ensambla a partir de grupos de 8 qubits. Al mismo tiempo, dentro de estos grupos de 8 qubits, todos se comunican directamente entre sí, pero entre estos grupos las conexiones son muy débiles (lo ideal es que TODOS los qubits del procesador se comuniquen directamente entre sí). Esto, por supuesto, reduce MUY significativamente la complejidad de construir un procesador cuántico... PERO, esto da lugar a muchos otros problemas que, en última instancia, resultan en equipos criogénicos, cuyo funcionamiento es muy costoso, que enfrían el circuito a niveles ultrabajos. temperaturas.

Entonces, ¿qué nos ofrecen ahora?

La empresa canadiense D-Wave anunció el inicio de las ventas de su computadora cuántica D-Wave 2000Q, anunciada en septiembre del año pasado. Siguiendo su propia versión de la Ley de Moore, según la cual el número de transistores en un circuito integrado se duplica cada dos años, D-Wave colocó 2.048 qubits en la QPU (unidad de procesamiento cuántico). La dinámica de crecimiento del número de qubits en una CPU en los últimos años se ve así:

2007 — 28

— 2013 — 512
— 2014 — 1024
— 2016 — 2048.

Además, a diferencia de los procesadores, CPU y GPU tradicionales, la duplicación de qubits no va acompañada de un aumento del doble, sino de 1000 veces. En comparación con una computadora con una arquitectura tradicional y una configuración de CPU de un solo núcleo y GPU de 2500 núcleos, la diferencia en el rendimiento es de 1000 a 10 000 veces. Todas estas cifras son ciertamente impresionantes, pero hay algunos “peros”.

En primer lugar, el D-Wave 2000Q es extremadamente caro: 15 millones de dólares. Es un dispositivo bastante grande y complejo. Su cerebro es una CPU hecha de un metal no ferroso llamado niobio, cuyas propiedades superconductoras (necesarias para las computadoras cuánticas) ocurren en el vacío a temperaturas cercanas al cero absoluto por debajo de 15 mikelvin (es decir, 180 veces menor que la temperatura en el espacio exterior).

Mantener una temperatura tan extremadamente baja requiere mucha energía, 25 kW. Pero aún así, según el fabricante, esto es 100 veces menor que el rendimiento equivalente de los superordenadores tradicionales. Así, el rendimiento del D-Wave 2000Q por vatio de consumo de energía es 100 veces mayor. Si la empresa logra seguir cumpliendo su “Ley de Moore”, en sus futuros ordenadores esta diferencia crecerá exponencialmente, manteniendo el consumo de energía en el nivel actual.

En primer lugar, las computadoras cuánticas tienen un propósito muy específico. En el caso del D-Wave 2000Q estamos hablando del llamado. Computadoras adiabáticas y resolución de problemas de normalización cuántica. Surgen en particular en las siguientes áreas:

Aprendizaje automático:

Detección de anomalías estadísticas
— encontrar modelos comprimidos
— reconocimiento de imágenes y patrones
— entrenamiento de redes neuronales
— verificación y aprobación del software
— clasificación de datos sin estructura
— diagnóstico de errores en el circuito

Seguridad y planificación

Detección de virus y hackeo de redes.
— distribución de recursos y búsqueda de caminos óptimos
— determinación de la pertenencia a un conjunto
— análisis de las propiedades del gráfico
— factorización de números enteros (utilizada en criptografía)

Modelado financiero

Detectar la inestabilidad del mercado
— desarrollo de estrategias comerciales
— optimización de las trayectorias comerciales
— optimización de la fijación de precios y cobertura de activos
— optimización de la cartera

Salud y medicina

Detección de fraude (probablemente relacionado con el seguro médico)
— generación de terapia farmacológica dirigida (“dirigida molecularmente”)
— optimización del tratamiento [del cáncer] mediante radioterapia
— creación de modelos proteicos.

El primer comprador del D-Wave 2000Q fue TDS (Temporal Defense Systems), una empresa dedicada al campo de la ciberseguridad. En general, los productos D-Wave son utilizados por empresas e instituciones como Lockheed Martin, Google, el Centro de Investigación Ames de la NASA, la Universidad del Sur de California y el Laboratorio Nacional de Los Álamos del Departamento de Energía de Estados Unidos.

Por lo tanto, estamos hablando de una tecnología poco común (D-Wave es la única empresa en el mundo que produce muestras comerciales de computadoras cuánticas) y costosa con una aplicación bastante limitada y específica. Pero la tasa de crecimiento de su productividad es asombrosa, y si esta dinámica continúa, gracias a las computadoras adiabáticas de D-Wave (a las que otras empresas pueden unirse con el tiempo), podemos esperar verdaderos avances en ciencia y tecnología en los próximos años. De particular interés es la combinación de los ordenadores cuánticos con una tecnología tan prometedora y de rápido desarrollo como la inteligencia artificial, sobre todo porque un especialista tan autorizado como Andy Rubin ve el futuro en esto.

Sí, por cierto, ¿sabías que IBM Corporation permitió a los usuarios de Internet conectarse de forma gratuita a la computadora cuántica universal que construyó y experimentar con algoritmos cuánticos? El dispositivo no será lo suficientemente potente como para romper los sistemas criptográficos de clave pública, pero si los planes de IBM se hacen realidad, computadoras cuánticas más sofisticadas están a la vuelta de la esquina.

El ordenador cuántico que IBM ha puesto a disposición contiene cinco qubits: cuatro se utilizan para trabajar con datos y el quinto se utiliza para corregir errores durante los cálculos. La corrección de errores es la principal innovación de la que están orgullosos sus desarrolladores. Facilitará el aumento del número de qubits en el futuro.

IBM enfatiza que su computadora cuántica es universal y es capaz de ejecutar cualquier algoritmo cuántico. Esto lo distingue de los ordenadores cuánticos adiabáticos que está desarrollando D-Wave. Las computadoras cuánticas adiabáticas están diseñadas para encontrar la solución óptima de funciones y no son adecuadas para otros fines.

Se cree que las computadoras cuánticas universales permitirán resolver algunos problemas que las computadoras convencionales no pueden resolver. El ejemplo más famoso de este problema es el de factorizar números en factores primos. A una computadora común y corriente, incluso una muy rápida, le tomaría cientos de años encontrar los factores primos de un número grande. Una computadora cuántica los encontrará usando el algoritmo de Shor casi tan rápido como multiplicando números enteros.

La incapacidad de descomponer rápidamente números en factores primos es la base de los sistemas criptográficos de clave pública. Si aprenden a realizar esta operación a la velocidad que prometen los algoritmos cuánticos, entonces habrá que olvidar la mayor parte de la criptografía moderna.

Es posible ejecutar el algoritmo de Shor en una computadora cuántica de IBM, pero hasta que no haya más qubits, esto será de poca utilidad. En los próximos diez años esto cambiará. Para 2025, IBM planea construir una computadora cuántica que contenga entre cincuenta y cien qubits. Según los expertos, incluso con cincuenta qubits, los ordenadores cuánticos podrán resolver algunos problemas prácticos.

Aquí hay más información interesante sobre la tecnología informática: lea cómo, pero también resulta que es posible y qué es.

Una computadora cuántica es un dispositivo informático que utiliza los fenómenos de superposición cuántica y entrelazamiento cuántico para transmitir y procesar datos. Una computadora cuántica universal en toda regla sigue siendo un dispositivo hipotético, cuya posibilidad misma de construir está asociada con el desarrollo serio de la teoría cuántica en el campo de muchas partículas y experimentos complejos; Los avances en esta área están asociados con los últimos descubrimientos y logros de la física moderna. Hasta la fecha, sólo se han implementado prácticamente unos pocos sistemas experimentales que ejecutan un algoritmo fijo de baja complejidad.

Como escriben los editores de Science Alert, un grupo de especialistas de la Universidad de Viena logró desarrollar el primer enrutador cuántico de la historia e incluso realizó las primeras pruebas del nuevo dispositivo. Este es el primer dispositivo que no sólo puede recibir fotones entrelazados, sino también transmitirlos. Además, el circuito utilizado en el enrutador podría convertirse en la base para la creación de una Internet cuántica.

La cantidad de información en el mundo aumenta anualmente un 30%. Sólo en los últimos cinco años, la humanidad ha estado producido más datos que en toda la historia anterior. Están surgiendo sistemas de Internet de las cosas, en los que cada sensor envía y recibe enormes cantidades de datos cada segundo, y los analistas predicen que la cantidad de cosas conectadas a Internet pronto superará la cantidad de usuarios humanos. Estas colosales cantidades de información deben almacenarse en algún lugar y procesarse de alguna manera.

Ahora ya existen supercomputadores con una capacidad de más de 50 petaflops (1 petaflops = mil billones de operaciones por segundo). Sin embargo, tarde o temprano llegaremos al límite físico de la potencia posible de los procesadores. Por supuesto, las supercomputadoras aún podrán crecer en tamaño, pero esto no es una solución al problema, ya que el tamaño eventualmente alcanzará sus límites. Según los científicos, la ley de Moore pronto dejará de aplicarse y la humanidad necesitará dispositivos y tecnologías de procesamiento de datos nuevos y mucho más potentes. Por lo tanto, las grandes empresas de TI ya están trabajando en la creación de un tipo de computadora revolucionario completamente nuevo, cuya potencia será cientos de veces mayor que la que tenemos hoy. Esta es una computadora cuántica. Los expertos prometen que gracias a él será posible encontrar una cura para el cáncer, encontrar delincuentes instantáneamente analizando las imágenes de las cámaras y simular moléculas de ADN. Ahora es difícil imaginar qué otros problemas podrá resolver.

Microsoft está tratando de estar a la vanguardia del desarrollo en esta área, estudiándola durante veinte años, porque quien sea el primero en crear una computadora cuántica obtendrá una ventaja competitiva innegable. Además, la empresa no sólo está trabajando en la creación de hardware, sino que también ha introducido recientemente un lenguaje de programación que los desarrolladores pueden utilizar. De hecho, muy pocas personas pueden presumir de entender los principios de funcionamiento de este revolucionario dispositivo; para la mayoría de nosotros es algo sacado de la ciencia ficción; Entonces, ¿qué es él?

Una de las partes más importantes de una computadora, de la que depende directamente su potencia, es el procesador, que, a su vez, consta de una gran cantidad de transistores. Los transistores son las partes más simples del sistema, son algo similares a los interruptores y solo pueden estar en dos posiciones: "encendido" o "apagado". Es a partir de combinaciones de estas posiciones que se forma el código binario, formado por ceros y unos, en el que se basan todos los lenguajes de programación.

En consecuencia, cuanto más potente es la computadora, más transistores se necesitan para su funcionamiento. Los fabricantes reducen constantemente su tamaño, tratando de incluir tantos como sea posible en los procesadores. Por ejemplo, hay miles de millones de ellos en la nueva Xbox One X.

Ahora el tamaño de un transistor es de 10 milimicrones, es decir, una cienmilésima de milímetro. Pero un día se alcanzará un límite físico menor que el cual el transistor simplemente no podrá fabricarse. Para evitar una crisis en el desarrollo de las tecnologías de la información, los científicos están trabajando en la creación de una computadora que funcionará según un principio completamente diferente: el cuántico. Los transistores que formarán una computadora cuántica pueden estar en dos posiciones al mismo tiempo: "encendido" y "apagado" y, en consecuencia, pueden ser uno y cero a la vez, esto se llama "superposición".

Si tomamos 4 transistores estándar (bits), entonces, trabajando juntos, pueden crear 16 combinaciones diferentes de unos y ceros. Uno a la vez.

Si consideramos 4 transistores cuánticos (qubits), entonces pueden tener 16 combinaciones al mismo tiempo. ¡Esto supone un gran ahorro de espacio y tiempo!

Pero, por supuesto, crear qubits es muy, muy difícil. Los científicos tienen que lidiar con partículas subatómicas que obedecen las leyes de la mecánica cuántica, desarrollando un enfoque completamente nuevo para la programación y el lenguaje.

Hay diferentes tipos de qubits. Los expertos de Microsoft, por ejemplo, están trabajando en la creación de qubits topológicos. Son increíblemente frágiles y fácilmente destruidos por las más mínimas ondas sonoras o radiación térmica. Para un funcionamiento estable, deben estar constantemente a una temperatura de –273°C. Sin embargo, también tienen una serie de ventajas sobre otros tipos: la información almacenada en ellos está prácticamente libre de errores y, en consecuencia, una computadora cuántica creada sobre la base de qubits topológicos será un sistema ultra confiable.

La computadora cuántica de Microsoft consta de tres niveles principales: el primer nivel es la computadora cuántica en sí, que contiene qubits y se encuentra constantemente a una temperatura cercana al cero absoluto; el siguiente nivel es una computadora criogénica; este es también un tipo de computadora completamente nuevo que controla la tecnología cuántica y opera a una temperatura de –268°C; el último nivel es una computadora, en la que una persona ya puede trabajar y controla todo el sistema. Estas computadoras serán entre 100 y 300 veces más potentes que las supercomputadoras más avanzadas que existen en la actualidad.

Hoy en día, el mundo está más cerca que nunca de la invención de una computadora cuántica real: existe una comprensión del principio de su funcionamiento, prototipos. Y en el momento en que la capacidad de los ordenadores convencionales para procesar toda la información existente en la Tierra deje de ser suficiente, aparecerá un ordenador cuántico, que marcará una era completamente nueva de la tecnología digital.

Hace apenas cinco años, sólo los especialistas en el campo de la física cuántica conocían los ordenadores cuánticos. Sin embargo, en los últimos años el número de publicaciones en Internet y en publicaciones especializadas dedicadas a la computación cuántica ha aumentado exponencialmente. El tema de la computación cuántica se ha vuelto popular y ha generado muchas opiniones diferentes, que no siempre se corresponden con la realidad.
En este artículo intentaremos hablar lo más claramente posible sobre qué es una computadora cuántica y en qué etapa se encuentran los desarrollos modernos en esta área.

Capacidades limitadas de las computadoras modernas.

A menudo se habla de las computadoras cuánticas y la computación cuántica como una alternativa a las tecnologías de silicio para la creación de microprocesadores, lo cual, en general, no es del todo cierto. En realidad, ¿por qué tenemos que buscar una alternativa a la tecnología informática moderna? Como muestra toda la historia de la industria informática, la potencia informática de los procesadores está aumentando exponencialmente. Ninguna otra industria se está desarrollando a un ritmo tan rápido. Como regla general, cuando se habla de la tasa de crecimiento de la potencia informática de los procesadores, se recuerda la llamada ley de Gordon Moore, formulada en abril de 1965, es decir, apenas seis años después de la invención del primer circuito integrado (CI). .

A petición de la revista Electronics, Gordon Moore escribió un artículo dedicado al 35 aniversario de la publicación. Hizo una predicción sobre cómo se desarrollarán los dispositivos semiconductores en los próximos diez años. Tras analizar el ritmo de desarrollo de los dispositivos semiconductores y los factores económicos durante los últimos seis años, es decir, desde 1959, Gordon Moore sugirió que en 1975 el número de transistores en un circuito integrado sería de 65 mil.

De hecho, según el pronóstico de Moore, se esperaba que el número de transistores en un solo chip aumentara más de mil veces en diez años. Al mismo tiempo, esto significó que cada año el número de transistores en un chip tenía que duplicarse.

Posteriormente, se hicieron ajustes a la ley de Moore (para correlacionarla con la realidad), pero el significado no cambió: el número de transistores en los microcircuitos aumenta exponencialmente. Naturalmente, aumentar la densidad de los transistores en un chip sólo es posible reduciendo el tamaño de los propios transistores. En este sentido, una pregunta relevante es: ¿hasta qué punto se puede reducir el tamaño de los transistores? Actualmente, las dimensiones de los elementos individuales de los transistores en los procesadores son comparables a las atómicas, por ejemplo, el ancho de la capa de dióxido que separa la puerta dieléctrica del canal de transferencia de carga es de sólo unas pocas decenas de capas atómicas; Está claro que existe un límite puramente físico que hace imposible reducir aún más el tamaño de los transistores. Incluso si asumimos que en el futuro tendrán una geometría y arquitectura ligeramente diferentes, es teóricamente imposible crear un transistor o elemento similar con un tamaño inferior a 10 -8 cm (el diámetro de un átomo de hidrógeno) y un funcionamiento frecuencia de más de 10 15 Hz (la frecuencia de las transiciones atómicas). Por lo tanto, nos guste o no, es inevitable el día en que la Ley de Moore tendrá que ser archivada (a menos, por supuesto, que se corrija una vez más).

Las posibilidades limitadas para aumentar la potencia informática de los procesadores reduciendo el tamaño de los transistores es sólo uno de los cuellos de botella de los procesadores de silicio clásicos.

Como veremos más adelante, los ordenadores cuánticos no representan en modo alguno un intento de resolver el problema de la miniaturización de los elementos básicos de los procesadores.

Resolver el problema de la miniaturización de los transistores, la búsqueda de nuevos materiales para crear la base elemental de la microelectrónica, la búsqueda de nuevos principios físicos para dispositivos con dimensiones características comparables a la longitud de onda de De Broglie, que tiene un valor de aproximadamente 20 nm: estas cuestiones han estado en la agenda durante casi dos décadas. Como resultado de su solución, se desarrolló la nanotecnología. Un problema grave al que se enfrenta durante la transición al campo de los dispositivos nanoelectrónicos es la reducción de la disipación de energía durante las operaciones computacionales. La idea de la posibilidad de operaciones "lógicamente reversibles" que no vayan acompañadas de disipación de energía fue expresada por primera vez por R. Landauer en 1961. Charles Bennett dio un paso importante en la solución de este problema en 1982, quien demostró teóricamente que una computadora digital universal puede construirse sobre puertas lógica y termodinámicamente reversibles de tal manera que la energía se disipe solo debido a procesos periféricos irreversibles de entrada de información. en la máquina ( preparación del estado inicial) y, en consecuencia, salida de ella (lectura del resultado). Las válvulas universales reversibles típicas incluyen válvulas Fredkin y Toffoli.

Otro problema de las computadoras clásicas radica en la propia arquitectura de von Neumann y la lógica binaria de todos los procesadores modernos. Todas las computadoras, desde el motor analítico de Charles Babbage hasta las supercomputadoras modernas, se basan en los mismos principios (arquitectura von Neumann) que se desarrollaron allá por los años 40 del siglo pasado.

Cualquier computadora a nivel de software opera con bits (variables que toman el valor 0 o 1). Utilizando puertas lógicas, se realizan operaciones lógicas en bits, lo que permite obtener un determinado estado final en la salida. El cambio de estado de las variables se realiza mediante un programa que define una secuencia de operaciones, cada una de las cuales utiliza una pequeña cantidad de bits.

Los procesadores tradicionales ejecutan programas de forma secuencial. A pesar de la existencia de sistemas multiprocesador, procesadores multinúcleo y diversas tecnologías destinadas a aumentar el nivel de paralelismo, todas las computadoras construidas sobre la base de la arquitectura von Neumann son dispositivos con un modo secuencial de ejecución de instrucciones. Todos los procesadores modernos implementan el siguiente algoritmo para procesar comandos y datos: recuperar comandos y datos de la memoria y ejecutar instrucciones sobre los datos seleccionados. Este ciclo se repite muchas veces y a una velocidad tremenda.

Sin embargo, la arquitectura von Neumann limita la capacidad de aumentar la potencia informática de las PC modernas. Un ejemplo típico de una tarea que está más allá de las capacidades de las PC modernas es la descomposición de un número entero en factores primos (un factor primo es un factor que es divisible por sí mismo y por 1 sin resto).

Si quieres factorizar un número en factores primos incógnita, teniendo norte caracteres en notación binaria, entonces la forma obvia de resolver este problema es intentar dividirlo secuencialmente en números del 2 al. Para hacer esto, tendrás que pasar por 2 n/2 opciones. Por ejemplo, si está considerando un número que tiene 100.000 caracteres (en notación binaria), necesitará pasar por 3x10 15.051 opciones. Si asumimos que se requiere un ciclo de procesador para una búsqueda, entonces a una velocidad de 3 GHz, se necesitará un tiempo mayor que la edad de nuestro planeta para buscar todos los números. Sin embargo, existe un algoritmo inteligente que resuelve el mismo problema en exp( norte 1/3) pasos, pero incluso en este caso ni un solo superordenador moderno puede hacer frente a la tarea de factorizar un número de un millón de cifras.

El problema de factorizar un número en factores primos pertenece a la clase de problemas que se dice que no se resuelven en tiempo polinomial (problema NP-completo - tiempo polinomial completo no determinista). Estos problemas se incluyen en la clase de problemas no computables en el sentido de que no pueden resolverse en computadoras clásicas en un polinomio de tiempo que depende del número de bits. norte, que representa la tarea. Si hablamos de factorizar un número en factores primos, a medida que aumenta el número de bits, el tiempo necesario para resolver el problema aumenta exponencialmente, no polinómicamente.

De cara al futuro, observamos que la computación cuántica está asociada con las perspectivas de resolver problemas NP-completos en tiempo polinomial.

Física cuántica

Por supuesto, la física cuántica está vagamente relacionada con lo que se llama la base elemental de las computadoras modernas. Sin embargo, cuando se habla de una computadora cuántica, es simplemente imposible no mencionar algunos términos específicos de la física cuántica. Sabemos que no todo el mundo ha estudiado el legendario tercer volumen de "Física teórica" ​​de L.D. Landau y E.M. Lifshitz, y para muchos conceptos como la función de onda y la ecuación de Schrödinger son algo del otro mundo. En cuanto al aparato matemático específico de la mecánica cuántica, se trata de fórmulas sólidas y palabras oscuras. Por lo tanto, intentaremos ceñirnos a un nivel de presentación generalmente accesible, evitando, si es posible, el análisis tensorial y otras particularidades de la mecánica cuántica.

Para la gran mayoría de la gente, la mecánica cuántica está más allá de la comprensión. La cuestión no está tanto en el complejo aparato matemático, sino en el hecho de que las leyes de la mecánica cuántica son ilógicas y no tienen una asociación subconsciente: son imposibles de imaginar. Sin embargo, el análisis de la falta de lógica de la mecánica cuántica y el nacimiento paradójico de la lógica armoniosa a partir de esta falta de lógica es el destino de los filósofos; abordaremos aspectos de la mecánica cuántica sólo en la medida necesaria para comprender la esencia de la computación cuántica.

La historia de la física cuántica comenzó el 14 de diciembre de 1900. Ese día, el físico alemán y futuro premio Nobel Max Planck informó en una reunión de la Sociedad de Física de Berlín sobre el descubrimiento fundamental de las propiedades cuánticas de la radiación térmica. Así apareció en la física el concepto de cuanto de energía y, entre otras constantes fundamentales, la constante de Planck.

El descubrimiento de Planck y la teoría del efecto fotoeléctrico de Albert Einstein, que apareció entonces en 1905, así como la creación en 1913 de la primera teoría cuántica de los espectros atómicos por parte de Niels Bohr, estimularon la creación y un mayor desarrollo rápido de la teoría cuántica y los estudios experimentales de la cuántica. fenómenos.

Ya en 1926, Erwin Schrödinger formuló su famosa ecuación de onda, y Enrico Fermi y Paul Dirac obtuvieron una distribución estadística cuántica para el gas de electrones, teniendo en cuenta el llenado de los estados cuánticos individuales.

En 1928, Felix Bloch analizó el problema de la mecánica cuántica del movimiento de un electrón en un campo periódico externo de una red cristalina y demostró que el espectro de energía electrónica en un sólido cristalino tiene una estructura de bandas. De hecho, este fue el comienzo de una nueva dirección en la física: la teoría del estado sólido.

Todo el siglo XX es un período de intenso desarrollo de la física cuántica y de todas aquellas ramas de la física de las cuales la teoría cuántica se convirtió en su progenitora.

El surgimiento de la computación cuántica

La idea de utilizar la computación cuántica fue expresada por primera vez por el matemático soviético Yu.I. Manin en 1980 en su famosa monografía “Computable e Incomputable”. Es cierto que el interés por su trabajo surgió sólo dos años después, en 1982, tras la publicación de un artículo sobre el mismo tema por parte del físico teórico estadounidense, premio Nobel Richard Feynman. Observó que ciertas operaciones de la mecánica cuántica no se pueden transferir exactamente a una computadora clásica. Esta observación le llevó a creer que tales cálculos podrían ser más eficientes si se llevaran a cabo mediante operaciones cuánticas.

Consideremos, por ejemplo, el problema de la mecánica cuántica de cambiar el estado de un sistema cuántico que consta de norte gira durante un cierto período de tiempo. Sin profundizar en los detalles del aparato matemático de la teoría cuántica, observamos que el estado general del sistema desde norte los espines se describen mediante un vector en un espacio complejo de 2n dimensiones, y el cambio en su estado se describe mediante una matriz unitaria de tamaño 2nx2n. Si el período de tiempo considerado es muy corto, entonces la matriz está estructurada de manera muy simple y cada uno de sus elementos es fácil de calcular, conociendo la interacción entre espines. Si necesita conocer el cambio en el estado del sistema durante un largo período de tiempo, entonces necesita multiplicar dichas matrices, y esto requiere una cantidad exponencialmente grande de operaciones. Nuevamente nos enfrentamos a un problema PN completo, irresoluble en tiempo polinomial en computadoras clásicas. Actualmente no hay forma de simplificar este cálculo y es probable que simular la mecánica cuántica sea un problema matemático exponencialmente difícil. Pero si los ordenadores clásicos no son capaces de resolver problemas cuánticos, ¿quizás sería aconsejable utilizar el propio sistema cuántico para este fin? Y si esto es realmente posible, ¿son los sistemas cuánticos adecuados para resolver otros problemas informáticos? Feynman y Manin consideraron cuestiones similares.

Ya en 1985, David Deutsch propuso un modelo matemático específico de máquina cuántica.

Sin embargo, hasta mediados de los años 90, el campo de la computación cuántica se desarrolló con bastante lentitud. La implementación práctica de las computadoras cuánticas ha resultado ser muy difícil. Además, la comunidad científica se mostró pesimista sobre el hecho de que las operaciones cuánticas pudieran acelerar la solución de determinados problemas computacionales. Esto continuó hasta 1994, cuando el matemático estadounidense Peter Shor propuso un algoritmo de descomposición para una computadora cuántica. norte número de dígitos en factores primos en un polinomio de tiempo dependiendo de norte(algoritmo de factorización cuántica). El algoritmo de factorización cuántica de Shor se convirtió en uno de los principales factores que llevaron al desarrollo intensivo de métodos de computación cuántica y al surgimiento de algoritmos que permiten resolver algunos problemas NP.

Naturalmente, surge la pregunta: ¿por qué, de hecho, el algoritmo de factorización cuántica propuesto por Shor tuvo tales consecuencias? El hecho es que el problema de descomponer un número en factores primos está directamente relacionado con la criptografía, en particular con los populares sistemas de cifrado RSA. Al poder factorizar un número en factores primos en tiempo polinómico, una computadora cuántica, en teoría, podría descifrar mensajes codificados utilizando muchos algoritmos criptográficos populares, como RSA. Hasta ahora, este algoritmo se consideraba relativamente fiable, ya que actualmente se desconoce una forma eficaz de factorizar números en factores primos para una computadora clásica. A Shor se le ocurrió un algoritmo cuántico que permite factorizar norte-número digital para norte 3 (registro norte) k pasos ( k=constante). Naturalmente, la implementación práctica de tal algoritmo podría tener consecuencias más negativas que positivas, ya que permitió seleccionar claves para cifrados, falsificar firmas electrónicas, etc. Sin embargo, la implementación práctica de un ordenador cuántico real todavía está muy lejos y, por lo tanto, durante los próximos diez años no hay miedo de que se puedan descifrar códigos utilizando ordenadores cuánticos.

La idea de la computación cuántica

Entonces, después de una breve descripción de la historia de la computación cuántica, podemos pasar a considerar su esencia misma. La idea (pero no su implementación) de la computación cuántica es bastante simple e interesante. Pero incluso para una comprensión superficial del mismo, es necesario familiarizarse con algunos conceptos específicos de la física cuántica.

Antes de considerar los conceptos cuánticos generalizados del vector de estado y el principio de superposición, consideremos un ejemplo sencillo de un fotón polarizado. Un fotón polarizado es un ejemplo de un sistema cuántico de dos niveles. El estado de polarización de un fotón puede especificarse mediante un vector de estado que determina la dirección de polarización. La polarización de un fotón puede dirigirse hacia arriba o hacia abajo, por eso se habla de dos estados principales o básicos, que se denotan como |1 y |0.

Estas notaciones (notaciones bra/cat) fueron introducidas por Dirac y tienen una definición estrictamente matemática (vectores de estado básicos), que determina las reglas para trabajar con ellas, sin embargo, para no ahondar en la jungla matemática, no las consideraremos. sutilezas en detalle.

Volviendo al fotón polarizado, observamos que como estados básicos podríamos elegir no sólo direcciones de polarización horizontal y vertical, sino también cualquier dirección de polarización mutuamente ortogonal. El significado de estados básicos es que cualquier polarización arbitraria se puede expresar como una combinación lineal de estados básicos, es decir, a|1+b|0. Como sólo nos interesa la dirección de polarización (la magnitud de la polarización no es importante), el vector de estado puede considerarse unitario, es decir, |a| 2 +|b| 2 = 1.

Ahora generalicemos el ejemplo con polarización de fotones a cualquier sistema cuántico de dos niveles.

Supongamos que tenemos un sistema cuántico arbitrario de dos niveles, que se caracteriza por estados ortogonales básicos |1 y |0. Según las leyes (postulados) de la mecánica cuántica (principio de superposición), los posibles estados de un sistema cuántico también serán superposiciones y = a|1+b|0, donde a y b son números complejos llamados amplitudes. Tenga en cuenta que no existe ningún análogo del estado de superposición en la física clásica.

Uno de los postulados fundamentales de la mecánica cuántica afirma que para medir el estado de un sistema cuántico es necesario destruirlo. Es decir, cualquier proceso de medición en física cuántica viola el estado inicial del sistema y lo transfiere a un nuevo estado. No es tan fácil entender esta afirmación y, por lo tanto, detengámonos en ella con más detalle.

En general, el concepto de medición en la física cuántica juega un papel especial y no debe considerarse como una medición en el sentido clásico. La medición de un sistema cuántico se produce siempre que éste entra en interacción con un objeto “clásico”, es decir, un objeto que obedece a las leyes de la física clásica. Como resultado de tal interacción, el estado del sistema cuántico cambia y la naturaleza y magnitud de este cambio dependen del estado del sistema cuántico y, por lo tanto, pueden servir como su característica cuantitativa.

En este sentido, un objeto clásico suele denominarse dispositivo y su proceso de interacción con un sistema cuántico se denomina medida. Hay que subrayar que esto no significa en absoluto el proceso de medición en el que participa el observador. Por medición en física cuántica nos referimos a cualquier proceso de interacción entre objetos clásicos y cuánticos que ocurre además de cualquier observador y con independencia de él. La explicación del papel de la medición en la física cuántica pertenece a Niels Bohr.

Entonces, para medir un sistema cuántico, es necesario actuar de alguna manera sobre él con un objeto clásico, después de lo cual se alterará su estado original. Además, se puede argumentar que, como resultado de la medición, el sistema cuántico será transferido a uno de sus estados básicos. Por ejemplo, para medir un sistema cuántico de dos niveles se requiere al menos un objeto clásico de dos niveles, es decir, un objeto clásico que pueda tomar dos valores posibles: 0 y 1. Durante el proceso de medición, el estado del sistema cuántico El sistema se transformará en uno de los vectores base, y si el objeto clásico toma un valor igual a 0, entonces el objeto cuántico se transforma al estado |0, y si el objeto clásico toma un valor igual a 1, entonces el objeto cuántico se transforma al estado |1.

Así, aunque un sistema cuántico de dos niveles puede encontrarse en un número infinito de estados de superposición, como resultado de la medición sólo toma uno de los dos posibles estados básicos. Módulo de amplitud al cuadrado |a| 2 determina la probabilidad de detectar (medir) el sistema en el estado básico |1, y el cuadrado del módulo de amplitud |b| 2 - en el estado básico |0.

Sin embargo, volvamos a nuestro ejemplo con un fotón polarizado. Para medir el estado de un fotón (su polarización), necesitamos algún dispositivo clásico con una base clásica (1,0). Entonces el estado de polarización del fotón a|1+b|0 se definirá como 1 (polarización horizontal) con probabilidad |a| 2 y como 0 (polarización vertical) con probabilidad |b| 2.

Dado que medir un sistema cuántico lo lleva a uno de los estados básicos y, por lo tanto, destruye la superposición (por ejemplo, durante la medición se obtiene un valor igual a |1), esto significa que como resultado de la medición el sistema cuántico pasa a un nuevo estado cuántico y en la siguiente medición obtenemos el valor |1 con 100% de probabilidad.

El vector de estado de un sistema cuántico de dos niveles también se denomina función de onda de los estados cuánticos y del sistema de dos niveles o, en la interpretación de la computación cuántica, qubit (bit cuántico, qubit). A diferencia de un bit clásico, que sólo puede tomar dos valores lógicos, un qubit es un objeto cuántico y el número de sus estados determinado por superposición es ilimitado. Sin embargo, recalcamos una vez más que el resultado de medir un qubit siempre nos lleva a uno de dos valores posibles.

Consideremos ahora un sistema de dos qubits. Medir cada uno de ellos puede dar un valor de objeto clásico de 0 o 1. Por lo tanto, un sistema de dos qubits tiene cuatro estados clásicos: 00, 01, 10 y 11. Análogos a ellos son los estados cuánticos básicos: |00, |01, |10 y |11. El vector de estado cuántico correspondiente se escribe como a|00+b|01+ do|10+ d|11, donde | a| 2 - probabilidad durante la medición de obtener el valor 00, | b| 2 - probabilidad de obtener el valor 01, etc.

En general, si un sistema cuántico consta de l qubits, entonces tiene 2 l posibles estados clásicos, cada uno de los cuales puede medirse con cierta probabilidad. La función de estado de dicho sistema cuántico se escribirá como:

donde | norte- estados cuánticos básicos (por ejemplo, estado |001101 y | donorte| 2 - probabilidad de estar en el estado básico | norte.

Para cambiar el estado de superposición de un sistema cuántico, es necesario implementar una influencia externa selectiva en cada qubit. Desde un punto de vista matemático, dicha transformación está representada por matrices unitarias de tamaño 2 l x2 l. Como resultado, se obtendrá un nuevo estado de superposición cuántica.

Estructura de una computadora cuántica

La transformación que consideramos del estado de superposición de un sistema cuántico que consta de l Los qubits son esencialmente un modelo de computadora cuántica. Consideremos, por ejemplo, un ejemplo más sencillo de implementación de la computación cuántica. Supongamos que tenemos un sistema de l qubits, cada uno de los cuales está idealmente aislado del mundo exterior. En cada momento, podemos elegir dos qubits arbitrarios y actuar sobre ellos con una matriz unitaria de tamaño 4x4. La secuencia de tales influencias es una especie de programa para una computadora cuántica.

Para utilizar un circuito cuántico para el cálculo, es necesario poder ingresar datos de entrada, realizar el cálculo y leer el resultado. Por lo tanto, el diagrama de circuito de cualquier computadora cuántica (ver figura) debe incluir los siguientes bloques funcionales: un registro cuántico para la entrada de datos, un procesador cuántico para la conversión de datos y un dispositivo para leer datos.

Un registro cuántico es una colección de un número determinado. l qubits Antes de ingresar información en la computadora, todos los qubits del registro cuántico deben llevarse a los estados básicos |0. Esta operación se llama preparación o inicialización. A continuación, ciertos qubits (no todos) se someten a una influencia externa selectiva (por ejemplo, utilizando pulsos de un campo electromagnético externo controlado por una computadora clásica), lo que cambia el valor de los qubits, es decir, pasan del estado |0 al estado |1. En este caso, el estado de todo el registro cuántico entrará en una superposición de estados básicos | norte s, es decir, el estado del registro cuántico en el momento inicial estará determinado por la función:

Está claro que este estado de superposición se puede utilizar para la representación binaria de un número. norte.

En un procesador cuántico, los datos de entrada se someten a una secuencia de operaciones lógicas cuánticas que, desde un punto de vista matemático, se describen mediante una transformación unitaria que actúa sobre el estado de todo el registro. Como resultado, después de un cierto número de ciclos del procesador cuántico, el estado cuántico inicial del sistema se convierte en una nueva superposición de la forma:

Hablando del procesador cuántico, debemos hacer una nota importante. Resulta que para construir cualquier cálculo, sólo son suficientes dos operaciones booleanas lógicas básicas. Utilizando operaciones cuánticas básicas, es posible imitar el funcionamiento de las puertas lógicas ordinarias de las que están hechas las computadoras. Dado que las leyes de la física cuántica a nivel microscópico son lineales y reversibles, los correspondientes dispositivos de lógica cuántica que realizan operaciones con los estados cuánticos de qubits individuales (puertas cuánticas) resultan ser lógica y termodinámicamente reversibles. Las puertas cuánticas son similares a las puertas clásicas reversibles correspondientes, pero, a diferencia de ellas, son capaces de realizar operaciones unitarias sobre superposiciones de estados. Se supone que la implementación de operaciones lógicas unitarias en qubits se lleva a cabo utilizando influencias externas apropiadas controladas por computadoras clásicas.

Estructura esquemática de una computadora cuántica.

Después de implementar las transformaciones en una computadora cuántica, la nueva función de superposición es el resultado de cálculos en un procesador cuántico. Sólo queda contar los valores obtenidos, para los cuales se mide el valor del sistema cuántico. Como resultado, se forma una secuencia de ceros y unos que, debido a la naturaleza probabilística de las mediciones, puede ser cualquier cosa. Por tanto, una computadora cuántica puede dar cualquier respuesta con cierta probabilidad. En este caso, un esquema de cálculo cuántico se considera correcto si la respuesta correcta se obtiene con una probabilidad suficientemente cercana a la unidad. Repitiendo los cálculos varias veces y eligiendo la respuesta que ocurra con más frecuencia, puede reducir la probabilidad de error a una cantidad arbitrariamente pequeña.

Para comprender en qué se diferencian las computadoras clásicas y cuánticas en su funcionamiento, recordemos qué almacena una computadora clásica en la memoria. l bits que cambian durante cada ciclo del procesador. En una computadora cuántica, la memoria (registro de estado) almacena valores l qubits, sin embargo, el sistema cuántico se encuentra en un estado que es una superposición de todos los de base 2. l estados, y un cambio en el estado cuántico del sistema producido por un procesador cuántico afecta a los 2 l estados básicos simultáneamente. En consecuencia, en una computadora cuántica, la potencia de cálculo se logra mediante la implementación de cálculos paralelos y, en teoría, una computadora cuántica puede funcionar exponencialmente más rápido que un circuito clásico.

Se cree que para implementar una computadora cuántica a gran escala, superior en rendimiento a cualquier computadora clásica, independientemente de los principios físicos con los que opere, se deben cumplir los siguientes requisitos básicos:

  • un sistema físico que sea una computadora cuántica a gran escala debe contener un número suficientemente grande l>103 qubits claramente visibles para realizar operaciones cuánticas relevantes;
  • es necesario garantizar la máxima supresión de los efectos de destrucción de la superposición de estados cuánticos causados ​​por la interacción del sistema qubit con el medio ambiente, como resultado de lo cual la ejecución de algoritmos cuánticos puede volverse imposible. El tiempo necesario para la destrucción de una superposición de estados cuánticos (tiempo de decoherencia) debe ser al menos 104 veces mayor que el tiempo necesario para realizar operaciones cuánticas básicas (tiempo de ciclo). Para hacer esto, el sistema qubit debe estar bastante débilmente acoplado a su entorno;
  • es necesario garantizar una medición con una fiabilidad suficientemente alta del estado del sistema cuántico en la salida. Medir el estado cuántico final es uno de los principales desafíos de la computación cuántica.

Aplicaciones prácticas de las computadoras cuánticas

Para uso práctico, todavía no se ha creado ni una sola computadora cuántica que satisfaga todas las condiciones anteriores. Sin embargo, en muchos países desarrollados se presta mucha atención al desarrollo de ordenadores cuánticos y se invierten anualmente decenas de millones de dólares en dichos programas.

Actualmente, el ordenador cuántico más grande está formado por apenas siete qubits. Esto es suficiente para implementar el algoritmo de Shor y factorizar el número 15 en factores primos de 3 y 5.

Si hablamos de posibles modelos de computadoras cuánticas, entonces, en principio, hay bastantes. La primera computadora cuántica que se creó en la práctica fue un espectrómetro de resonancia magnética nuclear (RMN) pulsada de alta resolución, aunque, por supuesto, no se consideraba una computadora cuántica. Sólo cuando surgió el concepto de computadora cuántica, los científicos se dieron cuenta de que un espectrómetro de RMN era una variante de una computadora cuántica.

En un espectrómetro de RMN, los espines de los núcleos de la molécula en estudio forman qubits. Cada núcleo tiene su propia frecuencia de resonancia en un campo magnético determinado. Cuando un núcleo es expuesto a un pulso en su frecuencia de resonancia, comienza a evolucionar, mientras que los núcleos restantes no experimentan ningún impacto. Para obligar a otro núcleo a evolucionar, es necesario tomar una frecuencia de resonancia diferente y darle un impulso. Por tanto, la acción pulsada sobre los núcleos a una frecuencia de resonancia representa un efecto selectivo sobre los qubits. Además, la molécula tiene una conexión directa entre los espines, por lo que es una preparación ideal para una computadora cuántica, y el espectrómetro en sí es un procesador cuántico.

Los primeros experimentos sobre los espines nucleares de dos átomos de hidrógeno en moléculas de 2,3-dibromotiofeno SCH:(CBr) 2:CH y sobre tres espines nucleares: uno en el átomo de hidrógeno H y dos en isótopos de carbono 13 C en moléculas de tricloroetileno. CCl 2:CHCl - se realizaron en 1997 en Oxford (Reino Unido).

En el caso de utilizar un espectrómetro de RMN, es importante que para influir selectivamente en los espines nucleares de una molécula, es necesario que difieran notablemente en las frecuencias de resonancia. Posteriormente, se llevaron a cabo operaciones cuánticas en un espectrómetro de RMN con el número de qubits 3, 5, 6 y 7.

La principal ventaja de un espectrómetro de RMN es que puede utilizar una gran cantidad de moléculas idénticas. Además, cada molécula (más precisamente, los núcleos de los átomos que la componen) es un sistema cuántico. Las secuencias de pulsos de radiofrecuencia, que actúan como ciertas puertas lógicas cuánticas, llevan a cabo transformaciones unitarias de los estados de los espines nucleares correspondientes simultáneamente para todas las moléculas. Es decir, la influencia selectiva sobre un qubit individual se reemplaza por el acceso simultáneo a los qubits correspondientes en todas las moléculas de un conjunto grande. Una computadora de este tipo se llama computadora cuántica de conjunto masivo. Estas computadoras pueden funcionar a temperatura ambiente y el tiempo de decoherencia de los estados cuánticos de los espines nucleares es de varios segundos.

En el campo de la RMN de ordenadores cuánticos sobre líquidos orgánicos se han logrado los mayores avances hasta la fecha. Se deben principalmente a la bien desarrollada técnica de espectroscopia de RMN pulsada, que permite realizar diversas operaciones sobre superposiciones coherentes de estados de espín nuclear, y a la posibilidad de utilizar para este fin espectrómetros de RMN estándar que funcionan a temperatura ambiente.

La principal limitación de las computadoras cuánticas de RMN es la dificultad de inicializar el estado inicial en un registro cuántico. El hecho es que en un gran conjunto de moléculas el estado inicial de los qubits es diferente, lo que complica llevar el sistema al estado inicial.

Otra limitación de las computadoras cuánticas de RMN se debe al hecho de que la señal medida en la salida del sistema disminuye exponencialmente a medida que aumenta el número de qubits. l. Además, el número de qubits nucleares en una sola molécula con frecuencias de resonancia muy variables es limitado. Esto lleva al hecho de que las computadoras cuánticas de RMN no pueden tener más de diez qubits. Deben considerarse sólo como prototipos de futuras computadoras cuánticas, útiles para probar los principios de la computación cuántica y probar algoritmos cuánticos.

Otra versión de una computadora cuántica se basa en el uso de trampas de iones, cuando la función de los qubits es el nivel de energía de los iones capturados por las trampas de iones, que se crean en el vacío mediante una determinada configuración del campo eléctrico en condiciones de enfriamiento por láser. a temperaturas ultrabajas. El primer prototipo de ordenador cuántico basado en este principio se propuso en 1995. La ventaja de este enfoque es que es relativamente sencillo controlar individualmente qubits individuales. Las principales desventajas de las computadoras cuánticas de este tipo son la necesidad de crear temperaturas ultrabajas, garantizar la estabilidad del estado de los iones en la cadena y el número limitado posible de qubits: no más de 40.

También son posibles otros esquemas para ordenadores cuánticos, cuyo desarrollo está actualmente en marcha. Sin embargo, pasarán al menos otros diez años antes de que finalmente se creen verdaderas computadoras cuánticas.




Arriba