Computadora cuántica: qué es, en palabras simples, el principio de funcionamiento. Cómo las computadoras cuánticas cambiarán el mundo

El mundo está al borde de otra revolución cuántica. La primera computadora cuántica resolverá instantáneamente problemas que el dispositivo moderno más poderoso actualmente tarda años en resolver. ¿Cuáles son estas tareas? ¿Quién se beneficia y quién se ve amenazado por el uso masivo de algoritmos cuánticos? ¿Qué es una superposición de qubits? ¿Cómo aprendió la gente a encontrar la solución óptima sin pasar por billones de opciones? Respondemos estas preguntas bajo el título "Simplemente sobre lo complejo".

Antes de la teoría cuántica, se utilizaba la teoría clásica de la radiación electromagnética. En 1900, el científico alemán Max Planck, que no creía en los cuantos y los consideraba una construcción ficticia y puramente teórica, se vio obligado a admitir que la energía de un cuerpo calentado se emite en porciones: cuantos; Por tanto, los supuestos de la teoría coincidieron con las observaciones experimentales. Y cinco años después, el gran Albert Einstein recurrió al mismo enfoque al explicar el efecto fotoeléctrico: ¡cuando se irradiaba con luz, surgía una corriente eléctrica en los metales! Es poco probable que Planck y Einstein hubieran imaginado que con su trabajo estaban sentando las bases de una nueva ciencia: la mecánica cuántica, que estaría destinada a transformar nuestro mundo más allá del reconocimiento, y que en el siglo XXI los científicos estarían cerca de crear. una computadora cuántica.

Al principio, la mecánica cuántica permitió explicar la estructura del átomo y ayudó a comprender los procesos que ocurren en su interior. En general, el viejo sueño de los alquimistas de transformar los átomos de algunos elementos en átomos de otros (sí, incluso en oro) se ha hecho realidad. Y la famosa fórmula de Einstein E=mc2 condujo al surgimiento de la energía nuclear y, como consecuencia, de la bomba atómica.

Procesador cuántico de cinco qubits de IBM

Además. Gracias al trabajo de Einstein y del físico inglés Paul Dirac, en la segunda mitad del siglo XX se creó un láser, también una fuente cuántica de luz ultrapura recogida en un haz estrecho. La investigación sobre láser ha otorgado el Premio Nobel a más de una docena de científicos, y los propios láseres han encontrado su aplicación en casi todas las áreas de la actividad humana, desde cortadoras industriales y pistolas láser hasta escáneres de códigos de barras y corrección de la visión. Casi al mismo tiempo, se estaban realizando investigaciones activas sobre semiconductores, materiales con los que se puede controlar fácilmente el flujo de corriente eléctrica. Sobre esta base se crearon los primeros transistores; más tarde se convirtieron en los principales elementos de construcción de la electrónica moderna, sin los cuales ya no podemos imaginar nuestras vidas.

El desarrollo de máquinas informáticas electrónicas (computadoras) ha permitido resolver muchos problemas de manera rápida y eficiente. Y la reducción gradual de su tamaño y costo (debido a la producción en masa) allanó el camino para que las computadoras llegaran a todos los hogares. Con la llegada de Internet, nuestra dependencia de los sistemas informáticos, incluso para la comunicación, se ha vuelto aún más fuerte.

Richard Feynman

La dependencia crece, la potencia informática crece constantemente, pero ha llegado el momento de admitir que, a pesar de sus impresionantes capacidades, las computadoras no han podido resolver todos los problemas que estamos dispuestos a plantearles. El famoso físico Richard Feynman fue uno de los primeros en hablar de esto: en 1981, en una conferencia, afirmó que es fundamentalmente imposible calcular con precisión un sistema físico real en computadoras comunes. ¡Se trata de su naturaleza cuántica! Los efectos a microescala se explican fácilmente mediante la mecánica cuántica y muy mal mediante la mecánica clásica, que nos resulta familiar: describe el comportamiento de objetos grandes. Fue entonces cuando, como alternativa, Feynman propuso utilizar ordenadores cuánticos para calcular sistemas físicos.

¿Qué es una computadora cuántica y en qué se diferencia de las computadoras a las que estamos acostumbrados? Se trata de cómo presentamos la información.

Si en las computadoras convencionales los bits (ceros y unos) son responsables de esta función, en las computadoras cuánticas son reemplazados por bits cuánticos (abreviados como qubits). El qubit en sí es algo bastante simple. Todavía tiene dos valores fundamentales (o estados, como les gusta decir a la mecánica cuántica) que puede tomar: 0 y 1. Sin embargo, gracias a una propiedad de los objetos cuánticos llamada “superposición”, un qubit puede tomar todos los valores. que son una combinación de los fundamentales. Además, su naturaleza cuántica le permite estar en todos estos estados al mismo tiempo.

Éste es el paralelismo de la computación cuántica con los qubits. Todo sucede a la vez: ya no es necesario revisar todas las opciones posibles para los estados del sistema, y ​​esto es exactamente lo que hace una computadora normal. Buscar en grandes bases de datos, trazar una ruta óptima, desarrollar nuevos fármacos son sólo algunos ejemplos de problemas que pueden resolverse muchas veces más rápido mediante algoritmos cuánticos. Estas son aquellas tareas en las que, para encontrar la respuesta correcta, es necesario pasar por una gran cantidad de opciones.

Además, para describir el estado exacto del sistema ya no se necesitan enormes potencias de cálculo ni cantidades de RAM, porque para calcular un sistema de 100 partículas bastan 100 qubits y no billones de billones de bits. Además, a medida que aumenta el número de partículas (como en los sistemas complejos reales), esta diferencia se vuelve aún más significativa.

Uno de los problemas de enumeración se destacó por su aparente inutilidad: descomponer números grandes en factores primos (es decir, divisibles sólo por ellos mismos y por uno). Esto se llama "factorización". El hecho es que las computadoras comunes pueden multiplicar números con bastante rapidez, incluso los muy grandes. Sin embargo, las computadoras convencionales resuelven muy mal el problema inverso de descomponer un gran número resultante de multiplicar dos números primos en sus factores originales. Por ejemplo, para factorizar un número de 256 dígitos en dos factores, incluso la computadora más potente necesitará decenas de años. Pero en 1997 el matemático inglés Peter Shor inventó un algoritmo cuántico que puede resolver este problema en unos pocos minutos.

Con la aparición del algoritmo de Shor, la comunidad científica se enfrentó a un grave problema. A finales de la década de 1970, basándose en la complejidad del problema de factorización, los criptografistas crearon un algoritmo de cifrado de datos que se ha generalizado. En particular, con la ayuda de este algoritmo comenzaron a proteger datos en Internet: contraseñas, correspondencia personal, transacciones bancarias y financieras. Y después de muchos años de uso exitoso, de repente resultó que la información cifrada de esta manera se convierte en un objetivo fácil para el algoritmo de Shor que se ejecuta en una computadora cuántica. El descifrado con su ayuda se convierte en cuestión de minutos. Una cosa era buena: aún no se había creado una computadora cuántica en la que se pudiera ejecutar el algoritmo mortal.

Mientras tanto, en todo el mundo, decenas de grupos científicos y laboratorios comenzaron a realizar estudios experimentales sobre los qubits y las posibilidades de crear una computadora cuántica a partir de ellos. Después de todo, una cosa es inventar teóricamente un qubit y otra muy distinta hacerlo realidad. Para ello, era necesario encontrar un sistema físico adecuado con dos niveles cuánticos que pudieran utilizarse como estados base del qubit: cero y uno. El propio Feynman, en su artículo pionero, propuso utilizar fotones retorcidos en diferentes direcciones para estos fines, pero los primeros qubits creados experimentalmente fueron iones capturados en trampas especiales en 1995. A los iones les siguieron muchas otras implementaciones físicas: núcleos atómicos, electrones, fotones, defectos en cristales, circuitos superconductores: todos cumplían los requisitos.

Esta diversidad tenía sus méritos. Impulsados ​​por una intensa competencia, varios grupos científicos crearon qubits cada vez más avanzados y construyeron circuitos cada vez más complejos a partir de ellos. Había dos parámetros competitivos principales para los qubits: su vida útil y la cantidad de qubits que podían funcionar juntos.

Empleados del Laboratorio de Sistemas Cuánticos Artificiales

La vida útil de los qubits determinaba durante cuánto tiempo se almacenaba en ellos el frágil estado cuántico. Esto, a su vez, determinó cuántas operaciones computacionales se podían realizar en el qubit antes de que "muriera".

Para el funcionamiento eficiente de los algoritmos cuánticos no se necesitaba un qubit, sino al menos cien, y trabajando juntos. El problema fue que a los qubits no les gustaba mucho estar uno al lado del otro y protestaron reduciendo drásticamente su vida útil. Para solucionar esta incompatibilidad de los qubits, los científicos tuvieron que recurrir a todo tipo de trucos. Y, sin embargo, hasta la fecha, los científicos han logrado que un máximo de una o dos docenas de qubits funcionen juntos.

Así pues, para deleite de los criptógrafos, el ordenador cuántico sigue siendo cosa del futuro. Aunque no está tan lejos como podría parecer, porque tanto las corporaciones más grandes como Intel, IBM y Google, como los estados individuales, para los cuales la creación de una computadora cuántica es una cuestión de importancia estratégica, están participó activamente en su creación.

No te pierdas la conferencia:

Para revelar más o menos completamente la esencia de las tecnologías informáticas cuánticas, primero abordaremos la historia de la teoría cuántica.
Surgió gracias a dos científicos cuyos resultados de investigación recibieron premios Nobel: el descubrimiento del cuanto por M. Planck en 1918 y el descubrimiento del fotón por A. Einstein en 1921.
El año en que nació la idea de una computadora cuántica fue 1980, cuando Benioff pudo demostrar con éxito en la práctica la exactitud de la teoría cuántica.
Pues bien, el primer prototipo de computadora cuántica fue creado por Gershenfeld y Chuang en 1998 en el Instituto Tecnológico de Massachusetts (MTI). El mismo grupo de investigadores creó modelos más avanzados en los dos años siguientes.

Para un no especialista, una computadora cuántica es algo absolutamente fantástico en escala: es una máquina informática, frente a la cual una computadora común es como un ábaco frente a una computadora. Y, por supuesto, esto es algo que está muy lejos de realizarse.
Para una persona que está asociada con las computadoras cuánticas, este es un dispositivo cuyos principios generales de funcionamiento son más o menos claros, pero hay muchos problemas que deben resolverse antes de que pueda implementarse en hardware, y ahora muchos laboratorios en todo el mundo El mundo los está utilizando para intentar superar obstáculos.
Ha habido avances en la tecnología cuántica en el pasado por parte de empresas privadas, incluidas IBM y DWays.
Informan periódicamente sobre los últimos avances en este ámbito en la actualidad. La investigación la llevan a cabo principalmente científicos japoneses y estadounidenses. Japón, en su búsqueda del liderazgo mundial en hardware y software, gasta enormes cantidades de dinero en desarrollos en esta área. Según el vicepresidente de Hewlett-Packard, hasta el 70% de todas las investigaciones se llevaron a cabo en el país del sol naciente. Las computadoras cuánticas son uno de los pasos de su empresa enfocada a ganar liderazgo en el mercado global.

¿Qué explica el deseo de dominar estas tecnologías? ¡Sus innegables ventajas significativas sobre las computadoras semiconductoras!

¿QUÉ ES ESTO?


Una computadora cuántica es un dispositivo informático que funciona según la mecánica cuántica.
Hoy en día, una computadora cuántica a gran escala es un dispositivo hipotético que no se puede crear con los datos disponibles en la teoría cuántica.

Una computadora cuántica no utiliza algoritmos clásicos para los cálculos, sino procesos más complejos de naturaleza cuántica, que también se denominan algoritmos cuánticos. Estos algoritmos utilizan efectos de la mecánica cuántica: entrelazamiento cuántico y paralelismo cuántico.

Para comprender por qué se necesita una computadora cuántica, es necesario imaginar el principio de su funcionamiento.
Mientras que una computadora convencional funciona realizando operaciones secuenciales con ceros y unos, una computadora cuántica utiliza anillos de película superconductora. La corriente puede fluir a través de estos anillos en diferentes direcciones, por lo que una cadena de dichos anillos puede implementar simultáneamente muchas más operaciones con ceros y unos.
La alta potencia es la principal ventaja de una computadora cuántica. Desafortunadamente, estos anillos están sujetos incluso a las más mínimas influencias externas, como resultado de lo cual la dirección de la corriente puede cambiar y, en este caso, los cálculos resultan incorrectos.

DIFERENCIA DE UNA COMPUTADORA CUÁNTICA DE UNA CONVENCIONAL

    La principal diferencia entre las computadoras cuánticas y las convencionales es que el almacenamiento, procesamiento y transmisión de datos no se produce mediante "bits", sino "qubits", en pocas palabras, "bits cuánticos". Como un bit ordinario, un qubit puede estar en los estados familiares “|0>” y “|1>”, y además - en el estado de superposición A·|0> + B·|1>, donde A y B son números complejos que satisfacen la condición | Un |2 + | B|2 = 1.

TIPOS DE COMPUTADORAS CUÁNTICAS

Hay dos tipos de computadoras cuánticas. Ambos se basan en fenómenos cuánticos, sólo que de diferente orden.

    Computadoras basadas en la cuantificación del flujo magnético basada en violaciones de superconductividad: uniones de Josephson. El efecto Josephson ya se está utilizando para fabricar amplificadores lineales, convertidores analógico-digital, SQUID y correlacionadores. La misma base de elementos se utiliza en el proyecto para crear una computadora petaflop (1015 op./s). Experimentalmente se ha conseguido una frecuencia de reloj de 370 GHz, que en el futuro podrá aumentarse hasta 700 GHz. Sin embargo, el tiempo de desfase de las funciones de onda en estos dispositivos es comparable al tiempo de conmutación de válvulas individuales y, de hecho, al ya conocido. La base de elementos se implementa sobre nuevos principios cuánticos: flip-flops, registros y otros elementos lógicos.

    Otro tipo de computadoras cuánticas, también llamadas computadoras cuánticas coherentes, requiere mantener la coherencia de las funciones de onda de los qubits utilizados durante todo el tiempo de cálculo, de principio a fin (un qubit puede ser cualquier sistema mecánico cuántico con dos niveles de energía dedicados). Como resultado, para algunos problemas, la potencia de cálculo de las computadoras cuánticas coherentes es proporcional a 2N, donde N es el número de qubits en la computadora. Es al último tipo de dispositivo al que nos referimos cuando se habla de ordenadores cuánticos.

COMPUTADORAS CUÁNTICAS AHORA

Pero hoy se están creando pequeñas computadoras cuánticas. En esta dirección trabaja especialmente activamente la empresa D-Wave Systems, que creó en 2007 un ordenador cuántico de 16 qubits. Esta computadora hizo frente con éxito a la tarea de sentar a los invitados a la mesa, basándose en el hecho de que algunos de ellos no se agradaban entre sí. Ahora D-Wave Systems continúa desarrollando computadoras cuánticas.

Un grupo de físicos de Japón, China y Estados Unidos lograron por primera vez construir una computadora cuántica utilizando la arquitectura de von Neumann, es decir, con una separación física del procesador cuántico y la memoria cuántica. Actualmente, para la implementación práctica de las computadoras cuánticas (computadoras basadas en las propiedades inusuales de los objetos de la mecánica cuántica), los físicos utilizan varios tipos de objetos y fenómenos exóticos: iones capturados en una trampa óptica, resonancia magnética nuclear. Para el nuevo trabajo, los científicos se basaron en circuitos superconductores en miniatura; la posibilidad de implementar un ordenador cuántico utilizando dichos circuitos se describió en Nature en 2008.

La computadora ensamblada por los científicos consistía en una memoria cuántica, cuyo papel lo desempeñaban dos resonadores de microondas, un procesador de dos qubits conectados por un bus (su papel también lo desempeñaba un resonador, y los qubits eran circuitos superconductores), y dispositivos para borrar datos. Usando esta computadora, los científicos se dieron cuenta dos algoritmos principales- la llamada transformada cuántica de Fourier y conjunción utilizando elementos lógicos cuánticos de Toffoli:

    El primer algoritmo es un análogo cuántico de la transformada discreta de Fourier. Su característica distintiva es un número mucho menor (del orden de n2) de elementos funcionales al implementar el algoritmo en comparación con su análogo (del orden de n 2n). La transformada discreta de Fourier se utiliza en una variedad de áreas de la actividad humana, desde el estudio de ecuaciones diferenciales parciales hasta la compresión de datos.

    A su vez, las puertas lógicas cuánticas de Toffoli son elementos básicos a partir de los cuales, con algunos requisitos adicionales, se puede obtener cualquier función (programa) booleana. Una característica distintiva de estos elementos es su reversibilidad, que, desde el punto de vista físico, permite, entre otras cosas, minimizar la generación de calor del dispositivo.

Según los científicos, el sistema que crearon tiene una ventaja notable: es fácilmente escalable. Por lo tanto, puede servir como una especie de bloque de construcción para futuras computadoras. Según los investigadores, los nuevos resultados demuestran claramente la promesa de la nueva tecnología.

Hace apenas cinco años, sólo los especialistas en el campo de la física cuántica conocían los ordenadores cuánticos. Sin embargo, en los últimos años el número de publicaciones en Internet y en publicaciones especializadas dedicadas a la computación cuántica ha aumentado exponencialmente. El tema de la computación cuántica se ha vuelto popular y ha generado muchas opiniones diferentes, que no siempre se corresponden con la realidad.
En este artículo intentaremos hablar lo más claramente posible sobre qué es una computadora cuántica y en qué etapa se encuentran los desarrollos modernos en esta área.

Capacidades limitadas de las computadoras modernas.

A menudo se habla de las computadoras cuánticas y la computación cuántica como una alternativa a las tecnologías de silicio para la creación de microprocesadores, lo cual, en general, no es del todo cierto. En realidad, ¿por qué tenemos que buscar una alternativa a la tecnología informática moderna? Como muestra toda la historia de la industria informática, la potencia informática de los procesadores está aumentando exponencialmente. Ninguna otra industria se está desarrollando a un ritmo tan rápido. Como regla general, cuando se habla de la tasa de crecimiento de la potencia informática de los procesadores, se recuerda la llamada ley de Gordon Moore, formulada en abril de 1965, es decir, apenas seis años después de la invención del primer circuito integrado (CI). .

A petición de la revista Electronics, Gordon Moore escribió un artículo dedicado al 35 aniversario de la publicación. Hizo una predicción sobre cómo se desarrollarán los dispositivos semiconductores en los próximos diez años. Tras analizar el ritmo de desarrollo de los dispositivos semiconductores y los factores económicos durante los últimos seis años, es decir, desde 1959, Gordon Moore sugirió que en 1975 el número de transistores en un circuito integrado sería de 65 mil.

De hecho, según el pronóstico de Moore, se esperaba que el número de transistores en un solo chip aumentara más de mil veces en diez años. Al mismo tiempo, esto significó que cada año el número de transistores en un chip tenía que duplicarse.

Posteriormente, se hicieron ajustes a la ley de Moore (para correlacionarla con la realidad), pero el significado no cambió: el número de transistores en los microcircuitos aumenta exponencialmente. Naturalmente, aumentar la densidad de los transistores en un chip sólo es posible reduciendo el tamaño de los propios transistores. En este sentido, una pregunta relevante es: ¿hasta qué punto se puede reducir el tamaño de los transistores? Actualmente, las dimensiones de los elementos individuales de los transistores en los procesadores son comparables a las de los atómicos, por ejemplo, el ancho de la capa de dióxido que separa la puerta dieléctrica del canal de transferencia de carga es de sólo unas pocas decenas de capas atómicas. Está claro que existe un límite puramente físico que hace imposible reducir aún más el tamaño de los transistores. Incluso si asumimos que en el futuro tendrán una geometría y arquitectura ligeramente diferentes, es teóricamente imposible crear un transistor o elemento similar con un tamaño inferior a 10 -8 cm (el diámetro de un átomo de hidrógeno) y un funcionamiento frecuencia de más de 10 15 Hz (la frecuencia de las transiciones atómicas). Por lo tanto, nos guste o no, es inevitable el día en que la Ley de Moore tendrá que ser archivada (a menos, por supuesto, que se corrija una vez más).

Las posibilidades limitadas para aumentar la potencia informática de los procesadores reduciendo el tamaño de los transistores es sólo uno de los cuellos de botella de los procesadores de silicio clásicos.

Como veremos más adelante, los ordenadores cuánticos no representan en modo alguno un intento de resolver el problema de la miniaturización de los elementos básicos de los procesadores.

Resolver el problema de la miniaturización de los transistores, la búsqueda de nuevos materiales para crear la base elemental de la microelectrónica, la búsqueda de nuevos principios físicos para dispositivos con dimensiones características comparables a la longitud de onda de De Broglie, que tiene un valor de aproximadamente 20 nm: estas cuestiones han estado en la agenda durante casi dos décadas. Como resultado de su solución, se desarrolló la nanotecnología. Un problema grave al que se enfrenta durante la transición al campo de los dispositivos nanoelectrónicos es la reducción de la disipación de energía durante las operaciones computacionales. La idea de la posibilidad de operaciones "lógicamente reversibles" que no vayan acompañadas de disipación de energía fue expresada por primera vez por R. Landauer en 1961. Charles Bennett dio un paso importante en la solución de este problema en 1982, quien demostró teóricamente que una computadora digital universal puede construirse sobre puertas lógica y termodinámicamente reversibles de tal manera que la energía se disipe solo debido a procesos periféricos irreversibles de entrada de información. en la máquina ( preparación del estado inicial) y, en consecuencia, salida de ella (lectura del resultado). Las válvulas universales reversibles típicas incluyen válvulas Fredkin y Toffoli.

Otro problema de las computadoras clásicas radica en la propia arquitectura de von Neumann y la lógica binaria de todos los procesadores modernos. Todas las computadoras, desde el motor analítico de Charles Babbage hasta las supercomputadoras modernas, se basan en los mismos principios (arquitectura von Neumann) que se desarrollaron allá por los años 40 del siglo pasado.

Cualquier computadora a nivel de software opera con bits (variables que toman el valor 0 o 1). Utilizando puertas lógicas, se realizan operaciones lógicas en bits, lo que permite obtener un determinado estado final en la salida. El cambio de estado de las variables se realiza mediante un programa que define una secuencia de operaciones, cada una de las cuales utiliza una pequeña cantidad de bits.

Los procesadores tradicionales ejecutan programas de forma secuencial. A pesar de la existencia de sistemas multiprocesador, procesadores multinúcleo y diversas tecnologías destinadas a aumentar el nivel de paralelismo, todas las computadoras construidas sobre la base de la arquitectura von Neumann son dispositivos con un modo secuencial de ejecución de instrucciones. Todos los procesadores modernos implementan el siguiente algoritmo para procesar comandos y datos: recuperar comandos y datos de la memoria y ejecutar instrucciones sobre los datos seleccionados. Este ciclo se repite muchas veces y a una velocidad tremenda.

Sin embargo, la arquitectura von Neumann limita la capacidad de aumentar la potencia informática de las PC modernas. Un ejemplo típico de una tarea que está más allá de las capacidades de las PC modernas es la descomposición de un número entero en factores primos (un factor primo es un factor que es divisible por sí mismo y por 1 sin resto).

Si quieres factorizar un número en factores primos incógnita, teniendo norte caracteres en notación binaria, entonces la forma obvia de resolver este problema es intentar dividirlo secuencialmente en números del 2 al. Para hacer esto, tendrás que pasar por 2 n/2 opciones. Por ejemplo, si está considerando un número que tiene 100.000 caracteres (en notación binaria), necesitará pasar por 3x10 15.051 opciones. Si asumimos que se requiere un ciclo de procesador para una búsqueda, entonces a una velocidad de 3 GHz, se necesitará un tiempo mayor que la edad de nuestro planeta para buscar todos los números. Sin embargo, existe un algoritmo inteligente que resuelve el mismo problema en exp( norte 1/3) pasos, pero incluso en este caso ni un solo superordenador moderno puede hacer frente a la tarea de factorizar un número de un millón de cifras.

El problema de factorizar un número en factores primos pertenece a la clase de problemas que se dice que no se resuelven en tiempo polinomial (problema NP-completo - tiempo polinomial completo no determinista). Estos problemas se incluyen en la clase de problemas no computables en el sentido de que no pueden resolverse en computadoras clásicas en un polinomio de tiempo que depende del número de bits. norte, que representa la tarea. Si hablamos de descomponer un número en factores primos, a medida que aumenta el número de bits, el tiempo necesario para resolver el problema aumenta exponencialmente, no polinómicamente.

De cara al futuro, observamos que la computación cuántica está asociada con las perspectivas de resolver problemas NP-completos en tiempo polinomial.

Física cuántica

Por supuesto, la física cuántica está vagamente relacionada con lo que se llama la base elemental de las computadoras modernas. Sin embargo, cuando se habla de una computadora cuántica, es simplemente imposible no mencionar algunos términos específicos de la física cuántica. Sabemos que no todo el mundo ha estudiado el legendario tercer volumen de "Física teórica" ​​de L.D. Landau y E.M. Lifshitz, y para muchos conceptos como la función de onda y la ecuación de Schrödinger son algo del otro mundo. En cuanto al aparato matemático específico de la mecánica cuántica, se trata de fórmulas sólidas y palabras oscuras. Por lo tanto, intentaremos ceñirnos a un nivel de presentación generalmente accesible, evitando, si es posible, el análisis tensorial y otras particularidades de la mecánica cuántica.

Para la gran mayoría de la gente, la mecánica cuántica está más allá de la comprensión. La cuestión no está tanto en el complejo aparato matemático, sino en el hecho de que las leyes de la mecánica cuántica son ilógicas y no tienen una asociación subconsciente: son imposibles de imaginar. Sin embargo, el análisis de la falta de lógica de la mecánica cuántica y el nacimiento paradójico de la lógica armoniosa a partir de esta falta de lógica es el destino de los filósofos; abordaremos aspectos de la mecánica cuántica sólo en la medida necesaria para comprender la esencia de la computación cuántica.

La historia de la física cuántica comenzó el 14 de diciembre de 1900. Ese día, el físico alemán y futuro premio Nobel Max Planck informó en una reunión de la Sociedad de Física de Berlín sobre el descubrimiento fundamental de las propiedades cuánticas de la radiación térmica. Así apareció en la física el concepto de cuanto de energía y, entre otras constantes fundamentales, la constante de Planck.

El descubrimiento de Planck y la teoría del efecto fotoeléctrico de Albert Einstein, que apareció entonces en 1905, así como la creación en 1913 de la primera teoría cuántica de los espectros atómicos por parte de Niels Bohr, estimularon la creación y un mayor desarrollo rápido de la teoría cuántica y los estudios experimentales de la cuántica. fenómenos.

Ya en 1926, Erwin Schrödinger formuló su famosa ecuación de onda, y Enrico Fermi y Paul Dirac obtuvieron una distribución estadística cuántica para un gas de electrones, teniendo en cuenta el llenado de los estados cuánticos individuales.

En 1928, Felix Bloch analizó el problema de la mecánica cuántica del movimiento de un electrón en un campo periódico externo de una red cristalina y demostró que el espectro de energía electrónica en un sólido cristalino tiene una estructura de bandas. De hecho, este fue el comienzo de una nueva dirección en la física: la teoría del estado sólido.

Todo el siglo XX es un período de desarrollo intensivo de la física cuántica y de todas aquellas ramas de la física de las cuales la teoría cuántica se convirtió en su progenitora.

El surgimiento de la computación cuántica

La idea de utilizar la computación cuántica fue expresada por primera vez por el matemático soviético Yu.I. Manin en 1980 en su famosa monografía “Computable e Incomputable”. Es cierto que el interés por su trabajo surgió sólo dos años después, en 1982, tras la publicación de un artículo sobre el mismo tema por parte del físico teórico estadounidense, premio Nobel Richard Feynman. Observó que ciertas operaciones de la mecánica cuántica no se pueden transferir exactamente a una computadora clásica. Esta observación le llevó a creer que tales cálculos podrían ser más eficientes si se llevaran a cabo mediante operaciones cuánticas.

Consideremos, por ejemplo, el problema de la mecánica cuántica de cambiar el estado de un sistema cuántico que consta de norte gira durante un cierto período de tiempo. Sin profundizar en los detalles del aparato matemático de la teoría cuántica, observamos que el estado general del sistema desde norte los espines se describen mediante un vector en un espacio complejo de 2n dimensiones, y el cambio en su estado se describe mediante una matriz unitaria de tamaño 2nx2n. Si el período de tiempo considerado es muy corto, entonces la matriz está estructurada de manera muy simple y cada uno de sus elementos es fácil de calcular, conociendo la interacción entre espines. Si necesita conocer el cambio en el estado del sistema durante un largo período de tiempo, entonces necesita multiplicar dichas matrices, y esto requiere una cantidad exponencialmente grande de operaciones. Nuevamente nos enfrentamos a un problema PN completo, irresoluble en tiempo polinomial en computadoras clásicas. Actualmente no hay forma de simplificar este cálculo y es probable que simular la mecánica cuántica sea un problema matemático exponencialmente difícil. Pero si los ordenadores clásicos no son capaces de resolver problemas cuánticos, ¿quizás sería aconsejable utilizar el propio sistema cuántico para este fin? Y si esto es realmente posible, ¿son los sistemas cuánticos adecuados para resolver otros problemas informáticos? Feynman y Manin consideraron cuestiones similares.

Ya en 1985, David Deutsch propuso un modelo matemático específico de máquina cuántica.

Sin embargo, hasta mediados de los años 90, el campo de la computación cuántica se desarrolló con bastante lentitud. La implementación práctica de las computadoras cuánticas ha resultado ser muy difícil. Además, la comunidad científica se mostró pesimista sobre el hecho de que las operaciones cuánticas pudieran acelerar la solución de determinados problemas computacionales. Esto continuó hasta 1994, cuando el matemático estadounidense Peter Shor propuso un algoritmo de descomposición para una computadora cuántica. norte número de dígitos en factores primos en un polinomio de tiempo dependiendo de norte(algoritmo de factorización cuántica). El algoritmo de factorización cuántica de Shor se convirtió en uno de los principales factores que llevaron al desarrollo intensivo de métodos de computación cuántica y al surgimiento de algoritmos que permiten resolver algunos problemas NP.

Naturalmente, surge la pregunta: ¿por qué, de hecho, el algoritmo de factorización cuántica propuesto por Shor tuvo tales consecuencias? El hecho es que el problema de descomponer un número en factores primos está directamente relacionado con la criptografía, en particular con los populares sistemas de cifrado RSA. Con la capacidad de factorizar un número en factores primos en tiempo polinómico, una computadora cuántica podría teóricamente descifrar mensajes codificados utilizando muchos algoritmos criptográficos populares, como RSA. Hasta ahora, este algoritmo se consideraba relativamente fiable, ya que actualmente se desconoce una forma eficaz de factorizar números en factores primos para una computadora clásica. A Shor se le ocurrió un algoritmo cuántico que permite factorizar norte-número digital para norte 3 (registro norte) k pasos ( k=constante). Naturalmente, la implementación práctica de tal algoritmo podría tener consecuencias más negativas que positivas, ya que permitió seleccionar claves para cifrados, falsificar firmas electrónicas, etc. Sin embargo, la implementación práctica de un ordenador cuántico real todavía está muy lejos y, por lo tanto, durante los próximos diez años no hay miedo de que se puedan descifrar códigos utilizando ordenadores cuánticos.

La idea de la computación cuántica

Entonces, después de una breve descripción de la historia de la computación cuántica, podemos pasar a considerar su esencia misma. La idea (pero no su implementación) de la computación cuántica es bastante simple e interesante. Pero incluso para una comprensión superficial del mismo, es necesario familiarizarse con algunos conceptos específicos de la física cuántica.

Antes de considerar los conceptos cuánticos generalizados del vector de estado y el principio de superposición, consideremos un ejemplo sencillo de un fotón polarizado. Un fotón polarizado es un ejemplo de un sistema cuántico de dos niveles. El estado de polarización de un fotón puede especificarse mediante un vector de estado que determina la dirección de polarización. La polarización de un fotón puede dirigirse hacia arriba o hacia abajo, por eso se habla de dos estados principales o básicos, que se denotan como |1 y |0.

Estas notaciones (notaciones bra/cat) fueron introducidas por Dirac y tienen una definición estrictamente matemática (vectores de estado básicos), que determina las reglas para trabajar con ellas, sin embargo, para no ahondar en la jungla matemática, no las consideraremos. sutilezas en detalle.

Volviendo al fotón polarizado, observamos que como estados básicos podríamos elegir no sólo direcciones de polarización horizontal y vertical, sino también cualquier dirección de polarización mutuamente ortogonal. El significado de estados básicos es que cualquier polarización arbitraria se puede expresar como una combinación lineal de estados básicos, es decir, a|1+b|0. Como sólo nos interesa la dirección de polarización (la magnitud de la polarización no es importante), el vector de estado puede considerarse unitario, es decir, |a| 2 +|b| 2 = 1.

Ahora generalicemos el ejemplo con polarización de fotones a cualquier sistema cuántico de dos niveles.

Supongamos que tenemos un sistema cuántico arbitrario de dos niveles, que se caracteriza por estados ortogonales básicos |1 y |0. Según las leyes (postulados) de la mecánica cuántica (principio de superposición), los posibles estados de un sistema cuántico también serán superposiciones y = a|1+b|0, donde a y b son números complejos llamados amplitudes. Tenga en cuenta que no existe ningún análogo del estado de superposición en la física clásica.

Uno de los postulados fundamentales de la mecánica cuántica afirma que para medir el estado de un sistema cuántico es necesario destruirlo. Es decir, cualquier proceso de medición en física cuántica viola el estado inicial del sistema y lo transfiere a un nuevo estado. No es tan fácil entender esta afirmación y, por lo tanto, detengámonos en ella con más detalle.

En general, el concepto de medición en la física cuántica juega un papel especial y no debe considerarse como una medición en el sentido clásico. La medición de un sistema cuántico se produce siempre que éste entra en interacción con un objeto “clásico”, es decir, un objeto que obedece a las leyes de la física clásica. Como resultado de tal interacción, el estado del sistema cuántico cambia y la naturaleza y magnitud de este cambio dependen del estado del sistema cuántico y, por lo tanto, pueden servir como su característica cuantitativa.

En este sentido, un objeto clásico suele denominarse dispositivo y su proceso de interacción con un sistema cuántico se denomina medida. Hay que subrayar que esto no se refiere en absoluto al proceso de medición en el que participa el observador. Por medición en física cuántica nos referimos a cualquier proceso de interacción entre objetos clásicos y cuánticos que ocurre además de cualquier observador y con independencia de él. La explicación del papel de la medición en la física cuántica pertenece a Niels Bohr.

Entonces, para medir un sistema cuántico, es necesario actuar de alguna manera sobre él con un objeto clásico, después de lo cual se alterará su estado original. Además, se puede argumentar que, como resultado de la medición, el sistema cuántico será transferido a uno de sus estados básicos. Por ejemplo, para medir un sistema cuántico de dos niveles se requiere al menos un objeto clásico de dos niveles, es decir, un objeto clásico que pueda tomar dos valores posibles: 0 y 1. Durante el proceso de medición, el estado del sistema cuántico El sistema se transformará en uno de los vectores base, y si el objeto clásico toma un valor igual a 0, entonces el objeto cuántico se transforma al estado |0, y si el objeto clásico toma un valor igual a 1, entonces el objeto cuántico se transforma al estado |1.

Así, aunque un sistema cuántico de dos niveles puede encontrarse en un número infinito de estados de superposición, como resultado de la medición sólo toma uno de los dos posibles estados básicos. Módulo de amplitud al cuadrado |a| 2 determina la probabilidad de detectar (medir) el sistema en el estado básico |1, y el cuadrado del módulo de amplitud |b| 2 - en el estado básico |0.

Sin embargo, volvamos a nuestro ejemplo con un fotón polarizado. Para medir el estado de un fotón (su polarización), necesitamos algún dispositivo clásico con una base clásica (1,0). Entonces el estado de polarización del fotón a|1+b|0 se definirá como 1 (polarización horizontal) con probabilidad |a| 2 y como 0 (polarización vertical) con probabilidad |b| 2.

Dado que medir un sistema cuántico lo lleva a uno de los estados básicos y, por lo tanto, destruye la superposición (por ejemplo, durante la medición se obtiene un valor igual a |1), esto significa que como resultado de la medición el sistema cuántico pasa a un nuevo estado cuántico y en la siguiente medición obtenemos el valor |1 con 100% de probabilidad.

El vector de estado de un sistema cuántico de dos niveles también se denomina función de onda de los estados cuánticos y del sistema de dos niveles o, en la interpretación de la computación cuántica, qubit (bit cuántico, qubit). A diferencia de un bit clásico, que sólo puede tomar dos valores lógicos, un qubit es un objeto cuántico y el número de sus estados determinado por superposición es ilimitado. Sin embargo, recalcamos una vez más que el resultado de medir un qubit siempre nos lleva a uno de dos valores posibles.

Consideremos ahora un sistema de dos qubits. Medir cada uno de ellos puede dar un valor de objeto clásico de 0 o 1. Por lo tanto, un sistema de dos qubits tiene cuatro estados clásicos: 00, 01, 10 y 11. Análogos a ellos son los estados cuánticos básicos: |00, |01, |10 y |11. El vector de estado cuántico correspondiente se escribe como a|00+b|01+ do|10+ d|11, donde | a| 2 - probabilidad durante la medición de obtener el valor 00, | b| 2 - probabilidad de obtener el valor 01, etc.

En general, si un sistema cuántico consta de l qubits, entonces tiene 2 l posibles estados clásicos, cada uno de los cuales puede medirse con cierta probabilidad. La función de estado de dicho sistema cuántico se escribirá como:

donde | norte- estados cuánticos básicos (por ejemplo, estado |001101 y | donorte| 2 - probabilidad de estar en el estado básico | norte.

Para cambiar el estado de superposición de un sistema cuántico, es necesario implementar una influencia externa selectiva en cada qubit. Desde un punto de vista matemático, dicha transformación está representada por matrices unitarias de tamaño 2 l x2 l. Como resultado, se obtendrá un nuevo estado de superposición cuántica.

Estructura de una computadora cuántica

La transformación que consideramos del estado de superposición de un sistema cuántico que consta de l Los qubits son esencialmente un modelo de computadora cuántica. Consideremos, por ejemplo, un ejemplo más sencillo de implementación de la computación cuántica. Supongamos que tenemos un sistema de l qubits, cada uno de los cuales está idealmente aislado del mundo exterior. En cada momento, podemos elegir dos qubits arbitrarios y actuar sobre ellos con una matriz unitaria de tamaño 4x4. La secuencia de tales influencias es una especie de programa para una computadora cuántica.

Para utilizar un circuito cuántico para el cálculo, es necesario poder ingresar datos de entrada, realizar el cálculo y leer el resultado. Por lo tanto, el diagrama de circuito de cualquier computadora cuántica (ver figura) debe incluir los siguientes bloques funcionales: un registro cuántico para la entrada de datos, un procesador cuántico para la conversión de datos y un dispositivo para leer datos.

Un registro cuántico es una colección de un número determinado. l qubits. Antes de ingresar información en la computadora, todos los qubits del registro cuántico deben llevarse a los estados básicos |0. Esta operación se llama preparación o inicialización. A continuación, ciertos qubits (no todos) se someten a una influencia externa selectiva (por ejemplo, utilizando pulsos de un campo electromagnético externo controlado por una computadora clásica), lo que cambia el valor de los qubits, es decir, pasan del estado |0 al estado |1. En este caso, el estado de todo el registro cuántico entrará en una superposición de estados básicos | norte s, es decir, el estado del registro cuántico en el momento inicial estará determinado por la función:

Está claro que este estado de superposición se puede utilizar para la representación binaria de un número. norte.

En un procesador cuántico, los datos de entrada se someten a una secuencia de operaciones lógicas cuánticas que, desde un punto de vista matemático, se describen mediante una transformación unitaria que actúa sobre el estado de todo el registro. Como resultado, después de un cierto número de ciclos del procesador cuántico, el estado cuántico inicial del sistema se convierte en una nueva superposición de la forma:

Hablando del procesador cuántico, debemos hacer una nota importante. Resulta que para construir cualquier cálculo, sólo son suficientes dos operaciones booleanas lógicas básicas. Utilizando operaciones cuánticas básicas, es posible imitar el funcionamiento de las puertas lógicas ordinarias de las que están hechas las computadoras. Dado que las leyes de la física cuántica a nivel microscópico son lineales y reversibles, los correspondientes dispositivos de lógica cuántica que realizan operaciones con los estados cuánticos de qubits individuales (puertas cuánticas) resultan ser lógica y termodinámicamente reversibles. Las puertas cuánticas son similares a las puertas clásicas reversibles correspondientes, pero, a diferencia de ellas, son capaces de realizar operaciones unitarias sobre superposiciones de estados. Se supone que la implementación de operaciones lógicas unitarias en qubits se lleva a cabo utilizando influencias externas apropiadas controladas por computadoras clásicas.

Estructura esquemática de una computadora cuántica.

Después de implementar las transformaciones en una computadora cuántica, la nueva función de superposición es el resultado de cálculos en un procesador cuántico. Sólo queda contar los valores obtenidos, para los cuales se mide el valor del sistema cuántico. Como resultado, se forma una secuencia de ceros y unos que, debido a la naturaleza probabilística de las mediciones, puede ser cualquier cosa. Por tanto, una computadora cuántica puede dar cualquier respuesta con cierta probabilidad. En este caso, un esquema de cálculo cuántico se considera correcto si la respuesta correcta se obtiene con una probabilidad suficientemente cercana a la unidad. Repitiendo los cálculos varias veces y eligiendo la respuesta que ocurra con más frecuencia, puede reducir la probabilidad de error a una cantidad arbitrariamente pequeña.

Para comprender en qué se diferencian las computadoras clásicas y cuánticas en su funcionamiento, recordemos qué almacena una computadora clásica en la memoria. l bits que cambian durante cada ciclo del procesador. En una computadora cuántica, la memoria (registro de estado) almacena valores l qubits, sin embargo, el sistema cuántico se encuentra en un estado que es una superposición de todos los de base 2. l estados, y un cambio en el estado cuántico del sistema producido por un procesador cuántico afecta a los 2 l estados básicos simultáneamente. En consecuencia, en una computadora cuántica, la potencia de cálculo se logra mediante la implementación de cálculos paralelos y, en teoría, una computadora cuántica puede funcionar exponencialmente más rápido que un circuito clásico.

Se cree que para implementar una computadora cuántica a gran escala, superior en rendimiento a cualquier computadora clásica, independientemente de los principios físicos con los que opere, se deben cumplir los siguientes requisitos básicos:

  • un sistema físico que sea una computadora cuántica a gran escala debe contener un número suficientemente grande l>103 qubits claramente visibles para realizar operaciones cuánticas relevantes;
  • es necesario garantizar la máxima supresión de los efectos de destrucción de la superposición de estados cuánticos causados ​​por la interacción del sistema qubit con el medio ambiente, como resultado de lo cual la ejecución de algoritmos cuánticos puede volverse imposible. El tiempo necesario para la destrucción de una superposición de estados cuánticos (tiempo de decoherencia) debe ser al menos 104 veces mayor que el tiempo necesario para realizar operaciones cuánticas básicas (tiempo de ciclo). Para hacer esto, el sistema qubit debe estar acoplado de manera bastante flexible a su entorno;
  • es necesario garantizar una medición con una fiabilidad suficientemente alta del estado del sistema cuántico en la salida. Medir el estado cuántico final es uno de los principales desafíos de la computación cuántica.

Aplicaciones prácticas de las computadoras cuánticas

Para uso práctico, todavía no se ha creado ni una sola computadora cuántica que satisfaga todas las condiciones anteriores. Sin embargo, en muchos países desarrollados se presta mucha atención al desarrollo de ordenadores cuánticos y se invierten anualmente decenas de millones de dólares en dichos programas.

Actualmente, el ordenador cuántico más grande está formado por sólo siete qubits. Esto es suficiente para implementar el algoritmo de Shor y factorizar el número 15 en factores primos de 3 y 5.

Si hablamos de posibles modelos de computadoras cuánticas, entonces, en principio, hay bastantes. La primera computadora cuántica que se creó en la práctica fue un espectrómetro de resonancia magnética nuclear (RMN) pulsada de alta resolución, aunque, por supuesto, no se consideraba una computadora cuántica. Sólo cuando surgió el concepto de computadora cuántica, los científicos se dieron cuenta de que un espectrómetro de RMN era una variante de una computadora cuántica.

En un espectrómetro de RMN, los espines de los núcleos de la molécula en estudio forman qubits. Cada núcleo tiene su propia frecuencia de resonancia en un campo magnético determinado. Cuando un núcleo es expuesto a un pulso en su frecuencia de resonancia, comienza a evolucionar, mientras que los núcleos restantes no experimentan ningún impacto. Para obligar a otro núcleo a evolucionar, es necesario tomar una frecuencia de resonancia diferente y darle un impulso. Por tanto, la acción pulsada sobre los núcleos a una frecuencia de resonancia representa un efecto selectivo sobre los qubits. Además, la molécula tiene una conexión directa entre los espines, por lo que es una preparación ideal para una computadora cuántica, y el espectrómetro en sí es un procesador cuántico.

Los primeros experimentos sobre los espines nucleares de dos átomos de hidrógeno en moléculas de 2,3-dibromotiofeno SCH:(CBr) 2:CH y sobre tres espines nucleares: uno en el átomo de hidrógeno H y dos en isótopos de carbono 13 C en moléculas de tricloroetileno. CCl 2:CHCl - se realizaron en 1997 en Oxford (Reino Unido).

En el caso de utilizar un espectrómetro de RMN, es importante que para influir selectivamente en los espines nucleares de una molécula, es necesario que difieran notablemente en las frecuencias de resonancia. Posteriormente, se llevaron a cabo operaciones cuánticas en un espectrómetro de RMN con el número de qubits 3, 5, 6 y 7.

La principal ventaja de un espectrómetro de RMN es que puede utilizar una gran cantidad de moléculas idénticas. Además, cada molécula (más precisamente, los núcleos de los átomos que la componen) es un sistema cuántico. Las secuencias de pulsos de radiofrecuencia, que actúan como ciertas puertas lógicas cuánticas, llevan a cabo transformaciones unitarias de los estados de los espines nucleares correspondientes simultáneamente para todas las moléculas. Es decir, la influencia selectiva sobre un qubit individual se reemplaza por el acceso simultáneo a los qubits correspondientes en todas las moléculas de un conjunto grande. Una computadora de este tipo se llama computadora cuántica de conjunto masivo. Estas computadoras pueden funcionar a temperatura ambiente y el tiempo de decoherencia de los estados cuánticos de los espines nucleares es de varios segundos.

En el campo de la RMN de ordenadores cuánticos sobre líquidos orgánicos se han logrado los mayores avances hasta la fecha. Se deben principalmente a la bien desarrollada técnica de espectroscopia de RMN pulsada, que permite realizar diversas operaciones sobre superposiciones coherentes de estados de espín nuclear, y a la posibilidad de utilizar para este fin espectrómetros de RMN estándar que funcionan a temperatura ambiente.

La principal limitación de las computadoras cuánticas de RMN es la dificultad de inicializar el estado inicial en el registro cuántico. El hecho es que en un gran conjunto de moléculas el estado inicial de los qubits es diferente, lo que complica llevar el sistema al estado inicial.

Otra limitación de las computadoras cuánticas de RMN se debe al hecho de que la señal medida en la salida del sistema disminuye exponencialmente a medida que aumenta el número de qubits. l. Además, el número de qubits nucleares en una sola molécula con frecuencias de resonancia muy variables es limitado. Esto lleva al hecho de que las computadoras cuánticas de RMN no pueden tener más de diez qubits. Deben considerarse sólo como prototipos de futuras computadoras cuánticas, útiles para probar los principios de la computación cuántica y probar algoritmos cuánticos.

Otra versión de una computadora cuántica se basa en el uso de trampas de iones, cuando la función de los qubits es el nivel de energía de los iones capturados por las trampas de iones, que se crean en el vacío mediante una determinada configuración del campo eléctrico en condiciones de enfriamiento por láser. a temperaturas ultrabajas. El primer prototipo de ordenador cuántico basado en este principio se propuso en 1995. La ventaja de este enfoque es que es relativamente sencillo controlar individualmente qubits individuales. Las principales desventajas de las computadoras cuánticas de este tipo son la necesidad de crear temperaturas ultrabajas, garantizar la estabilidad del estado de los iones en la cadena y el número limitado posible de qubits: no más de 40.

También son posibles otros esquemas para ordenadores cuánticos, cuyo desarrollo está actualmente en marcha. Sin embargo, pasarán al menos otros diez años antes de que finalmente se creen verdaderas computadoras cuánticas.

La ciencia no se detiene y, al parecer, lo que ayer se consideraba místico es hoy una realidad innegable. Así que ahora los mitos sobre mundos paralelos pueden convertirse en un hecho común en el futuro. Se cree que la investigación en el campo de la creación de una computadora cuántica ayudará a llegar a esta afirmación. Japón está a la cabeza; más del 70% de toda la investigación proviene de este país. La esencia de este descubrimiento es más comprensible para quienes están de una forma u otra relacionados con la física. Pero la mayoría de nosotros nos graduamos de la escuela secundaria, donde el libro de texto del undécimo grado cubría algunas cuestiones de física cuántica.

donde todo empezó

Recordemos que el comienzo lo sentaron dos descubrimientos principales, por los cuales sus autores recibieron el Premio Nobel. En 1918, Max Planck descubrió la tecnología cuántica y Albert Einstein en 1921 fotón. La idea de crear una computadora cuántica surgió en 1980, cuando se demostró la veracidad de la teoría cuántica. Y las ideas no comenzaron a ponerse en práctica hasta 1998. Sólo en los últimos diez años se ha llevado a cabo un trabajo masivo y, al mismo tiempo, bastante eficaz.

Los principios básicos son claros, pero con cada paso adelante surgen cada vez más problemas, cuya resolución lleva bastante tiempo, aunque muchos laboratorios de todo el mundo están trabajando en este problema. Los requisitos para una computadora de este tipo son muy altos, ya que la precisión de las mediciones debe ser muy alta y debe minimizarse la cantidad de influencias externas, cada una de las cuales distorsionará el funcionamiento del sistema cuántico.

¿POR QUÉ NECESITAS UNA COMPUTADORA CUÁNTICA?

¿En qué se basa una computadora cuántica?

Todo el mundo, en mayor o menor medida, tiene una idea de cómo funciona un ordenador normal. Su significado radica en el uso de codificación binaria, donde la presencia de un determinado valor de voltaje se toma como 1, y la ausencia de 0, expresada como 0 o 1, se considera un bit. El funcionamiento de una computadora cuántica está asociado con el concepto de espín. Quienes limitan la física al conocimiento escolar, pueden argumentar sobre la existencia de tres partículas elementales y la presencia en ellas de características simples, como masa y carga.

Pero los físicos constantemente añaden a la clase de partículas elementales y sus características, una de las cuales es el espín. Y una determinada dirección del giro de la partícula se toma como 1 y su dirección opuesta como 0. Esto es similar al diseño de un transistor. El elemento principal ya se llamará bit cuántico o qubit. Pueden ser fotones, átomos, iones y núcleos atómicos.

La condición principal aquí es la presencia de dos estados cuánticos. Cambiar el estado de un bit en particular en una computadora convencional no conduce a cambios en otros, pero en una computadora cuántica, cambiar uno conducirá a un cambio en el estado de otras partículas. Este cambio se puede controlar e imaginar que hay cientos de partículas de este tipo.

Imagínese cuántas veces aumentará la productividad de una máquina de este tipo. Pero la creación de una computadora completamente nueva es sólo una hipótesis; los físicos tienen mucho trabajo por hacer en esa área de la mecánica cuántica, que se llama mecánica de muchas partículas. La primera mini computadora cuántica constaba de 16 qubits. Recientemente, se han lanzado computadoras que utilizan 512 qubits, pero ya se están utilizando para aumentar la velocidad de realización de cálculos complejos. Quipper es un lenguaje diseñado específicamente para este tipo de máquinas.

Secuencia de operaciones realizadas.

En la creación de una computadora de nueva generación, existen cuatro direcciones, que se diferencian en que actúan como qubits lógicos:

  1. la dirección de los espines de las partículas que forman la base del átomo;
  2. la presencia o ausencia de un par de Cooper en un lugar específico en el espacio;
  3. ¿En qué estado se encuentra el electrón exterior?
  4. diferentes estados del fotón.

Ahora veamos el circuito mediante el cual funciona la computadora. Para empezar, se toma un conjunto de qubits y se registran sus parámetros iniciales. Las transformaciones se realizan mediante operaciones lógicas y se registra el valor resultante, que es el resultado generado por la computadora. Los cables son qubits y las transformaciones se componen de bloques lógicos. Un procesador de este tipo fue propuesto por D. Deutsch, quien en 1995 logró crear una cadena capaz de realizar cualquier cálculo a nivel cuántico. Pero un sistema así produce pequeños errores, que pueden reducirse ligeramente aumentando el número de operaciones involucradas en el algoritmo.

¿Cómo funciona una computadora cuántica?

¿Qué hemos logrado?

Hasta ahora sólo se han desarrollado dos tipos de ordenadores cuánticos, pero la ciencia no se detiene. El funcionamiento de ambas máquinas se basa en fenómenos cuánticos:

  1. asociado con la superconductividad. Cuando se viola, se observa cuantificación;
  2. basado en una propiedad como la coherencia. La velocidad de cálculo de estos ordenadores se duplica en comparación con el número de qubits.

El segundo tipo de los considerados se considera prioritario en el campo de la creación de computadoras cuánticas.

Logros de varios países.

En resumen, los logros de los últimos 10 años son significativos. Cabe destacar la computadora de dos qubits con software creado en Estados Unidos. También pudieron producir una computadora de dos qubits con un cristal de diamante. La dirección de giro de las partículas de nitrógeno y sus componentes: el núcleo y el electrón se utilizó como qubits. Para brindar una protección significativa, se desarrolló un sistema muy complejo que le permite dar resultados con una precisión del 95%.

ICQT 2017. John Martinis, Google: Computadora cuántica: la vida después de la ley de Moore

¿Por qué es necesario todo esto?

Ya se ha hablado de la creación de ordenadores cuánticos. Estas computadoras no son el resultado de lo que buscaban, pero encontraron a su comprador. La empresa de defensa estadounidense Lockheed Martin pagó 10 millones de dólares. Su adquisición es capaz de encontrar errores en el programa más complejo instalado en el caza F-35. Google quiere lanzar programas de aprendizaje automático con su adquisición.

Futuro

En desarrollo de una computadora cuántica Las grandes empresas y el Estado están muy interesados. Conducirá a nuevos descubrimientos en el campo del desarrollo de algoritmos criptográficos. El tiempo decidirá si esto beneficiará al Estado o a los piratas informáticos. Pero el trabajo de crear y reconocer claves criptográficas se realizará al instante. Se solucionarán muchos problemas asociados con una tarjeta bancaria.

Los mensajes se transmitirán a una velocidad tremenda y no habrá problemas para comunicarse con cualquier punto del globo, y tal vez incluso más allá.

Una computadora de este tipo ayudará a lograr esto, especialmente a descifrar el código genético. Esto conducirá a la resolución de muchos problemas médicos.

Y, por supuesto, le abrirá la puerta a una tierra de secretos místicos y mundos paralelos.

Nos esperan grandes sobresaltos. Todo lo que estamos acostumbrados es sólo una parte de ese mundo, al que ya se le ha dado el nombre de Realidad Cuántica. Le ayudarán a ir más allá del mundo material, que es el principio de funcionamiento de una computadora cuántica.




Arriba