165.-cuantico

Poder cuántico

Curar el cáncer y detectar una fusión de agujeros negros a miles de millones de años luz es complicado e importante sí, pero a veces olvidamos que esos no son los únicos intereses humanos que podemos abordar desde la ciencia. Además de descubrir partes impensadas del Universo, a veces damos un pasito más, y decidimos inventarlas. En ese filo entre descubrir e inventar está el paso de lo científico a lo tecnológico, y es ahí que a la ciencia también le compete cuando se le tilda la computadora, o cuando una transacción segura por internet funciona.

Justo en este filo que implica convertir algo que descubrimos en algo que inventamos se encuentra hoy la computación, que trata de metabolizar una de las discusiones más apasionadas del siglo pasado: ¿qué hacemos cuando las leyes de la física como las conocemos no funcionan más, porque nos acercamos el reino de lo cuántico?

Ajusten sus cinturones y pongan sus asientos en posición vertical, estamos por hablar de computación cuántica.

Una computadora clásica, para funcionar, transporta y manipula bits (cosas que están en uno de dos estados: o cero o uno). Un bit es, por ejemplo, la cantidad de información que te da alguien que te responde una ‘pregunta de sí o no’ como ‘¿Te lavaste los dientes?’, o ‘¿Querés ser mi novia?’ (Escribí toda la nota para meter esto en el medio, Lore. Pensalo)

En una computadora cuántica, en cambio, se quieren aprovechar ciertas leyes que gobiernan el comportamiento de partículas elementales, átomos, y moléculas. Las leyes (clásicas) que vemos día a día a nuestras escalas son bastante diferentes al comportamiento (cuántico) de las cosas en tamaños más chicos. Entonces, si vivieras en el mundo atómico te pasaría algo como esto:

  1. En cuántica, las partículas o átomos pueden estar en muchos lugares (o en muchos estados) diferentes al mismo tiempo. De ahí el gato ese del experimento imaginario, que puede estar vivo Y muerto. Esto se llama principio de superposición, y es importante porque permite armar elementos que pueden estar en el estado uno y cero al mismo tiempo (los qubits, que son las unidades de información cuántica).
  2. Bien, ya tenemos un gato que puede estar vivo y muerto, pero está dentro de una caja y nada ni nadie chequeó su estado. Y ese es el secreto. Al abrir la caja y observar al felino zombie, la superposición se pierde, dando lugar a uno sólo de sus resultados posibles (o vivo, o muerto, nada de ambigüedades). Es decir, la medición no revela el estado anterior del sistema (superpuesto), sino que lo cambia. Este es el problema de la medición. Lo único que puede hacer un físico antes de medir es calcular la probabilidad de que resulte en una cosa u otra (bah, un muggle también puede hacer el cálculo). A lo que ocurre cuando uno mide se le dice, en la jerga científica, colapso de la función de onda, o ‘no sé lo que está pasando pero los experimentos dan bien’.
  3. Otro efecto todavía más loco, puesto en evidencia por Einstein y compañía para mostrar que la jodita de la cuántica mucho no les copaba, es el entrelazamiento cuántico. Y no, no es un arrebato romántico de Alberto. Que un par de partículas estén entrelazadas quiere decir que midiendo una de ellas se puede conocer (y colapsar) el estado de la otra a una distancia arbitrariamente larga. Este efecto permite lograr otra locura, que es la teleportación cuántica, cuyo récord actualmente es la transmisión de un estado cuántico a través de 143 kilómetros. Este experimento se hizo entre dos de las Islas Canarias, La Palma y Tenerife, demostrando también hasta dónde puede llegar un físico con ganas de tomarse unas buenas vacaciones pagas.

Raro. Antiintuitivo. Cuántico. Sexy. Atrevido.

Ahora, volviendo un rato a nuestra escala, podríamos decir mucho sobre cómo empezó esto de estudiar las computadoras cuánticas, pero por una cuestión subjetivamente cholula sólo voy a nombrar una charla de Richard Feynman (TE AMO, RICHARD) de 1959, titulada ‘Hay un montón de lugar al fondo’. En esa charla, Dick no sólo propone miniaturizar la computadora y utilizar las propiedades cuánticas de los átomos, sino que además establece los orígenes de la nanotecnología.

Pero fue recién en 1994 cuando la cosa realmente despegó. Ese año Peter Shor describió el primer algoritmo cuántico de factorización en números primos que da un resultado en tiempos razonables (no como los algoritmos clásicos que tardarían millones de años). Esto es importante porque la seguridad de diversos sistemas informáticos depende de que este problema siga siendo difícil de resolver. Básicamente estoy diciendo que con una buena e hipotética computadora cuántica se podrían hackear hasta las cuentas bancarias en Panamá, lo que nos daría una pila de datos que después no usaríamos para nada ;). Pero no desesperéis, clase política, que hasta el día de hoy la gente que más grande la tiene, la tiene de 14 qubits, y se necesita una computadora cuántica de miles de qubits para factorizar más rápido que una computadora clásica.

Hasta acá todo muy teórico y muy lindo, pero ¿cómo se hace una computadora cuántica y por qué todavía no tenemos una?

Hay dos cuestiones, y la primera son los errores de cómputo. Las computadoras clásicas, en general, no cometen errores (los programas sí, pero no el hardware, que es lo que puedo romper tirándolo al piso por culpa de un error de programación). En cambio, los errores que comete el hardware de una computadora cuántica juegan un papel fundamental. El tema es que es muy difícil mantener unos cuantos qubits en un estado cuántico específico sin que venga alguien de afuera y los perturbe sin mi consentimiento. Digo, son átomos. Andá vos a mantener un átomo quieto sin que lo jodan. Lo bueno es que hay un teorema bastante copado que dice que si a estos átomos se les rompe las bolas sólo hasta un cierto punto, entonces se pueden agregar más qubits (y hacer más cuentas) y la compu va a andar bien igual. Lo que nos lleva al segundo problema: agregar más qubits.

Así como las computadoras clásicas pasaron a ser desde cosas mecánicas con palancas, hasta lo que son hoy después del invento del transistor y del circuito integrado, las compus cuánticas también están buscando ese pedazo de hardware que las haría realidad. Se están intentando métodos muy locos, pero la cuestión es que todavía no existe ese tan ansiado circuito integrado cuántico, y el problema es de estabilidad y escalabilidad (pasar de tener pocos qubits a tener muchos). Esto es difícil de lograr por la decoherencia, que es la razón por la que los objetos grandes que vemos todos los días no tienen las propiedades cuánticas re locas que mencioné más arriba. La decoherencia se puede pensar como la pérdida de la información cuántica de un sistema por su interacción con el ambiente, y es la responsable de que ahora entendamos por qué el experimento mental de Schrödinger, el del gato y la caja, no se puede hacer en realidad. El estado loco del gatuno vivo y muerto sería extremadamente inestable, y decaería muy rápido a uno de sus dos estados clásicos posibles: vivo o muerto. En todos los sistemas ‘grandes’ la información cuántica se pierde rápidamente, transformando nuestra computadora cuántica en una clásica, y quitándonos así la posibilidad de hacer la gran Steve Jobs y armarnos una en el garage para salir a venderla (por más Wozniak que tengamos bajo la manga).

Varias empresas (y un continente) están tratando de desarrollar computadoras cuánticas (como IBM, Microsoft o Google). Una empresa canadiense en particular, D-Wave Systems, dice haber fabricado una de 28 qubits en 2007, 128 qubits en 2008, y actualmente una de más de 1000. Pero quizás es chamuyo ya que todavía nadie pudo comprobar si los chips de D-Wave realmente manipulan información cuántica para resolver los algoritmos. Igual Google y la NASA los están testeando desde 2013, hasta ahora con buenos resultados en comparación con los mismos algoritmos pero clásicos.

Y para mostrar que esto no es joda, en 2013 Edward Snowden se retobó y develó un par de documentos clasificados de la NSA (la Agencia de Seguridad Nacional de EEUU, para la cual trabajaba), sacando a la luz algunos proyectos espías secretos. Uno de ellos es el Penetrating Hard Targets (Penetrando Objetivos Difíciles), un proyecto que no es simplemente un nombre extremadamente feliz para estrategias de seducción, sino que consiste en el desarrollo de una computadora cuántica con intenciones, digamos, poco felices para con la privacidad de las personas y los Estados. Del lado de los buenos, un chiche como estos se podría usar por ejemplo para reducir sarpadamente los tiempos que consumen ciertos algoritmos clásicos, o simular propiedades cuánticas de moléculas para el diseño de nuevos y mejores materiales, medicamentos o paneles solares. El tema central es que toda esta jodita de resolver ciertos problemas y entender el Universo podría acelerarse a niveles no imaginados.

La cuestión es que se está tratando de cruzar otra frontera del conocimiento. Los científicos se están metiendo en regiones nunca antes exploradas (en el terreno negro del Age of Empires), y no se sabe con qué se van a encontrar. La pregunta de ¿cuándo vamos a tener una computadora cuántica? es del campo de la futurología y los expertos tienen diversas opiniones al respecto (desde el pronto hasta el nunca). Lo lindo de la ciencia es que es una herramienta que nos permite construir a partir de lo que ya se hizo (parándonos sobre hombros de gigantes), y que, si llegamos a darnos cuenta de que nunca vamos a tener una computadora cuántica, también vamos a saber por qué, y vamos a haber aprendido algo nuevo sobre el Universo en el que vivimos. Quizás hasta una teoría nueva y mejor que la cuántica para explicar lo microscópico, quién sabe. Mientras tanto, sigamos empujando el borde del conocimiento. Y que la fuerza (y, sobre todo, el financiamiento) nos acompañen.

 

Computación cuántica desde Demócrito, Scott Aaronson
Teoría cuántica, David Bohm
¿Puede ser considerada completa la descripción cuántica de la realidad física? – Einstein, Podolsky, Rosen
Teoría cuántica, el principio de Church-Turing y la computadora cuántica universal, David Deutsch
Algoritmos para computación cuántica, Peter W. Shor
Decoherencia y la transición cuántica a clásica, Wojciech H. Zurek
Esquema para reducir decoherencia en memorias cuánticas, Peter W. Shor
Entrelazamiento de 14 qubits: creación y coherencia, Monz et. al.
Teleportación cuántica a través de 143 kilómetros, Xiao-Song Ma et. al.




Hay 33 comentarios

Añadir más
  1. Jonathan

    Muy buena nota!
    Obviamente con conocimientos sobre teoría cuántica se termina de entender (los cuales me faltan). De todas maneras, es excelente poder encontrarle aplicaciones tan concretas (como las computadoras) a algo tan abstracto como lo cuántico. Seguramente en unos años se verán avances, tengamos esperanza!

  2. Alvaro

    Es fantástica esta nota Marcos!
    Espero llegar a comprender el funcionamiento de una al menos sin verla.
    P/D: Suerte con Lore, jaja.
    A

    • Marcos Feole

      Esto es tremendo tremendo tremendo, los tipos pusieron una compu de 5 qubits disponible para cualquiera que quiera programarse algo desde su casa y que el programa corra es su laboratorio. Tremendo!

  3. Mauro

    Muy buena nota. Lindo estilo gatoycajero (no te había leído nunca).

    A modo de rompepelotas me pregunto si habría una forma de escribir los bullets de Quantum Mechanics for Dummies que no se metiera tan de lleno con la interpretación de Copenhagen. Hace sonar a la cuántica más mágica de lo que ya es.

    • Marcos Feole

      Muchas gracias!

      Yo creo que la interpretación de Copenhagen (y no es la que más banco ni a palos) es la menos mágica de todas. Justamente porque es la “no interpretación”, no hace conclusiones más allá de los experimentos. Como decía Bohr, uno de sus fundadores: “la física no se trata de entender la naturaleza, sino de lo que podemos decir acerca de la naturaleza”. En ese sentido parece mágica porque deja cosas sin explicar, pero en realidad es la menos mágica porque no se mete con cosas que no sabe. El problema de adoptar la interpretación de Copenhagen para mí no es la fumata, sino el hecho de que no te lleva a querer descubrir más acerca de como funciona el mundo.

      Igual ninguna de las interpretaciones relevantes se pueden diferenciar empíricamente (con esto defino ‘interpretación relevante’), con lo cual no hay tanto para discutir entre ellas, hace falta más evidencia. Y creo que está bien explicar la cuántica desde cualquiera de esos puntos de vista. En este caso quise hacer algo más general y el enfoque era sobre la computación y no sobre la cuántica, con lo cual decidí no meterme en discusiones acerca de la interpretación.

      Muchas gracias por el aporte!

  4. carlos sogán

    Decir que algo esta en dos lugares al mismo tiempo es no respetar las reglas de la lógica, que son más fuertes que las de la física. Es por ello que hay distintas interpretaciones acerca de qué es lo que habla la mecánica cuántica (que no es más que una teoría matemática para predecir resultados). El experimento del gato era justamente una reducción al absurdo de la teoría, pero fue malinterpretado por gente que no entiende lógica y cree que algo puede ser y no ser al mismo tiempo. Saludos.

    • Marcos Feole

      Tenés toda la razón. La forma de decirlo es que la partícula está en un “estado de superposición”, lo cual tiene un significado matemático únicamente (y sirve para explicar la naturaleza en el sentido de lo que se puede observar en los experimentos, hacer predicciones y generar aplicaciones).

      La forma en que lo escribí yo no puede ni debe tomarse de manera literal, y es cierto que en un sentido estricto es equivocado. Gracias por la corrección, no lo podría haber dicho mejor!

  5. andrescass

    Muy buena e interesante nota.
    La cuántica es super compleja y por eso debe ser tan interesante. Está muy bueno ver avances no solo en la teoría sino también en la aplicación real. Sobre la computadora cuántica creo que veo un artículo nuevo cada 15 días que no explican ni aclaran nada pero prometen cosas fantásticas, que bueno que aparezca un artículo como este que echa luz al tema y aclara el estado actual de las cosas.

    • Marcos Feole

      Genial, amo tu comentario, ese es un RE problema. Sobre todo porque salen tantas cosas de compus cuánticas que venden mucho, que cuando hagan un avance o un descubrimiento real, importante, trascendente, disruptivo en serio, nadie excepto los especialistas se van a poder dar cuenta.
      E imagino que mucha gente va a creer que era normal “porque ya venían haciendo avances hace rato”. Realmente creo que al área le hace falta un avance disruptivo para poder seguir creciendo, desde el punto de vista teórico o desde el experimental, pero algo.

  6. Monti

    “Escribí toda la nota para meter esto en el medio, Lore. Pensalo”

    Lore, no seas ortiva. O sé y no seas ortiva. Pero menos ortiva que más.

    • Marcos Feole

      Ufff, hacía falta hacer pública esta respuesta? Ahora me colapsaste la función de onda…

      Y yo sé que para las compus cuánticas falta un tiempo, y que tu tía usó una homeopática y después se curó… pero, vamos, me parece que están pasando por alto un cachito de análisis causal en el medio

  7. Santiago Uccella

    Para los que no les haya terminado de quedar claro por el motivo que sea yo encontré este video que me pareció muy bueno.
    https://www.youtube.com/watch?v=JhHMJCUmq28

    Para los que no entiendan inglés (tiene subtítulos pero también en inglés) les dejo un último dato para completar.
    Las computadoras están hechas de chips, que están hechos de módulos, que están hechos de puertas lógicas, que están hechos de transistores.
    Básicamente los transistores son un interruptor que permiten el paso de electricidad (información) si está abierto y lo impide si está cerrado.
    Un bit en estado cero representa el cierre del transistor, lo que bloquea el paso del flujo de electrones (electricidad). Un bit en estado uno representa la apertura del transistor, que permite el paso de electrones.
    Hoy en día los transistores fabricados son tan pequeños que entran en el campo de la física cuántica. El problema es que en este campo los electrones pueden simplemente “ignorar” el cierre de los transistores “teletransportandose” (efecto túnel) al otro lado del bloqueo.

    Espero haber aclarado cualquier duda que pueda haber quedado.

    Saludos y como siempre, excelente nota, gatos!

  8. Fernando

    Marcos, en vez del gato, esta Lore (que no se ofenda), y la pregunta no es si esta viva o muerta. Es en definitiva, si quiere ser tu novia….? Ponete contento…. si y no… ;-).

  9. Nico Latesla

    Clarísimo Marco. Un abrazo grande y gracias por bajar un poco el tema! Me hiciste entrar en un recorrido interminable de artículos de Wikipedia unidos entre sí por hipervínculos de unos dentro de otros, paseando por la criptografía, el factoreo de nros primos, la máquina de Turing, la potencia de cumputo y los tiempos que insumen las operaciones.

    El problema que está presentando la computación tradicional actualmente es que no es lo suficientemente rápida para hacer algunas cosas que andamos necesitando? (es como yo cuando se me tildaba el Age o Empires con Windows 95)

    Osea, podríamos decir que es un problema de tráfico de electrones? Que por eso los últimos avances en potencia de procesamiento fueron a causa de procesadores trabajando en paralelo, si es que no me equivoco, porque ya no podemos inventar procesadores mucho más rapidos utilizando la computación clásica.

    Osea que lo unico que necesitamos es un auto mas rápido, o quizá mejor con un poco más de espacio para meter más cosas.

    • Marcos Feole

      Hola Nico, muchas gracias!

      Sobre tu interpretación de la velocidad de procesamiento la respuesta lamentablemente es: no! No es un tema de velocidad de procesamiento, ni de tráfico de electrones, ni siquiera de poner procesadores en paralelo, etc.

      La diferencia es muy delicada, pero el tema está en los (mejores) métodos (algoritmos) que conocemos hasta ahora para resolver cada problema que se plantea. Es decir, cada método requiere una cierta cantidad de operaciones para llegar a un resultado y así resolver un problema dado. Hay problemas ‘fáciles’ de resolver (como la multiplicación), y problemas ‘difíciles’ de resolver (como la simulación de una molécula). Que un problema sea fácil o difícil depende de los métodos y herramientas que tenemos ahora a mano para resolverlos (o sea, mañana puede cambiar). Pero depende particularmente de cuántas operaciones tiene que llevar a cabo el mejor método que tenemos, en función del número de bits de entrada. Para bajarlo a Tierra, un método para un problema fácil puede escalar polinomialmente como n^2 por ejemplo, eso quiere decir que si entra un bit te resuelvo el problema en 1 segundo (ponele), si entran dos bits, en 4 segundos, si entran 3 en 9, y así (eso es fácil porque no escala lo suficientemente rápido). Ahora, un método para un problema difícil puede escalar exponencialmente por ejemplo, y como dije en alguna otra nota, lo exponencial crece muy mucho más rápido (si doblas una hoja de papel por la mitad 10 veces, la altura que queda es de 1 cm. Si la doblas 50 veces, queda de la distancia de la Tierra al Sol). Es decir, factorizar un número de 2 dígitos es una boludez para cualquier computadora (15=5*3), pero si alguien te pide factorizar un número de 400 dígitos, este problema hoy es sencillamente imposible para cualquier computadora o suma de computadoras, porque el tiempo que tarda el mejor método escala muy rápido con la cantidad de números que le pidas resolver. Es decir, lo exponencial escala tan rápido que no importa cuantos datacenters y supercomputadoras pongas trabajando en paralelo, el flaco (o el banco) que no quiere que resuelvas el problema, lo único que tiene que hacer es pedirte que en vez de factorizar un número de 400 dígitos, factorices uno de 401, 402, o 500 (total el tiempo de resolución escala rápidamente con la cantidad de dígitos de la entrada), y para el banco es fácil mandar un número de 500 dígitos en vez de uno de 400, pero para el que lo quiere sabotear, es exponencialmente más complicado de resolver.

      La pregunta de si con una computadora clásica se puede resolver eficientemente el problema de la factorización no tiene respuesta aún (no se conoce ningún método, pero tampoco se probó que no existe. Este problema es un problema abierto de matemática por el que te pagarían 1 millón de dólares en caso de que lo resuelvas: http://www.claymath.org/millennium-problems . Es el problema número 3, P vs NP).

      Lo que hizo Peter Shor en 1994 es (como digo en la nota) encontrar un método para resolver eficientemente el problema de factorización, pero este método es solo para computadoras cuánticas. Eso causó el boom de las computadoras cuánticas, ya que hizo pensar a muchos que había un montón de métodos que se podían resolver más eficientemente con ellas. Cosa que todavía hoy no está probada, es decir, sabemos que hasta ahora una compu cuántica resuelve más eficientemente la factorización que una clásica, pero no sabemos si una cuántica puede resolver problemas más complicados, y ni siquiera sabemos si en algún momento se va a encontrar un método para que una computadora clásica también los resuelva. Es decir, por ahora una compu cuántica es mejor que una clásica, pero todavía no sabemos si es fundamentalmente mejor, o si no es mejor y el problema es que todavía no pudimos encontrar los métodos clásicos que harían que los dos tipos de computadoras sean igual de eficientes en resolver cada problema.

      (Para terminar, y atajarme, adhiero un detalle: en realidad el problema de la factorización actualmente no crece exponencialmente, sino superpolinomialmente (lo cual es más lento que lo exponencial, y más rápido que lo polinomial, pero también hace que sea difícil e intratable con computadoras clásicas, por eso se usa en los sistemas de seguridad), con lo cual una computadora cuántica no sabemos todavía si puede resolver eficientemente problemas que para una clásica son exponenciales. Es decir, las computadoras cuánticas son buenas, pero todavía no sabemos si son TAN buenas. Por otro lado, y por esto que dije del problema de factorización, resolver factorización con una computadora clásica no implica resolver P vs NP. Para resolver P vs NP hace falta resolver un tipo de problemas aún más difíciles que la factorización con computadoras clásicas, o probar que no se pueden resolver. Hasta ahora es: no sabemos.)

      Saludos, e infinitos perdones por esta respuesta jajaja.

  10. Santiago

    Felicitaciones por la nota, excelente como todas la que aparecen en El Gato. Saliendo del tema central de la nota, cuando la leí, no solo llegue a entender en su gran mayoría de que se habla cuando se habla de computación cuántica, sino que me di cuenta de que no hay un solo periodista capaz de hacer una nota de este tema y logré este magnifico resultado. En las notas de temas científicos actuales, te das cuenta la falta de ciencia que les hace falta a los periodistas para poder hablar de ciencia.
    Por mas notas informativas de esta calidad y menos informes confusos y erroneos sobre ciencia.
    Saludos desde uruguay


Publicar un nuevo comentario