traductor

martes, 16 de noviembre de 2021

Así funciona el primer computador cuántico que no puede ni simularse con un ordenador convencional

 

Así funciona el primer computador cuántico que no puede ni simularse con un ordenador convencional 

El procesador cuántico de IBM incorpora nuevas técnicas de cableado y colocación en una sola capa para evitar que sus 127 cúbits pierdan calidad.


La carrera cuántica está que arde. Y si no que se lo digan a IBM, que tenía planeado un importante anuncio en estas lides para este martes, pero le ardía en las manos y acabó lanzándolo, por sorpresa, un día antes. 

La relevancia del lanzamiento está fuera de cualquier duda: el Gigante Azul ha creado un procesador cuántico de 127 cúbits, de nombre en clave 'Eagle'. Quizás hasta aquí la noticia no parezca tan especial, en tanto que otros competidores han lanzado computadores cuánticos con números similares. Pero hay una clave que obvian en muchos de esos casos: el aumento de cúbits suele llevar aparejada una pérdida de calidad de los mismos.

Así lo explican en D+I el español Ignacio Cirac e Inmanuel Bloch, investigadores del Instituto Max Planck, los pioneros de la ciencia cuántica. Se trata de una de esas peculiaridades de esta nueva era en la que la física goza de gran protagonismo en la informática.

En el caso del procesador cuántico de IBM, este problema parece resuelto. ¿Cómo han logrado equilibrar la potencia a medida que escalan estos sistemas? La respuesta llega desde el diseño de la disposición de los cúbits para reducir los errores y una nueva arquitectura para reducir el número de componentes necesarios. Además, las nuevas técnicas empleadas en 'Eagle' colocan el cableado de control en varios niveles físicos dentro del procesador y mantienen los cúbits en una sola capa, lo que permite un aumento significativo de los cúbits, manteniendo un alto nivel de calidad.

Como decimos, 'Eagle' (ya disponible desde la nube pública de la casa) es el primer procesador cuántico de IBM desarrollado y desplegado para contener más de 100 cúbits operativos y conectados. Sigue al procesador "Hummingbird" de 65 cúbits de IBM presentado en 2020 y al procesador "Falcon" de 27 cúbits presentado en 2019. 

Imposible de simular por un computador convencional

Más allá del número de cúbits, lo más llamativo del nuevo procesador ideado por el equipo del español Darío Gil es que es el primer equipo cuántico cuyo rendimiento es imposible de simular por un ordenador clásico.

De hecho, el número de bits clásicos necesarios para representar un estado en el procesador de 127 cúbits supera el número total de átomos de los más de 7.500 millones de personas que viven actualmente.

IBM Quantum System One

IBM Quantum System One IBM Omicrono

IBM mide el progreso del hardware de computación cuántica a través de tres atributos de rendimiento: escala, calidad y velocidad. La escala se mide por el número de cúbits de un procesador cuántico y determina la magnitud del circuito cuántico que puede ejecutarse. La calidad se mide por el volumen cuántico y describe la precisión con la que se ejecutan los circuitos cuánticos en el hardware real. La velocidad se mide por CLOPS (Circuit Layer Operations Per Second), una métrica que el Gigante Azul introdujo en noviembre de 2021, y captura la viabilidad de ejecutar cálculos reales compuestos por un gran número de circuitos cuánticos.

IBM Quantum System Two

El nuevo procesador cuántico de IBM será el núcleo central de la próxima generación de ordenadores cuánticos de esta firma, el Quantum System Two, diseñado incluso para funcionar con los futuros procesadores de 433 y 1.121 cúbits.

La principal mejora de esta generación radica en dotar al hardware de control de la flexibilidad y los recursos necesarios para ampliarse. Estos recursos incluyen la electrónica de control, que permite a los usuarios manipular los cúbits, y la refrigeración criogénica, que mantiene los cúbits a una temperatura lo suficientemente baja como para que se manifiesten sus propiedades cuánticas.

IBM Q, uno de los equipos de computación cuántica de la compañía.

IBM Q, uno de los equipos de computación cuántica de la compañía.

En ese sentido, IBM Quantum System Two incorporará una nueva generación de electrónica de control de cúbits escalable junto con componentes criogénicos y cableado de mayor densidad. Además, IBM Quantum System Two introduce una nueva plataforma criogénica, diseñada en colaboración con Bluefors Cryogenics, que presenta una huella hexagonal para maximizar el espacio destinado al hardware de apoyo que requieren los procesadores de mayor tamaño, al tiempo que garantiza que los ingenieros puedan acceder fácilmente al hardware y realizar su mantenimiento.

Además, el nuevo diseño ofrece la posibilidad de enlazar varios sistemas para proporcionar un espacio de trabajo criogénico compartido más amplio, lo que finalmente llevaría a la posible conexión de varios procesadores cuánticos.

Se espera que el primer IBM Quantum System Two esté en funcionamiento en 2023 en la sede de IBM Research en Yorktown Heights, Nueva York. 

El elevado número de cúbits permitirá a los usuarios explorar problemas con un nuevo nivel de complejidad a la hora de realizar experimentos y ejecutar aplicaciones, como la optimización del machine learning o el modelado de nuevas moléculas y materiales para su uso en áreas que van desde la industria energética hasta el proceso de descubrimiento de fármacos.

https://www.elespanol.com/invertia/disruptores-innovadores/innovadores/tecnologicas/20211116/funciona-computador-cuantico-no-simularse-ordenador-convencional/627438230_0.html

Noticias relacionadas

 

 

La computación cuántica, ante el reto de ser escalable

Hablamos con dos genios, el español Ignacio Cirac e Inmanuel Bloch, investigadores del Instituto Max Planck, sobre los retos a afrontar hasta la llegada de la computación cuántica

Cuando Richard Feynman planteó, hace ya 30 años, los principios de la mecánica y la electrodinámica cuántica, pocos podían pensar que eso nos llevaría a un escenario donde los computadores, la criptografía o las comunicaciones estarían basadas en sistemas cuánticos. Ya no sólo eso: también elementos de metrología, como los gravitómetros más precisos cuentan en su seno con esta clase de tecnologías. No sería hasta finales de la década de los 90 cuando comenzara a estudiarse en profundidad desde la Academia estas posibilidades, iniciando un camino que sigue en plena ebullición.

El aterrizaje de todas las premisas sobre física cuántica en el ámbito de la computación se lo debemos, principalmente, a Ignacio Cirac y su colega Peter Zoller. Ambos publicaron, hace justo 20 años, un paper en el que planteaban los principios rectores de esta clase de sistemas. 

"Yo recuerdo ir a una charla en Munich, junto a Peter Zoller que era mi mentor en aquel momento, en la que había poca gente porque este era un problema muy complicado. En ella se mostró como, en base a los algoritmos de Peter Shor, se podrían vulnerar todos los códigos criptográficos existentes mediante tecnología cuántica. Pero la conferencia terminaba diciendo que nadie sabía cómo llevarlo a cabo, porque para ello había que construir el computador cuántico. Y nosotros nos miramos y dijimos: 'vamos a intentarlo'", explica Cirac, quien todavía rememora el escaso interés de la comunidad científica por este tema. "El paper fue prácticamente ignorado, apenas tuve citas... excepto por Bloch".

“No importa cuántos cúbits tenga un sistema, sino su calidad”, dice Bloch

El aludido no duda en tildar de "revolucionario" el trabajo del científico español: "Ese paper fue tan relevante porque fue el primero que mostró por primera vez cómo conectar lo que estamos haciendo en física cuántica con los nuevos materiales que estaban surgiendo de aquella", explica Inmanuel Bloch, quien no duda cuando le pregunto si su colega merece el premio Nobel (fue uno de los favoritos en las quinielas de este año): "Claro que merece el premio Nobel, pero es una cuestión de suerte y tiempo. En cualquier caso no trabajamos por premios, sino por la diversión de descubrir nuevas cosas".

Una curiosidad innata a este físico -a la sazón, premio Príncipe de Asturias- que le ha llevado a profundizar en muchos más aspectos relacionados con las tecnologías cuánticas, desde la descripción del comportamiento de los átomos en entornos complejos o, más disruptivo si cabe, en una Teoría de la Información para la computación cuántica. "He estado trabajando en ello. La idea es que, al igual que en los sistemas tradicionales cuando se produce un error no nos damos cuenta porque hay una teoría que lo resuelve, hacer lo mismo pero en cuántico".

Otra de las ideas que fascinan al científico español es la posible llegada de un Internet Cuántico. "Si puedes usar comunicaciones cuantica en internet, no tienes nada que perder: mejoras la seguridad y la eficiencia en algunos problemas de comunicación", explica Cirac. "Pero seguramente el requisito para poderlo conseguir sea tener el computador cuántico, lo cual puede pasar dentro de 10, 20 o 30 años. Es complicado predecirlo, pero muchas personas con las que hablo de la industria me están diciendo que quizás no sea tan descabellado pensar en diez años como un plazo lógico. Una vez que lo consigamos, muchos de nuestros sistemas actuales serán reemplazados por la tecnología cuántica".

Ciencia de materiales

Partiendo de las tesis planteadas por Cirac, el alemán Inmanuel Bloch ha ido desgranando muchas de las extensiones que podemos llevar a cabo de la tecnología cuántica, tanto en el ámbito de la computación como en el de la simulación.

En ese sentido, destaca su trabajo en el control y exploración de materia cuántica con átomos ultrafríos en 'optical latticies'. Un título abstracto y complejo de entender pero que Bloch consigue aterrizar de forma clara. "Imagina que quieres estudiar un material en detalle. Lo que la gente hace es construir un microscopio lo más preciso posible. Pues nosotros tenemos una aproximación radicalmente distinta: hacemos un material artificial 10.000 veces más grande que el original, con lo que podemos examinar el material sin necesidad de microscopios especiales", señala el científico.

"Lo que hacemos luego es jugar con los patrones de luz, hasta que parecen una suerte de cristales de luz, donde podemos ver los movimientos de los átomos e incluso controlarlos a nivel individual para probar distintas dinámicas. Además, todo sucede mucho más despacio, hasta 12 órdenes de magnitud más despacio, con lo que es más fácil observar los distintos fenómenos físicos". Entre otros casos de uso inmediatos, Bloch apela a la investigación en superconductores (que permiten el tránsito de electricidad sin apenas resistencia), unos materiales que conocemos desde hace mucho tiempo, pero de los que carecemos de las nociones más básicas sobre los mecanismos fundamentales que explican su funcionamiento.

Suena fascinante, pero todo tiene una pega: "El precio que hay que pagar es que hay que enfriar mucho el sistema, yéndonos a temperaturas ultrafrías que rondan el cero absoluto (un millón de veces más frío que la temperatura que hay en el espacio) para las que no hay sistemas de refrigeración en la actualidad".

Calidad, no cantidad

El camino hacia el computador cuántico no está, por tanto, exento de retos de calado. Y la mayoría de ellos tienen que ver con la dificultad de escalar los sistemas, tanto desde el punto de vista de la refrigeración como de multiplicar los cúbits (la unidad de medida en estas lides) sin que éstos pierdan calidad. Bloch consigue sintetizar estas dificultades con la precisión de un cirujano: "Esto no es como los semiconductores clásicos, que una vez que ya sabes fabricar uno es simplemente multiplicar hasta producir miles. La tecnología cuántica funciona de manera distinta y hay desafíos físicos, por ejemplo en los materiales, que todavía desconocemos cómo solventarlos. Hoy por hoy ninguna de las plataformas existentes ha conseguido superar este escalado".

Para el físico del Instituto Max-Planck, "el problema también llega cuando quieras aumentar la potencia, porque tienes que aumentar también la refrigeración y otros elementos, como los cables que conectan al sistema". Pero, sin duda, el problema en esta fase de escalado radica en el propio núcleo de los computadores cuánticos, pese a los ilusionantes anuncios de IBM, Google o Alibaba: "Nadie ha resuelto el problema de pasar de 10, 20, 30 cúbits a grandes cantidades. Y, además, el número es completamente irrelevante: si alguien viene y te dice que tiene 100 cúbits, puede que ese sistema sea peor que uno de ocho porque no se trata de una medición de la calidad. Es completamente estúpido e irrelevante, no hay que caer en la trampa de la cantidad de los cúbits, sino en la calidad de los mismos", señala Inmanuel Bloch.

"Y nadie ha conseguido solucionar el problema de hacer sistemas cada vez más grandes manteniendo la calidad de los cúbits. Nosotros hemos hecho en el laboratorio sistemas de 200.000 cúbits, pero nunca hemos compartido ese número porque no se puede comparar. Entiendo que los intereses de la ciencia y los departamentos de marketing de las empresas funcionan distinto, pero no debemos caer en la trampa".

Al respecto, Ignacio Cirac plantea una interesante reflexión: "Por un lado, estoy muy contento de que la industria haya empezado a mostrar interés por este área, porque esto impulsa su desarrollo. Pero tengo que admitir que, por otro lado, estoy preocupado por los mensajes que están transmitiendo las empresas, de que esto va a llegar mañana... Están creando esperanzas cuando hay que ser más precavidos".

Seguridad cuántica

Para el germano Inmanuel Bloch, la primera aplicación ya consolidada de la tecnología cuántica es la criptografía. "La está bastante desarrollada, incluso a nivel comercial, mientras que otros ámbitos como la computación cuántica aún necesitan tiempo de trabajo hasta resolver desafíos esenciales, especialmente en su escalado".

Resolver cálculos imposibles

"La computación cuántica nos dará el poder de llevar a cabo cálculos mucho mayores", explica Cirac durante la entrevista en la Fundación Ramón Areces. "Muchos de los casos de uso de los supercomputadores actuales serán también los de los computadores cuánticos: ciencia, materiales, biomedicina... Pero también otros relacionados con la optimización o el análisis de grandes volúmenes de datos".

https://www.elespanol.com/invertia/disruptores-innovadores/innovadores/investigacion/20181127/computacion-cuantica-reto-escalable/356465685_0.html 

IBM abre la veda del 'internet cuántico' y los computadores de más de 1.000 cúbits

El Gigante Azul anuncia un ordenador cuántico de 127 cúbits este mismo año y de 433 para 2022. El reto sigue estando en la refrigeración.

llá por 2018, durante un evento en Las Vegas, Arvind Krishna hizo una declaración cuasi profética al mundo: "Estamos ante uno de los momentos clave en la historia, el del despegue de la computación cuántica práctica".

"Ahora tenemos un prototipo de dos elevado a 50, pero imagínate cuando logremos computadoras en una base de dos elevado a 200. Eso significará que ese ordenador tendrá más estados computacionales que partículas existen en el universo", adelantaba Krishna.

En aquel momento, Krishna era el máximo responsable de IBM Research. Ahora es el todopoderoso capo del Gigante Azul. Y aquella aspiración que parecía descabellada, figura en estos momentos como una de las dos grandes prioridades de la casa, con permiso de la nube híbrida.

Gran parte de las 9.130 patentes que IBM registró en suelo estadounidense durante 2020 tuvieron el mundo cuántico como telón de fondo. Una labor investigadora que sitúa a esta multinacional en la primera línea de esta tendencia, junto a otros grandes nombres como Google o Alibaba.

En cualquier caso, el camino no está siendo de rosas ni mucho menos. En aquel ya lejano 2018, IBM y la mayoría de sus contendientes estaban inmersas en una carrera de promesas sobre el número de cúbits (la unidad de medida en estos lares) que a la postre ha resultado demasiado ambiciosa. Todas ellas pretendían tener equipos de entre 150 y 300 cúbits para final de ese mismo año

Pongamos el caso propio de IBM: anunció su primer ordenador cuántico en 2016, con apenas 5 cúbits. Un año después, hizo lo propio con uno de 16 cúbits, seguido seis meses después por otro de 20 cúbits de capacidad. En aquel 2018, su mejor computador cuántico universal (esto es, diseñado con un propósito general) tenía 50 cúbits.

Y sin embargo, en estos casi tres años que han transcurrido desde la ponencia estelar de Krishna, la tecnología apenas ha evolucionado hasta los 65 cúbits con que cuenta su actual computador cuántico. 

Es cierto que por el camino se han conseguido grandes logros. No hay más que recordar la declaración de la supremacía cuántica por parte de Google y su equipo de 54 cúbits, capaz de resolver en 200 segundos una tarea que le hubiera requerido 10.000 años al superordenador más potente del mundo.

Pero resulta llamativa la escasa evolución en el número de cúbits. Máxime cuando IBM sigue prometiendo un escalado brutal de esta cifra: 127 cúbits para este 2021, 433 para 2022 y más de 1.000 para 2023. Sumando además la potencia de varios de estos computadores en una suerte de "internet cuántico", tal y como ha adelantado esta semana Heike Riel, jefa de Ciencia y Tecnología de IBM Research Europa.

La obsesión por la cantidad

Vaya por delante un aviso importante: como en muchas cosas de la vida, la cantidad sin calidad no sirve de nada. 

El investigador español Ignacio Cirac, uno de los pioneros en estas lides y sempiterno candidato al Premio Nobel, nos lo ha dejado bastante claro: "Tengo que admitir que estoy preocupado por los mensajes que están transmitiendo las empresas, de que esto va a llegar mañana... Están creando esperanzas cuando hay que ser más precavidos".

Su colega en el Instituto Max Planck, Inmanuel Bloch, es más contundente: "El número es completamente irrelevante: si alguien viene y te dice que tiene 100 cúbits, puede que ese sistema sea peor que uno de ocho porque no se trata de una medición de la calidad. Es completamente estúpido e irrelevante, no hay que caer en la trampa de la cantidad de los cúbits, sino en la calidad de los mismos"

El problema es que la industria todavía lucha contra dos barreras sustanciales. La primera, hacer sistemas cada vez más grandes manteniendo la calidad de los cúbits.

"Nosotros hemos hecho en el laboratorio sistemas de 200.000 cúbits, pero nunca hemos compartido ese número porque no se puede comparar. Entiendo que los intereses de la ciencia y los departamentos de marketing de las empresas funcionan distinto, pero no debemos caer en la trampa", me comentaba Bloch en una entrevista para D+I.

La refrigeración, eterna disputa

El segundo, tiene que ver con la refrigeración. A mayor tamaño de los computadores cuánticos, mayor debe ser la capacidad de enfriar estos equipos. Y no podemos olvidar que no estamos hablando de un simple ventilador.

Los ordenadores cuánticos funcionan a temperaturas ultrafrías que rondan el cero absoluto (mucho más frío que la temperatura que hay en el espacio exterior). Y ello supone no sólo un coste económico que dificulta la democratización de esta tecnología, sino un desafío mayúsculo a nivel de materiales y escalado de los sistemas de refrigeración.

Actualmente, y volviendo al caso de IBM, su ordenador emplea circuitos superconductores con base de silicio, integrados dentro de un tanque refrigerador para mantenerlo por debajo de la temperatura adecuada y para evitar vibraciones o interacciones mecánicas.

Pero si queremos seguir multiplicando su potencial (no sólo en cuanto al número de cúbits, sino también respecto al volumen cuántico), estos ordenadores necesitan una refrigeración distinta. 

Heike Riel habla ya de una nueva tecnología de superrefrigeración que el Gigante Azul está desarrollando bajo el nombre en clave de 'Golden Eye' (sí, como la mítica película de 007). Se trataría de una suerte de cubículo de grandes dimensiones que se mantendría a estas temperaturas extremas, en lugar de enfriar los componentes de forma directa. 

La carrera por la supremacía cuántica: Google vs. IBM 

En las últimas décadas se ha estado investigando y haciendo enormes progresos en el campo de la computación cuántica. Los mayores avances han sido realizados por las grandes empresas, principalmente Google, IBM y Microsoft, que han estado a la carrera por alcanzar la supremacía cuántica. El término de supremacía cuántica hace referencia a un dispositivo de computación cuántica que supera incluso a la mejor supercomputadora y da solución a problemas que ordenadores clásicos no pueden.

En la computación cuántica funcionan las leyes de la mecánica cuántica. Mientras que los bits operan en binario (0 o 1), los bits cuánticos o qubits pueden tomar los valores 0 y 1 al mismo tiempo, o incluso valores intermedios. Esto hace que se puedan realizar varias operaciones a la vez y en mucho menos tiempo que las computadoras clásicas.

La ley de Moore es una relación empírica que expone que el número de transistores en un microprocesador, se duplica cada dos años aproximadamente, y cuanto más pequeño es, se consigue mayor velocidad de proceso. Posteriormente, Moore modificó su ley reduciendo el tiempo a 18 meses, en vez de dos años. Su crecimiento sería de 2 a 1024 en diez pasos (2 elevado a la 1, 2 elevado a la 2, 2 elevado a la 3, 2 elevado a la 4…). Esta ley tiene una limitación, y es que cuando se reduce un microchip a una escala de nanómetros, los electrones se comportan como partículas cuánticas, se produce el efecto túnel y se salen de los canales del circuito por el que circulan. Por lo tanto, los transistores dejan de funcionar y no se puede reducir más su tamaño.

El fin de la ley de Moore podría llegar con la nueva ley de Neven, propuesta por el científico alemán Hartmut Neven, que predice que el crecimiento de los avances en computación cuántica podría ser doblemente exponencial, (2 elevado a la 1, elevado a la 1; 2 elevado a la 2, elevado a la 2; 2 elevado a la 2, elevado a la 3; 2 elevado a la 2, elevado a la 4, y así sucesivamente). El 18 de junio de 2019, la revista Quanta Magazine, de acuerdo con la ley de Neven, preveía que era posible alcanzar la supremacía cuántica en ese mismo año 2019.

Google alcanza la supremacía cuántica

Finalmente, el pasado 20 de septiembre de 2019, Google anunció en el Financial Times, que había alcanzado la supremacía cuántica. Afirman que han creado una computadora cuántica, compuesta por 53 qubits, capaz de realizar cálculos que un ordenador convencional tardaría unos 10.000 años, en tan solo 200 segundos. El 23 de octubre de 2019 se confirmó oficialmente en su artículo Quantum supremacy using a programmable superconducting processor, publicado por la prestigiosa revista Nature.

El ordenador cuántico de Google se forma de un circuito superconductor que consta de un controlador de microondas para excitar el qubit y un control de flujo magnético para sintonizar la frecuencia. Google ha diseñado un procesador cuántico llamado “Sycamore” que tiene una matriz bidimensional de 54 qubits en donde cada qubit está acoplado con otros cuatro, en una red reticular, como podemos ver en la Figura 3. Aunque uno de los qubits tuvo que desactivarse durante el experimento, ya que no funcionaba correctamente. Este dispositivo realiza cálculos mediante operaciones simultáneas de muchos qubits.

Este procesador se compone de aluminio y un acoplador formado por una pequeña barrera de un material no superconductor, e indio para las uniones entre dos capas de silicio. El chip está conectado a una placa de circuito superconductora y se enfría, utilizando helio líquido, a temperaturas muy cercanas al cero absoluto (aproximadamente a -273 ºC), para que la disipación de energía no degrade la información cuántica. Esto está unido a través de unos filtros y atenuadores al resto de la electrónica que se encuentra a temperatura ambiente. Esta electrónica, unida por metros de cables, sirve para controlar la acción de los qubits y leer sus resultados. La computadora cuántica “Sycamore” es totalmente programable y puede realizar algoritmos con un propósito general.

Google ha demostrado que su computadora cuántica de 53 qubits realiza un cálculo, creado para demostrar la supremacía cuántica, llamado random circuit sampling, de una forma rápida y eficiente. Se le pide al ordenador cuántico que muestree las posibles salidas de un circuito cuántico aleatorio, que son una serie de acciones que se pueden realizar con un conjunto de qubits. El ordenador de Google consta de 53 qubits y cuando estos atraviesan el circuito, los estados de los qubits se entrelazan y enredan en lo que llamamos superposición cuántica. Según el número de qubits n, tenemos un estado de superposición de 2 elevado a la n, por tanto, se obtiene que los 53 qubits están en superposición de 2 elevado a la 53, estados posibles. Es parecido a tirar un dado, pero en vez de seis posibilidades, tenemos 2 elevado a la 53, o lo que es lo mismo, 9 x 10 elevado a la 15, y no todas tienen la misma probabilidad de ocurrir, algunos números aleatorios aparecen más que otros.

Las críticas de IBM

El rival de Google, IBM, en su artículo Leveraging Secondary Storage to Simulate Deep 54-qubit Sycamore Circuitsha, ha criticado el supuesto avance de Google, ya que dice que su superordenador moderno, el más rápido del mundo, llamado “Summit” (Figura 2), tardaría unos 2,5 días en realizar esos supuestos cálculos. Por lo que casi puede seguir el ritmo de la computadora cuántica, lo que no se corresponde con los 10.000 años que anunciaba Google. También mencionan que el experimento realizado por Google es un procedimiento muy específico y que no tiene aplicaciones prácticas.

No hay evidencias reales de que un ordenador clásico pueda realizar la misma tarea en menos tiempo, ya que el modelo de IBM del superordenador es en gran parte teórico. Además, el mismo cálculo realizado por el ordenador cuántico de Google y por el superordenador de IBM dista de 200 segundos a 2,5 días, en caso de ser correctos los cálculos publicados por IBM. Aunque en IBM afirman que podrían mejorar el superordenador y reducir considerablemente el tiempo de cálculo, de modo que se parezca aún más a lo que hace la computadora cuántica de Google. Hay que destacar que “Sycamore” y “Summit” son dos cosas completamente distintas. “Sycamore” de Google es una computadora basada en las leyes de la mecánica cuántica, y “Summit” es un superordenador moderno, pero que funciona de la misma forma que los ordenadores clásicos que tenemos en nuestras casas.

Algunos científicos especializados en computación cuántica de varias universidades han dicho que IBM no debería invalidar las afirmaciones que Google está haciendo, aunque sí pueda haber exagerado un poco la cifra de los 10.000 años. Y que lo verdaderamente importante es que Google está resolviendo problemas computacionales de una forma diferente a como lo haría un ordenador clásico. Estiman también que seguramente dentro de dos años, se haya logrado construir una computadora cuántica de 70 qubits, y que para que un superordenador funcionase del mismo modo que esta computadora cuántica, tendría que ocupar un tamaño del área de una ciudad entera.

El coste de la computación cuántica

Las computadoras clásicas pueden simular un circuito formado por unos 40 qubits, pero teóricamente ya no pueden competir con las computadoras cuánticas si se trata de un circuito de más de 50 qubits. Aunque IBM insiste en que, si se utilizan optimizadores más avanzados con más espacio para la memoria RAM, podrían tardar en resolver el mismo cálculo que el computador “Sycamore” de Google en 2.5 días o menos. El coste de construcción de “Summit”, la supercomputadora más rápida del mundo, desde noviembre de 2019, fue de unos 200 millones de dólares. Mientras que el computador cuántico “Sycamore”, es mucho más caro aún, ya que los cientos de cables que envían señales de control al chip cuestan 1.000 dólares cada 60 centímetros.

Hoy en día un solo qubit puede costar unos 10.000 dólares y una computadora cuántica útil, solo hardware, podría llegar a los 10.000 millones de dólares.

IBM también tiene prototipos de computación cuántica similares a “Sycamore” de Google incluso una computadora cuántica de uso comercial de 20 qubits. Aunque seguramente, la batalla la termine ganando Google, pero es poco probable que, en un futuro próximo, logre una relación rendimiento-precio que lo haga práctico para utilizarlo con fines comerciales.

¿Cambiará nuestra vida el uso de la computación cuántica?

La computación cuántica ayudará a diseñar nuevos materiales para la construcción de aviones y automóviles, catalizadores que puedan producir fertilizantes de forma más eficiente, medicamentos más efectivos, optimizará el tráfico de las ciudades, etc. Y así como las computadoras clásicas, en sus comienzos, eran muy grandes, y con el transcurso de los años fueron reduciendo su tamaño y ampliando su efectividad, con las computadoras cuánticas se espera que ocurra algo similar. Es muy probable que la computación cuántica y la computación clásica convivan durante muchos años, ya que tendrán fines completamente distintos.

A nivel de usuario, probablemente sigamos utilizando ordenadores convencionales ya que nos serán suficientes para las tareas del día a día, a no ser que nos dediquemos a la investigación. Los computadores cuánticos podrán revolucionar muchas áreas de conocimiento, no obstante, es posible que pasen entre 10 y 20 años para que la primera computadora cuántica comercial esté disponible.

Beatriz Varona, Quantum Computing Research & Rhinno Project en Techedge Group

No hay comentarios: