Los científicos del laboratorio de Google Quantum AI describieron un sistema que puede disminuir significativamente la tasa de errores de la computación cuántica, un fuerte obstáculo durante mucho tiempo para esta tecnología. De esta forma lograron un hito importante en el desarrollo efectivo de esta tecnología avanzada, según publicaron en Nature.
Las supercomputadoras actuales con base en los microprocesadores (y la información codificada en bits) presentan capacidades limitadas de desarrollo.
El problema reside en que, a medida que se reduce el tamaño de los microchips, para lograr mayor velocidad de procesamiento, hay un límite de miniaturización tras el cual dejan de funcionar correctamente.
La computación cuántica tiene un enorme potencial para proporcionar una potencia informática mucho mayor a la actual, debido a que opera en niveles subatómicos.
De esta manera, muchas áreas de la ciencia, la tecnología y la sociedad se verían muy beneficiadas.
Las computadoras cuánticas usan cúbits (bits cuánticos), que pueden ser una combinación de 0 y 1 al mismo tiempo, pueden realizar muchos más procesos simultáneamente gracias a esta superposición.
Sin embargo, debido a la decoherencia, los cúbits pueden perder su información cuando entran en contacto con el mundo exterior, provocando altas tasas de error. Los investigadores plantearon, que actualmente, las tasas de error de los cúbits en el procesador Sycamore de tercera generación de Google suelen oscilar entre 1 en 10.000 y 1 en 100.
Se necesitan tasas en el rango de 1 en 1.000 millones a 1 en un millón para ejecutar circuitos cuánticos que puedan resolver problemas industrialmente relevantes.
El equipo de Google escribió que había demostrado, por primera vez en la práctica, que un sistema que utiliza un código de corrección de errores puede detectar y corregir errores sin afectar la información. Mostraron tasas de error por ciclo cercanas a 1 en un millón e indicaron que, al controlar estos mecanismos de error, podrían mejorar a tasas de error cercanas a 1 en 10 millones.
Julian Kelly, otro coautor, elogió el desarrollo como “un hito científico clave” y dijo que “la corrección de errores cuánticos es la tecnología más importante para el futuro de la computación cuántica”. Sin embargo, Neven reconoció que el resultado aún “no era lo suficientemente bueno, necesitamos llegar a una tasa de error absolutamente baja”. Agregó que “hay más pasos por venir” para lograr el sueño de una computadora cuántica utilizable.
Estos resultados marcan una demostración experimental en la que la corrección de errores cuánticos comienza a mejorar el rendimiento con el aumento del número de cúbits, iluminando la ruta para alcanzar las tasas de error lógicas requeridas para el cálculo.