Ir al contenido

Nuevo enfoque de corrección de errores podría ser clave para la computación cuántica práctica

Un equipo dirigido por Jeff Thompson de la Universidad de Princeton fue pionero en un enfoque para una corrección de errores más eficiente en computadoras cuánticas. Crédito: Gabriele Meilikhov/Muza Productions

Un nuevo método de corrección de errores.

Los investigadores han descubierto una nueva técnica para corregir errores en los cálculos de computadoras cuánticas, eliminando potencialmente una barrera significativa para un nuevo y poderoso campo de la computación.

La corrección de errores es un tema bien desarrollado en las computadoras tradicionales. Para transmitir y recibir datos a través de ondas de radio desordenadas, cada teléfono celular requiere verificaciones y ajustes. Las computadoras cuánticas tienen un inmenso potencial para abordar problemas complicados que las computadoras convencionales no pueden, pero esta capacidad depende de aprovechar el comportamiento increíblemente fugaz de las partículas subatómicas. Estos comportamientos informáticos son tan efímeros que incluso inspeccionarlos en busca de fallas podría hacer que todo el sistema colapse.

Un equipo interdisciplinario dirigido por Jeff Thompson, profesor asociado de ingeniería eléctrica e informática en la Universidad de Princeton, y los colaboradores Yue Wu y Shruti Puri en la Universidad de Yale y Shimon Kolkowitz en la Universidad de Wisconsin-Madison, demostró en un artículo teórico publicado en Nature Communications que podrían mejorar drásticamente la tolerancia de una computadora cuántica a las fallas y reducir la cantidad de información redundante necesaria para aislar y corregir errores. El nuevo enfoque cuadruplica la tasa de error aceptable, del 1% al 4%, lo que lo hace práctico para las computadoras cuánticas actualmente en desarrollo.

“El desafío fundamental para las computadoras cuánticas es que las operaciones que desea hacer son ruidosas”, dijo Thompson, lo que significa que los cálculos son propensos a innumerables modos de falla.

En una computadora convencional, un error puede ser tan simple como un poco de memoria que cambia accidentalmente de un 1 a un 0, o tan desordenado como un enrutador inalámbrico que interfiere con otro. Un enfoque común para manejar tales fallas es construir cierta redundancia para que cada pieza de datos se compare con copias duplicadas. Sin embargo, ese enfoque aumenta la cantidad de datos necesarios y crea más posibilidades de errores. Por lo tanto, solo funciona cuando la gran mayoría de la información ya es correcta. De lo contrario, verificar los datos incorrectos contra los datos incorrectos conduce más profundamente a un pozo de error.

“Si su tasa de error de referencia es demasiado alta, la redundancia es una mala estrategia”, dijo Thompson. “Llegar por debajo de ese umbral es el principal desafío”.

En lugar de centrarse únicamente en reducir el número de errores, el equipo de Thompson esencialmente hizo que los errores fueran más visibles.

El equipo profundizó en las causas físicas reales del error y diseñó su sistema para que la fuente más común de error elimine de manera efectiva, en lugar de simplemente corromper los datos dañados.

Thompson dijo que este comportamiento representa un tipo particular de error conocido como “error de borrado”, que es fundamentalmente más fácil de eliminar que los datos que están dañados pero que aún se parecen a todos los demás datos.

En una computadora convencional, si un paquete de información supuestamente redundante se presenta como 11001, podría ser arriesgado asumir que los 1 ligeramente más frecuentes son correctos y los 0 son incorrectos. Pero si la información aparece como 11XX1, donde los bits corruptos son evidentes, el caso es más convincente.

“Estos errores de borrado son mucho más fáciles de corregir porque sabes dónde están”, dijo Thompson. “Pueden ser excluidos del voto mayoritario. Esa es una gran ventaja”.

Los errores de borrado se entienden bien en la computación convencional, pero los investigadores no habían considerado previamente tratar de diseñar computadoras cuánticas para convertir errores en borrados, dijo Thompson.

Como cuestión práctica, su sistema propuesto podría soportar una tasa de error del 4,1%, que Thompson dijo que está dentro del ámbito de la posibilidad para las computadoras cuánticas actuales.

En sistemas anteriores, la corrección de errores de última generación podía manejar menos del 1% de error, lo que Thompson dijo que está al borde de la capacidad de cualquier sistema cuántico actual con una gran cantidad de qubits.

La capacidad del equipo para generar errores de borrado resultó ser un beneficio inesperado de una elección que Thompson hizo hace años.

Su investigación explora los “qubits atómicos neutros”, en los que la información cuántica (un “qubit”) se almacena en un solo átomo. Fueron pioneros en el uso del elemento iterbio para este propósito. Thompson dijo que el grupo eligió el iterbio en parte porque tiene dos electrones en su capa más externa de electrones, en comparación con la mayoría de los otros qubits de átomos neutros, que tienen solo uno.

“Pienso en ello como una navaja suiza, y este iterbio es la navaja suiza más grande y gorda”, dijo Thompson. “Ese poco más de complejidad que obtienes al tener dos electrones te da muchas herramientas únicas”.

Un uso de esas herramientas adicionales resultó ser útil para eliminar errores. El equipo propuso bombear los electrones en el iterbio y desde su “estado fundamental” estable a estados excitados llamados “estados metaestables”, que pueden ser de larga duración en las condiciones adecuadas, pero son inherentemente frágiles. Contraintuitivamente, los investigadores proponen utilizar estos estados para codificar la información cuántica.

“Es como si los electrones estuvieran en la cuerda floja”, dijo Thompson. Y el sistema está diseñado para que los mismos factores que causan el error también hagan que los electrones se caigan de la cuerda floja.

Como beneficio adicional, una vez que caen al estado fundamental, los electrones dispersan la luz de una manera muy visible, por lo que iluminar una colección de qubits de iterbio hace que solo los defectuosos se iluminen. Los que se iluminan deben ser descartados como errores.

Este avance requirió combinar conocimientos tanto en hardware de computación cuántica como en la teoría de la corrección de errores cuánticos, aprovechando la naturaleza interdisciplinaria del equipo de investigación y su estrecha colaboración.

Si bien la mecánica de esta configuración es específica de los átomos de iterbio de Thompson, dijo que la idea de diseñar qubits cuánticos para generar errores de borrado podría ser un objetivo útil en otros sistemas, de los cuales hay muchos en desarrollo en todo el mundo, y es algo en lo que el grupo continúa trabajando.

Vemos este proyecto como un diseño de un tipo de arquitectura que podría aplicarse de muchas maneras diferentes”, dijo Thompson, y agregó que otros grupos ya han comenzado a diseñar sus sistemas para convertir errores en borrados. “Ya estamos viendo mucho interesante en la búsqueda de adaptaciones para este trabajo”.

Como siguiente paso, el grupo de Thompson ahora está trabajando en demostrar la conversión de errores en borrados en una pequeña computadora cuántica que combina varias decenas de qubits.

Referencia: “Erasure conversion for fault-tolerant quantum computing in alkaline earth Rydberg atom arrays” por Yue Wu, Shimon Kolkowitz, Shruti Puri y Jeff D. Thompson, 9 de agosto de 2022, Nature Communications.
DOI: 10.1038/s41467-022-32094-6

Compartir:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *