Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Google ha resuelto en 2 horas problemas que en un supercomputador costarían 3 años


Google ha dado un paso notable en el campo de la computación cuántica con un nuevo algoritmo llamado Quantom Echoes. Dicho algoritmo ha sido capaz de demostrar por primera vez una "ventaja cuántica práctica y verificable" que hace que su computador cuántico deje en ridículo a los grandes supercomputadores actuales. 



Google rompe la barrera cuántica con Willow, el chip que humilla a las supercomputadoras  

  • Los avances en computación cuántica tenían un problema: su aplicación a problemas reales no parecía sencilla
  • Un nuevo algoritmo desarrollado por Google ha demostrado que este tipo de sistemas ya tienen aplicaciones prácticas
  • Google logra un hito con su algoritmo «Ecos Cuánticos» en el chip Willow: 13.000 veces más rápido que el superordenador más potente.  
En una publicación de su blog, Google afirmó que ha logrado la primera ventaja cuántica verificable a través de Ecos Cuánticos. En un artículo publicado en la revista Nature, los investigadores describieron un algoritmo correlador fuera de orden temporal (OTOC) que simula el comportamiento de los sistemas en la naturaleza y es capaz de calcular la estructura de una molécula.

13.000 veces más rápido que un supercomputador. El nuevo algoritmo, llamado Quantum Echoes ("Ecos Cuánticos") ha permitido demostrar que una computadora cuántica —basada en el chip cuántico Willow de Google—  ejecuta con éxito un algoritmo verificable que supera la capacidad de los grandes supercomputadores actuales. Así, esa computadora logró ejecutar ese algoritmo 13.000 veces más rápido que el mejor supercomputador clásico actual al ejecutar un código similar. 


"Verificabilidad cuántica". La supercomputadora cuántica de Google resolvió el problema en poco más de dos horas, cuando en el segundo supercomputador más potente del mundo, Frontier, le hubiera llevado 3,2 años.Pero es que además lo hizo de forma verificable: el resultado se puede repetir en la propia computadora cuántica o en cualquier otra de calibre similar.

Ecos cuánticos. El algoritmo se asemeja a un eco avanzado: se envía una señal al sistema cuántico, se perturba un qubit y luego se invierte con precisión la evolución de la señal para "escuchar" el eco resultante. Ese eco es especial porque se amplifica por interferencia constructiva, un fenómeno cuántico donde las ondas se suman para hacerse más fuertes, loque permite medir de forma precisa este fecto. El algoritmo permite modelar la estructura de sistemas en la naturaleza, desde moléculas hasta agujeros negros. 



Un logro con mucho premio Nobel detrás. El hito se basa en décadas de investigación en este ámbito, incluyendo la llevada a cabo por el recién galardonado con el Premio Nobel, Michel H. Devoret, que forma parte del equipo de Google. Junto a sus colegas John M. Martinis y John Clark sentó las bases de este avance en la universidad de California en Berkeley a mediados de la década de 1980. 

"Verificabilidad cuántica". La supercomputadora cuántica de Google resolvió el problema en poco más de dos horas, cuando en el segundo supercomputador más potente del mundo, Frontier, le hubiera llevado 3,2 años.Pero es que además lo hizo de forma verificable: el resultado se puede repetir en la propia computadora cuántica o en cualquier otra de calibre similar.



Ecos cuánticos. El algoritmo se asemeja a un eco avanzado: se envía una señal al sistema cuántico, se perturba un qubit y luego se invierte con precisión la evolución de la señal para "escuchar" el eco resultante. Ese eco es especial porque se amplifica por interferencia constructiva, un fenómeno cuántico donde las ondas se suman para hacerse más fuertes, loque permite medir de forma precisa este fecto. El algoritmo permite modelar la estructura de sistemas en la naturaleza, desde moléculas hasta agujeros negros. 

Un logro con mucho premio Nobel detrás. El hito se basa en décadas de investigación en este ámbito, incluyendo la llevada a cabo por el recién galardonado con el Premio Nobel, Michel H. Devoret, que forma parte del equipo de Google. Junto a sus colegas John M. Martinis y John Clark sentó las bases de este avance en la universidad de California en Berkeley a mediados de la década de 1980. 

Hola, qubit. Su descubrimiento: las propiedades de la mecánica cuántica podían observarse también en circuitos eléctricos lo suficientemente grandes como para ser vistos a simple vista. Eso dio lugar a la creación de los qubits superconductores, que son los bloques básicos con los que Google ha creado (como otras empresas) sus computadoras cuánticas. Devoret se unió a Google en 2023, reforzando así la trayectoria de la compañía en su búsqueda por la ya célebre "supremacía cuántica".

Aplicaciones prácticas prometedoras. El avance se orienta directamente a la solución de problemas importantes en campos como la medicina o la ciencia de materiales. La computación cuántica sigue siendo una tecnología experimental y que afronta un desafío clave con la corrección de errores, pero Quantum Echoes demuestra que "el software cuántico" avanza a un ritmo paralelo al del hardware. Google aplicó Quantum Echoes a un experimento de prueba de concepto para la Resonancia Magnética Nuclear. Esa técnica actúa como un "microscopio molecular", una poderosa herramienta que permitirá ayudar a diseñar fármacos o por ejemplo a establecer la estructura molecular de nuevos polímeros.

Un maratón. Este nuevo hito demuestra el progreso que esta tecnología ha realizado en los últimos años, pero aquí Google no está sola. Microsoft o IBM también han protagonizado avances destacables en los últimos años, y por supuesto hay numerosas startups tanto en EEUU como en China que trabajan en este ámbito. 

Google habría logrado la ventaja cuántica, pero no todos están de acuerdo

Google señaló que esta ventaja cuántica representa un paso significativo hacia las primeras aplicaciones del mundo real. El estudio demostró que procesadores como Willow ya son capaces de medir fenómenos cuánticos o ejecutar tareas que serían imposibles de simular con un superordenador. No obstante, algunos miembros de la comunidad científica se mantienen escépticos ante estos avances.


Winfried Hensinger, profesor de tecnologías cuánticas en la Universidad de Sussex, mencionó que el experimento de Google no tiene un impacto significativo en el mundo real. "Es importante entender que la tarea que Google ha logrado no es tan revolucionaria como algunas de las aplicaciones que cambian el mundo que se anticipan para las computadoras cuánticas", dijo Hensinger en una entrevista con The Guardian.

Por otro lado, investigadores de IBM advirtieron hace algunas semanas que estamos cerca del umbral de la ventaja cuántica. Este término se aplica cuando un ordenador cuántico puede resolver una tarea con mayor precisión, eficiencia o menor coste que cualquier método clásico. Según los científicos, muchas empresas declararán que lo han conseguido, pero varias de estas hipótesis deberán ser validadas o refutadas por la comunidad.

Vale la pena mencionar que no es la primera vez que Google declara un avance en este campo. Si hacemos memoria, la compañía alcanzó la "supremacía cuántica" en 2019 cuando afirmó que construyó un procesador que resolvía en minutos lo que a un ordenador clásico le tomaría 10.000 años.

Además de Google, Microsoft también desarrolla procesadores que impulsarán los ordenadores cuánticos del futuro. Hace unos meses, la compañía presentó el chip Majorana 1, impulsado por un material que permitía la creación de cúbits confiables y escalables. Pero al igual que ocurrió con Google, la comunidad científica puso en duda los avances de Redmond por no proporcionar evidencia de sus hallazgos.


Si un superordenador actual puede hacer millones de operaciones con bites (el Summit de IBM es capaz de procesar más de 200.000 millones de cálculos por segundo), uno cuántico puede ejecutar trillones. Esta potencia se basa en la superposición, una particularidad de las partículas subatómicas que les permite estar en dos estados o en cualquier superposición de ellos. Un bit (la unidad mínima en computación clásica) solo puede tener un valor binario: 0 o 1. El cúbit, por el contrario, puede encontrarse en esos dos estados o en ambos a la vez. De esta forma, dos bits pueden almacenar un número, mientras dos cúbits almacenan cuatro y diez cúbits pueden tener 1.024 estados simultáneos, por lo que se amplía exponencialmente la capacidad de cálculo por cada cúbit añadido.

Sin embargo, al intentar extraer la información almacenada, el sistema sufre un fenómeno conocido como decoherencia: la degradación de esas superposiciones cuánticas hasta convertirlas en estados clásicos. Y ese efecto lo ocasiona cualquier interacción con el entorno: temperatura, electromagnetismo, vibraciones… Cualquier interferencia genera ruido y reduce a microsegundos el tiempo en el que se mantienen las superposiciones que multiplican la capacidad de computación.

Una forma de evitar las limitaciones es construir computadoras aisladas hasta límites inéditos y a una temperatura cercana al cero absoluto (-273 grados Celsius) así como ir ampliando su capacidad. El procesador Osprey de IBM ha alcanzado los 433 cúbits y la compañía prevé llegar en 2025, con el Kookaburra (Cucaburra), a más de 4.000. “Desde 1990 se intentan organizar conjuntos cada vez más grandes de cúbits físicos en lógicos para lograr tasas de error más bajas. Pero hasta ahora sucedía lo contrario porque a más cúbits, más puertas, más operaciones que pueden arrojar un error”, explica Neven.

De esta forma, la carrera tecnológica por construir ordenadores cada vez más capaces, dispositivos que proporcionen tiempos de coherencia más largos y aporten una mejora neta respecto a los métodos clásicos, es cada vez más compleja y precisa de un camino complementario. “La tecnología más importante para el futuro de la computación cuántica es la corrección de errores, es el único camino conocido para hacer computadoras cuánticas útiles y a gran escala”, asegura Julian Kelly, investigador del equipo de Google.

Y este es el avance presentado este miércoles: “Un cúbit lógico de código superficial puede reducir las tasas de error a medida que aumenta el tamaño del sistema”, es decir, que se puede aumentar la capacidad de computación cuántica robusta sin depender de máquinas que rocen los límites de la tecnología disponible.

El cúbit lógico superficial o de superficie es un conjunto de cúbits físicos agrupados y controlados de una forma determinada para que, una vez entrelazados (la acción sobre una partícula afecta instantáneamente a la otra, incluso si están separadas por grandes distancias), actúen de estabilizadores del sistema para evitar imperfecciones de los estados, materiales o medidas.

Según explica el investigador principal, “se necesita controlar al conjunto mediante los llamados cúbits de medida, que detectan errores de una manera indirecta inteligente para no destruir el tipo de estado de superposición cuántica y actuar en consecuencia”. “No podemos simplemente medir dónde ocurren los errores. Si identificamos, además de dónde, qué cúbits de datos tenían errores y cuáles fueron, podemos decodificar y recuperar la información cuántica”, añade Kelly.

“El código de superficie es”, según explican los investigadores, “un tipo de computación cuántica altamente tolerante a fallos y robusto”. Los sistemas actuales arrojan errores en una proporción de uno entre mil. Estos pueden parecer escasos, pero las aplicaciones prácticas de la computación cuántica necesitan reducirlos mucho más, hasta uno entre un millón, según resalta Neven. Es el camino emprendido por Google y que, según asegura el científico, “demuestra que la corrección de errores funciona y nos informa de todo lo que se necesita saber sobre este sistema”.

Para la demostración que publica Nature, el equipo de Hartmut Neven creó, a partir de la tercera generación del Sycamore de Google, un procesador cuántico superconductor con 72 cúbits y lo probaron con dos códigos de superficie, uno mayor que el otro. El más grande (sobre 49 cúbits físicos) arrojó una tasa de fallos (2,914% de error lógico por ciclo) menor que el más pequeño (3.028% en 17 cúbits físicos). “Se necesita más trabajo para alcanzar las tasas de error lógicas requeridas para un cálculo efectivo, pero esta investigación demuestra el requisito fundamental para futuros desarrollos”, afirma Neven.

La línea de investigación de Google se basa en la premisa expuesta por el físico Richard Feynman, en 1981, cuando afirmó: “La naturaleza es cuántica, maldita sea, así que, si la quieres simular, mejor que sea una simulación cuántica”. De esta forma, Feynman limitaba las posibilidades de la computación convencional para desentrañar el mundo cuántico e instaba a simular esta segunda realidad para conseguirlo.

Desde esa propuesta para computar a partir de la física cuántica han surgido, según recuerdan los investigadores de Google, numerosas aplicaciones que incluyen factorización (clave en la criptografía), aprendizaje mecánico o química cuántica. Pero estas siguen precisando miles de operaciones para minimizar la aún alta tasa de error. Los científicos de la multinacional norteamericana creen haber abierto la puerta para que “la corrección de errores pueda suprimir exponencialmente las tasas de fallos operacionales en un procesador cuántico”.

Kelly admite que es un resultado necesario y crítico, pero no suficiente. “Los resultados aún no muestran la escala de rendimiento en el nivel necesario para construir una máquina sin errores. Pero es realmente un hito científico clave porque demuestra que la corrección de errores finalmente funciona y nos brinda aprendizajes clave a medida que avanzamos hacia nuestro próximo hito”.

Tampoco evita que se mantenga la carrera por construir computadoras con más de 100.000 cúbits, proyectos en los que trabajan, además de Google, compañías como IBM, Intel, Microsoft o Rigetti. La corrección de errores es complementaria. “Estamos abordando primero lo que creemos que es más difícil y es, básicamente, tomar información cuántica y protegerla del entorno. Estamos tratando fundamentalmente de usar la corrección de errores cuánticos para la coherencia. El desafío fundamental y clave es demostrar que esa corrección de errores funciona a una escala para poder tomar información cuántica y protegerla del entorno”, explica Julian Kelly.

Fuentes.

https://www.xataka.com/ordenadores/google-ha-resuelto-dos-horas-problemas-que-supercomputador-costarian-tres-anos-ventaja-cuantica-que-necesitabamos

https://elpais.com/tecnologia/2023-02-22/google-consigue-un-sistema-de-correccion-de-errores-necesario-para-una-computacion-cuantica-util-y-a-gran-escala.html

https://hipertextual.com/tecnologia/google-ventaja-cuantica-chip-willow-ecos-cuanticos/


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.