IBM presenta un procesador cuántico cuya potencia ya no puede ser simulada por ordenadores convencio

Su potencia duplica la de Zuchongzhi, desarrollada por ingenieros de la Universidad de Ciencia y Tecnología de China y la Universidad Tsinghua de Pekín y que hasta ahora era la más avanzada y que, según publicaron sus creadores en la revista Science, había logrado resolver en unos tres minutos un problema de generación de números aleatorios en el que los superordenadores clásicos más potentes del planeta habrían invertido 600 millones de años.

https://elpais.com/tecnologia/2021-11-15/ibm-presenta-un-procesador-cuantico-cuya-potencia-ya-no-puede-ser-simulada-por-ordenadores-convencionales.html
y luego yo en mi tesis no llegue a conectar dos qubits satisfactoraimente, que maravilloso XD
Jugar al Cyberpunk en condiciones cada vez está más cerca.
Una cosa. Los procesadores cuánticos no son "más potentes" que los procesadores clásicos. Solventan problemas irresolubles por ordenadores convencionales porque los resuelve de otra forma. Pero no son más potentes. No tiene sentido comparar la Potencia de un procesador cuántico con uno tradicional.
LLioncurt escribió:Jugar al Cyberpunk en condiciones cada vez está más cerca.

De hecho sería la forma más cyberpunk de jugar al Cyberpunk
Pocos, muy pocos procesadores, tienen la fuerza bruta de un Pentium IV de los primeros.

Yo creo que si hicieran un Pentium IV cuántico sería la releche XD
Quintiliano escribió:Pocos, muy pocos procesadores, tienen la fuerza bruta de un Pentium IV de los primeros.

Yo creo que si hicieran un Pentium IV cuántico sería la releche XD


Mi 386 se lo come con patatas. ¿Qué procesador viene hoy con botón de turbo? Un procesador cuántico con botón de turbo, eso sí sería la releche.
LLioncurt escribió:Jugar al Cyberpunk en condiciones cada vez está más cerca.


Los bugs también se aprovecharían de mas potencia. :D
Reakl escribió:Una cosa. Los procesadores cuánticos no son "más potentes" que los procesadores clásicos. Solventan problemas irresolubles por ordenadores convencionales porque los resuelve de otra forma. Pero no son más potentes. No tiene sentido comparar la Potencia de un procesador cuántico con uno tradicional.

No exactamente, de hecho muchos problemas son perfectamente computables en ordenadores clásicos.

Lo que pasa es que hasta ahora (Dwave), se comparaba con una simulación de un ordenador cuántico en un ordenador clásico con generador de números aleatorios que corría en un ordenador cuántico, lo cual obviamente es hacer trampa, porque eso penaliza mucho al clásico.

Ahora parece que sí se ha conseguido la supremacía cuántica, de hecho me suena que ya se consiguió a principios de año.

De todas formas, dudo que veamos ordenadores cuánticos en las casas, porque para algoritmos convencionales no se nota el speed up cuántico o no sale a cuenta.
LLioncurt escribió:
Quintiliano escribió:Pocos, muy pocos procesadores, tienen la fuerza bruta de un Pentium IV de los primeros.

Yo creo que si hicieran un Pentium IV cuántico sería la releche XD


Mi 386 se lo come con patatas. ¿Qué procesador viene hoy con botón de turbo? Un procesador cuántico con botón de turbo, eso sí sería la releche.


Con fuerza bruta me refiero a que un Pentium IV edición normal, podía con lo que le echaras. No le pasaba como a los sofisticados procesadores versión "notebook" de varios núcleos y bajo consumo que tenemos ahora.

El Intel 80386 era un procesador muy bueno, se usó extensamente en transbordadores espaciales, sobre todo porque no necesitaba ventilador, ni alcanza altas temperaturas, por lo que era muy fiable.
Schwefelgelb escribió:
Reakl escribió:Una cosa. Los procesadores cuánticos no son "más potentes" que los procesadores clásicos. Solventan problemas irresolubles por ordenadores convencionales porque los resuelve de otra forma. Pero no son más potentes. No tiene sentido comparar la Potencia de un procesador cuántico con uno tradicional.

No exactamente, de hecho muchos problemas son perfectamente computables en ordenadores clásicos.

Lo que pasa es que hasta ahora (Dwave), se comparaba con una simulación de un ordenador cuántico en un ordenador clásico con generador de números aleatorios que corría en un ordenador cuántico, lo cual obviamente es hacer trampa, porque eso penaliza mucho al clásico.

Ahora parece que sí se ha conseguido la supremacía cuántica, de hecho me suena que ya se consiguió a principios de año.

De todas formas, dudo que veamos ordenadores cuánticos en las casas, porque para algoritmos convencionales no se nota el speed up cuántico o no sale a cuenta.

No entiendo que tiene que ver tu comentario con el mio. Que se comparen resultados no significa que se puedan comparar potencias. Si tú tienes un procesador que sólo procesa números enteros a calcular flotantes va a tardar infinito más aunque tenga mucha más potencia. Si tienes un procesador capaz de hacer cálculos con coma flotante vas a conseguir el resultado mucho más rápido. Eso no significa que la segunda cpu sea más potente que la primera. La primera puede ser órdenes de magnitud más potente que la segunda, pero al necesitar un algoritmo más complejo para resolver el mismo problema tarda más y requiere mucha más potencia para conseguir el mismo resultado.

Con los procesadores cuánticos pasa lo mismo. Gracias a las peculiaridades de los qbits un procesador cuántico puede resolver determinados algoritmos en pocos ciclos resolviendo un problema rápidamente, mientras que las cpus tradicionales, al no poder resolver esos algoritmos, tienen que usar otros algoritmos que requieren billones de ciclos adicionales de cpu para resolverse. Eso no significa que el peocesador cuántico sea más potente. Es como si tienes a dos niños y les pides resolver 6563 x 7894. El primer niño no sabe multiplicar y se dedica a sumar 6563 7894 veces tardando 2000 veces más que el segundo niño que si sabe multiplicar. ¿Significa eso que el cerebro del segundo niño es 2000 veces más potente que el primero? No. De hecho a lo mejor es al revés.

Y eso mismo pasa con los procesadores cuánticos. No son más potentes. De hecho, son menos potentes. Mucho menos potentes. Pero pueden resolver algoritmos que los procesadores clásicos no pueden. Y por ello hay problemas que pueden resolverse muy rápidamente en un ordenador cuántico. No porque sean más potentes sino porque pueden resolver algoritmos que los ordenadores tradicionales no pueden.
LLioncurt escribió:
Quintiliano escribió:Pocos, muy pocos procesadores, tienen la fuerza bruta de un Pentium IV de los primeros.

Yo creo que si hicieran un Pentium IV cuántico sería la releche XD


Mi 386 se lo come con patatas. ¿Qué procesador viene hoy con botón de turbo? Un procesador cuántico con botón de turbo, eso sí sería la releche.



La pregunta es, ¿ese botón hacía algo de verdad? Yo siempre lo tenía pulsado :D :D
LLioncurt escribió:Jugar al Cyberpunk en condiciones cada vez está más cerca.

Y el Crysis [hallow]
Reakl escribió:Y eso mismo pasa con los procesadores cuánticos. No son más potentes. De hecho, son menos potentes. Mucho menos potentes. Pero pueden resolver algoritmos que los procesadores clásicos no pueden. Y por ello hay problemas que pueden resolverse muy rápidamente en un ordenador cuántico. No porque sean más potentes sino porque pueden resolver algoritmos que los ordenadores tradicionales no pueden.


Exactamente. El problema es que la gente confunde velocidad (o "potencia") con eficiencia - en el sentido de Ciencias de la Computación. Y no, no tienen mucho que ver.

Por ejemplo, factorizar números enteros es un problema NP-jodido (no polinomial) a la hora de resolverlo con procesadores y algoritmos corrientes. Eso significa que salvo en ejemplos "de juguete", no es práctico intentar resolver este problema ya que el algoritmo no acabaría "nunca" (o no estaríamos aquí para verlo). Y esto es así da igual el procesador que se use - aunque sea el Pentium IV de @Quintiliano , o el 80 386 de @LLioncurt con botón de turbo.

Los procesadores cuánticos lo que hacen es posibilitar otro tipo de operaciones o algoritmos que simplemente no están definidos para procesadores normales. Y gracias a eso, en algunos problemas NP-jodidos se pueden plantear algoritmos distintos para resolverlos (aunque el procesador en sí sea tan cutre como el del Mac que estoy usando para escribir esto).

Otra forma de verlo sería comparar a @Quintiliano yendo gateando desde su casa a Santiago (que será mas o menos rápido pero algún día terminaría...) con poner a @LLioncurt a ir andando desde casa de @Quintiliano hasta el bar de la esquina pero con la restricción de que cada vez que de un paso tiene que contar cuantos lleva y volver hasta el punto de partida ese número de veces antes de poder dar el siguiente paso - es decir, das un paso, vuelves al punto de partida; das el segundo pasa, vuelves al punto de partida, a donde estabas, y después al punto de partida otra vez... @LLioncurt tiene más potencia/velocidad, pero no va a ser capaz de terminar nunca.

Y ese es el tema, realmente no hay mucho más en la noticia. Lo de los 600 millones de años, la potencia que no puede ser simulada y tal no deja de ser publicidad cutre de IBM y/o el periodista de turno escribiendo sobre algo que realmente no entiende. Nada nuevo bajo el sol....
Vdevendettas escribió:
LLioncurt escribió:
Quintiliano escribió:Pocos, muy pocos procesadores, tienen la fuerza bruta de un Pentium IV de los primeros.

Yo creo que si hicieran un Pentium IV cuántico sería la releche XD


Mi 386 se lo come con patatas. ¿Qué procesador viene hoy con botón de turbo? Un procesador cuántico con botón de turbo, eso sí sería la releche.



La pregunta es, ¿ese botón hacía algo de verdad? Yo siempre lo tenía pulsado :D :D


Sí que hacía, pero al revés, al pulsarlo ralentizabas el reloj del procesador a 12MHz. ¿Por qué? Porque antes los programas (juegos incluidos) funcionaban al tope de velocidad que daba el procesador. Pero claro, si en vez de 12MHz pones un juego a 66MHz, el juego iba demasiado rápido. Así que le quitas el turbo y el juego pasa a ejecutarse a 12 y ya puedes jugar con normalidad.
@Reakl es que sí pueden, cuando te hablan del speed up lo hacen comparándolo con un clásico.

@Carr_Delling todo depende de lo que quieras, muchos problemas np-completos son resolubles perfectamente con heurísticos.
Vdevendettas escribió:
LLioncurt escribió:
Quintiliano escribió:Pocos, muy pocos procesadores, tienen la fuerza bruta de un Pentium IV de los primeros.

Yo creo que si hicieran un Pentium IV cuántico sería la releche XD


Mi 386 se lo come con patatas. ¿Qué procesador viene hoy con botón de turbo? Un procesador cuántico con botón de turbo, eso sí sería la releche.



La pregunta es, ¿ese botón hacía algo de verdad? Yo siempre lo tenía pulsado :D :D

Hombre claro que hacía. Yo tenía que quitar el turbo para jugar al PC fútbol a velocidad normal.
@Schwefelgelb @Reakl La ventaja de un ordenador cuántico frente a uno clásico radica en la posibilidad de superponer estados y entrelazar qubits. Como superposición se entiende que, si tengo un único qubit, puedo crear cualquier estado que sea combinación lineal de los estados |0> y |1>. Entrelazamiento implica que, si yo tengo dos qubits, puedo operarlos como una única entidad indivisible. Si combino estas dos propiedades, en un ordenador cuántico de solo dos qubits puedo tener un estado que sea el más general: a*|00> + b*|01> + c*|10> + d*|11>. Es decir, puedo poner al ordenador cuántico en un estado en el cual el entrelazamiento cuántico sea máximo. En un estado de entralazimiento máximo (a=b=c=d) aparecen todos los posibles registros del ordenador. Desde 00 hasta 11. Aquí está la principal ventaja del ordenador cuántico.

Hay problemas que pueden beneficiarse de esto y problemas que no. Por ejemplo la búsqueda en una base de datos usando un ordenador clásico escala con el número de elementos en la base de datos. En cambio, en un ordenador cuántico escala con la raíz cuadrada del número de elementos en la base de datos. Podéis imaginar la enorme ventaja de un ordenador cuántico en un mundo en el cual las bases de datos son ubicuas. En concreto este algoritmo se denomina algoritmo de Grover, y es más eficiente precisamente porque yo puedo realizar mi búsqueda partido de un estado entrelazado en el cual estén presentes TODOS los registros de la base de datos. Pero claro, para aplicarlo al mundo real aparecen dos problemas. Primero, si yo empiezo mi búsqueda del elemento |11> con un estado entrelazado a*|00> + b*|01> + c*|10> + d*|11> (con a=b=c=d) cuando yo realice la medida del estado el resultado tiene la misma probabilidad de ser |00>, |01>, |10> o |11> (porque a=b=c=d). Para yo encontrar el elemento |11> en la base de datos lo que tengo que hacer es pasar ese estado incial a través de un algoritmo (Grover) que maximiza solo el valor de la amplitud del elemento que busco; es decir, que aumenta d y reduce a, b, c con cada sucesiva iteración del bucle. Al final, tendré un estado 0.0*|00> + 0.0*|01> + 0.0*|10> + 0.999...999*|11>. Cuando mida, obtendré con absoluta certeza el elemento que busco. Para hacer esto necesito un número de iteraciones igual a la raíz cuadrada del número de elementos. Si en mi base de datos hay cuatro elementos, un ordenador clásico tardaría 4 pasos, mientras que uno cuántico tardaría 2 pasos. Vamos, que aunque sea más rápido, en este caso particular el algoritmo cuántico tampoco es exponencialmente más rápido.

El segundo problema es práctico y te carácter general (afecta a la ejecución de todos los algoritmos). Aún no podemos juntar más de un puñado de qubits en un procesador debido al bajo tiempo de decoherencia que presentan los qubits y a lo ruidosas que pueden llegar a ser sus interconexiones. Actualmente la tecnología más avanzada es la de qubits superconductores pero hay otras en desarrollo. Cada una con sus pros y sus contras. La tecnología de qubits superconductores consigue tiempos de decoherencia de unos 200 microsegundos. El tiempo de decoherencia marca la cantidad de tiempo que sobrevive la información codificada en un qubit. Esto nos marca un límite para la cantidad de operaciones que queremos hacer, ya que tenemos que hacer todas esas operaciones en menos de ese tiempo. Además no todos los qubits son iguales y hay algunos con más tiempo de decoherencia y otros con menos. Al final, esto nos introduce errores en las operaciones. Además, estos errores no solo surgen a la hora de operar el qubit, también surgen a la hora de comunicarlos. La circuitería superconductora que los entrelaza también puede ser mejor o peor y por tanto también da lugar a tasas de error mayores o menores. Actualmente la fidelidad creo que está en 0.999 en los mejores casos. Una operación de cada mil es errónea. Esta fidelidad decrece conforme aumentamos el tamaño del procesador, la cantidad de operaciones que queremos realizar con él o la cantidad de qubits que se encuentran implicados en las puertas lógicas que ejecutamos. Estamos MUY lejos de usos comerciales debido precisamente a esto.

Otros problemas que parece que se benefician de las propiedades de un ordenador cuántico son los problemas variacionales. Por ejemplo, buscar el camino óptimo o separar un conjunto en subconjuntos óptimos. En particular hay mucho interés en estos métodos porque acaban llevando a problemas de optimización y clasificación que tanto se usa en temas de inteligencia artificial. La Quantum AI está gestación aún. Otra aplicación mucho más inmediata sería la simulación de moléculas complejas con robustez e infinitia precisión. Actualmente, para simular una molécula hay que aplicar sesgos y simplificaciones a su física. En un ordenador cuántico es posible mapear cada componente del problema (electrones) a un qubit y dejar evolucionar el sistema hasta que alcance el estado de mínima energía. El estado de mínima energía es lo que se busca precisamente cuando se intenta simular moléculas complejas: ¿cuál es la estructura o el producto de una reacción que minimiza la energía? ¿cuál es el estado estable de este sistema?.

Luego está todo el tema de los problemas P y NP. Esto es algo que me toca muy muy lejos, pero en teoría un ordenador cuántico debería tener ventaja sobre uno clásico en los problemas NP. Un problema de tipo P es aquel que puede resolverse en un tiempo polinómico. Un problema NP es un problema que no puede resolverse en un tiempo polinómico (aunque creo que esto está en el aire puesto que P = NP creo que no está respondido) pero que dada una solución del problema puede comprobarse en un tiempo polinómico. Es obvio el porqué un ordenador cuántico debería tener ventaja. Al final podrías ir comprobando numerosas soluciones al mismo tiempo (como en el algoritmo de grover busca en una base de datos) gracias al entrelazamiento de los qubits que componen el procesador.

@Carr_Delling Ojito, que IBM está haciendo una gran labor acercando la computación cuántica a la gente. Obviamente es una estrategia a largo plazo y a ellos les renta hacerlo. Pero una cosa no quita la otra.

Os recomiendo echarle un ojo a esta librería para python: https://qiskit.org/
LLioncurt escribió:
Quintiliano escribió:Pocos, muy pocos procesadores, tienen la fuerza bruta de un Pentium IV de los primeros.

Yo creo que si hicieran un Pentium IV cuántico sería la releche XD


Mi 386 se lo come con patatas. ¿Qué procesador viene hoy con botón de turbo? Un procesador cuántico con botón de turbo, eso sí sería la releche.

Me recuerda a mi Compaq 486cc algún ibm tengo por ahí como el t60 buenos pepinillos hacían gran marca.
Schwefelgelb escribió: @Carr_Delling todo depende de lo que quieras, muchos problemas np-completos son resolubles perfectamente con heurísticos.


Depende lo que entiendas por "resolubles". Por definición, una heurística no puede resolver un problema NP. Las heurísticas (y las metaheurísticas) lo que hacen es darte soluciones apróximadas, más o menos decentes, en un tiempo razonable. Pero no tienes ninguna garantía de que las soluciones obtenidas sean óptimas - sino el problema no sería NP [rtfm]

vik_sgc escribió:
Luego está todo el tema de los problemas P y NP. Esto es algo que me toca muy muy lejos, pero en teoría un ordenador cuántico debería tener ventaja sobre uno clásico en los problemas NP. Un problema de tipo P es aquel que puede resolverse en un tiempo polinómico. Un problema NP es un problema que no puede resolverse en un tiempo polinómico (aunque creo que esto está en el aire puesto que P = NP creo que no está respondido)



Estamos en ello, estamos en ello... a ver si saco tiempo y nos ponemos a ver si nos llevamos el millón ;)

vik_sgc escribió: @Carr_Delling Ojito, que IBM está haciendo una gran labor acercando la computación cuántica a la gente. Obviamente es una estrategia a largo plazo y a ellos les renta hacerlo. Pero una cosa no quita la otra.


Ya, igual que hace 20 con la Inteligencia Artificial y el Watson ese, que todavía estamos esperando a que produzca un 1% de lo que prometía....

IBM lleva ya décadas que vive de decir que hacen investigación puntera y que invierten y tal, y sacando pasta de las instituciones/empresas que pasan por el aro. Y así les va, qué cuesta bastante poner juntas las palabras IBM, estrategia y rentable en la misma frase....

vik_sgc escribió:Os recomiendo echarle un ojo a esta librería para python: https://qiskit.org/


Thanks! [oki]
@Carr_Delling por eso digo que depende de lo que busques. Si buscas una implementación práctica, seguramente no aporte mucho, lo cual coincide con lo que dije de que quedaran reservados para investigación, seguridad, gran industria y poco más.

El problema del viajero por ejemplo es un problema logístico importante y un problema np-hard, pero la implementación con ordenador cuántico seguramente no cambie prácticamente nada respecto a los heurísticos que se usan hoy en día para resolverlo.
vik_sgc escribió:@Schwefelgelb @Reakl La ventaja de un ordenador cuántico frente a uno clásico radica en la posibilidad de superponer estados y entrelazar qubits. Como superposición se entiende que, si tengo un único qubit, puedo crear cualquier estado que sea combinación lineal de los estados |0> y |1>. Entrelazamiento implica que, si yo tengo dos qubits, puedo operarlos como una única entidad indivisible. Si combino estas dos propiedades, en un ordenador cuántico de solo dos qubits puedo tener un estado que sea el más general: a*|00> + b*|01> + c*|10> + d*|11>. Es decir, puedo poner al ordenador cuántico en un estado en el cual el entrelazamiento cuántico sea máximo. En un estado de entralazimiento máximo (a=b=c=d) aparecen todos los posibles registros del ordenador. Desde 00 hasta 11. Aquí está la principal ventaja del ordenador cuántico.

Hay problemas que pueden beneficiarse de esto y problemas que no. Por ejemplo la búsqueda en una base de datos usando un ordenador clásico escala con el número de elementos en la base de datos. En cambio, en un ordenador cuántico escala con la raíz cuadrada del número de elementos en la base de datos. Podéis imaginar la enorme ventaja de un ordenador cuántico en un mundo en el cual las bases de datos son ubicuas. En concreto este algoritmo se denomina algoritmo de Grover, y es más eficiente precisamente porque yo puedo realizar mi búsqueda partido de un estado entrelazado en el cual estén presentes TODOS los registros de la base de datos. Pero claro, para aplicarlo al mundo real aparecen dos problemas. Primero, si yo empiezo mi búsqueda del elemento |11> con un estado entrelazado a*|00> + b*|01> + c*|10> + d*|11> (con a=b=c=d) cuando yo realice la medida del estado el resultado tiene la misma probabilidad de ser |00>, |01>, |10> o |11> (porque a=b=c=d). Para yo encontrar el elemento |11> en la base de datos lo que tengo que hacer es pasar ese estado incial a través de un algoritmo (Grover) que maximiza solo el valor de la amplitud del elemento que busco; es decir, que aumenta d y reduce a, b, c con cada sucesiva iteración del bucle. Al final, tendré un estado 0.0*|00> + 0.0*|01> + 0.0*|10> + 0.999...999*|11>. Cuando mida, obtendré con absoluta certeza el elemento que busco. Para hacer esto necesito un número de iteraciones igual a la raíz cuadrada del número de elementos. Si en mi base de datos hay cuatro elementos, un ordenador clásico tardaría 4 pasos, mientras que uno cuántico tardaría 2 pasos. Vamos, que aunque sea más rápido, en este caso particular el algoritmo cuántico tampoco es exponencialmente más rápido.

El segundo problema es práctico y te carácter general (afecta a la ejecución de todos los algoritmos). Aún no podemos juntar más de un puñado de qubits en un procesador debido al bajo tiempo de decoherencia que presentan los qubits y a lo ruidosas que pueden llegar a ser sus interconexiones. Actualmente la tecnología más avanzada es la de qubits superconductores pero hay otras en desarrollo. Cada una con sus pros y sus contras. La tecnología de qubits superconductores consigue tiempos de decoherencia de unos 200 microsegundos. El tiempo de decoherencia marca la cantidad de tiempo que sobrevive la información codificada en un qubit. Esto nos marca un límite para la cantidad de operaciones que queremos hacer, ya que tenemos que hacer todas esas operaciones en menos de ese tiempo. Además no todos los qubits son iguales y hay algunos con más tiempo de decoherencia y otros con menos. Al final, esto nos introduce errores en las operaciones. Además, estos errores no solo surgen a la hora de operar el qubit, también surgen a la hora de comunicarlos. La circuitería superconductora que los entrelaza también puede ser mejor o peor y por tanto también da lugar a tasas de error mayores o menores. Actualmente la fidelidad creo que está en 0.999 en los mejores casos. Una operación de cada mil es errónea. Esta fidelidad decrece conforme aumentamos el tamaño del procesador, la cantidad de operaciones que queremos realizar con él o la cantidad de qubits que se encuentran implicados en las puertas lógicas que ejecutamos. Estamos MUY lejos de usos comerciales debido precisamente a esto.

Otros problemas que parece que se benefician de las propiedades de un ordenador cuántico son los problemas variacionales. Por ejemplo, buscar el camino óptimo o separar un conjunto en subconjuntos óptimos. En particular hay mucho interés en estos métodos porque acaban llevando a problemas de optimización y clasificación que tanto se usa en temas de inteligencia artificial. La Quantum AI está gestación aún. Otra aplicación mucho más inmediata sería la simulación de moléculas complejas con robustez e infinitia precisión. Actualmente, para simular una molécula hay que aplicar sesgos y simplificaciones a su física. En un ordenador cuántico es posible mapear cada componente del problema (electrones) a un qubit y dejar evolucionar el sistema hasta que alcance el estado de mínima energía. El estado de mínima energía es lo que se busca precisamente cuando se intenta simular moléculas complejas: ¿cuál es la estructura o el producto de una reacción que minimiza la energía? ¿cuál es el estado estable de este sistema?.

Luego está todo el tema de los problemas P y NP. Esto es algo que me toca muy muy lejos, pero en teoría un ordenador cuántico debería tener ventaja sobre uno clásico en los problemas NP. Un problema de tipo P es aquel que puede resolverse en un tiempo polinómico. Un problema NP es un problema que no puede resolverse en un tiempo polinómico (aunque creo que esto está en el aire puesto que P = NP creo que no está respondido) pero que dada una solución del problema puede comprobarse en un tiempo polinómico. Es obvio el porqué un ordenador cuántico debería tener ventaja. Al final podrías ir comprobando numerosas soluciones al mismo tiempo (como en el algoritmo de grover busca en una base de datos) gracias al entrelazamiento de los qubits que componen el procesador.

@Carr_Delling Ojito, que IBM está haciendo una gran labor acercando la computación cuántica a la gente. Obviamente es una estrategia a largo plazo y a ellos les renta hacerlo. Pero una cosa no quita la otra.

Os recomiendo echarle un ojo a esta librería para python: https://qiskit.org/


Excelente explicación [plas] [plas]

Saludos
Schwefelgelb escribió:@Carr_Delling por eso digo que depende de lo que busques. Si buscas una implementación práctica, seguramente no aporte mucho, lo cual coincide con lo que dije de que quedaran reservados para investigación, seguridad, gran industria y poco más.

El problema del viajero por ejemplo es un problema logístico importante y un problema np-hard, pero la implementación con ordenador cuántico seguramente no cambie prácticamente nada respecto a los heurísticos que se usan hoy en día para resolverlo.

Yo voto que en algún punto serán CPUs de apoyo, y tal como las gráficas se llevan toda una serie de carga en software que quiera hacer uso de ella, a nivel doméstico pasará algo similar.
Reakl escribió:Una cosa. Los procesadores cuánticos no son "más potentes" que los procesadores clásicos. Solventan problemas irresolubles por ordenadores convencionales porque los resuelve de otra forma. Pero no son más potentes. No tiene sentido comparar la Potencia de un procesador cuántico con uno tradicional.

Como romper una rsa en segundos?
Carr_Delling escribió:
vik_sgc escribió: @Carr_Delling Ojito, que IBM está haciendo una gran labor acercando la computación cuántica a la gente. Obviamente es una estrategia a largo plazo y a ellos les renta hacerlo. Pero una cosa no quita la otra.


Ya, igual que hace 20 con la Inteligencia Artificial y el Watson ese, que todavía estamos esperando a que produzca un 1% de lo que prometía....

IBM lleva ya décadas que vive de decir que hacen investigación puntera y que invierten y tal, y sacando pasta de las instituciones/empresas que pasan por el aro. Y así les va, qué cuesta bastante poner juntas las palabras IBM, estrategia y rentable en la misma frase....



En otros asuntos del pasado no me voy a meter porque lo desconozco. Pero desde luego que en computación cuántica IBM no está viviendo a base de vender humo. Ellos ponen la pasta (no viven de sacar pasta a otros con el cuento de la computación cuántica) y están haciendo investigación puntera. Ahora mismo hay dos empresas a la cabeza de esta carrera. IBM y Google. Ambas tienen un roadmap que aspira a ir incrementando (doblando? no recuerdo bien) el número de qubits cada seis meses. De hecho, en mi opinión la estrategia de IBM es muchísimo más sólida a largo plazo que la de Google.
Pues puedo decir que estamos en las puertas de tener un problema bien gordo con la criptografía.
alextgd escribió:
Reakl escribió:Una cosa. Los procesadores cuánticos no son "más potentes" que los procesadores clásicos. Solventan problemas irresolubles por ordenadores convencionales porque los resuelve de otra forma. Pero no son más potentes. No tiene sentido comparar la Potencia de un procesador cuántico con uno tradicional.

Como romper una rsa en segundos?

Un procesador cuántico rompe un rsa porque utiliza un algoritmo distinto que un procesador tradicional. No porque sea más potente. Es como intentar abrir un portón usando un ariete (procesador clásico) o usando una ganzua (procesador cuántico). ¿A que no tiene sentido decir que una ganzua es más potente que un ariete? De hecho no lo es. No necesita apenas potencia para operar. Pero resuelve el problema antes y con mucho menos esfuerzo porque lo hace de forma distinta.

Es por eso que hay que tener cuidado con las expresiones como las del titular. Un procesador cuántico no es mil millones de veces más potente que un procesador tradicional. No vas a poder jugar al battlefield a 60.000 millones de frames por segundo ni aunque encuentres un algoritmo de renderizado para procesadores cuánticos, que es la idea que tienen muchos en la cabeza por culpa de estos titulares.
vik_sgc escribió:Hay problemas que pueden beneficiarse de esto y problemas que no. Por ejemplo la búsqueda en una base de datos usando un ordenador clásico escala con el número de elementos en la base de datos. En cambio, en un ordenador cuántico escala con la raíz cuadrada del número de elementos en la base de datos. Podéis imaginar la enorme ventaja de un ordenador cuántico en un mundo en el cual las bases de datos son ubicuas. En concreto este algoritmo se denomina algoritmo de Grover, y es más eficiente precisamente porque yo puedo realizar mi búsqueda partido de un estado entrelazado en el cual estén presentes TODOS los registros de la base de datos. Pero claro, para aplicarlo al mundo real aparecen dos problemas. Primero, si yo empiezo mi búsqueda del elemento |11> con un estado entrelazado a*|00> + b*|01> + c*|10> + d*|11> (con a=b=c=d) cuando yo realice la medida del estado el resultado tiene la misma probabilidad de ser |00>, |01>, |10> o |11> (porque a=b=c=d). Para yo encontrar el elemento |11> en la base de datos lo que tengo que hacer es pasar ese estado incial a través de un algoritmo (Grover) que maximiza solo el valor de la amplitud del elemento que busco; es decir, que aumenta d y reduce a, b, c con cada sucesiva iteración del bucle. Al final, tendré un estado 0.0*|00> + 0.0*|01> + 0.0*|10> + 0.999...999*|11>. Cuando mida, obtendré con absoluta certeza el elemento que busco. Para hacer esto necesito un número de iteraciones igual a la raíz cuadrada del número de elementos. Si en mi base de datos hay cuatro elementos, un ordenador clásico tardaría 4 pasos, mientras que uno cuántico tardaría 2 pasos. Vamos, que aunque sea más rápido, en este caso particular el algoritmo cuántico tampoco es exponencialmente más rápido.


Agradezco que hayas comentado esto, aunque he trabajado a nivel práctico, nunca con la física de las operaciones. Lo que no acabo de comprender es el tema de busquedas de complejidad computacional y ese tipo de cosas, un lio para mi.

El segundo problema es práctico y te carácter general (afecta a la ejecución de todos los algoritmos). Aún no podemos juntar más de un puñado de qubits en un procesador debido al bajo tiempo de decoherencia que presentan los qubits y a lo ruidosas que pueden llegar a ser sus interconexiones. Actualmente la tecnología más avanzada es la de qubits superconductores pero hay otras en desarrollo. Cada una con sus pros y sus contras. La tecnología de qubits superconductores consigue tiempos de decoherencia de unos 200 microsegundos. El tiempo de decoherencia marca la cantidad de tiempo que sobrevive la información codificada en un qubit. Esto nos marca un límite para la cantidad de operaciones que queremos hacer, ya que tenemos que hacer todas esas operaciones en menos de ese tiempo. Además no todos los qubits son iguales y hay algunos con más tiempo de decoherencia y otros con menos. Al final, esto nos introduce errores en las operaciones. Además, estos errores no solo surgen a la hora de operar el qubit, también surgen a la hora de comunicarlos. La circuitería superconductora que los entrelaza también puede ser mejor o peor y por tanto también da lugar a tasas de error mayores o menores. Actualmente la fidelidad creo que está en 0.999 en los mejores casos. Una operación de cada mil es errónea. Esta fidelidad decrece conforme aumentamos el tamaño del procesador, la cantidad de operaciones que queremos realizar con él o la cantidad de qubits que se encuentran implicados en las puertas lógicas que ejecutamos. Estamos MUY lejos de usos comerciales debido precisamente a esto.


He de decir que 200 microsegundos me parece un tiempo bastante pobre. La manera que utiliza IBM de formar pares de cooper será consistente, quizá barata y permite conectarlos ya con cierta seguridad, pero ese tiempo puede ser mejorado. En mi tesis estuve trabajando en la química de coordinación de compuestos moleculares basados en elementos de transición/tierras raras. Con ello buscabamos dos cosas
1) Encontrar moléculas que a determinada temperatura presenten carácter de imán molecular (presentar dos estados magnéticos estables que puedan interconvertirse a voluntad). Usualmente, por encima de una determinada temperatura la estabilidad dice adiós y se acabó. El siguiente paso de este tipo de estudio es incrementar la temperatura a la que ocurre el fenómeno de relajación magnética, con la meta de tener imanes moleculares próximos a la temperatura ambiente. De este modo se podría tener ordenadores clásicos (dos estados diferenciados, estables hasta que le metes un estímulo y lo conviertes a otro) con mucha mayor densidad de información, pues tus "clusters de información" alcanzan tamaños moleculares. Este tipo de compuestos no sirven para la formación de qubits, porque sufren cambio de spin total/funciones de onda
2) De entre algunas de esas moléculas, dar con las que contengan estados cuanticos estables interconvertibles entre ellos, de modo que las funciones de onda y el spin total se mantiene. En determinadas condiciones se consigue aislar esos dos estados estables y se interconvierten. Luego han de cumplir con el criterio de DiVincenzo para considerarse un qubit. De esta manera se han conseguido chorrocientos compuestos con tiempos de decoherencia que superan los milisegundos, otros tanto los segundos y luego alguno los minutos. Pero claro, tiempos tan alto tampoco interesan en exceso porque luego hay que resetearlo.
Luego como segundo problema y mencionas, es el problema de las conexiones. Al parecer el mecanismo que usa IBM está bien y pueden crecer sin problema. Cuando intentas conectar spin qubits moleculares dices hastaluego maricarmen, puede desaparecer todo caracter qubit o bien la decoherencia crecer una barbaridad.
Todo esto lo comentaba porque estuve leyendo sobre los qudits, en la que se utilizan multiples estados de una misma molécula/ion molecular para formar tu sistema de computación. De ese modo no hay que generar entrelazamiento cuántico, no hay que darse de leches en intentar conectar qubits con buenos tiempos de decoherencia y ver qué pasa. En los qubits tienes tu estado |0> y |1>, porque principalmente se usan 2 estados únicamente. En el caso qudit se utilizan aquellos a los que hayan acceso, dando pie a poder tener combinaciones de diferentes estados, a|0> + b|1> + c|2> + d|3>. Ahora bien, como no he estudiado la física de esto no se cuánta ventaja real sobre los quantum gates hay.

Imagen

Otros problemas que parece que se benefician de las propiedades de un ordenador cuántico son los problemas variacionales. Por ejemplo, buscar el camino óptimo o separar un conjunto en subconjuntos óptimos. En particular hay mucho interés en estos métodos porque acaban llevando a problemas de optimización y clasificación que tanto se usa en temas de inteligencia artificial. La Quantum AI está gestación aún. Otra aplicación mucho más inmediata sería la simulación de moléculas complejas con robustez e infinitia precisión. Actualmente, para simular una molécula hay que aplicar sesgos y simplificaciones a su física. En un ordenador cuántico es posible mapear cada componente del problema (electrones) a un qubit y dejar evolucionar el sistema hasta que alcance el estado de mínima energía. El estado de mínima energía es lo que se busca precisamente cuando se intenta simular moléculas complejas: ¿cuál es la estructura o el producto de una reacción que minimiza la energía? ¿cuál es el estado estable de este sistema?.


Justo la parte última es lo que quería comentar, no solo la mínima energía es importante. Los qudits dependen de sus diferentes estados excitados y de cómo perturbaciones en el entorno de coordinación pueden causar que los diferentes estados sea perturbados, cambiando su decoherencia por ejemplo. Actualmente resolver la ecuación de Schrodinger para un sistema polielectrónico es jodido. Hay que añadir repulsiones electrón-electrón y atracción nucleo-electrón ¡en movimiento! y ese cálculo no es posible con los métodos analíticos de hoy en día, por lo que se hacen aproximaciones: se aproxima la repulsión electrón electrón considerando una carga efectiva ó el producto de un montón de funciones monoelectronicas. ¡Y estamos hablando de algo simple como átomo unicamente! (pero me da que eres físico y ya lo sabes). El problema ya surge cuando partes de una aproximación y tienes, pues, que conectar átomos para formar tu sistema con esas aproximaciones. Que recuerde se usan diferentes basis set como las de Hartree-fock (gran costo cálculo) y la función de la teoría de la densidad (bajo costo cálculo). Haciendo uso de esto pues se obtienen todos los estados de energía del sistema (si los buscas todos más costo). El caso es que los niveles excitados son muy importantes también y probablemente más difíciles de calcular que los de mínima energía. Dicho esto, lo mencionaba porque el uso de ordenadores cuánticos quizá permite resolver la ecuación de manera exacta dando niveles de energía realistas dependientes de la temperatura, algo que sería muy útil para poder obtener niveles de estados excitados y encontrar candidatos a qudits fácil por poner un ejemplo.

PD: lo siento, argumentar no es mi punto fuerte

edit: en resumen, creo que según crezcan los ordenadores cuánticos podrán ser usados para simular moléculas que ayuden a su vez a crear ordenadores cuánticos más fiables y mejores xD
josem138 escribió:Agradezco que hayas comentado esto, aunque he trabajado a nivel práctico, nunca con la física de las operaciones. Lo que no acabo de comprender es el tema de busquedas de complejidad computacional y ese tipo de cosas, un lio para mi.


Bueno, realmente lo que se hace en computación cuántica es pasar el estado inicial a través de un algoritmo que amplifica la amplitud del resultado correcto y reduce a cero las amplitudes de los resultados incorrectos. Básicamente es eso. La tarea de quien diseña el algoritmo es buscar la combinación de puertas cuánticas que hace eso para el resultado correcto del problema concreto. Ahí está lo jodido.

josem138 escribió:He de decir que 200 microsegundos me parece un tiempo bastante pobre. La manera que utiliza IBM de formar pares de cooper será consistente, quizá barata y permite conectarlos ya con cierta seguridad, pero ese tiempo puede ser mejorado.


Creo que aquí ha habido un pequeño lío. Los pares de Cooper son un estado condensado de electrones que se forma a baja temperatura. En este estado condensado, los electrones se unen por parejas gracias a su interacción a través de una vibración de la red cristalina del material. De esta forma, la corriente eléctrica fluye a través del material sin resistencia (y además el material se vuelve diamagnético perfecto), por lo que esta fase del material se llama estado superconductor. Los pares de cooper son los responsables de la superconductividad (simplificando mucho). Aunque IBM fabrica qubits superconductores, ellos no forman los pares de Cooper. Los pares de Cooper se forman espontáneamente al bajar (mucho) la temperatura del material (si el material es favorable para ello). Materiales superconductores usados por IBM para fabricar sus qubits superconductores: Aluminio y Niobio. Lo que ocurre es que estos qubits superconductores son sistemas de dos niveles artificiales. Y además están bastante acoplados a su entorno. Por eso su tiempo de decoherencia y su tiempo de relajación (el T2 y el T1 para los no profanos) es bastante bajo. El entanglement entre varios qubits lo realizan a través de líneas superconductoras que los comunican. En un estado entrelazado hay una interacción efectiva entre dos o más qubits a partir de un fotón virtual que se propaga a través de la línea superconductora.

josem138 escribió:En mi tesis estuve trabajando en la química de coordinación de compuestos moleculares basados en elementos de transición/tierras raras. Con ello buscabamos dos cosas


Es normal que te parezcan bajos los tiempos de decoherencia de estos qubits superconductores. Normalmente con los espines moleculares se aspira a tiempos más altos. Las vacantes de nitrógeno en diamante (uno de los reyes en este tema) tiene un T2 máximo de 3 ms, y un T1 de varias horas. Pero como dices más adelante, es muchísimo más difícil trabajar con espines moleculares, puesto que es más difícil interaccionar con ellos o entrelazarlos.

Yo ahora mismo estoy trabajando con tierras raras y eventualmente en la codificación de qubits en las transiciones de espín de estos compuestos moleculares. La forma de operar estos qubits es a través de la misma estrategia que usan en IBM, mediante cavidades y líneas de transmisión superconductoras.


josem138 escribió:1) Encontrar moléculas que a determinada temperatura presenten carácter de imán molecular (presentar dos estados magnéticos estables que puedan interconvertirse a voluntad). Usualmente, por encima de una determinada temperatura la estabilidad dice adiós y se acabó. El siguiente paso de este tipo de estudio es incrementar la temperatura a la que ocurre el fenómeno de relajación magnética, con la meta de tener imanes moleculares próximos a la temperatura ambiente. De este modo se podría tener ordenadores clásicos (dos estados diferenciados, estables hasta que le metes un estímulo y lo conviertes a otro) con mucha mayor densidad de información, pues tus "clusters de información" alcanzan tamaños moleculares. Este tipo de compuestos no sirven para la formación de qubits, porque sufren cambio de spin total/funciones de onda


Cuando dices interconvertirse dices pasar de spin up a spin down no?. Cómo lo hacías en tu tesis?

Desde mi ignorancia, la verdad que no he entendido muy bien este párrafo. Yo estoy trabajando con espines moleculares (o imanes moleculares, como quieras llamarlo) en forma de cristales. Al elevar la temperatura, lo que le ocurre a estos sistemas es que las poblaciones de sus niveles se igualan. Si intentas codificar un qubit entre dos niveles con la misma población no vas a poder hacer nada, puesto tu capacidad para interaccionar con una transición es mayor cuanto mayor desequilibrio de poblaciones exista entre esos dos niveles. Por eso hay que bajar a temperaturas de mK (en mi caso). Pero tú parece que estás hablando más bien de transiciones de fase.

josem138 escribió:2) De entre algunas de esas moléculas, dar con las que contengan estados cuanticos estables interconvertibles entre ellos, de modo que las funciones de onda y el spin total se mantiene. En determinadas condiciones se consigue aislar esos dos estados estables y se interconvierten. Luego han de cumplir con el criterio de DiVincenzo para considerarse un qubit. De esta manera se han conseguido chorrocientos compuestos con tiempos de decoherencia que superan los milisegundos, otros tanto los segundos y luego alguno los minutos. Pero claro, tiempos tan alto tampoco interesan en exceso porque luego hay que resetearlo.


Vale. Por la primera frase entiendo que antes te referías a transiciones de fase en las cuales cambia el espín total al cambiar la temperatura. Sí, bueno, no es tan difícil interaccionar con dos estados de espín estables (lo que viene siendo excitar una transición de espín). De hecho, el sistema en el que trabajo tiene 12 niveles y bastantes transiciones permitidas con las que jugar. En todas ellas podría codificarse un qubit.


josem138 escribió:Luego como segundo problema y mencionas, es el problema de las conexiones. Al parecer el mecanismo que usa IBM está bien y pueden crecer sin problema. Cuando intentas conectar spin qubits moleculares dices hastaluego maricarmen, puede desaparecer todo caracter qubit o bien la decoherencia crecer una barbaridad.
Todo esto lo comentaba porque estuve leyendo sobre los qudits, en la que se utilizan multiples estados de una misma molécula/ion molecular para formar tu sistema de computación. De ese modo no hay que generar entrelazamiento cuántico, no hay que darse de leches en intentar conectar qubits con buenos tiempos de decoherencia y ver qué pasa. En los qubits tienes tu estado |0> y |1>, porque principalmente se usan 2 estados únicamente. En el caso qudit se utilizan aquellos a los que hayan acceso, dando pie a poder tener combinaciones de diferentes estados, a|0> + b|1> + c|2> + d|3>. Ahora bien, como no he estudiado la física de esto no se cuánta ventaja real sobre los quantum gates hay.

Imagen


Bueno, la interconexión de espines moleculares se consigue mediante circuitería superconductora (si los niveles de espín lo permiten claro):

https://journals.aps.org/prl/abstract/1 ... 118.140502

Precisamente el objetivo último del trabajo que desarrollamos es codificar un qudit en esas transiciones

https://pubs.acs.org/doi/10.1021/jacs.8b05934

Cuando pueda respondo a la segunda parte de tu mensaje. Que es bastante interesante.
Reakl escribió:
alextgd escribió:
Reakl escribió:Una cosa. Los procesadores cuánticos no son "más potentes" que los procesadores clásicos. Solventan problemas irresolubles por ordenadores convencionales porque los resuelve de otra forma. Pero no son más potentes. No tiene sentido comparar la Potencia de un procesador cuántico con uno tradicional.

Como romper una rsa en segundos?

Un procesador cuántico rompe un rsa porque utiliza un algoritmo distinto que un procesador tradicional. No porque sea más potente. Es como intentar abrir un portón usando un ariete (procesador clásico) o usando una ganzua (procesador cuántico). ¿A que no tiene sentido decir que una ganzua es más potente que un ariete? De hecho no lo es. No necesita apenas potencia para operar. Pero resuelve el problema antes y con mucho menos esfuerzo porque lo hace de forma distinta.

Es por eso que hay que tener cuidado con las expresiones como las del titular. Un procesador cuántico no es mil millones de veces más potente que un procesador tradicional. No vas a poder jugar al battlefield a 60.000 millones de frames por segundo ni aunque encuentres un algoritmo de renderizado para procesadores cuánticos, que es la idea que tienen muchos en la cabeza por culpa de estos titulares.

El ejemplo no lo veo muy adecuado, es como decir que los GEOs son tontos de remate por usar arietes y no ganzúas. Un ariete resuelve el problema antes, aunque no sea la forma más exquisita.
Es como decir que se pesca antes con caña que con dinamita.
Por lo demás estoy de acuerdo en que eficiente no es lo mismo que potente.
vik_sgc escribió:Bueno, realmente lo que se hace en computación cuántica es pasar el estado inicial a través de un algoritmo que amplifica la amplitud del resultado correcto y reduce a cero las amplitudes de los resultados incorrectos. Básicamente es eso. La tarea de quien diseña el algoritmo es buscar la combinación de puertas cuánticas que hace eso para el resultado correcto del problema concreto. Ahí está lo jodido.

Escapa totalmente a mi comprension, aunque no le he dedicado tiempo, la verdad XD. Entiendo que son ondas y mediante combinacion de estas puedes sustraer y demases, pero no se el funcionamiento a nivel qubit.

Creo que aquí ha habido un pequeño lío. Los pares de Cooper son un estado condensado de electrones que se forma a baja temperatura. En este estado condensado, los electrones se unen por parejas gracias a su interacción a través de una vibración de la red cristalina del material. De esta forma, la corriente eléctrica fluye a través del material sin resistencia (y además el material se vuelve diamagnético perfecto), por lo que esta fase del material se llama estado superconductor. Los pares de cooper son los responsables de la superconductividad (simplificando mucho). Aunque IBM fabrica qubits superconductores, ellos no forman los pares de Cooper. Los pares de Cooper se forman espontáneamente al bajar (mucho) la temperatura del material (si el material es favorable para ello). Materiales superconductores usados por IBM para fabricar sus qubits superconductores: Aluminio y Niobio. Lo que ocurre es que estos qubits superconductores son sistemas de dos niveles artificiales. Y además están bastante acoplados a su entorno. Por eso su tiempo de decoherencia y su tiempo de relajación (el T2 y el T1 para los no profanos) es bastante bajo. El entanglement entre varios qubits lo realizan a través de líneas superconductoras que los comunican. En un estado entrelazado hay una interacción efectiva entre dos o más qubits a partir de un fotón virtual que se propaga a través de la línea superconductora.


Entiendo. No tenia muy claro como funcionaba el IBM y como conectaban tantos qubits, me meti en la web y vi que hablaban de "The quantum computers you interact with in IBM Quantum use a physical type of qubit called a superconducting transmon qubit". A partir de ahi con trasmon entendi plasmon y me monte la historia con los pares de Cooper, que de alguna manera tenia sentido para mi porque tenia entendido que se formaba un estado triplete, donde dos espines estaban conectados en la red. Ahora bien, despues de tu post he visto que lo comun es que sea estado singlete, donde se aparean para dar el estado diamagnetico, cosas que me enseñas :p (claramente demuestras conocer mucho mas que yo en este campo). Por que comentas que son niveles artificiales? (duda real)

Es normal que te parezcan bajos los tiempos de decoherencia de estos qubits superconductores. Normalmente con los espines moleculares se aspira a tiempos más altos. Las vacantes de nitrógeno en diamante (uno de los reyes en este tema) tiene un T2 máximo de 3 ms, y un T1 de varias horas. Pero como dices más adelante, es muchísimo más difícil trabajar con espines moleculares, puesto que es más difícil interaccionar con ellos o entrelazarlos.

Yo ahora mismo estoy trabajando con tierras raras y eventualmente en la codificación de qubits en las transiciones de espín de estos compuestos moleculares. La forma de operar estos qubits es a través de la misma estrategia que usan en IBM, mediante cavidades y líneas de transmisión superconductoras.

Cuando dices interconvertirse dices pasar de spin up a spin down no?. Cómo lo hacías en tu tesis?


Como trabajas con ello? ¿Lo formas in situ o tienes colaboracion con quimicos que diseñan el compuesto molecular y lo depositas en superficie/junction/lo que sea?
Si me referia al spin up y spin down. En mi tesis tenia unos compuestos de cobalto(II) de alto espin (3/2) el cual a baja temperatura (2-4 K) se poblaba principalmente el nivel fundamental dando como resultado un espin efectivo de 1/2. Aplicando un campo externo se puede diferenciar energeticamente entre el +1/2 y el -1/2 y, como dices, a baja temperatura hay una diferencia de poblacion entre los dos (que cumple mayormente todos los criterios de DiVicenzo, salvo por el tiempo de decoherencia que depende del compuesto), al pulsar con una frecuencia externa se podia hacer la transición buscada. El paso inverso sería eliminado el campo externo o permitir relajación térmica. Nunca llegamos a trabajar con ellos como qubit, por eso de la parte física de implementación del qubit la desconozco. Sí sé que probamos con algunos de cobre que son estrictamente espin 1/2, que a 20K podías pulsar y elegir el estado que te interese, de nuevo no se llevo a aplicación práctica. Por último unos compuestos de gadolinio(II) S=7/2, el cual tiene 8 niveles no degenerados, al cual puedes elegir con diferentes frecuencias a que nivel quieres llevar el e- (candidato a qudit por ejemplo). De nuevo, el artículo está parado y no se ha publicado. Como verás nuestros estudios comenzaron en nivel químico pero a nivel físico totalmente parado XD

Desde mi ignorancia, la verdad que no he entendido muy bien este párrafo. Yo estoy trabajando con espines moleculares (o imanes moleculares, como quieras llamarlo) en forma de cristales. Al elevar la temperatura, lo que le ocurre a estos sistemas es que las poblaciones de sus niveles se igualan. Si intentas codificar un qubit entre dos niveles con la misma población no vas a poder hacer nada, puesto tu capacidad para interaccionar con una transición es mayor cuanto mayor desequilibrio de poblaciones exista entre esos dos niveles. Por eso hay que bajar a temperaturas de mK (en mi caso). Pero tú parece que estás hablando más bien de transiciones de fase.

Vale. Por la primera frase entiendo que antes te referías a transiciones de fase en las cuales cambia el espín total al cambiar la temperatura. Sí, bueno, no es tan difícil interaccionar con dos estados de espín estables (lo que viene siendo excitar una transición de espín). De hecho, el sistema en el que trabajo tiene 12 niveles y bastantes transiciones permitidas con las que jugar. En todas ellas podría codificarse un qubit.


No creo estar hablando de un cambio de fase ni transición de espín, quizá me expliqué mal. Lo que quise decir es que al hacer nuestros compuestos moleculares magnéticos podemos acabar teniendo imanes moleculares que tengan histéresis magnética, con una remanente a campo magnético nulo. Dependiendo del campo que apliques y luego retires, podrías seleccionar el "0" o el "1". En este tipo de sistemas la curva de histéresis colapsa al subir la temperatura. No he trabajado con compuestos de transición de espín, aunque unos compañeros sí.
¿Puedes definir mejor lo que quieres decir de "en forma de cristales"? Porque nosotros trabajabamos con cristales, sí, pero intentábamos que no hubiese una interacción intermolecular, pero sí teniamos fonones de red que aceleraban la relajación de la magnetización. Si trabajas con tierras raras y tienes 12 niveles... tienes algun elemento J = 6? Terbio(III)? XD


Bueno, la interconexión de espines moleculares se consigue mediante circuitería superconductora (si los niveles de espín lo permiten claro):

https://journals.aps.org/prl/abstract/1 ... 118.140502

Precisamente el objetivo último del trabajo que desarrollamos es codificar un qudit en esas transiciones

https://pubs.acs.org/doi/10.1021/jacs.8b05934

Cuando pueda respondo a la segunda parte de tu mensaje. Que es bastante interesante.


Los leo luego y creo que te contesto luego como me dices
Porque se le llama procesador cuando no cumple con las especificaciones que debe tener para que se llame procesador?. De hecho no son sistemas completos, necesitan de un sistema computacional "clásico" para ir dándole la información y recoger los resultados. No hay una cpu como tal, pero queda guay decir la palabra cuántico. Es como los vendemotos que afirman que en sus modelos criptográficos usan criptografía cuántica. Cómo se puede llevar a cabo un proceso cuántico en un sistema clásico de manera óptima?. Según tengo entendido uno de los principales problemas en la cripto cuántica es la teleportación, y sin un sistema completo(a nivel hard), no se como pueden afirmar eso, es claramente publicidad engañosa de manual.
No entiendo una mierda de todo esto... no doy para más. Pero me quito el sombrero ante todos los que tenéis los conocimientos para hacer posibles estos avances.
josem138 escribió:Justo la parte última es lo que quería comentar, no solo la mínima energía es importante. Los qudits dependen de sus diferentes estados excitados y de cómo perturbaciones en el entorno de coordinación pueden causar que los diferentes estados sea perturbados, cambiando su decoherencia por ejemplo. Actualmente resolver la ecuación de Schrodinger para un sistema polielectrónico es jodido. Hay que añadir repulsiones electrón-electrón y atracción nucleo-electrón ¡en movimiento! y ese cálculo no es posible con los métodos analíticos de hoy en día, por lo que se hacen aproximaciones: se aproxima la repulsión electrón electrón considerando una carga efectiva ó el producto de un montón de funciones monoelectronicas. ¡Y estamos hablando de algo simple como átomo unicamente! (pero me da que eres físico y ya lo sabes). El problema ya surge cuando partes de una aproximación y tienes, pues, que conectar átomos para formar tu sistema con esas aproximaciones. Que recuerde se usan diferentes basis set como las de Hartree-fock (gran costo cálculo) y la función de la teoría de la densidad (bajo costo cálculo). Haciendo uso de esto pues se obtienen todos los estados de energía del sistema (si los buscas todos más costo). El caso es que los niveles excitados son muy importantes también y probablemente más difíciles de calcular que los de mínima energía. Dicho esto, lo mencionaba porque el uso de ordenadores cuánticos quizá permite resolver la ecuación de manera exacta dando niveles de energía realistas dependientes de la temperatura, algo que sería muy útil para poder obtener niveles de estados excitados y encontrar candidatos a qudits fácil por poner un ejemplo.

PD: lo siento, argumentar no es mi punto fuerte

edit: en resumen, creo que según crezcan los ordenadores cuánticos podrán ser usados para simular moléculas que ayuden a su vez a crear ordenadores cuánticos más fiables y mejores xD


Por partes. Un qudit es un qubit con D posibles estados, como pintas en la imagen que colgaste arriba de ese párrafo. Los operas mandando un fotón con frecuencia igual a la diferencia de energía entre dos estados concretos.

Me vas a perdonar, pero no entiendo muy bien el salto a Hartree-Fock y a las interacciones entre los distintos elementos en una molécula. Eso lo puedes hacer de igual forma con un ordenador cuántico con qubits superconductores. De hecho, es un ejercicio de qiskit, encontrar el estado de mínima energía de una serie de moléculas con un optimizador QAOA (https://qiskit.org/textbook/ch-applications/qaoa.html).

Respondiendo a la frase que pongo en negrita. Sí, el ordenador cuántico permite resolver el sistema de forma exacta. Sin aproximaciones. Esto se hace mapeando los operadores fermiónicos (electrones) a operadores bosónicos (qubits). De momento se restringe a moléculas muy simples, pero se aspira a conocer el estado de mínima energía de moléculas mucho más complejas (la cafeína?).

josem138 escribió:Escapa totalmente a mi comprension, aunque no le he dedicado tiempo, la verdad XD. Entiendo que son ondas y mediante combinacion de estas puedes sustraer y demases, pero no se el funcionamiento a nivel qubit.


Precisamente, se trata como si fuese un problema de interferencias. El algoritmo intenta realizar las interferencias constructivas solo para el resultado correcto y las destructivas para los incorrectos.

josem138 escribió:Entiendo. No tenia muy claro como funcionaba el IBM y como conectaban tantos qubits, me meti en la web y vi que hablaban de "The quantum computers you interact with in IBM Quantum use a physical type of qubit called a superconducting transmon qubit". A partir de ahi con trasmon entendi plasmon y me monte la historia con los pares de Cooper, que de alguna manera tenia sentido para mi porque tenia entendido que se formaba un estado triplete, donde dos espines estaban conectados en la red. Ahora bien, despues de tu post he visto que lo comun es que sea estado singlete, donde se aparean para dar el estado diamagnetico, cosas que me enseñas :p (claramente demuestras conocer mucho mas que yo en este campo). Por que comentas que son niveles artificiales? (duda real)


Bueno, en esencia un tramon es una isla artificial de carga en la cual cabe una única unidad de carga. Así que si controlas como entran los electrones en esa isla, puedes tener un estado |0> o |1> y de ahí puedes hacer superposiciones, puesto que se comporta como un sistema cuántico. No tiene nada que ver con el estado singlete (o triplete) de los pares de Cooper. Los pares de Cooper son el mecanismo por el cual este dispositivo es superconductor.

josem138 escribió:Como trabajas con ello? ¿Lo formas in situ o tienes colaboracion con quimicos que diseñan el compuesto molecular y lo depositas en superficie/junction/lo que sea?
Si me referia al spin up y spin down. En mi tesis tenia unos compuestos de cobalto(II) de alto espin (3/2) el cual a baja temperatura (2-4 K) se poblaba principalmente el nivel fundamental dando como resultado un espin efectivo de 1/2. Aplicando un campo externo se puede diferenciar energeticamente entre el +1/2 y el -1/2 y, como dices, a baja temperatura hay una diferencia de poblacion entre los dos (que cumple mayormente todos los criterios de DiVicenzo, salvo por el tiempo de decoherencia que depende del compuesto), al pulsar con una frecuencia externa se podia hacer la transición buscada. El paso inverso sería eliminado el campo externo o permitir relajación térmica. Nunca llegamos a trabajar con ellos como qubit, por eso de la parte física de implementación del qubit la desconozco. Sí sé que probamos con algunos de cobre que son estrictamente espin 1/2, que a 20K podías pulsar y elegir el estado que te interese, de nuevo no se llevo a aplicación práctica. Por último unos compuestos de gadolinio(II) S=7/2, el cual tiene 8 niveles no degenerados, al cual puedes elegir con diferentes frecuencias a que nivel quieres llevar el e- (candidato a qudit por ejemplo). De nuevo, el artículo está parado y no se ha publicado. Como verás nuestros estudios comenzaron en nivel químico pero a nivel físico totalmente parado


De momento no es nada glamuroso. Cojo el cristal y lo acoplo a un resonador superconductor. El resonador permite interaccionar con el cristal cuando la transición de espín está en resonancia (frecuencias iguales) con la frecuencia del resonador. Precisamente usando un campo magnético externo (como comentas) se puede poner en resonancia o sacar de resonancia al cristal. El resonador realmente permite leer el estado del cristal sin destruir la información que almacena. La manipulación del estado del qudit se realiza a través de una segunda línea superconductora acoplada a los cristales, mandando pulsos con los que operar el qudit (realizando las transiciones correspondientes). Los experimentos los realizo en un criostato de dilución que alcanza a bajar hasta los 7 mK. En concreto, el cristal es un compuesto con espín electrónico 1/2 y espín nuclear 5/2 (12 niveles). El qudit se codifica en las transiciones del espín nuclear.

Veo bastante problemático el tener que usar un campo externo la verdad. Es lento. Lo bonito sería fabricar bobinas superconductoras en el propio chip capaces de crear un campo lo suficientemente intenso (unas decenas de mT). Bastante complicado lo veo.

Por curiosidad, en qué instituto realizaste la tesis? (si quieres dímelo por privado).

josem138 escribió:No creo estar hablando de un cambio de fase ni transición de espín, quizá me expliqué mal. Lo que quise decir es que al hacer nuestros compuestos moleculares magnéticos podemos acabar teniendo imanes moleculares que tengan histéresis magnética, con una remanente a campo magnético nulo. Dependiendo del campo que apliques y luego retires, podrías seleccionar el "0" o el "1". En este tipo de sistemas la curva de histéresis colapsa al subir la temperatura. No he trabajado con compuestos de transición de espín, aunque unos compañeros sí.
¿Puedes definir mejor lo que quieres decir de "en forma de cristales"? Porque nosotros trabajabamos con cristales, sí, pero intentábamos que no hubiese una interacción intermolecular, pero sí teniamos fonones de red que aceleraban la relajación de la magnetización. Si trabajas con tierras raras y tienes 12 niveles... tienes algun elemento J = 6? Terbio(III)?


Vale ya entiendo. Estaba pensando en algo totalmente distinto.

En concreto, estoy con cristales de Yb en un complejo de este tipo https://www.journal.csj.jp/doi/abs/10.1246/cl.1999.137. Al final esto se crece en forma de cristal, que es lo que yo manipulo.

_ThEcRoW escribió:Porque se le llama procesador cuando no cumple con las especificaciones que debe tener para que se llame procesador?. De hecho no son sistemas completos, necesitan de un sistema computacional "clásico" para ir dándole la información y recoger los resultados. No hay una cpu como tal, pero queda guay decir la palabra cuántico. Es como los vendemotos que afirman que en sus modelos criptográficos usan criptografía cuántica. Cómo se puede llevar a cabo un proceso cuántico en un sistema clásico de manera óptima?. Según tengo entendido uno de los principales problemas en la cripto cuántica es la teleportación, y sin un sistema completo(a nivel hard), no se como pueden afirmar eso, es claramente publicidad engañosa de manual.


Un poco raro tu mensaje. En un ordenador la CPU es un procesador. Y no está completo. Una CPU necesita de otros componentes para interaccionar con ella, igual que con un procesador cuántico. No veo dónde está el vendemotos en la computación cuántica. Si no te crees que sea cuántica (si sabes lo que eso significa) no significa que no lo sea. La computación cuántica es hacer computación con sistemas cuánticos. No sé, me da la sensación de que oyes campanas pero no sabes donde.
AMSWORLD escribió:No entiendo una mierda de todo esto... no doy para más. Pero me quito el sombrero ante todos los que tenéis los conocimientos para hacer posibles estos avances.


Ya somos dos. Aparte del odio hacia mí mismo que me produce no haber aprovechado cuando era joven y estudiar más en serio para sacarme una carrera que me permitiese como mínimo entender un poco mejor de lo que estan hablando y no sentirme tan jodidamente ignorante.

A los que habeis escrito aquí, que sepais que os envidio mucho (envidia sana, por eso :D)
Goncatin escribió:Pues puedo decir que estamos en las puertas de tener un problema bien gordo con la criptografía.

Din.
@vik_sgc
Lo de vendemotos me refería a los que venden la criptografía cuántica como algo tangible cuando no lo es. Y con respecto a lo de procesador, pues quizá no me expliqué bien, pero no forma un conjunto completo para llamarlo procesador. Quizá coprocesador podría ser más acertado, pero es que ahora mismo hoy por hoy no existe un sistema completo que se pueda llamar ordenador cuántico.

Se lo que es la computación cuántica, aunque no soy físico y ni de lejos alcanzo a entender ciertos conceptos, pero tengo claro lo que significa y se que hay experimentos que están haciendo pruebas tangibles reales, pero son eso, pruebas de concepto y están todavía muy verdes como para venderlo o poder decir que se tiene un sistema completo funcionando, a eso es a lo que me refería.
@_ThEcRoW creo que te refieres a que no existen procesadores cuánticos universales. Es decir, procesadores que puedan ejecutar cualquier algoritmo cuántico.

Los que hay por lo general sólo pueden ejecutar uno o unos pocos y además suelen ser de los que tienen menos aplicación práctica.
38 respuestas