IBM presenta el primer chip fabricado con tecnología de 7nm

IBM ha trabajado junto a GlobalFoundries, Samsung y la Universidad de Nueva York para producir el primer chip de 7 nanómetros funcional. Las CPUs actuales más avanzadas se fabrican en procesos de 14nm y hay planes para llegar a los 10nm en 2016, pero el paso dado por IBM y sus socios demuestra que ya se puede ir más allá.

Para lograr esta proeza se han invertido 3.000 millones de dólares y 5 años de investigación. El proceso no es sencillo, pero parece que la clave ha sido sustituir el silicio puro por una aleación de silicio-germanio (SiGe) y utilizar la litografía ultravioleta extrema para grabar los patrones microscópicos en cada chip.

Imagen
Oblea de chips de 7nm

Esta no es la primera vez que IBM ha conseguido bajar de la barrera de los 10nm. En 2012 presentó unos transistores experimentales de 9nm utilizando nanotubos de carbono, pero parece que la tecnología de 7nm es más viable para una producción comercial, que en todo caso no se iniciaría hasta dentro de como mínimo dos años.

Antes de que los 7nm lleguen a nuestras vidas deberemos pasar por los chips de 10nm. Intel tiene previsto lanzar sus primeros procesadores basados en esta tecnología a finales de 2016 o inicios de 2017.
DavidGoBa está baneado por "saltarse el ban con un clon"
Mola
Como mola, que teniendo la tecnologia de 7, nos hagan pasar por 2 o 3 antes para "amortizar" el desarrollo.

Al final, siguiendo la linea del bajo consumo, nos pegamos otros 10 años con las baterias de litio.
Tomax_Payne escribió:Como mola, que teniendo la tecnologia de 7, nos hagan pasar por 2 o 3 antes para "amortizar" el desarrollo.

Al final, siguiendo la linea del bajo consumo, nos pegamos otros 10 años con las baterias de litio.


Hombre, 3000 millones y 5 años de desarrollo no es para poner lo de amortizar entre comillas, creo yo.
Menuda maravilla!, estoy deseando ver los micros que nos suelta Intel de aquí a dos años y seguramente las graficazas que sacarán NVidia y AMD no mucho después.
Tomax_Payne escribió:Como mola, que teniendo la tecnologia de 7, nos hagan pasar por 2 o 3 antes para "amortizar" el desarrollo.

Al final, siguiendo la linea del bajo consumo, nos pegamos otros 10 años con las baterias de litio.

Claro, por que los ingenieros e investigadores no comen, ni sus familias tampoco [+risas]
Interesante, quiero ver las maravillas que van a salir de esto.
La tecnologia y la informatica avanza a una velocidad que da miedo pensar lo que habrá en 10, 20 o 50 años [mad]
Que se lo pongan a la NX, a la NX :)










XD
eR_pOty está baneado por "GAME OVER"
Türme escribió:Que se lo pongan a la NX, a la NX :)










XD

para cuando se comercialice nintongo habra sacado ya 49 consolas y 300 amiibos despues de la NX
¿Nos acercamos al fin de la ley de moore?, ¿que futuro nos espera?.
eR_pOty está baneado por "GAME OVER"
Netacrawler escribió:
Tomax_Payne escribió:Como mola, que teniendo la tecnologia de 7, nos hagan pasar por 2 o 3 antes para "amortizar" el desarrollo.

Al final, siguiendo la linea del bajo consumo, nos pegamos otros 10 años con las baterias de litio.

Claro, por que los ingenieros e investigadores no comen, ni sus familias tampoco [+risas]

ni que fueran a llevarse un cacho del pastel. su sueldo y van que se matan. ahi los que se llevan el beneficio de millones de trillones son los 4 de traje y corbata como todo en esta vida
eR_pOty escribió:para cuando se comercialice nintongo habra sacado ya 49 consolas y 300 amiibos despues de la NX


Aaaah... ya decía yo ke Noentiendo vendía poco últimamente XD [poraki] [sati] XD

Netacrawler escribió:Claro, por que los ingenieros e investigadores no comen, ni sus familias tampoco [+risas]


Joer yo también tengo un primo de un primo segundo, ke es ingeniero... algo del sueldo me tocará

[/sarcasmo mode off]
Señor Ventura escribió:¿Nos acercamos al fin de la ley de moore?, ¿que futuro nos espera?.


Venía a citarla :)

Para el que no la conozca: https://es.wikipedia.org/wiki/Ley_de_Moore

¿Qué es la ley de Moore?

El 19 de abril de 1965, la revista Electronics publicó un documento elaborado por Gordon Moore en el que él anticipaba que la complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable. Conocida como la ley de Moore, su predicción ha hecho posible la proliferación de la tecnología en todo el mundo, y hoy se ha convertido en el motor del rápido cambio tecnológico. Moore actualizó su predicción en 1975 para señalar que el número de transistores en un chip se duplica cada dos años y esto se sigue cumpliendo hoy. Además de proyectar cómo aumenta la complejidad de los chips (medida por transistores contenidos en un chip de computador), la ley de Moore sugiere también una disminución de los costos.
Benzo escribió:
Antes de que los 7nm lleguen a nuestras vidas deberemos pasar por los chips de 10nm. Intel tiene previsto lanzar sus primeros procesadores basados en esta tecnología a finales de 2016 o inicios de 2017.


Como me tocan los ***** éstas cosas.
SashaX escribió:
Benzo escribió:
Antes de que los 7nm lleguen a nuestras vidas deberemos pasar por los chips de 10nm. Intel tiene previsto lanzar sus primeros procesadores basados en esta tecnología a finales de 2016 o inicios de 2017.


Como me tocan los ***** éstas cosas.


No se tu lo que te piensas que se tarda desde que se hace un procesador de forma artesanal en un laboratorio hasta que acaba en PC-Componentes, pero te aseguro que no es cosa ni de semanas ni de meses.
U_Saks está baneado por "Saltarse un ban con un clon"
Pues fale ... mas vale que se preocuparan de reducir un 80 por ciento por lo menos el tamaño de las graficas qué dan vergüenza ajena ... que dinosaurios ... [tomaaa]
Bah, me espero al ordenador cuántico.
Gran noticia pues desde nVidia se habló no hace mucho que bajar de los 10nm sería prácticamente imposible puramente por cuestiones de física y que a esa escala empieza a cambiar el comportamiento de la electricidad.
eboke escribió:
Señor Ventura escribió:¿Nos acercamos al fin de la ley de moore?, ¿que futuro nos espera?.


Venía a citarla :)

Para el que no la conozca: https://es.wikipedia.org/wiki/Ley_de_Moore

¿Qué es la ley de Moore?

El 19 de abril de 1965, la revista Electronics publicó un documento elaborado por Gordon Moore en el que él anticipaba que la complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable. Conocida como la ley de Moore, su predicción ha hecho posible la proliferación de la tecnología en todo el mundo, y hoy se ha convertido en el motor del rápido cambio tecnológico. Moore actualizó su predicción en 1975 para señalar que el número de transistores en un chip se duplica cada dos años y esto se sigue cumpliendo hoy. Además de proyectar cómo aumenta la complejidad de los chips (medida por transistores contenidos en un chip de computador), la ley de Moore sugiere también una disminución de los costos.


Yo también venía a comentar esto... Si han producido este de 7nm, "saltándose" los 10 que aún no han salido...¿no se están meando en la ley de Mooore? Si lo comercializan ¿nos encontraremos ante un parón tecnológico y de consumo?

Y otra duda ¿no se probó ya con el germanio y no dio buen resultado? Creo recordar que de la victoria del silicio salió entre otras cosas el "mote" "silicon valley" etc etc
La ley de Moore no es una ecuación matemática ni ley física. Es mas bien un postulado empírico. Y más que cumplirse yo diría que los fabricantes se empeñan (O esfuerzan según se vea) en que se siga cumpliendo. El supuesto fin de la ley estaba en que la técnica de nanolitografía con la que se fabrican los chips utiliza una longitud de onda que "en principio" no debería de poder ser más pequeña que unos 13nm. A falta de leer cómo lo han conseguido exactamente realmente parece toda una hazaña y normal que se dejasen tantísimo dinero..

Saludos
Señor Ventura escribió:¿Nos acercamos al fin de la ley de moore?, ¿que futuro nos espera?.


La ley de moore ya esta obsoleta, el mismo lo menciono en 2010, que ya no servia, ya en 2005 se supero (Intel itanium 2).

Eso demuestra que en realidad podrian haber superado esta ley desde antes que existiriera pero se dieron cuenta que era una buena forma para sacar el dinero a la gente. Podrian superar la cantidad de transistores mucho mas del doble pero nunca pasara, porque?, podrian sacar un procesador con una cantidad bestial de transistores que podria durar muchos años hasta el proximo modelo que duplicara o triplicara o quien sabe esa cantidad, entonces con la ley de moore limitan esa cantidad por debajo de ese limite y eso les permite que en vez de sacar un procesador cada 10 años sacar uno cada año que apenas mejora con el anterior y asi en vez de vender 1000 millones de procesadores en esos 10 años vendereran 1000 millones por cada año que sacas esos procesadores y por lo tanto ganaras 10 veces más. Parece de pelicula pero me parece la forma mas adecuada de pensar de una empresa. Igual que las consolas siempre estan por debajo de los PCs pero quizas es a porposito para sacar modelos Slim y nuevas consolas mas antes y sacar el dinero mas facilmente, como caso de Nintendo con la kk de New 3DS. O caso del PC para que tantas graficas y procesadores si con uno de hace muchos años de lo mas potente aun te sirve para muchos juegos como es mi PC que tiene un i5 de 3º Gen y una GTX660 que eso tiene ya sus años y aun tira muchos juegos actuales en Ultra. O caso de los Smartphone que cada 3 meses sale modelo nuevo y la gente inmediatamente compra. Asi vamos, asi vamos que nos sacan el dinero como quieren, si realmente no fueran a sacarnos el dinero sacarian un producto de calidad que no necesitaria salir nada nuevo en muchos años. Windows lo mismo, cada cuanto salia un Windows y ahora cada 2 años tenemos uno nuevo encima y no me extrañaria que llegue el dia en que nos salga uno nuevo como en linux, que por lo menos linux es gratuito.

Paranoico? puede, pero sabéis que es verdad.


Hay una ley que no me acuerdo de su nombre y llevo buscandola ahora no se cuantos minutos y no doy con ella que es la limitacion de velocidad, que a medida que aumentan los transistores la velocidad aumentara cada vez menos hasta llegar a un limite donde se quedara estancado. Bueno esa ley se rompio con el grafeno ya que el silicio ahora mismo da igual cuantos transistores metan como ya no se pueden reducir mas de los 7nm (es decir el procesador de IBM es el limite) pues sera lo mas rapido que podran ir los transistores de silicio, pero el grafeno se puede reducir más y rompe la ley esta que digo donde se han alcanzado hasta los 500GHz de velocidad y fue creado por si si si , IBM tambien. Todo lo consigue siempre IBM, y si son tan buenos como es que no voe a nadie usar ningun producto suyo? xD
mmiiqquueell escribió:
Señor Ventura escribió:¿Nos acercamos al fin de la ley de moore?, ¿que futuro nos espera?.


La ley de moore ya esta obsoleta, el mismo lo menciono en 2010, que ya no servia, ya en 2005 se supero (Intel itanium 2).

Eso demuestra que en realidad podrian haber superado esta ley desde antes que existiriera pero se dieron cuenta que era una buena forma para sacar el dinero a la gente. Podrian superar la cantidad de transistores mucho mas del doble pero nunca pasara, porque?, podrian sacar un procesador con una cantidad bestial de transistores que podria durar muchos años hasta el proximo modelo que duplicara o triplicara o quien sabe esa cantidad, entonces con la ley de moore limitan esa cantidad por debajo de ese limite y eso les permite que en vez de sacar un procesador cada 10 años sacar uno cada año que apenas mejora con el anterior y asi en vez de vender 1000 millones de procesadores en esos 10 años vendereran 1000 millones por cada año que sacas esos procesadores y por lo tanto ganaras 10 veces más. Parece de pelicula pero me parece la forma mas adecuada de pensar de una empresa. Igual que las consolas siempre estan por debajo de los PCs pero quizas es a porposito para sacar modelos Slim y nuevas consolas mas antes y sacar el dinero mas facilmente, como caso de Nintendo con la kk de New 3DS. O caso del PC para que tantas graficas y procesadores si con uno de hace muchos años de lo mas potente aun te sirve para muchos juegos como es mi PC que tiene un i5 de 3º Gen y una GTX660 que eso tiene ya sus años y aun tira muchos juegos actuales en Ultra. O caso de los Smartphone que cada 3 meses sale modelo nuevo y la gente inmediatamente compra. Asi vamos, asi vamos que nos sacan el dinero como quieren, si realmente no fueran a sacarnos el dinero sacarian un producto de calidad que no necesitaria salir nada nuevo en muchos años. Windows lo mismo, cada cuanto salia un Windows y ahora cada 2 años tenemos uno nuevo encima y no me extrañaria que llegue el dia en que nos salga uno nuevo como en linux, que por lo menos linux es gratuito.

Paranoico? puede, pero sabéis que es verdad.


Hay una ley que no me acuerdo de su nombre y llevo buscandola ahora no se cuantos minutos y no doy con ella que es la limitacion de velocidad, que a medida que aumentan los transistores la velocidad aumentara cada vez menos hasta llegar a un limite donde se quedara estancado. Bueno esa ley se rompio con el grafeno ya que el silicio ahora mismo da igual cuantos transistores metan como ya no se pueden reducir mas de los 7nm (es decir el procesador de IBM es el limite) pues sera lo mas rapido que podran ir los transistores de silicio, pero el grafeno se puede reducir más y rompe la ley esta que digo donde se han alcanzado hasta los 500GHz de velocidad y fue creado por si si si , IBM tambien. Todo lo consigue siempre IBM, y si son tan buenos como es que no voe a nadie usar ningun producto suyo? xD


Te invito a que investigues un poco más sobre física del estado sólido de semiconductores porque lo que dices es más conspiranóico que cierto. Nadie duda de la existencia de la obsolescencia programada pero en el caso de la fabricación de chips la física cambia a medida que se disminuye el orden de magnitud.. Conseguir que la puerta de un transistor sea de 7nm, si sabes cómo va suena casi a ciencia ficción.. Las condiciones que se necesitan para investigar algo así son brutales.. Pensadlo friamente, 7 nanómetros.. Estamos hablando algo mucho más pequeño que un virus, una bacteria o una célula.. Algo del orden del adn y de "pocos" átomos.. En 7nm cuántos electrones caben??

Saludos
Lo que decía iba en el sentido de que les ha costado un triunfo bajar a 7nm desde 14nm, y todo depende de que la forma de fabricar los nuevos transistores permita bajar bastante de esos 7nm. Hasta entonces, supongo que ya se estará trabajando para encontrar la nueva tecnología de miniaturización, pero es que llegará un día en que esta no llegue a tiempo, y además será carísima de producir.

El futuro de los chips de silicio acabará pasando por hacerlos mas grandes, en vez miniaturizar los transistores, porque esto empieza a dar síntomas de llegar al límite de su tecnología. ¿No se iba a saltar al grafeno porque permitía mas miniaturización y resistencia al calor?.


xavierll escribió:La ley de Moore no es una ecuación matemática ni ley física. Es mas bien un postulado empírico. Y más que cumplirse yo diría que los fabricantes se empeñan (O esfuerzan según se vea) en que se siga cumpliendo. El supuesto fin de la ley estaba en que la técnica de nanolitografía con la que se fabrican los chips utiliza una longitud de onda que "en principio" no debería de poder ser más pequeña que unos 13nm. A falta de leer cómo lo han conseguido exactamente realmente parece toda una hazaña y normal que se dejasen tantísimo dinero..

Saludos


O sea, que es peor de lo que me pensaba. Ya hemos llegado al límite de esta tecnología, y el día menos pensado nos cuentan que de 7nm no bajamos.


mmiiqquueell escribió:Hay una ley que no me acuerdo de su nombre y llevo buscandola ahora no se cuantos minutos y no doy con ella que es la limitacion de velocidad, que a medida que aumentan los transistores la velocidad aumentara cada vez menos hasta llegar a un limite donde se quedara estancado. Bueno esa ley se rompio con el grafeno ya que el silicio ahora mismo da igual cuantos transistores metan como ya no se pueden reducir mas de los 7nm (es decir el procesador de IBM es el limite) pues sera lo mas rapido que podran ir los transistores de silicio, pero el grafeno se puede reducir más y rompe la ley esta que digo donde se han alcanzado hasta los 500GHz de velocidad y fue creado por si si si , IBM tambien. Todo lo consigue siempre IBM, y si son tan buenos como es que no voe a nadie usar ningun producto suyo? xD


Bueno... entonces, ¿el grafeno para cuando?.
Señor Ventura escribió:Lo que decía iba en el sentido de que les ha costado un triunfo bajar a 7nm desde 14nm, y todo depende de que la forma de fabricar los nuevos transistores permita bajar bastante de esos 7nm. Hasta entonces, supongo que ya se estará trabajando para encontrar la nueva tecnología de miniaturización, pero es que llegará un día en que esta no llegue a tiempo, y además será carísima de producir.

El futuro de los chips de silicio acabará pasando por hacerlos mas grandes, en vez miniaturizar los transistores, porque esto empieza a dar síntomas de llegar al límite de su tecnología. ¿No se iba a saltar al grafeno porque permitía mas miniaturización y resistencia al calor?.


xavierll escribió:La ley de Moore no es una ecuación matemática ni ley física. Es mas bien un postulado empírico. Y más que cumplirse yo diría que los fabricantes se empeñan (O esfuerzan según se vea) en que se siga cumpliendo. El supuesto fin de la ley estaba en que la técnica de nanolitografía con la que se fabrican los chips utiliza una longitud de onda que "en principio" no debería de poder ser más pequeña que unos 13nm. A falta de leer cómo lo han conseguido exactamente realmente parece toda una hazaña y normal que se dejasen tantísimo dinero..

Saludos


O sea, que es peor de lo que me pensaba. Ya hemos llegado al límite de esta tecnología, y el día menos pensado nos cuentan que de 7nm no bajamos.


mmiiqquueell escribió:Hay una ley que no me acuerdo de su nombre y llevo buscandola ahora no se cuantos minutos y no doy con ella que es la limitacion de velocidad, que a medida que aumentan los transistores la velocidad aumentara cada vez menos hasta llegar a un limite donde se quedara estancado. Bueno esa ley se rompio con el grafeno ya que el silicio ahora mismo da igual cuantos transistores metan como ya no se pueden reducir mas de los 7nm (es decir el procesador de IBM es el limite) pues sera lo mas rapido que podran ir los transistores de silicio, pero el grafeno se puede reducir más y rompe la ley esta que digo donde se han alcanzado hasta los 500GHz de velocidad y fue creado por si si si , IBM tambien. Todo lo consigue siempre IBM, y si son tan buenos como es que no voe a nadie usar ningun producto suyo? xD


Bueno... entonces, ¿el grafeno para cuando?.


Yo lo veo aún para lejos, al menos comercialmente. Básicamente porque ya hablaríamos de un ordenador cuántico y en ese caso la pregunta que muchos se hacen es: Realmente necesitamos un ordenador cuántico? Realmente necesitamos, la gente de a pie, tanta potencia de cálculo?? A mí sólo se me ocurren procesadores así para cosas como que todos los coches se conduzcan solos, análisis del tráfico, tiempo, etc en tiempo real.. Investigación de virus, simulación de aviones, etc. No veo para qué una persona necesite un ordenador con Xpetaflops teniendo en cuenta que necesitaría algo para refrigerarlo (Con la tecnología actual) y que sería inmensamente caro.. Estamos como hace 50 años. Todo suena demasiado futurista y seguramente hasta dentro de unos 40-50 años no veremos nada parecido y la industria seguirá creciendo en busca de chips con mejores rendimientos de consumo, procesadores multinúcleo y sobretodo en una optimización mejor del software para este. Está claro que aún nos cuesta pensar en chips con miles de núcleos (Fabricables con la tecnología actual) y ese será el gran reto previo al ordenador cuántico.

Un saludo
Impresionante. La pena es que no la vayamos a ver funcionando hasta dentro de unos años.

Un saludo.
Todo indica a eso, que ya no se miniaturiza mas, sino que se se van a empezar a sumar nucleos a las cpu's como si no hubiera un mañana (que además no es figurado, es real xD).

Entonces, el futuro inmediato pasa por emplear la misma tecnología a 7nm con muchos núcleos, o que de repente nos dicen que la tecnología de grafeno está preparada, y volvemos a empezar la rueda.

La cuestión es cuánto tiempo vamos a estar con los apaños en 7nm hasta que tengamos una tecnología que verdaderamente lo sustituya.
En 7nm cuántos electrones caben??


En 7nm caben muchísimos electrones.

si hablas de átomos, la cosa cambia. Los electrones son muchooooo más pequeño.

radio atómico Silicio: 0.137 nm
Radio del electrón: 2,81×10-6 nm
lobitoloco escribió:
En 7nm cuántos electrones caben??


En 7nm caben muchísimos electrones.

si hablas de átomos, la cosa cambia. Los electrones son muchooooo más pequeño.

radio atómico Silicio: 0.137 nm
Radio del electrón: 2,81×10-6 nm


Sí caber caben muchos, pero un átomo de Si no dopado sólo entrega 4 electrones de sus 14 disponibles.. Recuerdo cuando en la carrera me decían "Cuando hablamos de una tecnología de 1 micra el número de átomos-electrones es "infinito" y de ahí que podamos hacer tales aproximaciones pero imaginad cómo se complica la física cuando hablamos de 10 átomos que aportarán "pocos" electrones" siguen siendo muchos, pero es escalofriante sólo imaginarse que llegamos a órdenes de magnitud en los que uno es capaz de imaginarse la nube de electrones dando vueltas por ahí.. No era más que una pregunta retórica.

Saludos
Todo lo que sea que la tecnología mejore genial
unos pensando en 10nm y otros ya han conseguido los 7nm..... SIEMPRE HAY ALGUIEN MAS LISTO QUE OTRO.
Espero que podamos disfrutarlo "pronto".
Genial, estoy deseando de ver esto implementado en una tablet... debe ser brutal simplemente. Por consumo y velocidad.

Viendo que lo ha hecho IBM me huelo que AMD será de las primeras en sacar esto al mercado.
xavierll escribió:
Señor Ventura escribió:Lo que decía iba en el sentido de que les ha costado un triunfo bajar a 7nm desde 14nm, y todo depende de que la forma de fabricar los nuevos transistores permita bajar bastante de esos 7nm. Hasta entonces, supongo que ya se estará trabajando para encontrar la nueva tecnología de miniaturización, pero es que llegará un día en que esta no llegue a tiempo, y además será carísima de producir.

El futuro de los chips de silicio acabará pasando por hacerlos mas grandes, en vez miniaturizar los transistores, porque esto empieza a dar síntomas de llegar al límite de su tecnología. ¿No se iba a saltar al grafeno porque permitía mas miniaturización y resistencia al calor?.


xavierll escribió:La ley de Moore no es una ecuación matemática ni ley física. Es mas bien un postulado empírico. Y más que cumplirse yo diría que los fabricantes se empeñan (O esfuerzan según se vea) en que se siga cumpliendo. El supuesto fin de la ley estaba en que la técnica de nanolitografía con la que se fabrican los chips utiliza una longitud de onda que "en principio" no debería de poder ser más pequeña que unos 13nm. A falta de leer cómo lo han conseguido exactamente realmente parece toda una hazaña y normal que se dejasen tantísimo dinero..

Saludos


O sea, que es peor de lo que me pensaba. Ya hemos llegado al límite de esta tecnología, y el día menos pensado nos cuentan que de 7nm no bajamos.


mmiiqquueell escribió:Hay una ley que no me acuerdo de su nombre y llevo buscandola ahora no se cuantos minutos y no doy con ella que es la limitacion de velocidad, que a medida que aumentan los transistores la velocidad aumentara cada vez menos hasta llegar a un limite donde se quedara estancado. Bueno esa ley se rompio con el grafeno ya que el silicio ahora mismo da igual cuantos transistores metan como ya no se pueden reducir mas de los 7nm (es decir el procesador de IBM es el limite) pues sera lo mas rapido que podran ir los transistores de silicio, pero el grafeno se puede reducir más y rompe la ley esta que digo donde se han alcanzado hasta los 500GHz de velocidad y fue creado por si si si , IBM tambien. Todo lo consigue siempre IBM, y si son tan buenos como es que no voe a nadie usar ningun producto suyo? xD


Bueno... entonces, ¿el grafeno para cuando?.


Yo lo veo aún para lejos, al menos comercialmente. Básicamente porque ya hablaríamos de un ordenador cuántico y en ese caso la pregunta que muchos se hacen es: Realmente necesitamos un ordenador cuántico? Realmente necesitamos, la gente de a pie, tanta potencia de cálculo?? A mí sólo se me ocurren procesadores así para cosas como que todos los coches se conduzcan solos, análisis del tráfico, tiempo, etc en tiempo real.. Investigación de virus, simulación de aviones, etc. No veo para qué una persona necesite un ordenador con Xpetaflops teniendo en cuenta que necesitaría algo para refrigerarlo (Con la tecnología actual) y que sería inmensamente caro.. Estamos como hace 50 años. Todo suena demasiado futurista y seguramente hasta dentro de unos 40-50 años no veremos nada parecido y la industria seguirá creciendo en busca de chips con mejores rendimientos de consumo, procesadores multinúcleo y sobretodo en una optimización mejor del software para este. Está claro que aún nos cuesta pensar en chips con miles de núcleos (Fabricables con la tecnología actual) y ese será el gran reto previo al ordenador cuántico.

Un saludo



Un tal Bill Gates dijo en su día que un ordenador no necesitaría más de 640kb de RAM. Da igual cuanta potencia ofrezcan los ordenadores futuros, programamos tan mal que nos faltará siempre potencia o memoria.


Señor Ventura escribió:Todo indica a eso, que ya no se miniaturiza mas, sino que se se van a empezar a sumar nucleos a las cpu's como si no hubiera un mañana (que además no es figurado, es real xD).

Entonces, el futuro inmediato pasa por emplear la misma tecnología a 7nm con muchos núcleos, o que de repente nos dicen que la tecnología de grafeno está preparada, y volvemos a empezar la rueda.

La cuestión es cuánto tiempo vamos a estar con los apaños en 7nm hasta que tengamos una tecnología que verdaderamente lo sustituya.



El uso de varios procesadores tambien añade problemas, a más procesadores menor mejora se aprecia. Tampoco hay mucho software que pueda aprovecharlos, ojo, no sólo que no se puedan paralelizar, es que tampoco lo necesitan. Ordenadores de cientos de CPUs hace eones que existen pero para tareas muy concretas que encima han de programarse ad-hoc. Ni es un mundo nuevo, ni es la panacea.
P_AKER escribió:

Un tal Bill Gates dijo en su día que un ordenador no necesitaría más de 640kb de RAM. Da igual cuanta potencia ofrezcan los ordenadores futuros, programamos tan mal que nos faltará siempre potencia o memoria.

El uso de varios procesadores tambien añade problemas, a más procesadores menor mejora se aprecia. Tampoco hay mucho software que pueda aprovecharlos, ojo, no sólo que no se puedan paralelizar, es que tampoco lo necesitan. Ordenadores de cientos de CPUs hace eones que existen pero para tareas muy concretas que encima han de programarse ad-hoc. Ni es un mundo nuevo, ni es la panacea.


Ya, conozco lo que dijo Bill Gates aunque está sacado de contexto. Pero en cualquier caso es lo que he dicho, que salvo que se le encuentre una utilidad o vengan muchos "Jobs" que inviertan en la tecnología cuántica así sin saber qué resultados tendrán el ordenador cuántico es muy lejano (En las casas de todos nosotros) y es mucho más realista que tengamos ordenadores como los que conocemos más eficientes y mejor programados. Tenemos mucho camino recorrido en hardware y relativamente poco en software.. Volvemos a estar como hace 50 años pero dudo mucho que a día de hoy haya gente dispuesta a invertir a ciegas y gente comprando ordenadores de ese tipo..
antes de hablar de "ordenadores cuanticos", deberiamos pensar ¿que es un ordenador cuantico? ¿para que sirve un ordenador cuantico?

para un mono es mucho mas util una rama de madera, que le sirve para sacar hormigas de un hormiguero y alimentarse, que un ordenador con un programa para realizar graficas de integrales para calcular areas.
Basicamente porque el cerebro del mono no tiene la capacidad para comprender lo que son las matematicas, lo que es una integral, ni para que sirve calcular un area. Ni tiene la capacidad para entenderlo ahora, ni la tendra nunca.

Pues algo asi nos pasa a los humanos, con lo que llamamos "fisica cuantica".
Sabemos que "existen" una serie de "cosas" a nivel de "ondas". Pero no sabemos ni lo que son esas "cosas", ni para que "son", ni que "hacen", ni porque lo "hacen"...
al igual que un mono, si le pones un ordenador delante, es consciente de su existencia, al cabo del tiempo asocia que al dar golpes en "esa cosa" con muchos botones, pasan otras "cosas" en la pantalla... con mas tiempo de investigacion, el mono puede llegar a asociar, patrones extremadamente sencillos preprogramados al pulsar determinadas teclas... como que aparezcan una determinada letras en la pantalla o dibujos...
incluso, si le das un ordenador, que al pulsar una determinada combinacion de teclas, el ordenador "fabrique" un plato de comida, el mono, tarde o temprano, seguramente acabe por saber "hacer" un plato de comida con la maquina.
Pero de ninguna manera tiene la capacidad cerebral para comprender que es esa maquina, como funciona, o como "replicarla".

yo no estaria muy seguro de que lleguemos a ser capaces de desarrollar eso que la gente llama "ordenadores cuanticos"... tampoco se muy bien cual es la necesidad de un "ordenador cuantico" para nosotros hoy por hoy.

Actualmente diria que lo que limita la tecnologia en todos los aspectos, son precisamente las leyes fisicas que conocemos... lo de los 300.000km/sec es un gran problema logistico actualmente, y mientras no salga algun "lumbreras" por ahi que ilumine los proximos cinco siglos con alguna brillantez que explique lo que es la gravedad, y como pasarsela por el arco del triunfo (algo asi a lo que hacemos con la electricidad desde hace muchos años y que nos ha permitido llegar al desarrollo tecnologico actual) estaremos destinados al ostracismo tecnologico en el que vivimos.

Pensad que estamos en la edad de piedra tecnologicamente hablando... ¿alguien se puede imaginar donde puede estar, tecnologicamente hablando, una civilizacion inteligente que haya desarrollado su primero ordenador hace... ¿600 años? ¿4000 años? ¿50.000 años? ¿1 millon de años? ¿30 millones de años?
Que sera lo normal en el universo... que los dinosaurios se extinguieron hace 65millones de años, la tierra se formo hace 4000 millones de años... que la tierra y el sol se han formado de los restos de la explosion de otra estrella, que nacio, vivio, y exploto....
Ingalius escribió:antes de hablar de "ordenadores cuanticos", deberiamos pensar ¿que es un ordenador cuantico? ¿para que sirve un ordenador cuantico?

para un mono es mucho mas util una rama de madera, que le sirve para sacar hormigas de un hormiguero y alimentarse, que un ordenador con un programa para realizar graficas de integrales para calcular areas.
Basicamente porque el cerebro del mono no tiene la capacidad para comprender lo que son las matematicas, lo que es una integral, ni para que sirve calcular un area. Ni tiene la capacidad para entenderlo ahora, ni la tendra nunca.

Pues algo asi nos pasa a los humanos, con lo que llamamos "fisica cuantica".
Sabemos que "existen" una serie de "cosas" a nivel de "ondas". Pero no sabemos ni lo que son esas "cosas", ni para que "son", ni que "hacen", ni porque lo "hacen"...
al igual que un mono, si le pones un ordenador delante, es consciente de su existencia, al cabo del tiempo asocia que al dar golpes en "esa cosa" con muchos botones, pasan otras "cosas" en la pantalla... con mas tiempo de investigacion, el mono puede llegar a asociar, patrones extremadamente sencillos preprogramados al pulsar determinadas teclas... como que aparezcan una determinada letras en la pantalla o dibujos...
incluso, si le das un ordenador, que al pulsar una determinada combinacion de teclas, el ordenador "fabrique" un plato de comida, el mono, tarde o temprano, seguramente acabe por saber "hacer" un plato de comida con la maquina.
Pero de ninguna manera tiene la capacidad cerebral para comprender que es esa maquina, como funciona, o como "replicarla".

yo no estaria muy seguro de que lleguemos a ser capaces de desarrollar eso que la gente llama "ordenadores cuanticos"... tampoco se muy bien cual es la necesidad de un "ordenador cuantico" para nosotros hoy por hoy.

Actualmente diria que lo que limita la tecnologia en todos los aspectos, son precisamente las leyes fisicas que conocemos... lo de los 300.000km/sec es un gran problema logistico actualmente, y mientras no salga algun "lumbreras" por ahi que ilumine los proximos cinco siglos con alguna brillantez que explique lo que es la gravedad, y como pasarsela por el arco del triunfo (algo asi a lo que hacemos con la electricidad desde hace muchos años y que nos ha permitido llegar al desarrollo tecnologico actual) estaremos destinados al ostracismo tecnologico en el que vivimos.

Pensad que estamos en la edad de piedra tecnologicamente hablando... ¿alguien se puede imaginar donde puede estar, tecnologicamente hablando, una civilizacion inteligente que haya desarrollado su primero ordenador hace... ¿600 años? ¿4000 años? ¿50.000 años? ¿1 millon de años? ¿30 millones de años?
Que sera lo normal en el universo... que los dinosaurios se extinguieron hace 65millones de años, la tierra se formo hace 4000 millones de años... que la tierra y el sol se han formado de los restos de la explosion de otra estrella, que nacio, vivio, y exploto....

Solo paso a escribir porque este fue un muy buen comentario que es difícil de creer que este en eol.
Saludos.
Einishi escribió:
Ingalius escribió:antes de hablar de "ordenadores cuanticos", deberiamos pensar ¿que es un ordenador cuantico? ¿para que sirve un ordenador cuantico?

para un mono es mucho mas util una rama de madera, que le sirve para sacar hormigas de un hormiguero y alimentarse, que un ordenador con un programa para realizar graficas de integrales para calcular areas.
Basicamente porque el cerebro del mono no tiene la capacidad para comprender lo que son las matematicas, lo que es una integral, ni para que sirve calcular un area. Ni tiene la capacidad para entenderlo ahora, ni la tendra nunca.

Pues algo asi nos pasa a los humanos, con lo que llamamos "fisica cuantica".
Sabemos que "existen" una serie de "cosas" a nivel de "ondas". Pero no sabemos ni lo que son esas "cosas", ni para que "son", ni que "hacen", ni porque lo "hacen"...
al igual que un mono, si le pones un ordenador delante, es consciente de su existencia, al cabo del tiempo asocia que al dar golpes en "esa cosa" con muchos botones, pasan otras "cosas" en la pantalla... con mas tiempo de investigacion, el mono puede llegar a asociar, patrones extremadamente sencillos preprogramados al pulsar determinadas teclas... como que aparezcan una determinada letras en la pantalla o dibujos...
incluso, si le das un ordenador, que al pulsar una determinada combinacion de teclas, el ordenador "fabrique" un plato de comida, el mono, tarde o temprano, seguramente acabe por saber "hacer" un plato de comida con la maquina.
Pero de ninguna manera tiene la capacidad cerebral para comprender que es esa maquina, como funciona, o como "replicarla".

yo no estaria muy seguro de que lleguemos a ser capaces de desarrollar eso que la gente llama "ordenadores cuanticos"... tampoco se muy bien cual es la necesidad de un "ordenador cuantico" para nosotros hoy por hoy.

Actualmente diria que lo que limita la tecnologia en todos los aspectos, son precisamente las leyes fisicas que conocemos... lo de los 300.000km/sec es un gran problema logistico actualmente, y mientras no salga algun "lumbreras" por ahi que ilumine los proximos cinco siglos con alguna brillantez que explique lo que es la gravedad, y como pasarsela por el arco del triunfo (algo asi a lo que hacemos con la electricidad desde hace muchos años y que nos ha permitido llegar al desarrollo tecnologico actual) estaremos destinados al ostracismo tecnologico en el que vivimos.

Pensad que estamos en la edad de piedra tecnologicamente hablando... ¿alguien se puede imaginar donde puede estar, tecnologicamente hablando, una civilizacion inteligente que haya desarrollado su primero ordenador hace... ¿600 años? ¿4000 años? ¿50.000 años? ¿1 millon de años? ¿30 millones de años?
Que sera lo normal en el universo... que los dinosaurios se extinguieron hace 65millones de años, la tierra se formo hace 4000 millones de años... que la tierra y el sol se han formado de los restos de la explosion de otra estrella, que nacio, vivio, y exploto....

Solo paso a escribir porque este fue un muy buen comentario que es difícil de creer que este en eol.
Saludos.


+1
Ingalius escribió:antes de hablar de "ordenadores cuanticos", deberiamos pensar ¿que es un ordenador cuantico? ¿para que sirve un ordenador cuantico?

para un mono es mucho mas util una rama de madera, que le sirve para sacar hormigas de un hormiguero y alimentarse, que un ordenador con un programa para realizar graficas de integrales para calcular areas.
Basicamente porque el cerebro del mono no tiene la capacidad para comprender lo que son las matematicas, lo que es una integral, ni para que sirve calcular un area. Ni tiene la capacidad para entenderlo ahora, ni la tendra nunca.

Pues algo asi nos pasa a los humanos, con lo que llamamos "fisica cuantica".
Sabemos que "existen" una serie de "cosas" a nivel de "ondas". Pero no sabemos ni lo que son esas "cosas", ni para que "son", ni que "hacen", ni porque lo "hacen"...
al igual que un mono, si le pones un ordenador delante, es consciente de su existencia, al cabo del tiempo asocia que al dar golpes en "esa cosa" con muchos botones, pasan otras "cosas" en la pantalla... con mas tiempo de investigacion, el mono puede llegar a asociar, patrones extremadamente sencillos preprogramados al pulsar determinadas teclas... como que aparezcan una determinada letras en la pantalla o dibujos...
incluso, si le das un ordenador, que al pulsar una determinada combinacion de teclas, el ordenador "fabrique" un plato de comida, el mono, tarde o temprano, seguramente acabe por saber "hacer" un plato de comida con la maquina.
Pero de ninguna manera tiene la capacidad cerebral para comprender que es esa maquina, como funciona, o como "replicarla".

yo no estaria muy seguro de que lleguemos a ser capaces de desarrollar eso que la gente llama "ordenadores cuanticos"... tampoco se muy bien cual es la necesidad de un "ordenador cuantico" para nosotros hoy por hoy.

Actualmente diria que lo que limita la tecnologia en todos los aspectos, son precisamente las leyes fisicas que conocemos... lo de los 300.000km/sec es un gran problema logistico actualmente, y mientras no salga algun "lumbreras" por ahi que ilumine los proximos cinco siglos con alguna brillantez que explique lo que es la gravedad, y como pasarsela por el arco del triunfo (algo asi a lo que hacemos con la electricidad desde hace muchos años y que nos ha permitido llegar al desarrollo tecnologico actual) estaremos destinados al ostracismo tecnologico en el que vivimos.

Pensad que estamos en la edad de piedra tecnologicamente hablando... ¿alguien se puede imaginar donde puede estar, tecnologicamente hablando, una civilizacion inteligente que haya desarrollado su primero ordenador hace... ¿600 años? ¿4000 años? ¿50.000 años? ¿1 millon de años? ¿30 millones de años?
Que sera lo normal en el universo... que los dinosaurios se extinguieron hace 65millones de años, la tierra se formo hace 4000 millones de años... que la tierra y el sol se han formado de los restos de la explosion de otra estrella, que nacio, vivio, y exploto....



Me entraron ganas de ver Matrix... XD
Quien dice que 7nm es el límite?
El límite estará a nivel molecular, o incluso atómico.

Y por lo que veo por aquí, hay muchos que necesitan lo más nuevo en procesadores para usar whatsapp, y jugar al angry birds... [jaja]
titofla escribió:Quien dice que 7nm es el límite?
El límite estará a nivel molecular, o incluso atómico.


1 nm = 1000 pm
el radio del atomo de silicio es de 117,6 pm, en un nanometro entran 1000= 118(x2)*4,2+-

en un nanometro entran 4.2 atomos de silicio... en 7nm, pues unos 29-30 atomos de silicio.

El nivel molecular hace tiempo que se ha sobrepasado... hablando de moleculas grandes claro.

Cuando hablamos de "limitaciones", hablamos de limitaciones tecnologicas. No de limitaciones fisicas.

El limite FISICO, en teoria, estaria en la distancia a la cual el espacio deja de ser continuo... cercana a la longitud de planck.
Y eso solo porque desconocemos totalmente que ocurre a esas escalas... probablemente, muy probablemente, la distancia de solo sea otro limite fisico que nos hemos auto impuesto para poder intentar seguir "entendiendo" que ocurre a escalas mayores.
En un episodio de "Redes" mostraban como en un hipotético futuro, la tecnología sería capaz de alinear átomos para formar las "pistas" de las obleas.
Ese según ellos sería el límite. Desconozco las décimas de nm que son un átomo, pero ahí teneis (segun Punset and co.) el límite por abajo.
Lo que no termino de entender es, si se está "experimentando" con los 7nm, y la tecnología actual mas avanzada ya ha llegado a los 14nm...
¿Que pasa con las APU de 20nm que AMD estaba preparando el año pasado, y que supuestamente iban a empezar a fabricarse este año para PS4 Slim?
Klonoa del Viento escribió:Lo que no termino de entender es, si se está "experimentando" con los 7nm, y la tecnología actual mas avanzada ya ha llegado a los 14nm...
¿Que pasa con las APU de 20nm que AMD estaba preparando el año pasado, y que supuestamente iban a empezar a fabricarse este año para PS4 Slim?


Mejor que investiguen, que ya se sabe que no es muy buena idea sacar al mercado una tecnológia sin pulir.

Además que la apu de ps4 vaya a ser de 20 nm es un gran avance, sobretodo pensando que el Cell salió a 90 nm.

Tranquilo, que seguro ps4 y One acabarán fabricandose a 7 nm cuando saquen sus respectivos modelos super slim.
la singularidad va a llegar!!
titofla escribió:Quien dice que 7nm es el límite?
El límite estará a nivel molecular, o incluso atómico.

Y por lo que veo por aquí, hay muchos que necesitan lo más nuevo en procesadores para usar whatsapp, y jugar al angry birds... [jaja]


El limite real con la tecnologia de hoy creo que lei que era 3nm-1nm por temas de interaccion entre atomos, dado que nos acercamos a un limite donde hay que empezar a tener encuenta las fuerzas a nivel atomico y la interaccion entre atomos , que como curiosidad tienen un radio de entre 0.2- 0.5 nm.

En ese estado el silicio tendra que dejar paso a una tecnologia desconocida actualmente, esto sera para 2040 aprox si todo sigue como ahora.

info by wikipedia etc... :p
yeye2 escribió:
titofla escribió:Quien dice que 7nm es el límite?
El límite estará a nivel molecular, o incluso atómico.

Y por lo que veo por aquí, hay muchos que necesitan lo más nuevo en procesadores para usar whatsapp, y jugar al angry birds... [jaja]


El limite real con la tecnologia de hoy creo que lei que era 3nm-1nm por temas de interaccion entre atomos, dado que nos acercamos a un limite donde hay que empezar a tener encuenta las fuerzas a nivel atomico y la interaccion entre atomos , que como curiosidad tienen un radio de entre 0.2- 0.5 nm.

En ese estado el silicio tendra que dejar paso a una tecnologia desconocida actualmente, esto sera para 2040 aprox si todo sigue como ahora.

info by wikipedia etc... :p


Deja que plasme otra de mis intuiciones. Eso va a ocurrir antes, de hecho en los próximos 10 años vamos a ver un punto de inflexión, vamos a saber que ocurre a niveles atómicos de una manera puramente casual y va a ser una nueva explosión tecnológica.
He profetizado.
Me está gustando mucho este hilo. Muy interesante todas las opiniones.
xavierll escribió:
Te invito a que investigues un poco más sobre física del estado sólido de semiconductores porque lo que dices es más conspiranóico que cierto. Nadie duda de la existencia de la obsolescencia programada pero en el caso de la fabricación de chips la física cambia a medida que se disminuye el orden de magnitud.. Conseguir que la puerta de un transistor sea de 7nm, si sabes cómo va suena casi a ciencia ficción.. Las condiciones que se necesitan para investigar algo así son brutales.. Pensadlo friamente, 7 nanómetros.. Estamos hablando algo mucho más pequeño que un virus, una bacteria o una célula.. Algo del orden del adn y de "pocos" átomos.. En 7nm cuántos electrones caben??

Saludos


No soy cientifico ni tengo carrera, soy un marginado del monton sin estudios ni trabajo por culpa del gobierno que tenemos asi que lo unico que se es lo que aparece en las noticias.

Señor Ventura escribió:
Bueno... entonces, ¿el grafeno para cuando?.


Solo en los lapices.
Ingalius escribió:antes de hablar de "ordenadores cuanticos", deberiamos pensar ¿que es un ordenador cuantico? ¿para que sirve un ordenador cuantico?

para un mono es mucho mas util una rama de madera, que le sirve para sacar hormigas de un hormiguero y alimentarse, que un ordenador con un programa para realizar graficas de integrales para calcular areas.
Basicamente porque el cerebro del mono no tiene la capacidad para comprender lo que son las matematicas, lo que es una integral, ni para que sirve calcular un area. Ni tiene la capacidad para entenderlo ahora, ni la tendra nunca.

Pues algo asi nos pasa a los humanos, con lo que llamamos "fisica cuantica".
Sabemos que "existen" una serie de "cosas" a nivel de "ondas". Pero no sabemos ni lo que son esas "cosas", ni para que "son", ni que "hacen", ni porque lo "hacen"...
al igual que un mono, si le pones un ordenador delante, es consciente de su existencia, al cabo del tiempo asocia que al dar golpes en "esa cosa" con muchos botones, pasan otras "cosas" en la pantalla... con mas tiempo de investigacion, el mono puede llegar a asociar, patrones extremadamente sencillos preprogramados al pulsar determinadas teclas... como que aparezcan una determinada letras en la pantalla o dibujos...
incluso, si le das un ordenador, que al pulsar una determinada combinacion de teclas, el ordenador "fabrique" un plato de comida, el mono, tarde o temprano, seguramente acabe por saber "hacer" un plato de comida con la maquina.
Pero de ninguna manera tiene la capacidad cerebral para comprender que es esa maquina, como funciona, o como "replicarla".

yo no estaria muy seguro de que lleguemos a ser capaces de desarrollar eso que la gente llama "ordenadores cuanticos"... tampoco se muy bien cual es la necesidad de un "ordenador cuantico" para nosotros hoy por hoy.


Nada más lejos de la realidad, los ordenadores cuánticos ya están definidos, todo su funcionamiento, como funcionan y "que hacen". Lo único que "falta" es encontrar "los materiales" para poder hacerlos a gran escala, y luego en masa, y aunque eso parezca "poco" es realmente complejo, porque tratar y manipular partículas cuánticas y sus estados cuanticos es realmente complejo. La necesidad de un ordenador cuantico hoy por hoy es la misma que la de un ordenador común hace 60 años, en aquella época se las apañaban muy bien sin ordenadores fijate donde estamos ahora, el día que esta tecnología se desarrolle por completo y llegue al grado de madurez de los ordenadores comunes dirán: "Madre mía, como se las apañaban?.
Hoy día ya existen usos para los ordenadores cuanticos incluso sin existir. Existen algoritmos cuanticos que no se pueden ejecutar por no disponer de ordenadores cuanticos, pero ya están definidos para cuando lo estén. Comunicaciones con 0 ping a años luz de distancia con el entralazamiento cuantico, criptografía increbantable gracias al mismo principio...

Sobre el echo de que nunca entenderemos la fisica cuantica como el mono el ordenador... en fin...
La fisica cuantica nos parece tan extraña simplemente porque se comporta de manera muy difrente al mundo macroscopico, y choca con nuestro sentido común (nuestro sentido común está formado de la obeservación desde que nacemos del comportamiento del mundo macroscopico), esto es como decir a los señores de hace 500 años que no iban a entender las reacciones quimicas porque no veian lo que ocurrian, y hoy bien que todo el mundo entiendo lo que ocurre en ellas.
58 respuestas
1, 2