PCI Express 5.0 duplicará la tasa de transferencia del aún nonato PCIe 4.0

Los primeros productos basados en PCI Express 4.0 siguen todavía en la sala de espera, pero el PCI-SIG ya piensa en su sucesor. Lejos de esperar al lanzamiento de la teóricamente próxima revisión 4.0, el consorcio de empresas que impulsa este bus de expansión ha lanzado una versión muy preliminar de la especificación PCIe 5.0 para que los desarrolladores puedan comenzar a trabajar de cara a su consolidación técnica hacia el año 2019.

La denominada Revision 0.3 asienta los fundamentos técnicos de un estándar cuyo lanzamiento aún nos queda lejos. En este sentido la arquitectura PCIe 5.0 duplicará la tasa de transferencia de la todavía inédita (pero por fin finalizada) PCIe 4.0 al alcanzar un máximo de 32 gigatransferencias por segundo (GT/s), lo que según el presidente del PCI-SIG "superará las necesidades de la industria". Una industria que, dicho sea de paso, no ha comenzado a necesitar realmente la especificación 4.0 hasta hace poco (lo cual puede ser algo positivo considerando el retraso que acumula).

Imagen

Las especificaciones técnicas completas de PCIe 5.0 todavía han de concretarse, pero la nota de prensa emitida por la asociación señala que el nuevo estándar funcionará en full duplex y podrá proporcionar un ancho de banda de hasta 128 GB/s. Tarjetas gráficas y equipos de red profesionales de alto rendimiento serán los grandes beneficiados. Como referencia, el actual PCIe 3.0 (BW x16) tiene un ancho de banda máximo teórico de 32 GB/s.

Si bien el PCI-SIG señala que la especificación técnica estará completada en 2019, todavía es pronto para señalar en el calendario el posible lanzamiento de las primeras tarjetas y placas base compatibles. Primero aún tiene que llegar el estándar PCIe 4.0, que a comienzos de año volvió a retrasarse debido a problemas técnicos detectados en la fase de testeo y ahora tiene previsto su despliegue para el tercer trimestre de 2017.

Fuente: Nota de prensa
...y (fuera del entorno realmente profesional), para qué????

Nos divertiremos mas cuando, jugando, podamos verles al detalle hasta los pelos del sobaco de nuestro "avatar"???

...O mas bien será para obligarnos a renovar equipo cada año???
de coña, pci5 sin salir el 4 cuando nos vale casi con el 2
a ver si ya salen placas base para todos con el 4.
Esto ya suena a coña estamos en las ultimas placas con el 3 y ahora van a por el 5, lo que significa que las que salgan con el 4 se las coman con patatas
No entiendo este tipo de noticias y anuncios. ¿Es para evitar que se compre una generación de productos? ¿Para generar falsas necesidades?

De verdad que no entiendo el punto de esto.

Es como el caso de DLCs anunciados antes de un juego en sí.
...Pero vamos a ver... si el PCI 3.0 ni siquiera se aprovecha al 100%!!!

Es que nadie se da cuenta de que va todo esto???

Sacan un nuevo "estandard", lo publicitan como "la ostia", y cada vez sacan menos tarjetas compatibles con el anterior (3.0)... así que, si quieres renovar... a pasar por el aro (o sea, por caja), comprar una nueva placa (y micro, y ram, porque ya no serán compatibles, claro)... y los juegos cada vez mas exigentes en hardware, porque claro, es mas fácil aprovechar una GPU nueva mucho mas potente que optimizar código...

...y todo, como dije antes, para "disfrutar" pudiendo distinguirles uno a uno los pelos del sobaco a los personajes del juego...

...en fin...
Tranquilos, estas noticias son sólo para vacilar, si todavía hay gente buscando Xenon para el socket 1366 que sigue siendo valido a día de hoy y usa 2.0...
jberto escribió:...y (fuera del entorno realmente profesional), para qué????

Nos divertiremos mas cuando, jugando, podamos verles al detalle hasta los pelos del sobaco de nuestro "avatar"???

...O mas bien será para obligarnos a renovar equipo cada año???

las 2 pero la 2ª mas que la 1ª XD XD
jberto escribió:...Pero vamos a ver... si el PCI 3.0 ni siquiera se aprovecha al 100%!!!

Es que nadie se da cuenta de que va todo esto???

Sacan un nuevo "estandard", lo publicitan como "la ostia", y cada vez sacan menos tarjetas compatibles con el anterior (3.0)... así que, si quieres renovar... a pasar por el aro (o sea, por caja), comprar una nueva placa (y micro, y ram, porque ya no serán compatibles, claro)... y los juegos cada vez mas exigentes en hardware, porque claro, es mas fácil aprovechar una GPU nueva mucho mas potente que optimizar código...

...y todo, como dije antes, para "disfrutar" pudiendo distinguirles uno a uno los pelos del sobaco a los personajes del juego...

...en fin...

No creo que sea tan sencillo. Eso es lo que ellos quisieran, pero dada la potencia de las actuales consolas y la necesidad de las compañías de poder llegar al máximo número de clientes, me da a mí que los ordenadores actuales durarán mucho más que los de hace 10 años.
Cuando se use memorias hbm de tercera o cuarta generación en la propia gpu vendrán muy bien estos anchos de banda. Hasta ese momento tiene poco sentido, pero todo se andará.
jberto escribió:...Pero vamos a ver... si el PCI 3.0 ni siquiera se aprovecha al 100%!!!

Es que nadie se da cuenta de que va todo esto???

Sacan un nuevo "estandard", lo publicitan como "la ostia", y cada vez sacan menos tarjetas compatibles con el anterior (3.0)... así que, si quieres renovar... a pasar por el aro (o sea, por caja), comprar una nueva placa (y micro, y ram, porque ya no serán compatibles, claro)... y los juegos cada vez mas exigentes en hardware, porque claro, es mas fácil aprovechar una GPU nueva mucho mas potente que optimizar código...

...y todo, como dije antes, para "disfrutar" pudiendo distinguirles uno a uno los pelos del sobaco a los personajes del juego...

...en fin...

Desconozco como será en el futuro pero creo que el 3.0 es 100% retrocompatible con el 2.0 (con una leve pérdida de rendimiento).

Recuerdo que cuando compré la 7870 hace años tenía un puerto 2.0 y pude conectarla.
no han dicho nada del pci.6.0 y el 8k. Que raro con el "ansia" que le tengo [fumando]
Va,yo sigo en agp así que no me afecta.
Menos mal mi PC aun tiene AGP, me ahorro problemas [+risas]
chopenawer escribió:no han dicho nada del pci.6.0 y el 8k. Que raro con el "ansia" que le tengo [fumando]


jajajajaaaj
Todo un timo como la copa de un pino:

http://www.chw.net/2012/01/pcie-1-0-vs- ... o-y-gpgpu/

En su día valoré si ampliar con gráfica mi i7 de primera gen. o comprar todo nuevo. Miré mil aspectos y comparativas. Lo que me quedó claro de verdad es que da igual (o casi) pci-e 1.1, pci-e 2.0 o pci-e 3.0. Al final me decanté por PC nuevo. Así que esto del pci-e 4, y más lo del 5 si cabe, no me vale ni como excusa de futuro
darkrocket escribió:Desconozco como será en el futuro pero creo que el 3.0 es 100% retrocompatible con el 2.0 (con una leve pérdida de rendimiento).


Exacto, en PC, todas las especificaciones son compatibles. Todas las varsiones del puerto pci-e son compatibles entre si, todas las versiones del puerto sata son compatibles entre si, todas las versiones de los puertos usb son compatibles entre si... Esto quiere decir que el dia de mañana podras comprarte una grafica pci-e 5 y conectarla en un pci-e 1 y funcionara sin problemas, con las limitaciones de ancho de banda obvias del pci-e 1, pero funcionara.

A parte, tampoco me seais unos cagaprisas leñe, que la noticia solo dice que se esta trabajando en las especificaciones, no que vaya a salir mañana a la calle xddd. Y esto es lo logico, al puerto pci-e 4 solo le faltan por pulir un par de detalles y estara listo, es normal empezar a preparar ya la siguiente version.
Intel y Nvidia no están por la labor de mejorar el estándar y se hacen el suyo.
AMD en cambio lo utiliza para el CrossFire y para conectar sus procesadores EPYC mediante el protocolo Infinity Fabric. Más ancho de banda siempre es bueno. Además de más procesadores puedes tener más periféricos o más ancho de banda en cada uno de ellos.

El NVLink 2.0 está en los 25GB/s (50 GB/s full duplex). El PCIe 5.0 serán 64 GB/s (128 GB/s full duplex) y será una interconexión disponible para cualquiera.
Edit: los anchos de banda del pcie es para 16x. AMD utiliza 64x con los EPYC, lo cual da para 512GB/s full duplex con PCIe 5.
A ver ellos tienen que trabajar se podria usar más el bus pero no hay ganas. Porque para hacer transferencias de la CPU a la GPU esto tiene que pasar por este bus, pero hay que pagar a los programadores y estos por lo menos en España sin masa critica y lideres en futbol y ladrillo no es posible. El uso de GPUs es bueno para temas de datos biologicos y sintesis de nuevos materiales y simulación ideas absurdas, peeero si la sociedad bonifica a retarderds es lo que hay. A disfrutar de lo gastado xD
sanamarcar escribió:A ver ellos tienen que trabajar se podria usar más el bus pero no hay ganas. Porque para hacer transferencias de la CPU a la GPU esto tiene que pasar por este bus, pero hay que pagar a los programadores y estos por lo menos en España sin masa critica y lideres en futbol y ladrillo no es posible. El uso de GPUs es bueno para temas de datos biologicos y sintesis de nuevos materiales y simulación ideas absurdas, peeero si la sociedad bonifica a retarderds es lo que hay. A disfrutar de lo gastado xD


He leído tu comentario y me ha explotado la cabeza
Y yo puteando a una 980ti kingping haciendo la correr por pcie 2.0
(Que cruel debo ser)


Puesto hacer cambios podrían cambiar pero a la de ya el estándar de conexión de cables para los cables de encendido,reser, hdd.... Para cambiar lo a uno con forma de SATA....

Ya eh visto unas cuantas placas para la basura porque se las han cargado ordenando los cables o limpiando mal por no hagacharse y hacerlo bien
Bangalter escribió:
sanamarcar escribió:A ver ellos tienen que trabajar se podria usar más el bus pero no hay ganas. Porque para hacer transferencias de la CPU a la GPU esto tiene que pasar por este bus, pero hay que pagar a los programadores y estos por lo menos en España sin masa critica y lideres en futbol y ladrillo no es posible. El uso de GPUs es bueno para temas de datos biologicos y sintesis de nuevos materiales y simulación ideas absurdas, peeero si la sociedad bonifica a retarderds es lo que hay. A disfrutar de lo gastado xD


He leído tu comentario y me ha explotado la cabeza


Bueno, selección natural xD. Seguro que no notas la diferencia. Es broma hombre, pero si que cuanto mas mejor luego ya se usará. Aun me acuerdo de mi quad core AMD y lo dual core de Intel, o graficas tochas que no rendian en su momento y luego envejecieron muy bien.
..y siguen saliendo tarjetas carísimas con un mísero bus de memoria a 64-bit...

Playstation2 con su bus de la eDRAM de su GPU de 2560-bit...y aqui en pleno 2017 seguimos estancados en los 64-bit.
Yo creo que hemos llegado al punto en donde las PC de gama alta le empiezan a quedar grandes aun a entusiastas (o estamos en eso) [fumando]

Un ejemplo seria el i9 de Intel con 18 nucleos y 36 hilos, a la fecha no vale la pena a menos que estes haciendo un render 3d al mismo tiempo que estes jugando algo muy pesado (y tengas la RAM y tarjetas graficas para acompañar y no hagan un cuello de botella)

Tardaran en siquiera optimizar para que se use en renders, y en videojuegos necesitaremos motores enormes (y cada vez menos eficientes) para aprovecharlos. Esperemos a unreal engine 6 para sacarle o 7 ¬_¬

Los avances son buenos, siempre que piensen desde el punto de vista económico y viabilidad. Mucho poder podría ser bueno para ver 4K en 3d con gafas y sensores de movimiento haciendo renders en tiempo real, pero falta que los programadores logren hacer algo a la altura [+risas]
jim243 escribió:Yo creo que hemos llegado al punto en donde las PC de gama alta le empiezan a quedar grandes aun a entusiastas (o estamos en eso) [fumando]

Un ejemplo seria el i9 de Intel con 18 nucleos y 36 hilos, a la fecha no vale la pena a menos que estes haciendo un render 3d al mismo tiempo que estes jugando algo muy pesado (y tengas la RAM y tarjetas graficas para acompañar y no hagan un cuello de botella)

Tardaran en siquiera optimizar para que se use en renders, y en videojuegos necesitaremos motores enormes (y cada vez menos eficientes) para aprovecharlos. Esperemos a unreal engine 6 para sacarle o 7 ¬_¬

Los avances son buenos, siempre que piensen desde el punto de vista económico y viabilidad. Mucho poder podría ser bueno para ver 4K en 3d con gafas y sensores de movimiento haciendo renders en tiempo real, pero falta que los programadores logren hacer algo a la altura [+risas]


Al final, lo que se consigue es que los programadores cada vez tengan que optimizar menos el codigo, en lugar de aprovechar al 100% esa potencia de los nuevos procesadores (CPUs y GPUs)
25 respuestas