XBOX Series X

¿Pero eso no es propio de nvidia? Es decir, ¿las rdna2 de amd lo traen?
darksch escribió:
kepacha escribió:
darksch escribió:Al revés, eso es para futuro, no para pasado. Cuando los requisitos de render suban, se baja resolución y aplica ML para compensar. Como dijera el ML va a ser crucial para adaptarse a los cambios.


Por qué sólo para futuro? Que hagan referencia a una resolución nativa como 540p no creo que sea una coincidencia hablando de Remedy, es justo la nativa que tiene el Alan Wake de X360. Todo esto lo veo muy interesante de cara a mejorar la calidad gráfica de los juegos retrocompatibles ADEMAS de para lo que tu bien indicas.


Los antiguos imagino que hará como la XOneX hace respectivamente, supersampling AA a 4K. Le sobra potencia para hacerlo.


Vale también, y luego utilizar ML para mejorar texturas y ganar en definición de detalles. Sea como fuere, estas técnicas son cojonudas, ya sea para lo viejo o para dejar potencia computacional para meter RT potente a los juegos.

Pablopictures escribió:Ojo que el DLSS no siempre da resultados convincentes. Son algoritmos de machine learning que básicamente se inventan pixels para reconstruir la imagen. Si por ejemplo al fondo tenemos un cartel con un texto, en 4K reales ese texto será legible y tendrá sentido, en una reconstrucción con DLSS veremos un cartel muy nítido pero con un texto ilegible, ya que el algoritmo evidentemente no entiende del contexto de la escena ni que ahí debe haber escrito algo.

El DLSS tiene mucho sentido cuando tu hardware ya no da para más, pero siempre y cuando haya recursos disponibles la resolución nativa me parece claramente mejor opción.


Tu has visto el video? No siempre es así, y aquí la demostraciones que hacen justo eso que dices. Por veces, incluso mejora una nativa 4K o está casi a la par:

Imagen


Imagen


Y esto son capturas cutres de un video de youtube que aún ha perdido más calidad. En vivo la diferencia aún sería mayor.

euromillón escribió:¿Pero eso no es propio de nvidia? Es decir, ¿las rdna2 de amd lo traen?


Lo acabo de poner, según la propia Nvidia, SI.

Game developers can take full advantage of all these technologies knowing they’ll be compatible with PCs equipped with NVIDIA RTX GPUs and Microsoft’s upcoming Xbox Series X console.


https://blogs.nvidia.com/blog/2020/03/2 ... -ultimate/
euromillón escribió:¿Pero eso no es propio de nvidia? Es decir, ¿las rdna2 de amd lo traen?


Lo es pero algún forero te dice que si nvidia lo tiene AMD lo tiene mas mejor. Como con el RT.

Alguno debería empezar a diferenciar la realidad de los deseos.
@kepacha Increible..... de la version 1.9 al 2.0 hay un mundo y nvidia ha confirmado que series X lo tiene.
Pues como sea propio de nvidia y las rdna2 de amd no traigan algo similar, el rendimiento de las tarjetas de consola va a ser nefasto. Es decir, si en breve las nuevas tarjetas nvidia puedan hacer uso de dlss2, pero no así las que montan las consolas, entonces un pc decente le daría sopa con hondas a la sex, por mucho que esta traiga una hipotética "2080ti - 5700xt plus"
@kepacha

Sí, han colaborado en cuanto a DirectML, es más, existen vídeos de Forza Horizon 3, de la GDC y SiphGraph del año pasado, corriendo con DirectML SuperSampling que muestra cómo se puede hacer lo mismo que DLSS mediante ésta API, corriendo sobre Nvidia:
http://on-demand.gputechconf.com/siggra ... tx-12.html (A partir del 16:05)
Ahí se ven las diferencias entre el filtrado Bilinear y el SS de DirectML.

Ahora bien, existen grandes diferencias en cómo se puede conseguir.

DirectML puede correr de diferentes maneras:
- Con hardware especializado, como los Tensor Cores de Nvidia Turing o las futuras GPUs CDNA de AMD (son para uso de workstations y servidores).

- Solución híbrida de AMD que se usa en Series X, que es utilizar los shaders para la computación de enteros (obteniendo hasta 97 TOPS en INT4 en el caso de Series X), es de esperar que toda RDNA2 pueda utilizar dicho sistema, aunque no ha habido información de ello.

- Mediante GPU, todas las GPUs actuales y muchas pasadas, es decir, tanto GCN como Kepler, incluso Haswell, que soporten DirectX 12, y ya ha llovido desde entonces, pueden correr DirectML aunque no de manera tan eficiente como las GPUs, puesto que se usan sus shaders para dicho funcionamiento, aquí es interesante saber hasta dónde pueden llegar en computación, una GPU que pueda usar FP16 tendrá mejor rendimiento que una que sólo pueda con FP32.

- Mediante CPU, todas los ordenadores pueden usar DirectML por "software", no es necesario tener la última GPU para poder hacer uso.

Por tanto, según cómo funcione, tendría mayor o menor eficiencia, no es lo mismo usar los Tensor Cores de Nvidia, como se usa el DLSS, que utilizar la CPU para realizar dichas mejoras.
Perkum escribió:
euromillón escribió:¿Pero eso no es propio de nvidia? Es decir, ¿las rdna2 de amd lo traen?


Lo es pero algún forero te dice que si nvidia lo tiene AMD lo tiene mas mejor. Como con el RT.

Alguno debería empezar a diferenciar la realidad de los deseos.

DLSS usa ML para la técnica de escalado. Si se tiene ML, puedes replicar el algoritmo.
DLSS no es más que un nombre comercial.
darksch escribió:
Perkum escribió:
euromillón escribió:¿Pero eso no es propio de nvidia? Es decir, ¿las rdna2 de amd lo traen?


Lo es pero algún forero te dice que si nvidia lo tiene AMD lo tiene mas mejor. Como con el RT.

Alguno debería empezar a diferenciar la realidad de los deseos.

DLSS usa ML para la técnica de escalado. Si se tiene ML, puedes replicar el algoritmo.
DLSS no es más que un nombre comercial.


Si, pero es evidente que tecnología propia con hardware dedicado y que a día de hoy podemos ver cómo funciona.. se diga que en SX con UNA GPU de la competencia vaya a ir igual de bien por mis cojones toreros.
Pues mira la capacidad de ML que tiene pero me parece que está al nivel.
So we added special hardware support for this specific scenario. The result is that Series X offers 49 TOPS for 8-bit integer operations and 97 TOPS for 4-bit integer operations. Note that the weights are integers, so those are TOPS and not TFLOPs. The net result is that Series X offers unparalleled intelligence for machine learning
Mulzani escribió:@kepacha

Sí, han colaborado en cuanto a DirectML, es más, existen vídeos de Forza Horizon 3, de la GDC y SiphGraph del año pasado, corriendo con DirectML SuperSampling que muestra cómo se puede hacer lo mismo que DLSS mediante ésta API, corriendo sobre Nvidia:
http://on-demand.gputechconf.com/siggra ... tx-12.html (A partir del 16:05)
Ahí se ven las diferencias entre el filtrado Bilinear y el SS de DirectML.

Ahora bien, existen grandes diferencias en cómo se puede conseguir.

DirectML puede correr de diferentes maneras:
- Con hardware especializado, como los Tensor Cores de Nvidia Turing o las futuras GPUs CDNA de AMD (son para uso de workstations y servidores).

- Solución híbrida de AMD que se usa en Series X, que es utilizar los shaders para la computación de enteros (obteniendo hasta 97 TOPS en INT4 en el caso de Series X), es de esperar que toda RDNA2 pueda utilizar dicho sistema, aunque no ha habido información de ello.

- Mediante GPU, todas las GPUs actuales y muchas pasadas, es decir, tanto GCN como Kepler, incluso Haswell, que soporten DirectX 12, y ya ha llovido desde entonces, pueden correr DirectML aunque no de manera tan eficiente como las GPUs, puesto que se usan sus shaders para dicho funcionamiento, aquí es interesante saber hasta dónde pueden llegar en computación, una GPU que pueda usar FP16 tendrá mejor rendimiento que una que sólo pueda con FP32.

- Mediante CPU, todas los ordenadores pueden usar DirectML por "software", no es necesario tener la última GPU para poder hacer uso.

Por tanto, según cómo funcione, tendría mayor o menor eficiencia, no es lo mismo usar los Tensor Cores de Nvidia, como se usa el DLSS, que utilizar la CPU para realizar dichas mejoras.


Como funcione o si tendrá mayor, igual o menor eficiencia con respecto a las últimas tarjetas de Nvidia (lo lógico es que no, cuando saquen las 3000 pasarán por encima de las consolas, cosa normal vaya como siempre), no lo sabemos; ya se verá. Yo sólo estoy comentando lo que la propia Nvidia dice en su blog con respecta a estas features bajo Series X.

Xbox Series X va a soportar DLSS 2.0? Sí, ahí tenéis la confirmación oficial por parte de Nvidia a 23 de Marzo de 2020.

With DLSS 2.0, AI Continues to Revolutionize Gaming
March 23, 2020


DirectX 12 Ultimate

Last week, Microsoft unveiled DirectX 12 Ultimate, the latest version of the widely used DirectX graphics standard.

DirectX 12 Ultimate codifies NVIDIA RTX’s innovative technologies, including ray tracing, variable rate shading, mesh shading, and texture space shading, as the standard for multi-platform, next-gen games.

Game developers can take full advantage of all these technologies knowing they’ll be compatible with PCs equipped with NVIDIA RTX GPUs and Microsoft’s upcoming Xbox Series X console.


https://blogs.nvidia.com/blog/2020/03/2 ... -ultimate/
@kepacha

Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.

Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4

Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.

Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.
Mulzani escribió:@kepacha

Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.

Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4

Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.

Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.



Efectivamente. Yo creo que el uso principal del ML en SX será, como ya ha salido en varias noticias, que juegos antiguos luzcan mucho mejor.
Para los nuevos que necesiten toda la potencia de la GPU no le darán tanto uso

Esto dice NVIDIA, por si alguno dice que es lo mismo que DIRECTML

Once the presentation was over, we asked Tamasi whether NVIDIA considered using Microsoft's DirectML API for Deep Learning Super Sampling or if it would be simply redundant. Here's what he had to say about that:

We did consider that. It is redundant since have essentially a direct path to the Tensor Cores in the GPU, so there'd be no advantage to us to making use of DirectML. That's not to say we might never do that, but at least right now the plan is to handle this natively through the Tensor Cores and our own API.
VRS junto a ML puede compensar el quitar TF del render rasterizado, sin que apenas se note. Todo adornado con una capacidad RT fija y conocida, 380 billones de intersecciones por segundo.
Al final va a ser una combinación de uso de todos los recursos disponibles.
Perkum escribió:
Mulzani escribió:@kepacha

Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.

Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4

Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.

Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.



Efectivamente. Yo creo que el uso principal del ML en SX será, como ya ha salido en varias noticias, que juegos antiguos luzcan mucho mejor.
Para los nuevos que necesiten toda la potencia de la GPU no le darán tanto uso

Esto dice NVIDIA, por si alguno dice que es lo mismo que DIRECTML

Once the presentation was over, we asked Tamasi whether NVIDIA considered using Microsoft's DirectML API for Deep Learning Super Sampling or if it would be simply redundant. Here's what he had to say about that:

We did consider that. It is redundant since have essentially a direct path to the Tensor Cores in the GPU, so there'd be no advantage to us to making use of DirectML. That's not to say we might never do that, but at least right now the plan is to handle this natively through the Tensor Cores and our own API.

Claro, eso depende de cómo se use.

DirectML es propietario de Microsoft, mientras que DLSS es de Nvidia, a ellos le interesa hacer uso de su propio sistema, eso está claro. Pero al igual que el DirectML puede utilizar los shaders, también puede utilizar los Tensor Cores, aquí la cuestión será la aceptación por parte de los desarrolladores de uno u otro método, pero ya sabes lo que sucede con los métodos propietarios, que al final acaban por quedarse en un rincón.

Eso sí, no creo que no se use en juegos actuales, para juegos donde el RT tenga un impacto importante en rendimiento, se puede utilizar bastante bien, renderizando en 1080p y luego superescalando a 4K.

También, y eso que me ha salido al azar, viendo los datos que han salido en mi ejemplo, en un juego multiplataforma que saliera a 1440p / 60 fps en PS5, podría superescalarse a 4K en Xbox Series X, usando sólo 8 CUs, en vez de necesitar 2,5 veces la potencia de procesado. Sería la diferencia entre ver un juego ligeramente borroso y ver otro con total nitidez.
Mulzani escribió:
Perkum escribió:
Mulzani escribió:@kepacha

Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.

Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4

Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.

Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.



Efectivamente. Yo creo que el uso principal del ML en SX será, como ya ha salido en varias noticias, que juegos antiguos luzcan mucho mejor.
Para los nuevos que necesiten toda la potencia de la GPU no le darán tanto uso

Esto dice NVIDIA, por si alguno dice que es lo mismo que DIRECTML

Once the presentation was over, we asked Tamasi whether NVIDIA considered using Microsoft's DirectML API for Deep Learning Super Sampling or if it would be simply redundant. Here's what he had to say about that:

We did consider that. It is redundant since have essentially a direct path to the Tensor Cores in the GPU, so there'd be no advantage to us to making use of DirectML. That's not to say we might never do that, but at least right now the plan is to handle this natively through the Tensor Cores and our own API.

Claro, eso depende de cómo se use.

DirectML es propietario de Microsoft, mientras que DLSS es de Nvidia, a ellos le interesa hacer uso de su propio sistema, eso está claro. Pero al igual que el DirectML puede utilizar los shaders, también puede utilizar los Tensor Cores, aquí la cuestión será la aceptación por parte de los desarrolladores de uno u otro método, pero ya sabes lo que sucede con los métodos propietarios, que al final acaban por quedarse en un rincón.

Eso sí, no creo que no se use en juegos actuales, para juegos donde el RT tenga un impacto importante en rendimiento, se puede utilizar bastante bien, renderizando en 1080p y luego superescalando a 4K.

También, y eso que me ha salido al azar, viendo los datos que han salido en mi ejemplo, en un juego multiplataforma que saliera a 1440p / 60 fps en PS5, podría superescalarse a 4K en Xbox Series X, usando sólo 8 CUs, en vez de necesitar 2,5 veces la potencia de procesado. Sería la diferencia entre ver un juego ligeramente borroso y ver otro con total nitidez.



Ahí está el tema. A día de hoy hay muy poquitos juegos que utilicen RTX y DLSS.
Son tecnologías que ya han demostrado en juegos como control lo jodidamente impresionantes que se ven.
Esto puede acabar perfectamente como dreamcast vs ps.. una tecnología claramente superior acabando en fracaso.
darksch escribió:VRS junto a ML puede compensar el quitar TF del render rasterizado, sin que apenas se note. Todo adornado con una capacidad RT fija y conocida, 380 billones de intersecciones por segundo.
Al final va a ser una combinación de uso de todos los recursos disponibles.


Exacto. Microsoft no hace cosas por hacer ultimamente. Y tendrán en cuenta cómo aprovechar el direct ML para juegos, con las bondades de su hardware personalizado y de todas las caracteristicas de su software.
Mulzani escribió:@kepacha

Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.

Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4

Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.

Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.


Pero entonces, ya sabes como funciona esta feature en Series X? Se agradecería un enlace a donde lo explican, porque estás afirmando cosas que en ningún sitio he visto que lo digan.

De hecho, los tensor cores de Nvidia he leído que tienen sus mermas con el raytracing y que se pierde rendimiento al tener que esperar por estos la GPU en ciertos momentos. En Series X en teoría eso no pasa, ya que la capacidad de RT va en paralelo y no afecta al rendimiento global del hardware según he leído.
djber escribió:@kepacha Increible..... de la version 1.9 al 2.0 hay un mundo y nvidia ha confirmado que series X lo tiene.

Si? Yo también flipo la verdad, esque no hay color vamos.
Imagen



Hostia puta macabea, si no lo veo no lo creo.
Y aunque lo vea, me cuesta creer.
[boing]
SeX va a ser un sacadon tremendo, si ya lo dijo Phil que viendo vio lo del otro lado se alegro.
kepacha escribió:
Mulzani escribió:@kepacha

Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.

Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4

Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.

Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.


Pero entonces, ya sabes como funciona esta feature en Series X? Se agradecería un enlace a donde lo explican, porque estás afirmando cosas que en ningún sitio he visto que lo digan.

De hecho, los tensor cores de Nvidia he leído que tienen sus mermas con el raytracing y que se pierde rendimiento al tener que esperar por estos la GPU en ciertos momentos. En Series X en teoría eso no pasa, ya que la capacidad de RT va en paralelo y no afecta al rendimiento global del hardware según he leído.

https://www.eurogamer.net/articles/digi ... full-specs

El extracto de cómo funciona:
Machine learning is a feature we've discussed in the past, most notably with Nvidia's Turing architecture and the firm's DLSS AI upscaling. The RDNA 2 architecture used in Series X does not have tensor core equivalents, but Microsoft and AMD have come up with a novel, efficient solution based on the standard shader cores. With over 12 teraflops of FP32 compute, RDNA 2 also allows for double that with FP16 (yes, rapid-packed math is back). However, machine learning workloads often use much lower precision than that, so the RDNA 2 shaders were adapted still further.

"We knew that many inference algorithms need only 8-bit and 4-bit integer positions for weights and the math operations involving those weights comprise the bulk of the performance overhead for those algorithms," says Andrew Goossen. "So we added special hardware support for this specific scenario. The result is that Series X offers 49 TOPS for 8-bit integer operations and 97 TOPS for 4-bit integer operations. Note that the weights are integers, so those are TOPS and not TFLOPs. The net result is that Series X offers unparalleled intelligence for machine learning."


Utiliza los CUs o shaders que normalmente calculan en FP32 para calcular en INT8 o INT4, que son los utilizados para el Machine Learning, por lo que si los estás usando para INT4, no los puedes estar usando para el cálculo tradicional en FP32, esa CU. Como cada CU tiene su SIMD, tienen que, al menos, usarse 1 CUs para cada tipo de operación (aunque la GPU viene estructurada en unidades de trabajo de 2 CUs, por lo que lo mismo tiene que usarse cada 2 CUs).

Lo bueno, es que puede utilizarse de manera no paralela, no tiene que esperar como lo hacen los Tensor Cores (lo que implica una merma en rendimiento), lo malo, que estás quitando de un sitio para dárselo a otro. Es más eficiente pero, por el contrario, no es tan potente como tener tantas unidades como tienen las RTX.

djber escribió:@kepacha Increible..... de la version 1.9 al 2.0 hay un mundo y nvidia ha confirmado que series X lo tiene.

Xbox Series X no tiene DLSS, es una tecnología propietaria de Nvidia, puede utilizar un método similar a DLSS, porque su hardware está adaptado al Machine Learning.

Las palabras de Nvidia se refieren a DirectX 12 Ultimate, que incluye DirectML, no DLSS:
https://blogs.nvidia.com/blog/2020/03/2 ... -ultimate/
DirectX 12 Ultimate
Last week, Microsoft unveiled DirectX 12 Ultimate, the latest version of the widely used DirectX graphics standard.

DirectX 12 Ultimate codifies NVIDIA RTX’s innovative technologies, including ray tracing, variable rate shading, mesh shading, and texture space shading, as the standard for multi-platform, next-gen games.

Game developers can take full advantage of all these technologies knowing they’ll be compatible with PCs equipped with NVIDIA RTX GPUs and Microsoft’s upcoming Xbox Series X console.
La diferencia es que DLSS es propietaria y cerrada, y por eso sólo Nvidia puede usarla, añadiendo juego a juego a sus drivers.
Con DirectML esto se abre y como pasara con el AA cada uno puede implementar su solución, la cual puede coincidir con DLSS si el algoritmo fuera muy similar.
Vamos no es nada metafísico ni que vaya metido en un chip dedicado, es una técnica de escalado basado en ML, con un nombre comercial.
Gracias a DirectML cualquiera podrá crear el suyo propio, o puede que MS integre en el SDK uno estándar por si quiere usarse.
DLSS no deja de ser un algoritmo replicable. Microsoft tiene servidores de sobra cómo para realizar su algoritmo. Que poco a poco irá mejorando como lo ha hecho Nvidia. Y SeX tiene potencial de sobra en ML cómo para ver resultados increíbles. Y no solo para la resolución.
Szasz escribió:DLSS no deja de ser un algoritmo replicable. Microsoft tiene servidores de sobra cómo para realizar su algoritmo. Que poco a poco irá mejorando como lo ha hecho Nvidia. Y SeX tiene potencial de sobra en ML cómo para ver resultados increíbles. Y no solo para la resolución.


Si no me convence lo que veo me monto mis películas.
Luego alguno se queja de sony y su ssd mágico.
También vemos que la solución es muy buena. Si calculamos las ops tenemos, si partimos de FP32: 12T, a 16 bit 24T, a 8 bit serían 48T, y a 4 bit 96T.
Casualmente es la cantidad de TOps que da, por lo que la relación es 1:1, es decir sin pérdida.
Cuando se consigue eso, resulta muy favorable saber que el núcleo tiene una capacidad y puedes usarla en lo que quieras sin pérdida de rendimiento por el camino.
Cuando se produce pérdida las unidades dedicadas cobran necesidad, pero si no hay pérdida, no es mejor maximizar ese núcleo y que ya se use en aquello que haga falta?
Al separarse en caso de que no necesitaras toda la potencia incluida en ML, estarías desperdiciando recursos, y en una consola cara $ cuenta.
Igual si llevara dedicadas tendrían que haber dejado 46CU por decir algo, para que saliera el mismo coste, teniendo partes fijas que si nos las usas estás desperdiciando.
Sería el equivalente a memorias separadas o shared, pero como si en esta última la penalización por acceso simultáneo fuera al 100% de eficiencia, es decir que la GPU solo perdiera la cantidad que pilla la CPU de forma exacta, sin añadidos.
Para otras partes como RT pues de momento parece que no se puede conseguir eso de equivalencia sin pérdida por el camino.
Perkum escribió:
Szasz escribió:DLSS no deja de ser un algoritmo replicable. Microsoft tiene servidores de sobra cómo para realizar su algoritmo. Que poco a poco irá mejorando como lo ha hecho Nvidia. Y SeX tiene potencial de sobra en ML cómo para ver resultados increíbles. Y no solo para la resolución.


Si no me convence lo que veo me monto mis películas.
Luego alguno se queja de sony y su ssd mágico.

No te entiendo. ¿Me puedes explicar la película?
Está confirmado que SeX tiene ML y que Dx12 Ultimate ya está trabajando en ello.
Esto no es ninguna película. Y no hay nada q diga q Sony no pueda tener su solución propia. ¿Sabes como funciona DLSS 2.0?
kepacha escribió:
Pablopictures escribió:Ojo que el DLSS no siempre da resultados convincentes. Son algoritmos de machine learning que básicamente se inventan pixels para reconstruir la imagen. Si por ejemplo al fondo tenemos un cartel con un texto, en 4K reales ese texto será legible y tendrá sentido, en una reconstrucción con DLSS veremos un cartel muy nítido pero con un texto ilegible, ya que el algoritmo evidentemente no entiende del contexto de la escena ni que ahí debe haber escrito algo.

El DLSS tiene mucho sentido cuando tu hardware ya no da para más, pero siempre y cuando haya recursos disponibles la resolución nativa me parece claramente mejor opción.


Tu has visto el video? No siempre es así, y aquí la demostraciones que hacen justo eso que dices. Por veces, incluso mejora una nativa 4K o está casi a la par:

Imagen


Imagen


Y esto son capturas cutres de un video de youtube que aún ha perdido más calidad. En vivo la diferencia aún sería mayor.


Es impresionante lo que es capaz de hacer, pero su efectividad está condicionada por el contexto.

En la segunda captura te puedes hacer una idea, el DLSS recrea la imagen más nítida, pero si te fijas el texto es más ilegible que el 4K nativo, dónde puedes intentar intuir un poco mejor que dice en los carteles.

Fíjate también en el icono de la cámara de vigilancia del cartel de "NOTICE", en la imagen 4K nativa podemos ver que es un icono minimalista, formado por dos rectángulos separados por un espacio en blanco. Fíjate ahora lo que hace DLSS, lo convierte en un único rectángulo negro muy nítido, eso está mal.

Esto es porque DLSS no entiende lo que está haciendo, sólo hace lo que hace basándose en un algoritmo derivado de una enorme base de datos que calcula por probabilidad que color deber tener un pixel que aún no existe. Desconoce si lo que está "restaurando" pertenece a un cabello, a una gota de lluvia o a una letra del alfabeto, tal sólo sabe que ese pixel tiene un % de parecido con imágenes anteriores a las que se enfrentó y restauró con % de éxito, y aplica el mismo patrón. Esto va a hacer que en la mayoría de casos resuelva el problema con éxito, pero siempre va a haber un pequeño grupo de casos inevitables donde al deducir esta nitidez distorsione el acabado original.

En cualquier caso los resultados de DLSS son fantásticos, y cualquier equipo que se vea incapaz de mover con soltura la resolución nativa me parece muy recomendable usarlo. Pero si no es el caso, mi opinión al menos, es que merece más la pena disfrutar del juego sin procesar, tal y como es concebido en su origen.
usuariopc escribió:A ver si con esas tecnologías que hemos visto en el video podemos asegurar los 4k 60fps en todos los juegos. Además de mejorar bastante los gráficos en la retrocompatibilidad. [amor]

Viendo Doom Eternal correr a 60fps en una Xbox One normal (1'8TF), no me quiero imaginar lo que van a poder hacer con la Xbox Series X que más o menos tendrá un rendimiento real próximo a 10 veces el de la Xbox One. [looco]


Es milagroso lo de Doom Eternal en One básica, tiene 1,34TF [360º]
Mulzani escribió:
kepacha escribió:
Mulzani escribió:@kepacha

Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.

Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4

Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.

Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.


Pero entonces, ya sabes como funciona esta feature en Series X? Se agradecería un enlace a donde lo explican, porque estás afirmando cosas que en ningún sitio he visto que lo digan.

De hecho, los tensor cores de Nvidia he leído que tienen sus mermas con el raytracing y que se pierde rendimiento al tener que esperar por estos la GPU en ciertos momentos. En Series X en teoría eso no pasa, ya que la capacidad de RT va en paralelo y no afecta al rendimiento global del hardware según he leído.


https://www.eurogamer.net/articles/digi ... full-specs

El extracto de cómo funciona:
Machine learning is a feature we've discussed in the past, most notably with Nvidia's Turing architecture and the firm's DLSS AI upscaling. The RDNA 2 architecture used in Series X does not have tensor core equivalents, but Microsoft and AMD have come up with a novel, efficient solution based on the standard shader cores. With over 12 teraflops of FP32 compute, RDNA 2 also allows for double that with FP16 (yes, rapid-packed math is back). However, machine learning workloads often use much lower precision than that, so the RDNA 2 shaders were adapted still further.

"We knew that many inference algorithms need only 8-bit and 4-bit integer positions for weights and the math operations involving those weights comprise the bulk of the performance overhead for those algorithms," says Andrew Goossen. "So we added special hardware support for this specific scenario. The result is that Series X offers 49 TOPS for 8-bit integer operations and 97 TOPS for 4-bit integer operations. Note that the weights are integers, so those are TOPS and not TFLOPs. The net result is that Series X offers unparalleled intelligence for machine learning."


Utiliza los CUs o shaders que normalmente calculan en FP32 para calcular en INT8 o INT4, que son los utilizados para el Machine Learning, por lo que si los estás usando para INT4, no los puedes estar usando para el cálculo tradicional en FP32, esa CU. Como cada CU tiene su SIMD, tienen que, al menos, usarse 1 CUs para cada tipo de operación (aunque la GPU viene estructurada en unidades de trabajo de 2 CUs, por lo que lo mismo tiene que usarse cada 2 CUs).

Lo bueno, es que puede utilizarse de manera no paralela, no tiene que esperar como lo hacen los Tensor Cores (lo que implica una merma en rendimiento), lo malo, que estás quitando de un sitio para dárselo a otro. Es más eficiente pero, por el contrario, no es tan potente como tener tantas unidades como tienen las RTX.


Se agradece la info. De todos modos, y aunque tenga que usar esas CUs, supongo que bien programado aprovechando lo mejor posible el hardware junto con el resto de features que se nos vienen para Series X junto con la posibilidad de RT en paralelo sin pérdida de rendimiento; pueden lograr resultados gráficos con nativas inferiores espectaculares visto lo visto. Muchas ganas de ver los juegos sobre las nuevas consolas y las soluciones técnicas que han buscado.

Mulzani escribió:
djber escribió:@kepacha Increible..... de la version 1.9 al 2.0 hay un mundo y nvidia ha confirmado que series X lo tiene.

Xbox Series X no tiene DLSS, es una tecnología propietaria de Nvidia, puede utilizar un método similar a DLSS, porque su hardware está adaptado al Machine Learning.

Las palabras de Nvidia se refieren a DirectX 12 Ultimate, que incluye DirectML, no DLSS:
https://blogs.nvidia.com/blog/2020/03/2 ... -ultimate/
DirectX 12 Ultimate
Last week, Microsoft unveiled DirectX 12 Ultimate, the latest version of the widely used DirectX graphics standard.

DirectX 12 Ultimate codifies NVIDIA RTX’s innovative technologies, including ray tracing, variable rate shading, mesh shading, and texture space shading, as the standard for multi-platform, next-gen games.

Game developers can take full advantage of all these technologies knowing they’ll be compatible with PCs equipped with NVIDIA RTX GPUs and Microsoft’s upcoming Xbox Series X console.


El nombre o siglas que le quieran dar es lo de menos creo yo, el caso es que Series X puede aprovecharlas en teoría al mismo nivel que en Pc, y de hecho muchos desarrolladores ya han agradecido la mejora porque les ahorrará muchos quebraderos de cabeza supongo:

Chris Larson, COO at Hi-Rez Studios and GM/EP of Rogue Company:

DirectX 12 Ultimate is going to accelerate the adoption of cutting edge graphics features in games because development platforms are not fragmented. With DirectX 12 Ultimate I know that I can adopt new graphics features immediately and that they will work in PC and Xbox games. We are already experimenting with DirectX Ultimate for Rogue Company, which will launch in 2020.


Koen Deetman, CEO & Game Director at KeokeN Interactive:

As a developer, a single API for PC and Xbox is a boon for my business. If my programmers know DX12 Ultimate they can code for either PC or console.



Mina Boström Nakicenovic, CTO at Paradox:

DirectX 12 Ultimate will accelerate next-gen tech adoption and shrink development cycles. The tools and samples that NVIDIA provides for DirectX Raytracing are world-class, and DirectX 12 Ultimate means they now benefit the Xbox version of my game.


Pablopictures escribió:
kepacha escribió:
Pablopictures escribió:Ojo que el DLSS no siempre da resultados convincentes. Son algoritmos de machine learning que básicamente se inventan pixels para reconstruir la imagen. Si por ejemplo al fondo tenemos un cartel con un texto, en 4K reales ese texto será legible y tendrá sentido, en una reconstrucción con DLSS veremos un cartel muy nítido pero con un texto ilegible, ya que el algoritmo evidentemente no entiende del contexto de la escena ni que ahí debe haber escrito algo.

El DLSS tiene mucho sentido cuando tu hardware ya no da para más, pero siempre y cuando haya recursos disponibles la resolución nativa me parece claramente mejor opción.


Tu has visto el video? No siempre es así, y aquí la demostraciones que hacen justo eso que dices. Por veces, incluso mejora una nativa 4K o está casi a la par:

Imagen


Imagen


Y esto son capturas cutres de un video de youtube que aún ha perdido más calidad. En vivo la diferencia aún sería mayor.


Es impresionante lo que es capaz de hacer, pero su efectividad está condicionada por el contexto.

En la segunda captura te puedes hacer una idea, el DLSS recrea la imagen más nítida, pero si te fijas el texto es más ilegible que el 4K nativo, dónde puedes intentar intuir un poco mejor que dice en los carteles.

Fíjate también en el icono de la cámara de vigilancia del cartel de "NOTICE", en la imagen 4K nativa podemos ver que es un icono minimalista, formado por dos rectángulos separados por un espacio en blanco. Fíjate ahora lo que hace DLSS, lo convierte en un único rectángulo negro muy nítido, eso está mal.

Esto es porque DLSS no entiende lo que está haciendo, sólo hace lo que hace basándose en un algoritmo derivado de una enorme base de datos que calcula por probabilidad que color deber tener un pixel que aún no existe. Desconoce si lo que está "restaurando" pertenece a un cabello, a una gota de lluvia o a una letra del alfabeto, tal sólo sabe que ese pixel tiene un % de parecido con imágenes anteriores a las que se enfrentó y restauró con % de éxito, y aplica el mismo patrón. Esto va a hacer que en la mayoría de casos resuelva el problema con éxito, pero siempre va a haber un pequeño grupo de casos inevitables donde al deducir esta nitidez distorsione el acabado original.

En cualquier caso los resultados de DLSS son fantásticos, y cualquier equipo que se vea incapaz de mover con soltura la resolución nativa me parece muy recomendable usarlo. Pero si no es el caso, mi opinión al menos, es que merece más la pena disfrutar del juego sin procesar, tal y como es concebido en su origen.


Obviamente no deja de ser una triquiñuela y tiene sus límites, pero fíjate que los detalles que estás indicando son detalles muy pequeños. Además, esto se haría para liberar recursos para otros menesteres y aumentar la carga gráfica, ya que la diferencia de renderizar a 4K o 1080p nativos no debe ser pequeña precisamente.

A mi los resultados me parecen espectaculares, y prefiero incluso una mejora en los detalles en primer plano como la cara de la prota y mejor nitidez global que perderme ese pequeño detalle de un cartel del fondo lejano que indicas que está aumentado un 800% que se dice rápido...
gerberu está baneado por "clon de usuario baneado"
pepalex escribió:
usuariopc escribió:A ver si con esas tecnologías que hemos visto en el video podemos asegurar los 4k 60fps en todos los juegos. Además de mejorar bastante los gráficos en la retrocompatibilidad. [amor]

Viendo Doom Eternal correr a 60fps en una Xbox One normal (1'8TF), no me quiero imaginar lo que van a poder hacer con la Xbox Series X que más o menos tendrá un rendimiento real próximo a 10 veces el de la Xbox One. [looco]


Es milagroso lo de Doom Eternal en One básica, tiene 1,34TF [360º]

rula a 720p y todo en low
no hay milagros y encima no mantiene los 60 al 100%
Tiene tan buena pinta la XBOX Series X que incluso están consiguiendo que se vendan más XBOX One S/X.

Si al hecho de que hayan anunciado la retrocompatibilidad de juegos y periféricos, el tema del coronavirus y confinamientos en muchos lugares del mundo, le sumas las ofertas que están sacando de packs XBOX One X, lo que se consigue es que están captando ya una muy buena cartera de clientes de cara a la próxima generación.

Yo he caído ya con una XBOX One X que me llega esta semana, mi hermano otra... y tengo que decir, que es increíble cómo se están vendiendo online. Si dudas un poco, algo que tienes ya preparado para comprar, te quedas sin ello por la alta demanda que está habiendo en función de lo comentado anteriormente.

Le unes además el tema del Game Pass, y te das cuenta de que se están ganando una cartera importante de consumidores y que lo que hay detrás por parte de Microsoft, es un trabajo con mucho fondo.

Pinta muy pero que muy bien para Microsoft tal y como están trabajando, no sólo ya por sacar un producto con especificaciones brutales, que también.

Un Saludo.
kepacha escribió:
Mulzani escribió:@kepacha

Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.

Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4

Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.

Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.


Pero entonces, ya sabes como funciona esta feature en Series X? Se agradecería un enlace a donde lo explican, porque estás afirmando cosas que en ningún sitio he visto que lo digan.

De hecho, los tensor cores de Nvidia he leído que tienen sus mermas con el raytracing y que se pierde rendimiento al tener que esperar por estos la GPU en ciertos momentos. En Series X en teoría eso no pasa, ya que la capacidad de RT va en paralelo y no afecta al rendimiento global del hardware según he leído.


El problema es que XSX con toda la GPU apenas es capaz de conseguir la mitad de rendimiento en IA (tensor cores) de una 2060:

https://www.resetera.com/threads/digita ... t-30494089
https://www.resetera.com/threads/digita ... t-30493079

Y para colmo, la misma Nvidia tenia problemas para ajustar DLSS a sus tensor cores porque no tenían el suficiente rendimiento para reconstruir la imagen en el mismo frame, de ahí a que la mejora se dé ahora, aparte de que los algoritmos se han perfeccionado.
Se va a dedicar más a lo que debería esperarse en una consola. Mejorar IAs, también en XGS lo han estado probando para mejorar texturas al vuelo.
Lo bueno es que al ser DirectML abierto para todo el mundo, y funcionar a priori en cualquier tarjeta compatible, puede suponer un boom de cara a que los desarrolladores empiecen a meterle mano y sacarle usos. La XSX tiene la ventaja respecto al PC de ese hardware añadido para no perder eficiencia en la conversión a INT8 e INT4.
Combinado con VRS se puede elegir de manera más selectiva para aplicarse por zonas con mayor o menor precisión. En partes donde te interese menos lo aplicas en bloques de 4x4, por ejemplo, ganando mucho. De esta forma no se puede esperar sacar oro de 540p, pero sí como se menciona mejorar un escalado/composición de resolución menor de 4K hasta la nativa.

Al final como decía es una mezcla de usar todos los recursos al mismo tiempo, en lugar de ir por la fuerza bruta.
Pues muy interesante ese dato @iaFx , lo desconocía por completo. Sea como fuere la capacidad real final junto con el global del resto de features (Variable Rate Shading, Mesh Shader, and Sampler Feedback), será interesante ver como aprovechan este tema en las nuevas consolas, ya que me parece una solución muy interesante para "reequilibrar" el consumo de las capacidades totales del hardware para una carga gráfica global mayor.

EDIT

Estoy leyendo, y muy interesante el hilo ese. Datos interesantes también al respecto:

Dictator escribió:
The tensor cores are just hardware support to deal with int matrix math. Both consoles have hardware for that even if not dedicated cores


We still do not know if PS5 supports increased rate int8.
XSX does.
XSX is like 49 int8 TOPs - RTX 2080 Ti is 220 at ca. 1500mhz (most 2080 Tis run at 1800-1950 mhz in real life though).


Imagen


So if 2080 ti has ~220tops, 2060 rtx has ~100 tops and xsx 49 tops, according to this graph the rtx 2060 will do roughly ~2.83ms @ 4k, hipothetically the xsx with same algorithm should cost about 5.5ms @4k.


Dictator escribió:Assuming linear scaling, yeah this is what we have basically calculated out for ourselves as well.

5.5 ms btw is still A LOT faster than running the game at 4x the resolution.


Thats huge devs can push the XSX at 1080p and use ML to render at 4K. Can’t wait for more demos like the path tracing on XSX



The CU will be occupied running the ML code, while on NVIDIA, the CUs will be free to run normal code, while Tensors run the ML code.


Again, what is the problem here? The CUs were modified physically to accelerate machine learning code. Actual hardware was added to the CU to enable them to accelerate machine learning code.


El hilo de Resetera es una mina, justo aclaran muchas de las cosas que se están debatiendo.
Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.
iaFx escribió:Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.

¿Por qué iba a hacer eso?

Los CUs los puede usar en FP32, FP16, INT8 o INT4, tendrá que usar el que mejor le convenga y, se supone, que en INT4 da más rendimiento, INT4 ofrece 4 veces más operaciones por segundo que en FP16, si para el DLSS que desarrolle Microsoft, éste le da mejor rendimiento en INT4, será el que use.
Mulzani escribió:
iaFx escribió:Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.

¿Por qué iba a hacer eso?

Los CUs los puede usar en FP32, FP16, INT8 o INT4, tendrá que usar el que mejor le convenga y, se supone, que en INT4 da más rendimiento, INT4 ofrece 4 veces más operaciones por segundo que en FP16, si para el DLSS que desarrolle Microsoft, éste le da mejor rendimiento en INT4, será el que use.


Sin duda alguna, todo indica que irán por ahí visto lo visto. Es muy interesante todo esto.
gerberu está baneado por "clon de usuario baneado"
iaFx escribió:Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.

porqué no creáis un hilo técnico para hablar de esas cosas?
pepalex escribió:
usuariopc escribió:A ver si con esas tecnologías que hemos visto en el video podemos asegurar los 4k 60fps en todos los juegos. Además de mejorar bastante los gráficos en la retrocompatibilidad. [amor]

Viendo Doom Eternal correr a 60fps en una Xbox One normal (1'8TF), no me quiero imaginar lo que van a poder hacer con la Xbox Series X que más o menos tendrá un rendimiento real próximo a 10 veces el de la Xbox One. [looco]


Es milagroso lo de Doom Eternal en One básica, tiene 1,34TF [360º]


No me quiero imaginar lo que harán con 12TF.
Mulzani escribió:
iaFx escribió:Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.

¿Por qué iba a hacer eso?

Los CUs los puede usar en FP32, FP16, INT8 o INT4, tendrá que usar el que mejor le convenga y, se supone, que en INT4 da más rendimiento, INT4 ofrece 4 veces más operaciones por segundo que en FP16, si para el DLSS que desarrolle Microsoft, éste le da mejor rendimiento en INT4, será el que use.


Por lo que sé no es para nada el mismo algoritmo, lo digo por lo mismo que le pasó a Nvidia, que en DLSS 1.9 tuvieron que quitarle el trabajo a los tensor cores porque no lograban hacer que estos hicieran el trabajo en INT4 por lo que cambiaron el algoritmo para que los CUDA lo hicieran en FP16.
iaFx escribió:
Mulzani escribió:
iaFx escribió:Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.

¿Por qué iba a hacer eso?

Los CUs los puede usar en FP32, FP16, INT8 o INT4, tendrá que usar el que mejor le convenga y, se supone, que en INT4 da más rendimiento, INT4 ofrece 4 veces más operaciones por segundo que en FP16, si para el DLSS que desarrolle Microsoft, éste le da mejor rendimiento en INT4, será el que use.


Por lo que sé no es para nada el mismo algoritmo, lo digo por lo mismo que le pasó a Nvidia, que en DLSS 1.9 tuvieron que quitarle el trabajo a los tensor cores porque no lograban hacer que estos hicieran el trabajo en INT4 por lo que cambiaron el algoritmo para que los CUDA lo hicieran en FP16.

Ah, ¿entonces no estaría usando los Tensor Cores, para el DLSS?

Bueno, supongo que en el caso de DirectML, entonces, al tener que usar otro tipo de algoritmo que al de Nvidia, pues buscarán diferentes maneras de aplicarlo, incluso es posible que haya diferentes métodos de SuperSampling, según se necesite para cada juego, pudiendo hacerlo en el formato que ellos crean mejor, al poder elegir entre FP32, INT8 e INT4.
Mulzani escribió:Ah, ¿entonces no estaría usando los Tensor Cores, para el DLSS?

Bueno, supongo que en el caso de DirectML, entonces, al tener que usar otro tipo de algoritmo que al de Nvidia, pues buscarán diferentes maneras de aplicarlo, incluso es posible que haya diferentes métodos de SuperSampling, según se necesite para cada juego, pudiendo hacerlo en el formato que ellos crean mejor, al poder elegir entre FP32, INT8 e INT4.


La cosa va así:
DLSS 1.0 Tensor Cores
DLSS 1.9 CUDA (Shaders en AMD)
DLSS 2.0 Tensor cores

Al tener XSX muchos Shaders (mas eficiente en FP16) y tener desventaja en IA (2060 Tensor cores = 2x Toda la GPU de XSX) creo que es mas conveniente usar el 1.9, pero vamos que visto desde la ignorancia, igual DLSS 2.0 solo consume un par de CUs o todos los CUs están libres en la reconstrucción de la imagen, no tengo idea.
gerberu escribió:
pepalex escribió:
usuariopc escribió:A ver si con esas tecnologías que hemos visto en el video podemos asegurar los 4k 60fps en todos los juegos. Además de mejorar bastante los gráficos en la retrocompatibilidad. [amor]

Viendo Doom Eternal correr a 60fps en una Xbox One normal (1'8TF), no me quiero imaginar lo que van a poder hacer con la Xbox Series X que más o menos tendrá un rendimiento real próximo a 10 veces el de la Xbox One. [looco]


Es milagroso lo de Doom Eternal en One básica, tiene 1,34TF [360º]

rula a 720p y todo en low
no hay milagros y encima no mantiene los 60 al 100%

7 años después se puede seguir jugando en esa máquina a todos los títulos actuales, para eso es lo importante.
Xbox Series X Backward Compatibility Will Natively Run Select Games In Higher Resolutions

https://gamingbolt.com/xbox-series-x-wi ... esolutions
iaFx escribió:
Mulzani escribió:Ah, ¿entonces no estaría usando los Tensor Cores, para el DLSS?

Bueno, supongo que en el caso de DirectML, entonces, al tener que usar otro tipo de algoritmo que al de Nvidia, pues buscarán diferentes maneras de aplicarlo, incluso es posible que haya diferentes métodos de SuperSampling, según se necesite para cada juego, pudiendo hacerlo en el formato que ellos crean mejor, al poder elegir entre FP32, INT8 e INT4.


La cosa va así:
DLSS 1.0 Tensor Cores
DLSS 1.9 CUDA (Shaders en AMD)
DLSS 2.0 Tensor cores

Al tener XSX muchos Shaders (mas eficiente en FP16) y tener desventaja en IA (2060 Tensor cores = 2x Toda la GPU de XSX) creo que es mas conveniente usar el 1.9, pero vamos que visto desde la ignorancia, igual DLSS 2.0 solo consume un par de CUs o todos los CUs están libres en la reconstrucción de la imagen, no tengo idea.


Desconocemos aún el funcionamiento real en Series X de como se puede implementar. Otro detalle del hilo de Era y que especifica un poco más eso que comentas:

Dictator escribió:
So what are the advantages of the tensor cores then? From what I gather, 1 is that they can actually perform matrix 4x4 calculations on an FP16 space


I think the advantage is the relative TOPs to die space - an RTX 2060 will be slower than XSX GPU in almost everything most likely, but separate tensor cores means it is 2x faster at int8, int4 etc.
Which is really not too horrible for such a small GPU - makes ML really practical for real time with those numbers.


Da para elucubrar largo y tendido. Poco a poco iran saliendo más info supongo.

jjuanji escribió:Xbox Series X Backward Compatibility Will Natively Run Select Games In Higher Resolutions

https://gamingbolt.com/xbox-series-x-wi ... esolutions


Y a algunos incluso le implementarán HDR y Raytracing. Muchas ganas de ver también como logran algo para lo que no fueron desarrollados esos juegos en su momento...

pepalex escribió:
gerberu escribió:rula a 720p y todo en low
no hay milagros y encima no mantiene los 60 al 100%

7 años después se puede seguir jugando en esa máquina a todos los títulos actuales, para eso es lo importante.


Exacto, y eso que la One Fat no es ninguna maravilla de hardware precisamente. Y Doom Eternal tiene resolución dinámica desde 900p con caídas a 720p a 60 fps con una config adaptada al hardware, no es "720p y todo en low". Bastante han hecho sacando un juego a 60 fps, peleándose con los Jaguar y 1,3 TF...

https://youtu.be/UsmqWSZpgJY
Pues a mí me suena que todas esas mejoras en la retro es mediante ML. Sabemos que el HDR es lo que usa, y como no pueden cambiar el código de algo que ya está compilado, igual usan ML para analizar el juego y, al igual que aplican HDR, aplicar técnicas de mejora de resolución o interpolar algún fotograma (sería usando sólo 1 frame para no generar retardo) en base a aprendizaje de esos juegos, pues ML requiere de dicho aprendizaje, y por eso es en "juegos seleccionados".
Cabe esperar, de ser así, que se vayan añadiendo juegos a medida que los metan en el sistema de aprendizaje. Sería más o menos como lo que hace Nvidia cuando mete juegos en sus drivers para usar sus mejoras.
darksch escribió:Pues a mí me suena que todas esas mejoras en la retro es mediante ML. Sabemos que el HDR es lo que usa, y como no pueden cambiar el código de algo que ya está compilado, igual usan ML para analizar el juego y, al igual que aplican HDR, aplicar técnicas de mejora de resolución o interpolar algún fotograma (sería usando sólo 1 frame para no generar retardo) en base a aprendizaje de esos juegos, pues ML requiere de dicho aprendizaje, y por eso es en "juegos seleccionados".
Cabe esperar, de ser así, que se vayan añadiendo juegos a medida que los metan en el sistema de aprendizaje. Sería más o menos como lo que hace Nvidia cuando mete juegos en sus drivers para usar sus mejoras.


Podría ser, pero todo es elucubrar. Por eso es tan interesante esto y genera muchas ganas de saber en profundidad que se han sacado de la chistera para implementarlo.
(mensaje borrado)
gerberu está baneado por "clon de usuario baneado"
Yui Shojei escribió:
John_Carpenter escribió:Si sacan el Crysis para Xbox Series X, por fin se podría jugar a full a 60fps [carcajad]
Yui Shojei escribió:@EternoTitan tiene un parecido al Metro, pero basada en los enfrentamientos en la frontera de Polonia con la URSS

Te refieres a la toma de posiciones en el Este de Polonia de 1939? Porque eso de la foto es un AK-47 (no existía por entonces)


M refiero a que el nombre del juego es el mismo que se le dió a aquel acontecimiento, y que la propia desarrolladora comenta. Es un juego de horror survival, y no quiere decir que sea en esas fechas, si no acontecimientos posteriores en la misma frontera. [oki]

Ah, ok, ok, entones es de ficción


Estoy leyendo los últimos mensajes de los programadores del foro y me siento como cuando vi la conferencia de Mark Cerny. [maszz]

Más salseo y noticias de juegos, por favor!!! [jaja]
Compañeros, que hay que hacer para que un enlace de Twitter se vea en el foro???

En otros foros copiando el enlace, y volviendo a copiar el enlace en el texto que quieres que se vea sobre el, u listo. (copiar el enlace en ambas cosillas al subir un URL)

Pero en EOL, veo que no es así, alguien me podría decir cómo va aquí ?


Gracias !
194068 respuestas