[HO] Radeon RX 6000 Family

Pacorrr escribió:A ver pero si es de perogrullo, un juego patrocinado por una marca, significa que han metido dinero en ese juego (caso por ejemplo del Cyberpunk y Nvidia). Una marca no va a meter dinero en patrocinar un juego para que metan tecnología de la competencia, es que es de sentido común, y es lo que siempre ha sucedido. Si AMD saca un reescalado propio, ten por seguro que no lo vas a ver tampoco en juegos patrocinados por Nvidia (a menos que sea una tecnlogía que no haga falta meter en el motor del juego, como sucede con el DLSS). Hasta ahora, todos los juegos con RT tienen DLSS porque todos esos juegos han sido patrocinados por Nvidia.

Es que el Direct ML además no es de AMD, es de Microsoft, y en este caso además Open Source. Por lo que en caso de querer aplicarlo sin "patrocinio", no hay que pasar por caja otra vez.
Pues a mí esta filtración me ha dejado con unas ganas locas de ver las 6800XT custom.

Si ya eran muy prometedoras antes, viendo el rendimiento de ese bench en raytracing ahora lo son más.
@Pacorrr No te preocupes, que todo esto ya se verá ;) .
Tampoco hay que irritarse si resulta que todos los juegos con RT se apoyan en DLSS, porque eso es para el bien de los usuarios. A nadie le ponen una pistola en la cabeza a la hora de elejir. Lo ridiculo es querer que hayan juegos con RT que "solo" podamos jugar a 40 frames, un suponer, porque nos fastidia que otros con otro tipo de GPUS los jueguen a 80...Esto no es el mundo de las consolas, salvo que me esté equivocando de foro y de compañias [+risas].

Ademas, estamos hablando de valor de las GPUS, en este caso poniendo el valor las 6000, que este es su hilo, y estar tratando el tema de lo importante o no que es tener en cuenta el rendimiento de los juegos con DLSS (con y sin RT, y sí DLSS), y yo, que sí soy usuario del DLSS desde que está disponible, siento mucho que no haya podido probarlo TODO EL MUNDO, porque sino, los "antis" no exisitirian, y en todo caso solo quedaría llorar para que sea algo universal. Es una ventaja que podemos tener en PC, y es una lastima que AMD no pueda usarlo, y ojalá Nvidia al menos encuentre la manera de aplicarlo sin necesidad de implementarlo juego a juego.

Respecto a lo del patrocinio, Nvidia y AMD, mas que pagar como piensas tu, lo que hacen es suministrar soporte durante el desarrollo de los juegos para que los estudios puedan conseguir los objetivos que buscan. Ese motivo es el que hace que luego, ni AMD ni Nvidia pintan nada en lanzamientos ni demas cosas alrededor de los juegos en los que aparecen sus logos, y un caso para la historia es el de GTAV, y el TONTEO que le hizo ROCKS a Nvidia, dejandola con el culo al aire en pleno lanzamiento de sus nuevas GPUS, porque quien si pagaba, que era Sony, dio la orden, y los maletines, para que se retrasa el lanzamiento en PC y no hacerles el feo a las consolas. Todo eso "filtrado" en su dia por el propio CEO de Nvidia en un caso ya mitico.

Nvidia y AMD no son fabricantes de consolas, y no van por ahí untando a los estudios para tenerlos a sus pies. Que no si es mejor asi, porque me encantaria ver un juego "pagado" por Nvidia mismo, explotando al 100% la potencia real de un PC high END, porque lo que solemos ver, solo es morralla porteada y adecentada, aun siendo espectacular, respecto de lo que veriamos en juegos pensados desde la base hasta la cima para exprimir la arquitectura de un PC.
battman80 escribió:@Pacorrr No te preocupes, que todo esto ya se verá ;) .
Tampoco hay que irritarse si resulta que todos los juegos con RT se apoyan en DLSS, porque eso es para el bien de los usuarios. A nadie le ponen una pistola en la cabeza a la hora de elejir. Lo ridiculo es querer que hayan juegos con RT que "solo" podamos jugar a 40 frames, un suponer, porque nos fastidia que otros con otro tipo de GPUS los jueguen a 80...Esto no es el mundo de las consolas, salvo que me esté equivocando de foro y de compañias [+risas].

Ademas, estamos hablando de valor de las GPUS, en este caso poniendo el valor las 6000, que este es su hilo, y estar tratando el tema de lo importante o no que es tener en cuenta el rendimiento de los juegos con DLSS (con y sin RT, y sí DLSS), y yo, que sí soy usuario del DLSS desde que está disponible, siento mucho que no haya podido probarlo TODO EL MUNDO, porque sino, los "antis" no exisitirian, y en todo caso solo quedaría llorar para que sea algo universal. Es una ventaja que podemos tener en PC, y es una lastima que AMD no pueda usarlo, y ojalá Nvidia al menos encuentre la manera de aplicarlo sin necesidad de implementarlo juego a juego.

Respecto a lo del patrocinio, Nvidia y AMD, mas que pagar como piensas tu, lo que hacen es suministrar soporte durante el desarrollo de los juegos para que los estudios puedan conseguir los objetivos que buscan. Ese motivo es el que hace que luego, ni AMD ni Nvidia pintan nada en lanzamientos ni demas cosas alrededor de los juegos en los que aparecen sus logos, y un caso para la historia es el de GTAV, y el TONTEO que le hizo ROCKS a Nvidia, dejandola con el culo al aire en pleno lanzamiento de sus nuevas GPUS, porque quien si pagaba, que era Sony, dio la orden, y los maletines, para que se retrasa el lanzamiento en PC y no hacerles el feo a las consolas. Todo eso "filtrado" en su dia por el propio CEO de Nvidia en un caso ya miticio.

Nvidia y AMD no son fabricantes de consolas, y no van por ahí untando a los estudios para tenerlos a sus pies. Que no si es mejor asi, porque me encantaria ver un juego "pagado" por Nvidia mismo, explotando al 100% la potencia real de un PC high END, porque lo que solemos ver, solo es morralla porteada y adecentada, aun siendo espectacular, respecto de lo que veriamos en juegos pensados desde la base hasta la cima para exprimir la arquitectura de un PC.

Veo que sigues sin entenderlo. No es cuestión de lo que uno quiera o deje de querer, le fastidie o le divierta, es de puro sentido común. No sé a qué vienen las pullitas sinceramente, he tenido una 2080 hasta hace bien poco y he probado el DLSS, y ahora tengo una 8800GTS del año de los pecos esperando a ver qué es lo que compro.

Me parece que no te das cuenta que las tecnologías privativas, como el DLSS, como era el Physx, son muy difíciles de imponer como standard, precisamente porque son cerradas y no se permiten usar fuera del propietario. Si no entiendes eso, seguirás sin entender que el DLSS sólo lo vas a ver en juegos patrocinados o en los que Nvidia llegue a algún acuerdo.
Pacorrr escribió:
battman80 escribió:@Pacorrr No te preocupes, que todo esto ya se verá ;) .
Tampoco hay que irritarse si resulta que todos los juegos con RT se apoyan en DLSS, porque eso es para el bien de los usuarios. A nadie le ponen una pistola en la cabeza a la hora de elejir. Lo ridiculo es querer que hayan juegos con RT que "solo" podamos jugar a 40 frames, un suponer, porque nos fastidia que otros con otro tipo de GPUS los jueguen a 80...Esto no es el mundo de las consolas, salvo que me esté equivocando de foro y de compañias [+risas].

Ademas, estamos hablando de valor de las GPUS, en este caso poniendo el valor las 6000, que este es su hilo, y estar tratando el tema de lo importante o no que es tener en cuenta el rendimiento de los juegos con DLSS (con y sin RT, y sí DLSS), y yo, que sí soy usuario del DLSS desde que está disponible, siento mucho que no haya podido probarlo TODO EL MUNDO, porque sino, los "antis" no exisitirian, y en todo caso solo quedaría llorar para que sea algo universal. Es una ventaja que podemos tener en PC, y es una lastima que AMD no pueda usarlo, y ojalá Nvidia al menos encuentre la manera de aplicarlo sin necesidad de implementarlo juego a juego.

Respecto a lo del patrocinio, Nvidia y AMD, mas que pagar como piensas tu, lo que hacen es suministrar soporte durante el desarrollo de los juegos para que los estudios puedan conseguir los objetivos que buscan. Ese motivo es el que hace que luego, ni AMD ni Nvidia pintan nada en lanzamientos ni demas cosas alrededor de los juegos en los que aparecen sus logos, y un caso para la historia es el de GTAV, y el TONTEO que le hizo ROCKS a Nvidia, dejandola con el culo al aire en pleno lanzamiento de sus nuevas GPUS, porque quien si pagaba, que era Sony, dio la orden, y los maletines, para que se retrasa el lanzamiento en PC y no hacerles el feo a las consolas. Todo eso "filtrado" en su dia por el propio CEO de Nvidia en un caso ya miticio.

Nvidia y AMD no son fabricantes de consolas, y no van por ahí untando a los estudios para tenerlos a sus pies. Que no si es mejor asi, porque me encantaria ver un juego "pagado" por Nvidia mismo, explotando al 100% la potencia real de un PC high END, porque lo que solemos ver, solo es morralla porteada y adecentada, aun siendo espectacular, respecto de lo que veriamos en juegos pensados desde la base hasta la cima para exprimir la arquitectura de un PC.

Veo que sigues sin entenderlo. No es cuestión de lo que uno quiera o deje de querer, le fastidie o le divierta, es de puro sentido común. No sé a qué vienen las pullitas sinceramente, he tenido una 2080 hasta hace bien poco y he probado el DLSS, y ahora tengo una 8800GTS del año de los pecos esperando a ver qué es lo que compro.

Me parece que no te das cuenta que las tecnologías privativas, como el DLSS, como era el Physx, son muy difíciles de imponer como standard, precisamente porque son cerradas y no se permiten usar fuera del propietario. Si no entiendes eso, seguirás sin entender que el DLSS sólo lo vas a ver en juegos patrocinados o en los que Nvidia llegue a algún acuerdo.


Lo entiendo perfectamente, pero todo esto es hablando y suponiendo, que dentro de X tiempo, no se sabe si semanas o meses, AMD presente algun tipo de solución, apollada en la arquitectura de sus GPUS, similar a DLSS (realmente similar), y que ENTONCES, hubiendo dos soluciones en el mercado, pueda uno y otro fabricante estimular a los estudios para usar la suya y no la de la compentencia, con lo cual unos usuarios se quedran sin una de las ventajas en algunos juegos, y otros en otros tantos.

Yo te digo que hasta que no veamos eso, y hasta el dia de hoy, todos los juegos que han salido con RT y los que vienen en el corto plazo, llevan DLSS, y no es por que Nvidia pague, es porque son casi injugables sin DLSS...Es o usarlo, o renunciar al RT, y el RT si que no es algo de Nvidia, es algo universal. Para mi no es un problema de DLSS sí o DLSS no, es un problema de RT sí o RT no.

Por lo demas, estamos en la misma situación, y yo lo que quiero es ver esas 6000, en concreto la 6900xt porque las otras no me interesan absolutamente nada, corriendo en los tipicos juegos tochos (al margen de los usados en los benchs de AMD), corriendo con procesadores como el mio, proque está claro que para cambiar a zen3 + placa+ 6900XT, pillo una 3090 que salgo ganando por todos lados y no necesito nada mas, y corriendo con RT ON. O sea, todo lo que AMD por ahora nos sigue ocultando...

No pasa nada [beer]
@battman80
Si no tengo entendido mal, el Direct ML va a ser de forma inmediata la alternativa al DLSS. Lo van a usar las consolas nextgen y, por supuesto, AMD. Todavía no sabemos mucho porque se liberó en agosto. Como tú, estoy deseando ver las primeras comparativas reales, en la que nos muestren Direct ML vs DLSS, si hay diferencias notables o no.
Estoy muy de acuerdo con el compañero con respecto al software privativo como el DLSS. Para implementarlo, las desarrolladoras van a tener que pasar por caja y será útil solo con gráficas Nvidia. El Direct ML es open source y funcionará con absolutamente todas las gráficas. Mi deseo, por este mismo motivo, es que el Direct ML se implante, pero eso está por ver.
Seguimos esperando a ver que pasa. Lo mejor para todos es que las gráficas Radeon estén a la altura de los rumores. Lo peor es la situación que teníamos hasta hace 2 meses, en la que Nvidia hacía y deshacía a su antojo, con unos precios desorbitados. De no ser por AMD, la RTX 3080 costaría 1000 lereles de base seguro.
battman80 escribió:Lo entiendo perfectamente, pero todo esto es hablando y suponiendo, que dentro de X tiempo, no se sabe si semanas o meses, AMD presente algun tipo de solución, apollada en la arquitectura de sus GPUS, similar a DLSS (realmente similar), y que ENTONCES, hubiendo dos soluciones en el mercado, pueda uno y otro fabricante estimular a los estudios para usar la suya y no la de la compentencia, con lo cual unos usuarios se quedran sin una de las ventajas en algunos juegos, y otros en otros tantos.

Yo te digo que hasta que no veamos eso, y hasta el dia de hoy, todos los juegos que han salido con RT y los que vienen en el corto plazo, llevan DLSS, y no es por que Nvidia pague, es porque son casi injugables sin DLSS...Es o usarlo, o renunciar al RT, y el RT si que no es algo de Nvidia, es algo universal. Para mi no es un problema de DLSS sí o DLSS no, es un problema de RT sí o RT no.

Por lo demas, estamos en la misma situación, y yo lo que quiero es ver esas 6000, en concreto la 6900xt porque las otras no me interesan absolutamente nada, corriendo en los tipicos juegos tochos (al margen de los usados en los benchs de AMD), corriendo con procesadores como el mio, proque está claro que para cambiar a zen3 + placa+ 6900XT, pillo una 3090 que salgo ganando por todos lados y no necesito nada mas, y corriendo con RT ON. O sea, todo lo que AMD por ahora nos sigue ocultando...

No pasa nada [beer]

Seguramente la solución de AMD se estandarice antes que la de nvidia. Nvidia trabaja en tecnologías propietarias y AMD suele ser mas de usar estándares o ayudar a desarrollarlos
sadistics escribió:Seguramente la solución de AMD se estandarice antes que la de nvidia. Nvidia trabaja en tecnologías propietarias y AMD suele ser mas de usar estándares o ayudar a desarrollarlos


Esto me recuerda al Gsync VS FreeSync.
pmol escribió:@battman80
Si no tengo entendido mal, el Direct ML va a ser de forma inmediata la alternativa al DLSS. Lo van a usar las consolas nextgen y, por supuesto, AMD. Todavía no sabemos mucho porque se liberó en agosto. Como tú, estoy deseando ver las primeras comparativas reales, en la que nos muestren Direct ML vs DLSS, si hay diferencias notables o no.
Estoy muy de acuerdo con el compañero con respecto al software privativo como el DLSS. Para implementarlo, las desarrolladoras van a tener que pasar por caja y será útil solo con gráficas Nvidia. El Direct ML es open source y funcionará con absolutamente todas las gráficas. Mi deseo, por este mismo motivo, es que el Direct ML se implante, pero eso está por ver.
Seguimos esperando a ver que pasa. Lo mejor para todos es que las gráficas Radeon estén a la altura de los rumores. Lo peor es la situación que teníamos hasta hace 2 meses, en la que Nvidia hacía y deshacía a su antojo, con unos precios desorbitados. De no ser por AMD, la RTX 3080 costaría 1000 lereles de base seguro.


A ver, que se os va....

DirectML es una API para aplicar IA, ya puede ser en reescalado, para texturas, para audio, etc. pero este no sustituye a DLSS, porque este no es una API, sino un algoritmo entrenado mediante una red neuronal para reescalar, y es aquí donde esta el meollo del asunto, DLSS puede funcionar con DirectML como API porque no se excluyen entre ellos, no son lo mismo con otra marca, lo que tiene que crear o mejorar AMD o Microsoft NO ES DirectML, sino un reescalado por IA que se apoye en DirectML y entrenado en una red neuronal y es ahí donde Nvidia le saca ventaja, porque ya tiene el algoritmo funcional y con varios años de entrenamiento y encima con hardware dedicado para acelerar el reescalado, hardware dedicado que no tienen las AMD, de hecho, Nvidia no tiene ningún problema en apoyarse en DirectML si ya no lo hace ya para usar DLSS porque va a conseguir lo mismo que con una API propietaria.

Y por cierto, DirectML NO es open source, todo lo que tenga Direct no lo es.
iaFx escribió:
pmol escribió:@battman80
Si no tengo entendido mal, el Direct ML va a ser de forma inmediata la alternativa al DLSS. Lo van a usar las consolas nextgen y, por supuesto, AMD. Todavía no sabemos mucho porque se liberó en agosto. Como tú, estoy deseando ver las primeras comparativas reales, en la que nos muestren Direct ML vs DLSS, si hay diferencias notables o no.
Estoy muy de acuerdo con el compañero con respecto al software privativo como el DLSS. Para implementarlo, las desarrolladoras van a tener que pasar por caja y será útil solo con gráficas Nvidia. El Direct ML es open source y funcionará con absolutamente todas las gráficas. Mi deseo, por este mismo motivo, es que el Direct ML se implante, pero eso está por ver.
Seguimos esperando a ver que pasa. Lo mejor para todos es que las gráficas Radeon estén a la altura de los rumores. Lo peor es la situación que teníamos hasta hace 2 meses, en la que Nvidia hacía y deshacía a su antojo, con unos precios desorbitados. De no ser por AMD, la RTX 3080 costaría 1000 lereles de base seguro.


A ver, que se os va....

DirectML es una API para aplicar IA, ya puede ser en reescalado, para texturas, para audio, etc. pero este no sustituye a DLSS, porque este no es una API, sino un algoritmo entrenado mediante una red neuronal para reescalar, y es aquí donde esta el meollo del asunto, DLSS puede funcionar con DirectML como API porque no se excluyen entre ellos, no son lo mismo con otra marca, lo que tiene que crear o mejorar AMD o Microsoft NO ES DirectML, sino un reescalado por IA que se apoye en DirectML y entrenado en una red neuronal y es ahí donde Nvidia le saca ventaja, porque ya tiene el algoritmo funcional y con varios años de entrenamiento y encima con hardware dedicado para acelerar el reescalado, hardware dedicado que no tienen las AMD, de hecho, Nvidia no tiene ningún problema en apoyarse en DirectML si ya no lo hace ya para usar DLSS porque va a conseguir lo mismo que con una API propietaria.

Y por cierto, DirectML NO es open source, todo lo que tenga Direct no lo es.

Menuda lección compi, papel y boli.
Imagen@iaFx
En tiendo entonces que VulkanML sería la alternativa open source?
pmol escribió:@iaFx
En tiendo entonces que VulkanML sería la alternativa open source?


Si, de hecho Nvidia trabaja en conjunto con Kronos para sacar el DLSS con Vulkan ML

https://www.phoronix.com/scan.php?page= ... -Vulkan-ML

https://www.khronos.org/assets/uploads/ ... -Jul19.pdf
@iaFx Gracias por la explicación. Yo solo sé de lo que voy leyendo por la web y se me escapan bastantes cosas.
En este caso para aplicar el DLSS, Nvidia tiene los Tensor Cores y AMD parece no tener hardware dedicado, no es así? Supongo que eso ya será un handicap a la hora del futurible DLSS que aplique AMD.
pmol escribió:@iaFx Gracias por la explicación. Yo solo sé de lo que voy leyendo por la web y se me escapan bastantes cosas.
En este caso para aplicar el DLSS, Nvidia tiene los Tensor Cores y AMD parece no tener hardware dedicado, no es así? Supongo que eso ya será un handicap a la hora del futurible DLSS que aplique AMD.


Es la gran incógnita que se tiene, de como AMD va a resolver el tema de la ausencia de tensor cores, se dice que tienen una manera de usar los CUs como si fueran tensor cores, pero no se sabe nada de como va a rendir porque depende mucho del algoritmo y de como funciona la gráfica.
Hay alguna forma de conseguir aceleración por hardware de una GPU AMD en programas como Premiere?
battman80 escribió:
Pacorrr escribió:
battman80 escribió:@Pacorrr No te preocupes, que todo esto ya se verá ;) .
Tampoco hay que irritarse si resulta que todos los juegos con RT se apoyan en DLSS, porque eso es para el bien de los usuarios. A nadie le ponen una pistola en la cabeza a la hora de elejir. Lo ridiculo es querer que hayan juegos con RT que "solo" podamos jugar a 40 frames, un suponer, porque nos fastidia que otros con otro tipo de GPUS los jueguen a 80...Esto no es el mundo de las consolas, salvo que me esté equivocando de foro y de compañias [+risas].

Ademas, estamos hablando de valor de las GPUS, en este caso poniendo el valor las 6000, que este es su hilo, y estar tratando el tema de lo importante o no que es tener en cuenta el rendimiento de los juegos con DLSS (con y sin RT, y sí DLSS), y yo, que sí soy usuario del DLSS desde que está disponible, siento mucho que no haya podido probarlo TODO EL MUNDO, porque sino, los "antis" no exisitirian, y en todo caso solo quedaría llorar para que sea algo universal. Es una ventaja que podemos tener en PC, y es una lastima que AMD no pueda usarlo, y ojalá Nvidia al menos encuentre la manera de aplicarlo sin necesidad de implementarlo juego a juego.

Respecto a lo del patrocinio, Nvidia y AMD, mas que pagar como piensas tu, lo que hacen es suministrar soporte durante el desarrollo de los juegos para que los estudios puedan conseguir los objetivos que buscan. Ese motivo es el que hace que luego, ni AMD ni Nvidia pintan nada en lanzamientos ni demas cosas alrededor de los juegos en los que aparecen sus logos, y un caso para la historia es el de GTAV, y el TONTEO que le hizo ROCKS a Nvidia, dejandola con el culo al aire en pleno lanzamiento de sus nuevas GPUS, porque quien si pagaba, que era Sony, dio la orden, y los maletines, para que se retrasa el lanzamiento en PC y no hacerles el feo a las consolas. Todo eso "filtrado" en su dia por el propio CEO de Nvidia en un caso ya miticio.

Nvidia y AMD no son fabricantes de consolas, y no van por ahí untando a los estudios para tenerlos a sus pies. Que no si es mejor asi, porque me encantaria ver un juego "pagado" por Nvidia mismo, explotando al 100% la potencia real de un PC high END, porque lo que solemos ver, solo es morralla porteada y adecentada, aun siendo espectacular, respecto de lo que veriamos en juegos pensados desde la base hasta la cima para exprimir la arquitectura de un PC.

Veo que sigues sin entenderlo. No es cuestión de lo que uno quiera o deje de querer, le fastidie o le divierta, es de puro sentido común. No sé a qué vienen las pullitas sinceramente, he tenido una 2080 hasta hace bien poco y he probado el DLSS, y ahora tengo una 8800GTS del año de los pecos esperando a ver qué es lo que compro.

Me parece que no te das cuenta que las tecnologías privativas, como el DLSS, como era el Physx, son muy difíciles de imponer como standard, precisamente porque son cerradas y no se permiten usar fuera del propietario. Si no entiendes eso, seguirás sin entender que el DLSS sólo lo vas a ver en juegos patrocinados o en los que Nvidia llegue a algún acuerdo.


Lo entiendo perfectamente, pero todo esto es hablando y suponiendo, que dentro de X tiempo, no se sabe si semanas o meses, AMD presente algun tipo de solución, apollada en la arquitectura de sus GPUS, similar a DLSS (realmente similar), y que ENTONCES, hubiendo dos soluciones en el mercado, pueda uno y otro fabricante estimular a los estudios para usar la suya y no la de la compentencia, con lo cual unos usuarios se quedran sin una de las ventajas en algunos juegos, y otros en otros tantos.

Yo te digo que hasta que no veamos eso, y hasta el dia de hoy, todos los juegos que han salido con RT y los que vienen en el corto plazo, llevan DLSS, y no es por que Nvidia pague, es porque son casi injugables sin DLSS...Es o usarlo, o renunciar al RT, y el RT si que no es algo de Nvidia, es algo universal. Para mi no es un problema de DLSS sí o DLSS no, es un problema de RT sí o RT no.

Por lo demas, estamos en la misma situación, y yo lo que quiero es ver esas 6000, en concreto la 6900xt porque las otras no me interesan absolutamente nada, corriendo en los tipicos juegos tochos (al margen de los usados en los benchs de AMD), corriendo con procesadores como el mio, proque está claro que para cambiar a zen3 + placa+ 6900XT, pillo una 3090 que salgo ganando por todos lados y no necesito nada mas, y corriendo con RT ON. O sea, todo lo que AMD por ahora nos sigue ocultando...

No pasa nada [beer]


No me quería meter en el fregao... pero es que hasta ahora NOOOO hay otra marca que no sea nVidia que mueva RT, ergo si tiene RT y nVidia es la ÚNICA que tiene tarjetas que pueden aprovecharse de ello, por supuesto TIENE DLSS, porque precisamente si hay RayTracing es porque están usando las tarjetas de nVidia en mente.

Ahora mira todos los juegos que NOOOO tienen RayTracing, llevan todos ellos DLSS? si van de la mano precisamente es porque hasta ahora solo una compañía ofrecía dicho soporte, ahora que AMD se suma a la fiesta habrá más juegos con RayTracing y obviamente todos los que AMD patrocine NOOOO llevarán DLSS, porque sino adivina qué... se les retira el patrocinio y mejor aún.... si las consolas empiezan a usar RayTracing, cosa que sucederá, y estas mondan la arquitectura RDNA 2 (propiedad de AMD), si has programado tu RT pensando en dicha arquitectura y tienes su equivalente en PC, porqué debería un desarollador tirar TODA su faena en este sentido para portarlo a otra arquitectura de la competencia?

Y esto no es un Company Wars, que la gente pille la tarjeta que le guste, ambas ofrecen cosas que me llaman la atención y yo mismo no tengo ni zoooorrins de qué pillaré al final, pero no habrá DLSS en TODOS los juegos que utilicen RT , de hecho no he sabido encontrar si Dirt 5 utlitza DLSS, quizás si, pero no supe verlo.

saludos
shingi- escribió:
battman80 escribió:
Pacorrr escribió:Veo que sigues sin entenderlo. No es cuestión de lo que uno quiera o deje de querer, le fastidie o le divierta, es de puro sentido común. No sé a qué vienen las pullitas sinceramente, he tenido una 2080 hasta hace bien poco y he probado el DLSS, y ahora tengo una 8800GTS del año de los pecos esperando a ver qué es lo que compro.

Me parece que no te das cuenta que las tecnologías privativas, como el DLSS, como era el Physx, son muy difíciles de imponer como standard, precisamente porque son cerradas y no se permiten usar fuera del propietario. Si no entiendes eso, seguirás sin entender que el DLSS sólo lo vas a ver en juegos patrocinados o en los que Nvidia llegue a algún acuerdo.


Lo entiendo perfectamente, pero todo esto es hablando y suponiendo, que dentro de X tiempo, no se sabe si semanas o meses, AMD presente algun tipo de solución, apollada en la arquitectura de sus GPUS, similar a DLSS (realmente similar), y que ENTONCES, hubiendo dos soluciones en el mercado, pueda uno y otro fabricante estimular a los estudios para usar la suya y no la de la compentencia, con lo cual unos usuarios se quedran sin una de las ventajas en algunos juegos, y otros en otros tantos.

Yo te digo que hasta que no veamos eso, y hasta el dia de hoy, todos los juegos que han salido con RT y los que vienen en el corto plazo, llevan DLSS, y no es por que Nvidia pague, es porque son casi injugables sin DLSS...Es o usarlo, o renunciar al RT, y el RT si que no es algo de Nvidia, es algo universal. Para mi no es un problema de DLSS sí o DLSS no, es un problema de RT sí o RT no.

Por lo demas, estamos en la misma situación, y yo lo que quiero es ver esas 6000, en concreto la 6900xt porque las otras no me interesan absolutamente nada, corriendo en los tipicos juegos tochos (al margen de los usados en los benchs de AMD), corriendo con procesadores como el mio, proque está claro que para cambiar a zen3 + placa+ 6900XT, pillo una 3090 que salgo ganando por todos lados y no necesito nada mas, y corriendo con RT ON. O sea, todo lo que AMD por ahora nos sigue ocultando...

No pasa nada [beer]


No me quería meter en el fregao... pero es que hasta ahora NOOOO hay otra marca que no sea nVidia que mueva RT, ergo si tiene RT y nVidia es la ÚNICA que tiene tarjetas que pueden aprovecharse de ello, por supuesto TIENE DLSS, porque precisamente si hay RayTracing es porque están usando las tarjetas de nVidia en mente.

Ahora mira todos los juegos que NOOOO tienen RayTracing, llevan todos ellos DLSS? si van de la mano precisamente es porque hasta ahora solo una compañía ofrecía dicho soporte, ahora que AMD se suma a la fiesta habrá más juegos con RayTracing y obviamente todos los que AMD patrocine NOOOO llevarán DLSS, porque sino adivina qué... se les retira el patrocinio y mejor aún.... si las consolas empiezan a usar RayTracing, cosa que sucederá, y estas mondan la arquitectura RDNA 2 (propiedad de AMD), si has programado tu RT pensando en dicha arquitectura y tienes su equivalente en PC, porqué debería un desarollador tirar TODA su faena en este sentido para portarlo a otra arquitectura de la competencia?

Y esto no es un Company Wars, que la gente pille la tarjeta que le guste, ambas ofrecen cosas que me llaman la atención y yo mismo no tengo ni zoooorrins de qué pillaré al final, pero no habrá DLSS en TODOS los juegos que utilicen RT , de hecho no he sabido encontrar si Dirt 5 utlitza DLSS, quizás si, pero no supe verlo.

saludos

Al final pillarás lo que puedas compi XD, viendo los problemas de stock o mucho cambia la cosa o ésta dificultad para hacerse con cualquier hardware que lleve silicio va a seguir unos meses.
Saludos
masticatigres escribió:
AzagraMac escribió:
DaNi_0389 escribió:Joder pues esta bastante bien, con lo que se venía comentando estos días no esperaba que una 6800 rindiese algo más que la 2080Ti activando Raytracing.

la 6800 es la que tengo fichada... me largo de NVIDIA [+risas]
https://www.gigabyte.com/Graphics-Card/GV-R68-16GC-B#kf

Joer, yo estoy muy indeciso con el tema, ya que para Blender y programas de diseño 3d las Nvidia ganan de calle, pero también se que dentro de nada van a optimizar los programas para las AMD que dan mas potencia bruta, pero son solo promesas...

Teniendo en cuenta, que no soy jugador pro, ni gamer ni leches... ocasional, y que el uso principal que le doy es Linux, y en linux ya nos conocemos como rinde NVIDIA [noop], no repito mas NVIDIA.
Yo a la espera de las reviews, sobre todo por ver como va a funcionar con los nuevos ryzen, pero creo que más que el amd o nvidia, lo que más me va a influir va a ser el stock que tengan, lo que me parece de vergüenza es que nvidia saque la 3070 cuando no dan a basto con las anteriores, no solo eso que ahora en nada anuncian la 3060 ti según los rumores, [facepalm]

Y siempre he sido de los verdes pero me la suda pasarme a los rojos si hay stock y rinden bien, total voy a jugar a 2K, por mucho 4K que prometan a dia de hoy, hasta la 3090 sufrirá en un par de años, no hay más que ver lo bien que se ha estrenado con el watch dogs
yo sigo esperando a ver el rendimiento con RT, y ver si con el dlss el rendimiento de las RTX30 pisan o no a las AMD, es q muchas gente no le dara importancia pero tiene y va a tener mas de los q parece....

Yo comprare una grafica nueva pero creo q esperare unos meses a ver como estabiliza el mercado, y donde va a quedar cada tarjeta grafica con el tiempo.


saludos
También me gustaría saber como va en edición de vídeo. Tampoco hago gran cosa y solo a 1080p supongo que será suficiente, tengo una 1070 y no tengo grandes problemas con ello.

EDIT: La CPU va a ser un Ryzen 5000.

Saludos.
Yo ahora mismo no la voy a comprar, cuando los precios empieces a bajar venderé la 5700xt i pillare algo de la serie 6000.
@nomg yo igual, teniendo una 5700xt ahora mismo para 1440p me sirve para una buena temporada y no me voy a lanzar ahora mismo a nada. Pasado un tiempo con precios más bajos y otra exigencia en los juegos y quizás me lo plantee.

Para la gente que juega a 1080 o que juega a 1440p y tiene una 2070 super, 2080, 2080ti, 5700xt...tampoco aporta tanto esta generación yo creo. Al que le guste renovar cada poco algo puede ganar pero yo creo que con esas gráficas se va de sobra en el medio plazo salvo que se sea muy exigente.
@ZipiZape no todo es dlss

Tener en cuenta que habrá (y de hecho ya hay) juegos que se ven lastrados el rendimiento por falta de vram.

Ahí amd tiene ventaja.

Por ejemplo nvidia no ha mostrado el battlefield v porque supera los 10gb con raytracing.

Y ya la 3070 con lo buena que podría ser con 12 o 16 gb y la sacan con 8.

Yo como soy bastante prudente me esperaré a la primavera a ver si nvidia saca graficas con más vram.
@PepeC12 Estoy contigo en todo lo que dices por eso digo q voy a esperar a como se adapta el mercado y las graficas para comprar una, veremos a ver esas versiones TI con mas vram como salen.

Yo digo lo del DLSS porque como poseedor de una RTX 2060, el dlss es una maravilla como aumenta el rendimiento sin perdida de calidad, me parece muchisimo mas interesante que el RT con diferencia y es lo q creo q puede marcar la diferencia.

Saludos
Nvidia va a responder si o si... ahí tenéis la 3080Ti que se viene ya...Cuando no debería salir hasta dentro de un año como lo hacían normalmente.

Aunque con ella, la 6900XT seguiría siendo más potente ya que la Ti se situaría entre la 3080 y la 3090.
Antoniopua está baneado por "saltarse el ban con un clon"
MarioLemieux escribió:@nomg yo igual, teniendo una 5700xt ahora mismo para 1440p me sirve para una buena temporada y no me voy a lanzar ahora mismo a nada. Pasado un tiempo con precios más bajos y otra exigencia en los juegos y quizás me lo plantee.

Para la gente que juega a 1080 o que juega a 1440p y tiene una 2070 super, 2080, 2080ti, 5700xt...tampoco aporta tanto esta generación yo creo. Al que le guste renovar cada poco algo puede ganar pero yo creo que con esas gráficas se va de sobra en el medio plazo salvo que se sea muy exigente.

Coñe, la 5700XT es un tarjetón que te sirve hasta para jugar a 4K muy dignamente... igual que la 2070 Super... ni hablar ya de la 2080 TI. Las tarjetas de gama alta de la anterior generación siguen siendo potentísimas. Al final pienso que quien pilló una RTX baratica triunfó, y entiendo que esten como un niño con zapatos nuevos. Parecía una locura comprar una tarjeta asi estando tan cerca las Ampere, y con el stock que hay actualmente pienso que fue una buena jugada. ¿Os imagináis pasar de una 1060 a una 2080 TI por 400/500 Euros, como mucha gente hizo? Pues eso.


Saludos!!!
PepeC12 escribió:@ZipiZape no todo es dlss

Tener en cuenta que habrá (y de hecho ya hay) juegos que se ven lastrados el rendimiento por falta de vram.

Ahí amd tiene ventaja.

Por ejemplo nvidia no ha mostrado el battlefield v porque supera los 10gb con raytracing.

Y ya la 3070 con lo buena que podría ser con 12 o 16 gb y la sacan con 8.

Yo como soy bastante prudente me esperaré a la primavera a ver si nvidia saca graficas con más vram.



En consumo real o asignado? Porque también hay que diferenciarlo.
@Antoniopua Imagínate yo que voy a pasar de una 1080 a una 3080Ti o 6900XT... [+risas] [+risas]
pmol escribió:Para los preocupados por la ausencia DLSS, acabo de ver una comparativa en directo de Michael Quesada utilizando Death Stranding. Voy a resumir lo visto:
Compara el DLSS con el FidelityFX CAS a 1080,1440, y 4K.
1080p: el DLSS es objetivamente mejor que el CAS
1440 y 4K: no hay diferencias apreciables entre DLSS y CAS, salvo que con CAS obtienes algunos fps más.

En todos los casos que se emplea el DLSS es en modo calidad, pues en modo desempeño se ve mucho peor y curiosamente los fps son exactamente los mismos que en el modo calidad :-?

Hay que recordar que son dos tecnologías diferentes y que en el FidelityFX CAS no interviene el deep learning, y aún así perfectamente comparables a 1440 y 4k.

Recordad que el equivalente al DLSS de AMD está por llegar, el Direct ML.

Conclusión, yo no estaría nada preocupado por este tema en las nuevas Radeon, al igual que tampoco lo estoy por el Ray Tracing.


Linka el video por favor
Antoniopua está baneado por "saltarse el ban con un clon"
Metalyard escribió:@Antoniopua Imagínate yo que voy a pasar de una 1080 a una 3080Ti o 6900XT... [+risas] [+risas]

Yo de una 1060 6Gb a una 2070 Super :O . Así que imaginate el cambio... y me da igual que haya otras más potentes... estoy contentísimo [beer]
@Metalyard estas igualito que yo, solo que yo me animo a cambiar todo del 6700k pasare (en esto casi seguro) a ryzen 5900x.
pmol escribió:@papatuelo Estaba algo más adelante en la conversación.
http://www.twitch.tv/michaelquesadapcma ... =a&t=7642s


Gracias!
@Antoniopua yo parecido, de una 1060 6gb a una 5700xt justo hace un año y no veo que me quede corto ni a corto ni medio plazo, ni mucho menos.

Antes jugaba en una TV 4K y la gráfica se defendía aunque prefería bajar a 1440p , ahora tengo monitor 1440p 144hz y por eso ni me planteo pasar a 4K, si acaso acercarme a los 120-140hz con un mejor micro que mi ryzen 7 1800x. Pasar a las nuevas gráficas supone cambios de monitor y en muchos casos placa, micro, fuente.....etc...
battman80 escribió:
Pacorrr escribió:
battman80 escribió:@Pacorrr No te preocupes, que todo esto ya se verá ;) .
Tampoco hay que irritarse si resulta que todos los juegos con RT se apoyan en DLSS, porque eso es para el bien de los usuarios. A nadie le ponen una pistola en la cabeza a la hora de elejir. Lo ridiculo es querer que hayan juegos con RT que "solo" podamos jugar a 40 frames, un suponer, porque nos fastidia que otros con otro tipo de GPUS los jueguen a 80...Esto no es el mundo de las consolas, salvo que me esté equivocando de foro y de compañias [+risas].

Ademas, estamos hablando de valor de las GPUS, en este caso poniendo el valor las 6000, que este es su hilo, y estar tratando el tema de lo importante o no que es tener en cuenta el rendimiento de los juegos con DLSS (con y sin RT, y sí DLSS), y yo, que sí soy usuario del DLSS desde que está disponible, siento mucho que no haya podido probarlo TODO EL MUNDO, porque sino, los "antis" no exisitirian, y en todo caso solo quedaría llorar para que sea algo universal. Es una ventaja que podemos tener en PC, y es una lastima que AMD no pueda usarlo, y ojalá Nvidia al menos encuentre la manera de aplicarlo sin necesidad de implementarlo juego a juego.

Respecto a lo del patrocinio, Nvidia y AMD, mas que pagar como piensas tu, lo que hacen es suministrar soporte durante el desarrollo de los juegos para que los estudios puedan conseguir los objetivos que buscan. Ese motivo es el que hace que luego, ni AMD ni Nvidia pintan nada en lanzamientos ni demas cosas alrededor de los juegos en los que aparecen sus logos, y un caso para la historia es el de GTAV, y el TONTEO que le hizo ROCKS a Nvidia, dejandola con el culo al aire en pleno lanzamiento de sus nuevas GPUS, porque quien si pagaba, que era Sony, dio la orden, y los maletines, para que se retrasa el lanzamiento en PC y no hacerles el feo a las consolas. Todo eso "filtrado" en su dia por el propio CEO de Nvidia en un caso ya miticio.

Nvidia y AMD no son fabricantes de consolas, y no van por ahí untando a los estudios para tenerlos a sus pies. Que no si es mejor asi, porque me encantaria ver un juego "pagado" por Nvidia mismo, explotando al 100% la potencia real de un PC high END, porque lo que solemos ver, solo es morralla porteada y adecentada, aun siendo espectacular, respecto de lo que veriamos en juegos pensados desde la base hasta la cima para exprimir la arquitectura de un PC.

Veo que sigues sin entenderlo. No es cuestión de lo que uno quiera o deje de querer, le fastidie o le divierta, es de puro sentido común. No sé a qué vienen las pullitas sinceramente, he tenido una 2080 hasta hace bien poco y he probado el DLSS, y ahora tengo una 8800GTS del año de los pecos esperando a ver qué es lo que compro.

Me parece que no te das cuenta que las tecnologías privativas, como el DLSS, como era el Physx, son muy difíciles de imponer como standard, precisamente porque son cerradas y no se permiten usar fuera del propietario. Si no entiendes eso, seguirás sin entender que el DLSS sólo lo vas a ver en juegos patrocinados o en los que Nvidia llegue a algún acuerdo.


Lo entiendo perfectamente, pero todo esto es hablando y suponiendo, que dentro de X tiempo, no se sabe si semanas o meses, AMD presente algun tipo de solución, apollada en la arquitectura de sus GPUS, similar a DLSS (realmente similar), y que ENTONCES, hubiendo dos soluciones en el mercado, pueda uno y otro fabricante estimular a los estudios para usar la suya y no la de la compentencia, con lo cual unos usuarios se quedran sin una de las ventajas en algunos juegos, y otros en otros tantos.

Yo te digo que hasta que no veamos eso, y hasta el dia de hoy, todos los juegos que han salido con RT y los que vienen en el corto plazo, llevan DLSS, y no es por que Nvidia pague, es porque son casi injugables sin DLSS...Es o usarlo, o renunciar al RT, y el RT si que no es algo de Nvidia, es algo universal. Para mi no es un problema de DLSS sí o DLSS no, es un problema de RT sí o RT no.

Por lo demas, estamos en la misma situación, y yo lo que quiero es ver esas 6000, en concreto la 6900xt porque las otras no me interesan absolutamente nada, corriendo en los tipicos juegos tochos (al margen de los usados en los benchs de AMD), corriendo con procesadores como el mio, proque está claro que para cambiar a zen3 + placa+ 6900XT, pillo una 3090 que salgo ganando por todos lados y no necesito nada mas, y corriendo con RT ON. O sea, todo lo que AMD por ahora nos sigue ocultando...

No pasa nada [beer]


Si salir de una misma compañia, ubisoft:

-Watchdog Legion, patrocinado por Nvidia: Rtx + dlss
- Assasin´s Creed Valhalla, patrocinado por Amd: Sin Rtx ni dlss

Luego está que los juegos con dlss y rtx son minoría, y solo con dlss que también sería beneficioso para usuarios y estudios, inexistentes.
Mi conclusión (que igual es una tontada) es que el dlss es costoso de implementar (para el estudio y/o la propia nvidia), y/o a Nvidia no le conviene popularizar el uso del dlss, ya que en juegos sin rt potente (ports de consolas'), las gamas media pisarian a las altas.
Lo que leí cuando se anunció el dlss 3.0, de que funcionaría con todos los juegos con taa, ha sido borrado del mapa.

Vamos, que no es tan sencillo el asunto.
No se si son fiables los datos, pero con GPU-Z y Msi Afterburner se zampa 9 Gb de Vram el Apex con la Aorus Master, me esperaba que con la Gddr6X se consumiese menos, pero no.... me da a mí que como AMD cumpla con al 6800XT se va para wallapop.
Drakenathan escribió:No se si son fiables los datos, pero con GPU-Z y Msi Afterburner se zampa 9 Gb de Vram el Apex con la Aorus Master, me esperaba que con la Gddr6X se consumiese menos, pero no.... me da a mí que como AMD cumpla con al 6800XT se va para wallapop.

Hay juegos que tragan la Vram que les eches, con el horizon por ejemplo hay comparativas de la 3070 y la 2080ti dando más fps en la primera y chupando más Vram en la segunda, digo lo que he dicho en otro hilo, creo que nos obsesionamos demasiado con el tema.
Saludos
Yo no entiendo porque tantos bombos por el RT y el DLLS, porque es un añadido para algunos juegos y ya.

Yo use en toda la generación una RTX 2070 y lo único que me importaba era el rendimiento bruto, si los pocos juegos que jugué eran compatible con el DLLS mejor, FPS extras, pero nunca active el RT más que para probar como se veía, porque el rendimiento mermaba muchísimo.

Ahora priorizo los 144FPS y la fluidez por sobre todas las cosas, así que es algo que no pienso activar, hasta que esa tecnología este mucho más madura y no afecte mis prioridades.

Los últimos 10 años solo compré NVIDIA, pero por primera vez en muchos años estoy pensando seriamente en comprar amd, porque es la mejor en rendimiento bruto de todas y yo estoy súper feliz por esta competencia, al fin y al cabo nosotros somos los ganadores.
Y los de nzxt siguen sin pronunciarse por la compatibilidad con el kraken g 12???
Drakenathan escribió:No se si son fiables los datos, pero con GPU-Z y Msi Afterburner se zampa 9 Gb de Vram el Apex con la Aorus Master, me esperaba que con la Gddr6X se consumiese menos, pero no.... me da a mí que como AMD cumpla con al 6800XT se va para wallapop.



Debes distinguir entre vram reservada y vram en uso, por ejemplo la reservada suele estar muy cerca del maximo que tenga tú gráfica mientras que usado suele ser menor, despues si el juego esta programado de forma correcta ese uso se adecua a la que tengas, en las pruebas que he hecho yo con 8gb puedes tenerlos todos reservados pero solo usar 6,5gb y con 10gb tener reservados todos y usar 8,5gb, el rendimiento apenas se resiente, ahora mismo no es algo definitorio la cantidad de vram pero quiza sí lo sea en un futuro con juegos hechos para las nuevas consolas.

Sobre lo que habeis hablado del FidelityFX cas y el dlss, yo me pase el death stranding a 4K@120fps y os aseguro que la diferencia que hay entre ambas tecnologias es generacional en favor del dlss, al menos en el momento de salida del juego que fue cuando las probe.
ionesteraX escribió:
Drakenathan escribió:No se si son fiables los datos, pero con GPU-Z y Msi Afterburner se zampa 9 Gb de Vram el Apex con la Aorus Master, me esperaba que con la Gddr6X se consumiese menos, pero no.... me da a mí que como AMD cumpla con al 6800XT se va para wallapop.



Debes distinguir entre vram reservada y vram en uso, por ejemplo la reservada suele estar muy cerca del maximo que tenga tú gráfica mientras que usado suele ser menor, despues si el juego esta programado de forma correcta ese uso se adecua a la que tengas, en las pruebas que he hecho yo con 8gb puedes tenerlos todos reservados pero solo usar 6,5gb y con 10gb tener reservados todos y usar 8,5gb, el rendimiento apenas se resiente, ahora mismo no es algo definitorio la cantidad de vram pero quiza sí lo sea en un futuro con juegos hechos para las nuevas consolas.

Sobre lo que habeis hablado del FidelityFX cas y el dlss, yo me pase el death stranding a 4K@120fps y os aseguro que la diferencia que hay entre ambas tecnologias es generacional en favor del dlss, al menos en el momento de salida del juego que fue cuando las probe.



Como sacas el dato de la cantidad real que consume?
Drakenathan escribió:
ionesteraX escribió:
Drakenathan escribió:No se si son fiables los datos, pero con GPU-Z y Msi Afterburner se zampa 9 Gb de Vram el Apex con la Aorus Master, me esperaba que con la Gddr6X se consumiese menos, pero no.... me da a mí que como AMD cumpla con al 6800XT se va para wallapop.



Debes distinguir entre vram reservada y vram en uso, por ejemplo la reservada suele estar muy cerca del maximo que tenga tú gráfica mientras que usado suele ser menor, despues si el juego esta programado de forma correcta ese uso se adecua a la que tengas, en las pruebas que he hecho yo con 8gb puedes tenerlos todos reservados pero solo usar 6,5gb y con 10gb tener reservados todos y usar 8,5gb, el rendimiento apenas se resiente, ahora mismo no es algo definitorio la cantidad de vram pero quiza sí lo sea en un futuro con juegos hechos para las nuevas consolas.

Sobre lo que habeis hablado del FidelityFX cas y el dlss, yo me pase el death stranding a 4K@120fps y os aseguro que la diferencia que hay entre ambas tecnologias es generacional en favor del dlss, al menos en el momento de salida del juego que fue cuando las probe.



Como sacas el dato de la cantidad real que consume?


Por desgracia eso es algo imposible se saber, ya que sólo el programador tiene acceso a esos datos. Los programas externos sólo pueden medir cuanta VRAM tiene "reservada" el juego, pero lo que haga él con ella, ya es interno.


Salu2
Parece que la última versión de Afterburner sí muestra el consumo real de VRAM (yo no lo he probado)

https://www.resetera.com/threads/msi-af ... am.291986/
@Er_Garry jueer jajajaja, bueno, como soy de renovar piezas del pc constantemente dudo que me llegase a quedar corto de Vram en algún momento, aún así a ver como salen estas 6800xt
Drakenathan escribió:Como sacas el dato de la cantidad real que consume?


Con el afterburner, metieron recientemente la manera de saber cuanta tiene reservarda y cuanta en uso, para 8gb por ejemplo me reserva los 8 y usa 6,5 mientras que con una gráfica de 10 me reserva los 10 y usa 8,4.
ionesteraX escribió:
Drakenathan escribió:Como sacas el dato de la cantidad real que consume?


Con el afterburner, metieron recientemente la manera de saber cuanta tiene reservarda y cuanta en uso, para 8gb por ejemplo me reserva los 8 y usa 6,5 mientras que con una gráfica de 10 me reserva los 10 y usa 8,4.



Curioso que gaste el mismo juego 8,4 cuando en la otra usa 6,5 no?
8701 respuestas