Epic Games avisa: GPU con 8GB VRAM ya está obsoleta para gaming

1, 2, 3, 4, 5, 613
Y tengan en cuenta otra tecnología q ya hace obsoleta hasta a la 4090: path tracing. Si nos llevamos por todas las voces de alarma normalizaremos comprar GPUs de 2000 pavos en cada generación. Hay q poner un poquito de cordura en el tema.
Dejemos la mentirita del RT...
@LostsoulDark con el NIS estas tomando las texturas HD a alta resolución y reduciendolas a menor resolución. Tengo mis dudas de que eso consuma menos vram porque no deja de ser un reescalado que lee la textura original, no obstante a 1080p ya surge el problema de los 8GB......

El tema de gastarte 600€, no es por comprar una tarjeta top o no comprarla, es un tema de cuanto valoras lo que gastas.

Veo tambien que algunos aceptan los precios actuales como normales........es el apaga y vamonos. [facepalm]

Y una RX 6800 no tiene esos problemas con la Vram y cuesta sobre 600€.



con 10 añitos y 2GB de vram.
En 1080P, como juega la mayoría, según steam.

Antes de que 12 GB estén obsoletos, seguramente todas las gpu que los lleven, se habrán desintegrado.
@KindapearHD

Uff mucho tiene que bajar los settings, tuve una 770 evga versión Fe que vendí para uno para pc de photoshop, frente a la 7950 ya se la comía con patatas sin necesidad de compararla con la hd7970.

> El 1gb extra se notaba (2 vs 3 mucho) salvo que te de por ponerlo praticamente al minimo o a 1,7gb de uso de vram.

En cuanto a Unreal Engine 5.1 debería aprovechar mas la ram, por no optimizar nada lo cargar todo en la vram en vez de la ram... cawento

Seria razonable tener 8gb de vram y 64gb de ram para 8K pero ya 19gb vram en 1440p [facepalm]
Nomada_Firefox escribió:
Putoskizzo escribió:Menuda chorrada, eso será para los que necesitan poner todas las settings a la derecha, se baja la calidad de las texturas y listo. Los desarrolladores no se van a pegar un tiro en el pie haciendo que su juego solo funcione bien en un 10% de los ordenadores del mercado

Evidentemente pero......... viene la pregunta ¿gastarias 600/700€ en una grafica para tener que bajar el detalle en un juego? y no hablamos de dentro de años, ahora mismo te puede suceder.


Sí, no tengo problema de ultritis, de hecho lo hice, me pille hace año y medio una 3070. Que los precios del hardware está por las nubes nadie lo discute, yo lo que decía es que es una chorrada decir que está obsoleta una gráfica por tener 8gb de VRAM, obsoleta estará cuando no puedas mover los juegos con ella en condiciones decentes y no porque tengas que poner las texturas en alto y no en ultra
Yo espero usar muchos años mi RTX 3070 de 8GB
uchi23a escribió:@KindapearHD

Uff mucho tiene que bajar los settings, tuve una 770 evga versión Fe que vendí para uno para pc de photoshop, frente a la 7950 ya se la comía con patatas sin necesidad de compararla con la hd7970.

> El 1gb extra se notaba (2 vs 3 mucho) salvo que te de por ponerlo praticamente al minimo o a 1,7gb de uso de vram.

En cuanto a Unreal Engine 5.1 debería aprovechar mas la ram, por no optimizar nada lo cargar todo en la vram en vez de la ram... cawento

Seria razonable tener 8gb de vram y 64gb de ram para 8K pero ya 19gb vram en 1440p [facepalm]


Bueno, pero jugar se puede.

Yo tengo una 970 y he jugado al The Last of Us con 0 problemas a 1080p (con todo al mínimo y creo que a 30 fps). Hace nada me he terminado el Jedi Fallen Order, también a 1080p y bajando un poco los settings y ayer empecé el Sherlock Holmes, que de momento lo estoy jugando tb con los settings en alto (no en máximo) y va muy bien.

Desde luego que me jodería pagar 700€ para no poder jugar en ultra a 1440p, pero es que eso ya tampoco depende de mi, por desgracia, las consolas regulan el mercado y los desarrolladores (o al menos, muchos de ellos) no se esfuerzan en optimizar sus juegos para que las tarjetas destinadas a jugar en 1440p puedan hacerlo en condiciones óptimas.
Ashenbach escribió:Yo tengo una 970 y he jugado al The Last of Us con 0 problemas a 1080p (con todo al mínimo y creo que a 30 fps). Hace nada me he terminado el Jedi Fallen Order, también a 1080p y bajando un poco los settings y ayer empecé el Sherlock Holmes, que de momento lo estoy jugando tb con los settings en alto (no en máximo) y va muy bien.

Jugar se puede, eso nadie lo discute. Lo unico que muchos habeis picado con el titulo que pusieron en la noticia publicada en el chapuzas porque los Epic nunca dijeron la palabra obsoleta. Solo dijeron que habia que bajar detalle para jugar correctamente.

Y volvemos a lo mismo que nadie parece darse cuenta. Nvidia planeta lanzar RTX 4060 con 8GB que rondaran los 600€. Por no hablar de lo que ha cuestan todavia las RTX 3060Ti/3070/3070Ti y no puedes jugar bien a algunos titulos o no podras a otros muchos bastante pronto. Pero las RX6800 que rondan ese precio, no sufren de esos problemas.

Que sí, que esas graficas Nvidia tienen mejor Raytracing pero de que sirve el RT si tienes que bajar detalle....es una de esas cosas que si no puedes usarlo en ultra, mejor no usarlo. Y tambien el DLSS2/3 es mejor que el FSR.Nadie lo discute. Pero lo comido por lo servido no compensa su compra.

Ahora mismo es mejor compra para 1080p una barata RTX 3060 de 12GB que una RTX 3060Ti/3070/3070Ti o las inminentes 4060. No tienes problemas de vram, tienes buen RT y sigues teniendo DLSS2. :) Lastima que Nvidia no comparta el DLSS3 con sus graficas anteriores, cosa que seguramente si suceda con el FSR3 y las RX6000.
Yo tenía pensado renovar PC, ahora mismo tiro con 3600, 5700XT y 16 GB, pero viendo los precios me parece que esta gen también me la salto
uchi23a escribió:@KindapearHD

Uff mucho tiene que bajar los settings, tuve una 770 evga versión Fe que vendí para uno para pc de photoshop, frente a la 7950 ya se la comía con patatas sin necesidad de compararla con la hd7970.

> El 1gb extra se notaba (2 vs 3 mucho) salvo que te de por ponerlo praticamente al minimo o a 1,7gb de uso de vram.

En cuanto a Unreal Engine 5.1 debería aprovechar mas la ram, por no optimizar nada lo cargar todo en la vram en vez de la ram... cawento

Seria razonable tener 8gb de vram y 64gb de ram para 8K pero ya 19gb vram en 1440p [facepalm]


Obviamente hay que jugar con los settings en bajo, pero hablamos de una gpu con 2gb d vram con 10 años a la espalda.
Pueden salir las noticias y los nostradamus que quieran pero luego ves estas cosas y te olvidas.

Ni obsoletas ni nada. Que habrá que bajar settings? Claro, nadie se compra una 4060/4070 para jugar a full. Siempre habrá juegos top donde toque bajar settings.
KindapearHD escribió:
uchi23a escribió:@KindapearHD

Uff mucho tiene que bajar los settings, tuve una 770 evga versión Fe que vendí para uno para pc de photoshop, frente a la 7950 ya se la comía con patatas sin necesidad de compararla con la hd7970.

> El 1gb extra se notaba (2 vs 3 mucho) salvo que te de por ponerlo praticamente al minimo o a 1,7gb de uso de vram.

En cuanto a Unreal Engine 5.1 debería aprovechar mas la ram, por no optimizar nada lo cargar todo en la vram en vez de la ram... cawento

Seria razonable tener 8gb de vram y 64gb de ram para 8K pero ya 19gb vram en 1440p [facepalm]


Obviamente hay que jugar con los settings en bajo, pero hablamos de una gpu con 2gb d vram con 10 años a la espalda.
Pueden salir las noticias y los nostradamus que quieran pero luego ves estas cosas y te olvidas.

Ni obsoletas ni nada. Que habrá que bajar settings? Claro, nadie se compra una 4060/4070 para jugar a full. Siempre habrá juegos top donde toque bajar settings.


Pero estas hablando en serio? jugando con calidad PS3 claro que tu 4070ti te podra durar hasta 2032 sin problemas. Pero que yo sepa, quien invierte en PC espera jugar con calidad PC que siempre es jugar mejor que en consolas de ultima generacion
parh escribió:
KindapearHD escribió:
uchi23a escribió:@KindapearHD

Uff mucho tiene que bajar los settings, tuve una 770 evga versión Fe que vendí para uno para pc de photoshop, frente a la 7950 ya se la comía con patatas sin necesidad de compararla con la hd7970.

> El 1gb extra se notaba (2 vs 3 mucho) salvo que te de por ponerlo praticamente al minimo o a 1,7gb de uso de vram.

En cuanto a Unreal Engine 5.1 debería aprovechar mas la ram, por no optimizar nada lo cargar todo en la vram en vez de la ram... cawento

Seria razonable tener 8gb de vram y 64gb de ram para 8K pero ya 19gb vram en 1440p [facepalm]


Obviamente hay que jugar con los settings en bajo, pero hablamos de una gpu con 2gb d vram con 10 años a la espalda.
Pueden salir las noticias y los nostradamus que quieran pero luego ves estas cosas y te olvidas.

Ni obsoletas ni nada. Que habrá que bajar settings? Claro, nadie se compra una 4060/4070 para jugar a full. Siempre habrá juegos top donde toque bajar settings.


Pero estas hablando en serio? jugando con calidad PS3 claro que tu 4070ti te podra durar hasta 2032 sin problemas. Pero que yo sepa, quien invierte en PC espera jugar con calidad PC que siempre es jugar mejor que en consolas.

No. Tú tienes como referente las consolas,. Parece que gastar el doble para jugar con los mismos gráficos o algo peores es tirar el dinero, pero gastar 6 veces más para jugar con el doble de calidad gráfica es lo inteligente.
parh escribió:
KindapearHD escribió:
uchi23a escribió:@KindapearHD

Uff mucho tiene que bajar los settings, tuve una 770 evga versión Fe que vendí para uno para pc de photoshop, frente a la 7950 ya se la comía con patatas sin necesidad de compararla con la hd7970.

> El 1gb extra se notaba (2 vs 3 mucho) salvo que te de por ponerlo praticamente al minimo o a 1,7gb de uso de vram.

En cuanto a Unreal Engine 5.1 debería aprovechar mas la ram, por no optimizar nada lo cargar todo en la vram en vez de la ram... cawento

Seria razonable tener 8gb de vram y 64gb de ram para 8K pero ya 19gb vram en 1440p [facepalm]


Obviamente hay que jugar con los settings en bajo, pero hablamos de una gpu con 2gb d vram con 10 años a la espalda.
Pueden salir las noticias y los nostradamus que quieran pero luego ves estas cosas y te olvidas.

Ni obsoletas ni nada. Que habrá que bajar settings? Claro, nadie se compra una 4060/4070 para jugar a full. Siempre habrá juegos top donde toque bajar settings.


Pero estas hablando en serio? jugando con calidad PS3 claro que tu 4070ti te podra durar hasta 2032 sin problemas. Pero que yo sepa, quien invierte en PC espera jugar con calidad PC que siempre es jugar mejor que en consolas de ultima generacion



Yo creo que no, la mayoria se arma un PC gamer para simplemente jugar y con la configuracion que le alcance o solo quiera gastar, la encuesta de Steam lo deja claro.

Tambien tiene su encanto trastear con equipos viejunos, tengo una compu con una 750 ti y varias veces la uso para ver que puede mover todavia.
KindapearHD escribió:nadie se compra una 4060/4070 para jugar a full.

Eso que dices no tienen ningun sentido de ser, ni razonamiento alguno. Yo he comprado casi siempre graficas de esa linea y siempre con la idea de que al menos mientras la generación este vigente, puedas jugar a todo a tope.


LostsoulDark escribió:Yo creo que no, la mayoria se arma un PC gamer para simplemente jugar y con la configuracion que le alcance o solo quiera gastar, la encuesta de Steam lo deja claro.

No es que lo espere, es que siguiendo esta logica que dices, no tienes más remedio.

Pero esa logica que comentas no tiene sentido ni relata a la mayoria de usuarios de Steam.

La gente que se monta un PC gamer en una torre, tiene una idea buena de para que lo quiere y lo que espera de el. Todo lo demas seran equipos OEM o gente que no sabe que compra. Por supuesto que todos compramos acorde a lo que podemos gastar y esperamos jugar acorde a eso.

Y luego esta muchisima gente, de esa lista de steam con portatiles. Que se pueden englobar en saben lo que hacen, no tienen ni idea, gente que heredo el portatil de un familiar y gente que se tiene que conformar con lo que hay.

Y que te alcance o quieras gastar es practicamente lo mismo. Al final es lo que gastas. :)
parh escribió:
KindapearHD escribió:
uchi23a escribió:@KindapearHD

Uff mucho tiene que bajar los settings, tuve una 770 evga versión Fe que vendí para uno para pc de photoshop, frente a la 7950 ya se la comía con patatas sin necesidad de compararla con la hd7970.

> El 1gb extra se notaba (2 vs 3 mucho) salvo que te de por ponerlo praticamente al minimo o a 1,7gb de uso de vram.

En cuanto a Unreal Engine 5.1 debería aprovechar mas la ram, por no optimizar nada lo cargar todo en la vram en vez de la ram... cawento

Seria razonable tener 8gb de vram y 64gb de ram para 8K pero ya 19gb vram en 1440p [facepalm]


Obviamente hay que jugar con los settings en bajo, pero hablamos de una gpu con 2gb d vram con 10 años a la espalda.
Pueden salir las noticias y los nostradamus que quieran pero luego ves estas cosas y te olvidas.

Ni obsoletas ni nada. Que habrá que bajar settings? Claro, nadie se compra una 4060/4070 para jugar a full. Siempre habrá juegos top donde toque bajar settings.


Pero estas hablando en serio? jugando con calidad PS3 claro que tu 4070ti te podra durar hasta 2032 sin problemas. Pero que yo sepa, quien invierte en PC espera jugar con calidad PC que siempre es jugar mejor que en consolas de ultima generacion


Claro que hablo en serio. Se está diciendo que 12GB de vram no van a ser suficientes para jugar a todo al máximo, cuando a la mayoría de gente eso le da exactamente igual. Que el que se compra una 4070 ahora sabe lo que se compra. Que hoy puede jugar a todo 4k 60fps pero sabe perfectamente que quizás en 3 años tenga que jugar en medio (y casi con total seguridad te diría que el que se plantea una 4070, no juega a 4k precisamente). Y seguramente el que se compra una 4070 ahora, en 3-4 años, ya la cambie a por la 6070 de turno. A la mayoría no nos interesa la gama entusiasta ni por precio ni por utilidad, ya que como ves, se sigue jugando en 1080P, resolución donde no es necesario (ni aconsejable) comprar una 4090.

Nomada_Firefox escribió:
KindapearHD escribió:nadie se compra una 4060/4070 para jugar a full.

Eso que dices no tienen ningun sentido de ser, ni razonamiento alguno. Yo he comprado casi siempre graficas de esa linea y siempre con la idea de que al menos mientras la generación este vigente, puedas jugar a todo a tope.


Dependerá de la resolución y los frame que esperes tener.
Yo no me compro una 4060/4070 si mi idea es jugar a 4K con todo al máximo, a 120 fps, RT incluido, etc.
Ashenbach escribió:
uchi23a escribió:@KindapearHD

Uff mucho tiene que bajar los settings, tuve una 770 evga versión Fe que vendí para uno para pc de photoshop, frente a la 7950 ya se la comía con patatas sin necesidad de compararla con la hd7970.

> El 1gb extra se notaba (2 vs 3 mucho) salvo que te de por ponerlo praticamente al minimo o a 1,7gb de uso de vram.

En cuanto a Unreal Engine 5.1 debería aprovechar mas la ram, por no optimizar nada lo cargar todo en la vram en vez de la ram... cawento

Seria razonable tener 8gb de vram y 64gb de ram para 8K pero ya 19gb vram en 1440p [facepalm]


Bueno, pero jugar se puede.

Yo tengo una 970 y he jugado al The Last of Us con 0 problemas a 1080p (con todo al mínimo y creo que a 30 fps). Hace nada me he terminado el Jedi Fallen Order, también a 1080p y bajando un poco los settings y ayer empecé el Sherlock Holmes, que de momento lo estoy jugando tb con los settings en alto (no en máximo) y va muy bien.

Desde luego que me jodería pagar 700€ para no poder jugar en ultra a 1440p, pero es que eso ya tampoco depende de mi, por desgracia, las consolas regulan el mercado y los desarrolladores (o al menos, muchos de ellos) no se esfuerzan en optimizar sus juegos para que las tarjetas destinadas a jugar en 1440p puedan hacerlo en condiciones óptimas.


Yo el fallen order lo intenté jugar con mi vieja 970 e imposible. Llegaba un punto que el juego pegaba un stuttering de cojones.
KindapearHD escribió:Dependerá de la resolución y los frame que esperes tener.
Yo no me compro una 4060/4070 si mi idea es jugar a 4K con todo al máximo, a 120 fps, RT incluido, etc.

Es que por logica general, una 4060 es una grafica de 1080p y la 4070 de 1440p, hasta seguramente la caja de la grafica lo ponga, igual que sucede con los modelos de AMD.

Si alguien se compra una 4060 para 4K, pues.......no recuerdo haber visto nadie con esa idea en graficas de esa gama, absolutamente nadie. Alguno habra, pero no es normal.

Pero no intentes cambiar lo que has dicho, editalo si quieres. Porque posiblemente nadie compre esas graficas para 4K............ni se venden para ello.
NADIE SE COMPRA UNA 4060/4070 PARA JUGAR A FULL.

Te has equivocado y no hay ninguna verguenza por ello. ;)

@NanakiXIII Con una 970 no pero con una 1060 si que lo he jugado. En 1080p lo mueve perfectisimamente.
NanakiXIII escribió:
Ashenbach escribió:
uchi23a escribió:@KindapearHD

Uff mucho tiene que bajar los settings, tuve una 770 evga versión Fe que vendí para uno para pc de photoshop, frente a la 7950 ya se la comía con patatas sin necesidad de compararla con la hd7970.

> El 1gb extra se notaba (2 vs 3 mucho) salvo que te de por ponerlo praticamente al minimo o a 1,7gb de uso de vram.

En cuanto a Unreal Engine 5.1 debería aprovechar mas la ram, por no optimizar nada lo cargar todo en la vram en vez de la ram... cawento

Seria razonable tener 8gb de vram y 64gb de ram para 8K pero ya 19gb vram en 1440p [facepalm]


Bueno, pero jugar se puede.

Yo tengo una 970 y he jugado al The Last of Us con 0 problemas a 1080p (con todo al mínimo y creo que a 30 fps). Hace nada me he terminado el Jedi Fallen Order, también a 1080p y bajando un poco los settings y ayer empecé el Sherlock Holmes, que de momento lo estoy jugando tb con los settings en alto (no en máximo) y va muy bien.

Desde luego que me jodería pagar 700€ para no poder jugar en ultra a 1440p, pero es que eso ya tampoco depende de mi, por desgracia, las consolas regulan el mercado y los desarrolladores (o al menos, muchos de ellos) no se esfuerzan en optimizar sus juegos para que las tarjetas destinadas a jugar en 1440p puedan hacerlo en condiciones óptimas.


Yo el fallen order lo intenté jugar con mi vieja 970 e imposible. Llegaba un punto que el juego pegaba un stuttering de cojones.


Trasteando con las opciones de nvidia, al final logré reducir el stuttering a algo aceptable. Pero sí, era bastante horrible al principio.
KindapearHD escribió:
Dependerá de la resolución y los frame que esperes tener.
Yo no me compro una 4060/4070 si mi idea es jugar a 4K con todo al máximo, a 120 fps, RT incluido, etc.


Es que no es preciso 4k, ni 120fps, ni RT. La 3060 con sus "machacantes" 12GB de vram no permite actualmente jugar a todo con todo a tope sin RT a 1080p y 60fps estables, y apenas llevamos 3 años de gen... ¿Que sentido tendría la segmentación en las gpu si con la gama de entrada te permitiera hacer eso? Los juegos tienen settings gráficos precisamente para hacer posible jugar a todo con una calidad y velocidad de cuadros adecuada con el grueso del hard del momento. Además, todos los años sacan algún "Crysis" devora recursos (y si no se lo inventan con parches como ha pasado con cyberpunk).
Nomada_Firefox escribió:
KindapearHD escribió:Dependerá de la resolución y los frame que esperes tener.
Yo no me compro una 4060/4070 si mi idea es jugar a 4K con todo al máximo, a 120 fps, RT incluido, etc.

Es que por logica general, una 4060 es una grafica de 1080p y la 4070 de 1440p, hasta seguramente la caja de la grafica lo ponga, igual que sucede con los modelos de AMD.

Si alguien se compra una 4060 para 4K, pues.......no recuerdo haber visto nadie con esa idea en graficas de esa gama, absolutamente nadie. Alguno habra, pero no es normal.

Pero no intentes cambiar lo que has dicho, editalo si quieres. Porque posiblemente nadie compre esas graficas para 4K............ni se venden para ello.
NADIE SE COMPRA UNA 4060/4070 PARA JUGAR A FULL.

Te has equivocado y no hay ninguna verguenza por ello. ;)

@NanakiXIII Con una 970 no pero con una 1060 si que lo he jugado. En 1080p lo mueve perfectisimamente.


Matizo porque venía leyendo que con UE5 y RTX y demás, se van a quedar cortas...ahí es cuando yo decía que nadie se compra esas gpus para jugar con todo a full.

A 1080P obviamente si lo van a hacer. Y dicho esto, yo con una RTX 4000, no activo el RT porque ni me parece necesario, ni me parece increíble y resta muchisimo rendimiento.

Wookiee escribió:
KindapearHD escribió:
Dependerá de la resolución y los frame que esperes tener.
Yo no me compro una 4060/4070 si mi idea es jugar a 4K con todo al máximo, a 120 fps, RT incluido, etc.


Es que no es preciso 4k, ni 120fps, ni RT. La 3060 con sus "machacantes" 12GB de vram no permite actualmente jugar a todo con todo a tope sin RT a 1080p y 60fps estables, y apenas llevamos 3 años de gen... ¿Que sentido tendría la segmentación en las gpu si con la gama de entrada te permitiera hacer eso? Los juegos tienen settings gráficos precisamente para hacer posible jugar a todo con una calidad y velocidad de cuadros adecuada con el grueso del hard del momento. Además, todos los años sacan algún "Crysis" devora recursos (y si no se lo inventan con parches como ha pasado con cyberpunk).


Por eso no es necesario tener lo último. El problema es que ahora te intenten vender lo último por miedo y que haya gente que te intente vender que la única que va a sobrevivir, es la 4090.
El resumen parece ser claro, nvidia se equivoco poniendo 8Gb a la 3070, con 4Gb hubiesen sido suficientes total no importan xd
FranciscoVG escribió:El resumen parece ser claro, nvidia se equivoco poniendo 8Gb a la 3070, con 4Gb hubiesen sido suficientes total no importan xd



Nvidia se equivoco al ponerle a la 3080ti un chip mas gordo y un bus de 384bits. Todo el mundo sabe que para mearse a la 3080 bastaba con cambiarle la pegatina y ponerle mas luces a la 3060...

No seamos absurdos. Con la 3070 a 1080p ultra se juega mejor que con la 3060, y no digamos ya a 2k, y es que la vram no es lo único que importa. Y solo hay que ver el rendimiento de toda la gama 3000 de nvidia, donde entre la 3060 y la 3090TI hay 9 gpus diferentes y cada una aventaja a la anterior de forma escalonada independientemente de la cantidad de vram que tengan.

Por mi parte, ojala le hubieran plantado a la 3070 24gb de vram, pero entre una 3060 y una 3070, tengo claro con cual me quedo (y que conste que yo la que quería era la 3080).
Y yo que creia que el DirectStorage era para librar la Vram de las GPUs…
@chris76 parece q sólo es para liberar de esa carga de trabajo a la CPU, y pasarla a la GPU.
Nomada_Firefox escribió:
KindapearHD escribió:nadie se compra una 4060/4070 para jugar a full.

Eso que dices no tienen ningun sentido de ser, ni razonamiento alguno. Yo he comprado casi siempre graficas de esa linea y siempre con la idea de que al menos mientras la generación este vigente, puedas jugar a todo a tope.


LostsoulDark escribió:Yo creo que no, la mayoria se arma un PC gamer para simplemente jugar y con la configuracion que le alcance o solo quiera gastar, la encuesta de Steam lo deja claro.

No es que lo espere, es que siguiendo esta logica que dices, no tienes más remedio.

Pero esa logica que comentas no tiene sentido ni relata a la mayoria de usuarios de Steam.

La gente que se monta un PC gamer en una torre, tiene una idea buena de para que lo quiere y lo que espera de el. Todo lo demas seran equipos OEM o gente que no sabe que compra. Por supuesto que todos compramos acorde a lo que podemos gastar y esperamos jugar acorde a eso.

Y luego esta muchisima gente, de esa lista de steam con portatiles. Que se pueden englobar en saben lo que hacen, no tienen ni idea, gente que heredo el portatil de un familiar y gente que se tiene que conformar con lo que hay.

Y que te alcance o quieras gastar es practicamente lo mismo. Al final es lo que gastas. :)



Yo no creo que saber mas = gastar mas, el porcentaje de entusiastas con equipos de 4080 para arriba es muy bajo, la mayoria nos movemos en la gama media porque se nos hace comodo o simplemente es lo que necesitamos, parezco disco rallado pero para mi la gama alta de hoy sera la gama media de mañana y claro ejempo es la 4070 que se equipara a la reciente 3080.

Por mi parte pienso esperarme a Diciembre a ver que chollo agarro tengo en la mira la 4070 ti pero estoy seguro que estara tirada de precio la 4070 y es casi seguro pille esta, y pues en mi caso personal sera un salto importante de la 3060 ti, que por supuesto no la malbaratere, prefiero armarme otra compu para trastear y mira que no estoy tampoco descontento con ella, por el momento Epic dira misa pero he podido correr todos los juegos en max setting en 1080p y muchos a 1440p no se que ganas de causar miedo al consumidor.

Los juego del futuro necesitaran mas de 8gb en vram y cuantos seran? 1, 2, exajerando 3 juegos en todo un año que solo sera bajar un poco los settings y/o resolucion y listo, pero las decenas de juegos con menores requisitos o muy importante mejor optimizados se podran seguir jugando con los equipos actuales en max settings?

No entiendo esta alarma enfocada a la vram cuando la realidad es que las graficas envejecen en todo su conjunto, unidades de rasterización, nucleos RT, tensor cores, frecuencias, tecnologias, consumos, etc. te podras comprar una grafica hoy con 50gb en Vram pero lo demas de todos modos envejecera.

A veces no veo la razon de tantas criticas a Nvidia, nos estan vendiendo una 4070 que iguala a una 3080 y una 4070 ti que poco le falta para ser 4080 y nos quejamos, tenemos una 3060 que pinta para la nueva 1060 (grafica del pueblo) y nos quejamos.

Creo que el problema no son las gamas de maneja Nvidia sino la forma en que actualizamos, queremos una salto abismal comprando la misma gama inmediatamente en la siguiente generación?
@KindapearHD Cyberpunk, RDR2, Forza Horizon 5...caray si está jugando todos los pesos pesados [boing] Desmonta por completo el argumento de los 8gb, si no lo estaba ya.

@BladeRunner Hace poco era el RayTracing, ahora el Path Tracing es la revolución...tranquilo ya saldrá el Particle Tracing para dejar obsoleto este último.
chris76 escribió:Y yo que creia que el DirectStorage era para librar la Vram de las GPUs…

BladeRunner escribió:@chris76 parece q sólo es para liberar de esa carga de trabajo a la CPU, y pasarla a la GPU.


Hasta donde se, ademas de liberar a la cpu de esa tarea, la misma se hará de forma mas rápida y eficiente. Ahora bien, y esto entra en la suposición subjetiva, también se debería obtener una mejor gestión de la vram, pues podrán "renovar" las texturas cargadas en la misma mas rápidamente, especialmente las de mayor ancho de banda de memoria (hola bus). Pero vamos, lo sabremos cuando esté extendida su implementación, que a la marcha a la que van será cuando las gpu de 24gb estén obsoletas.
@AxelStone y ya están trabajando en el concepto de butterfly effect tracing para la series RTX 7000.

@Wookiee no sé, algo me dice q es más rápido tirar de RAM si se tiene capacidad de sobra q de SSD. Habrá una carga inicial más lenta pero ya dentro del juego todo debería ir perfecto. Pero ojalá ayude a gestionar mejor la VRAM.
chris76 escribió:Y yo que creia que el DirectStorage era para librar la Vram de las GPUs…

Si, habia muchas falsas creencias con esto, ilusiones verdes cuando ya se sabia que para lo que servia, era para cargar texturas de más resolución más rapido pero en ningun caso liberar vram. Se leen más rapido las texturas pero no por ello ocupan menos en memoria.

Y esas ilusiones todavia las veo, gente pensando que todo corre más rapido porque se leen las texturas más velozmente pero no entienden y es respetable no entenderlo, el porque antes iban más lentas esas lecturas y porque habia que tener una cache especial para ello.

Para el que no lo entienda, las texturas suelen venir en formatos dds comprimidos que se tardan en leer bastante cuanto más grande es la textura porque hay que descomprimirlos. El directstorage es una cache donde se descomprimen esas texturas permitiendo su más rapida lectura pero eso no significa que ocupen menos en memoria. Solamente si hubiera algun cuello de botella en la lectura de las texturas, se eliminaria agilizando la tarea.

Hasta podria suceder que sature más porque estas leyendo formatos de textura mucho más rapido.........

A 1080P obviamente si lo van a hacer. Y dicho esto, yo con una RTX 4000, no activo el RT porque ni me parece necesario, ni me parece increíble y resta muchisimo rendimiento.

Pues yo si lo uso. Aunque admito que se nota más que nada en juegos donde hay lluvia y charcos. En desiertos no se nota nada de nada. Yo claro, juego a 1080p con una RX 6800 y no resta tanto. Y con la RTX 3060 usando DLSS y RT, la cosa va muy bien.
BladeRunner escribió:@AxelStone y ya están trabajando en el concepto de butterfly effect tracing para la series RTX 7000.

@Wookiee no sé, algo me dice q es más rápido tirar de RAM si se tiene capacidad de sobra q de SSD. Habrá una carga inicial más lenta pero ya dentro del juego todo debería ir perfecto. Pero ojalá ayude a gestionar mejor la VRAM.



Si no me equivoco, DS lo que se salta es a la cpu, no a la ram. Actualmente el flujo es ssd (comprimido)>cpu (descomprimido)>ram (descomprimido)>vram (descomprimido) y con DS seria ssd (comprimido)>ram (comprimido)>vram (descomprimido)
VíctorXD está baneado por "clon de usuario baneado"
chris76 escribió:Y yo que creia que el DirectStorage era para librar la Vram de las GPUs…


Depende si se hace un streaming agresivo de texturas ,si que debería liberar bastante espació en la VRAM , ya que solo los mips Maps mas necesarios de las textura estarían en la VRAM y todo lo demás mip maps se haría por streaming al vuelo desde el SSD.

Pero vamos DirectStorage no está en todos lados juegos y muy pocos se desarrollarán para un streaming de texturas agresivo.
VíctorXD escribió:
chris76 escribió:Y yo que creia que el DirectStorage era para librar la Vram de las GPUs…


Depende si se hace un streaming agresivo de texturas ,si que debería liberar bastante espació en la VRAM , ya que solo los mips Maps mas necesarios de las textura estarían en la VRAM y todo lo demás mip maps se haría por streaming al vuelo desde el SSD.

Estais equivocados vos. Las texturas seguiran cargandose en la vram.......lo unico que hace el directstorage es agilizar la lectura. Sino se cargan en la vram, nunca se pintaran en el juego.
VíctorXD está baneado por "clon de usuario baneado"
Nomada_Firefox escribió:
VíctorXD escribió:
chris76 escribió:Y yo que creia que el DirectStorage era para librar la Vram de las GPUs…


Depende si se hace un streaming agresivo de texturas ,si que debería liberar bastante espació en la VRAM , ya que solo los mips Maps mas necesarios de las textura estarían en la VRAM y todo lo demás mip maps se haría por streaming al vuelo desde el SSD.

Estais equivocados vos. Las texturas seguiran cargandose en la vram.......lo unico que hace el directstorage es agilizar la lectura. Sino se cargan en la vram, nunca se pintaran en el juego.


El DirectStorage es solo una API, para lo comunicación directa entre la GPU y el SSD, en un escenario de hardware normal, las GPU no se comunican directamente con los SSD, tienen que enviarle la solicitud a CPU y luego este envía la orden al SSD, luego este último la envía a la RAM, de la RAM el CPU vuelve dar la orden para que se envié la VRAM... Es un proceso con mucha Latencia, pero si lo ponemos un controlador de memoria a la GPU, para que la GPU solicite directamente ese archivo por medio de PCIE?. De ahí nace esta nueva implementación.

Esta nueva implementación de hardware es ideal para el Streaming de Texturas, ya que permitirá ir cargando las texturas al vuelo desde el SSD a la VRAM,mientras juegas y mueves la cámara debido a la baja latencia de que la GPU se comunique directamente con SSD, esto a su ves ahorra mucha VRAM y RAM ya que ya no hay necesidad de cargar todo en estas, es SSD serviría como extensión de la VRAM y sustituiría a la RAM.

No se si se acuerdan del juego Rage donde Carmack intento meter texturas por streaming y lo único que logro fue un festival de poping, porque en su época no había esta implementación de comunicación, y se hacía por medio de SDRAM de la 360, en PC tuvieron que aumentar las Caches para hacerlo viable sin mucho poping, esta técnicas pretendía meter grandes texturas en memoria escasa de esas consolas 256mb y revolucionar los juegos pero le salió mal a Carmack.
@VíctorXD algo asi era mi creencia,que se podia ir cargando al vuelo todo lo que estuviera a mas de un segundo de camara,en la presentación de xbox series S se habla de esto sino recuerdo mal
Lo cierto es que ya se publico alguna prueba sintetica de esto y la ganancia de rendimiento era inexistente.

@VíctorXD Yo no digo que no reduzca el tiempo de lectura de texturas pero las tarjetas y los juegos cargan todas las texturas de un escenario de una tacada, sin repetir nada aunque un objeto este multiplicado en pantalla. Lo que quiero decir es esto ssd--->grafica-->pantalla en pocas palabras, asi que la idea de permitir ir leyendo y cargando acelerando todo no es tan asi porque habra momentos en el cual sature la memoria tanto como antes sino tienes una cantidad grande. La idea del direcstorage es que las texturas HD no ralenticen la carga pero eso no supone más velocidad jugando.

Cuando salgan juegos con esto, acabaremos por verlo en funcionamiento.
VíctorXD está baneado por "clon de usuario baneado"
@Nomada_Firefox

No has entendido, el Streaming de Texturas es una técnica para ahorrar mucha VRAM, y la implementación de comunicación entre GPU y SSD es lo que falta para hacer viable de forma nativa está técnica , sin caches de por medio.

El Streaming de Texturas se caracteriza por no cargar toda la Textura en VRAM si no sólo cargar el Mip Maps mas crítico y lo demás mips se hace por streaming al vuelo mientras se van necesitando, ahí entra la velocidad y latencias del DirectStorage. Por poner un ejemplo.

Una forma de simplificarlo es con una película, si una película pesa 5gb y la descargas te ocupará 5gb en el disco, pero si la miras por streaming mientras la vas viendo te ocupa 0 en el disco.

La Textura Virtuales (Streaming) es lo mismo si toda la escena las texturas pesan 5gb en VRAM y se cargan en la VRAM ocupara eso, pero si en vez de cargar una texturas completa vas cargando solo mips Maps necesarios por Streaming desde el SSD, ocupará mucho menos espacios en la Vram 2gb por ejemplo.

Pero hacer Streaming de texturas sin que veas poping o como se cargan delante de ti, necesitas latencias muy bajas entre la GPU y SSD , y ahí entra DirectStorage.
Nomada_Firefox escribió:Lo cierto es que ya se publico alguna prueba sintetica de esto y la ganancia de rendimiento era inexistente.

@VíctorXD Yo no digo que no reduzca el tiempo de lectura de texturas pero las tarjetas y los juegos cargan todas las texturas de un escenario de una tacada, sin repetir nada aunque un objeto este multiplicado en pantalla. Lo que quiero decir es esto ssd--->grafica-->pantalla en pocas palabras, asi que la idea de permitir ir leyendo y cargando acelerando todo no es tan asi porque habra momentos en el cual sature la memoria tanto como antes sino tienes una cantidad grande. La idea del direcstorage es que las texturas HD no ralenticen la carga pero eso no supone más velocidad jugando.

Cuando salgan juegos con esto, acabaremos por verlo en funcionamiento.


No has entendido nada, el directstorage precisamente hace lo contrario, vamos que @victorXD tiene razón. Carga al vuelo las texturas desde el SSD permitiendo no tener que almacenarlas en la VRAM , eso permitirá ahorrar VRAM
Exactamente,de ahí la coña del “disco mágico” que traía la ps5 por el tema de su velocidad,cosa que aún está por ver en la práctica todo esto
Quizas me explique mal. Vosotros estais pensando que las tarjetas graficas y los juegos van a funcionar de otro modo pero la realidad es que esto no va a hacer eso. Lo unico que hace es crear un almacenamiento en el SSD donde se almacenaran las texturas descomprimidas ahorrando tiempo de procesamiento, pero ocupar en memoria, van a ocupar lo mismo y los juegos no van a correr más rapido.

Hay que entender que las texturas de los juegos son texturas comprimidas y la grafica tiene que descomprimirlas, cosa que lleva tiempo con texturas muy grandes. Con el directstorage ahorran ese tiempo.

Pensais que se salta la vram y no es asi. En fin, cuando salgan juegos con esto, lo veremos funcionar en vivo.

Y evidentemente los de Epic lo saben. Que esto no va a ahorrar vram, más bien todo lo contrario porque van a cargar unas texturas enormes en la memoria que se va a seguir usando.
KindapearHD escribió:



con 10 añitos y 2GB de vram.
En 1080P, como juega la mayoría, según steam.

Antes de que 12 GB estén obsoletos, seguramente todas las gpu que los lleven, se habrán desintegrado.


Aunque estoy de acuerdo contigo, y la serie 700 en general sigue rindiendo de forma aceptable hoy dia, por desgracia estas si que se estan quedando obsoletas por el soporte con DX12. Demomento haciendo algun que otro malabar consigues que los juegos full DX12 como Elden Ring tiren, pero los que salgan despues nadie te garantiza nada.

Aun así generaciones como la 900 y 1000 me siguen pareciendo opciones perfectamente validas en 2023, al igual que sus contrapartes en AMD.
Nomada_Firefox escribió:Quizas me explique mal. Vosotros estais pensando que las tarjetas graficas y los juegos van a funcionar de otro modo pero la realidad es que esto no va a hacer eso. Lo unico que hace es crear un almacenamiento en el SSD donde se almacenaran las texturas descomprimidas ahorrando tiempo de procesamiento, pero ocupar en memoria, van a ocupar lo mismo y los juegos no van a correr más rapido.

Hay que entender que las texturas de los juegos son texturas comprimidas y la grafica tiene que descomprimirlas, cosa que lleva tiempo con texturas muy grandes. Con el directstorage ahorran ese tiempo.

Pensais que se salta la vram y no es asi. En fin, cuando salgan juegos con esto, lo veremos funcionar en vivo.

Y evidentemente los de Epic lo saben. Que esto no va a ahorrar vram, más bien todo lo contrario porque van a cargar unas texturas enormes en la memoria que se va a seguir usando.


Nein!

A día de hoy la gpu no descomprime ni una sola textura, la descomprime la cpu, de ahí que sea necesario cargar en vram todo lo posible pues de lo contrario se produce algo de popping. Con DS será cuando esa descompresión se haga en gpu, y al ser mucha más rápida esta, el uso de vram es lógico que sea más eficiente ya que no deberá esperar a la cpu para cargar nuevas texturas. Lo de guardar en ssd una especie de cache ya se hace hoy en dia, y sin necesidad de DS, pero si no me equivoco se sigue pasando por la cpu, y con DS la comunicación ssd>gpu será directa.

Pero bueno, ya se pasarán los que de verdad saben y corregirán a quien corresponda.
Lo del directstorage y su evolución, no deja de ser increible, primero se decia que solo en PCIe 4.0 Nvme, luego bajaron a 3.0 y ahora resulta que hasta en un HDD se puede usar. [sonrisa]

Y me resulta interesante esta noticia https://elchapuzasinformatico.com/2023/ ... 2-cambios/ por esto. Se ahorra el uso de CPU pasando por la RAM pero en ningun caso saltas la Vram.
@Nomada_Firefox creo q nadie discute q los juegos se salten la VRAM, sólo q la gestión de lo q hay almacenado en ella puede ser más óptima y dinámica. Lo veo como si vas con tu coche por ahí con su depósito de 8L XD y te cruzas muy a menudo con camiones cisterna q te pueden llenar el depósito a demanda, de forma automática y sin pararte (ésto último lo pueden hacer los aviones). Los camiones cisterna son el SSD/HDD. Si funcionara bien la tecnología igual no habría mucha diferencia entre un depósito de 8L y otro de 24L.
VíctorXD está baneado por "clon de usuario baneado"
Lo voy intentar simplificar, hay que entender que lo DirectStorage y Texturas son cosas distintas, pero que esta última se aprovecha de lo primero:

- Lo primero DirectStorage es simplemente una API para la nueva comunicación de GPU y SSD.

- La Ruta estándar para una GPU de acceder al SSD es la siguiente:
1) GPU > RAM> CPU> SSD y viceversa
2) Con el nuevo método usando el PCIE, GPU > SSD

- El ahorro de latencias es importante.

Hay dos Métodos de Texturas las Texturas estándar y las Texturas Virtuales:

- Una Textura es como una pizza, esta dividida en porciones, lo que se conoce como mips Maps, cada mip map tiene una resolución desde nativa a menor resolución, eso se hace porque un objecto que esté muy alejado de la camara es un desperdicio meter una mip Maps a 4k , por cual se usa un mip Maps de menor resolución 1024 por ejemplo.

- Método de Texturas estándar: En este método toda la Textura y sus Mip Maps se almacenan en la VRAM para tenerlas a mano, en el ejemplo simplificado toda la pizza con sus 8 porciones se meten en la VRAM.

- Método de Texturas Virtuales: En este método solo mips Maps que va necesitando la escena se va haciendo Streaming y se van almacenado y vaciando. En el ejemplo simplificado, la pizza permanece fuera de la VRAM y solo la porciones necesarias se van stremeando, por cual ya no metes una pizza entera en la Vram si no sólo las porciones necesarias ahorrando espacio.

La Textura Virtuales se beneficiarían mucho de la conexión GPU,> SSD de baja latencia, les permitiría a los desarrolladores implementar como originalmente se ideó está tecnica, y es que la texturas o pizza se dejará en SSD y desde este se puede hacer el streaming de las porciones de la pizza directamente a la VRAM mientras juegas y vas movimiendo la cámara, todo esto sin poping de texturas debido a las bajas latencias de la comunicación directa de GPU y SSD, de esta forma ahorrando espacio en la VRAM y RAM en cuanto a texturas.
Por lo que yo veo en las noticias, lo que se ahorra ahora, es la CPU que no tiene que descomprimir las texturas. Asi que es SSD o HDD ----->RAM---->GPU con su VRAM. Asi la grafica gana nada pero si se ahorra en el tiempo de carga que implicaba el uso de la CPU.

Antes era CPU-->RAM---->GPU con su VRAM. Asi de sencillo.

La gracia ahora es que se puede usar un HDD. Y seguramente esto venga a decirnos que la ganancia con un SSD mejor es nimia. Lo que ahorran es que un dds esta ya en un formato descomprimido, seguramente tga o algo parecido. Asi que una textura que comprimida ocupa 5.33mb, ahora ocupa 16mb pero se lee más rapido al no necesitar descompresión.

Yo lo que siento curiosidad, es que resolución llaman ellos HD. En algunos juegos recientes he visto texturas por encima del clasico 2048x2048 que es HD, pero igual estan pensando en algo mayor. Tambien ademas los dds clasicos tienen una limitación en el tamaño maximo. De esto ya habia leido que en algo estaban trabajando.

@BladeRunner No si algo de tiempo ahorraras, el rucazo de CPU que te pegarias cargando las texturas HD. Ya lo dije antes, otros juegos que usan texturas HD, ya usaban una cache en disco. Lo que siento curiosidad es cuanto tiempo va a llevar la creación de la cache en si misma o cuanto van a ocupar los juegos porque si vienen con las texturas descomprimidas...........preparen la cartera. [fiu]
VíctorXD está baneado por "clon de usuario baneado"
Lo que ha salido en la noticias es un DirectStorage recortado para HDD y SSD Sata, donde se anula la descompresión por CPU, pero ojo siempre el CPU tendrá que hacer la llamada así que siempre quedaría así SSD > CPU > RAM > GPU. La descompresión al ser por GPU será más rápida por cual se ahorrará un poco de latencia.

La forma nativa de comunicación para lo que se pensó esa API es SSD (PCIE) > GPU, es una comunicación directa por medio del nuevo controlador de memoria que incorporan las GPU , las líneas PCIE de la placa y SSD conectado por ellas (imagen derecha).

Imagen
Chaquetero está baneado por "troll"
Las texturas comprimidas siempre van a tener que pasar por la CPU para ser descomprimidas, todo lo demás es marketing y mala programación. Como la chapuza que es la carga de shaders, concepto que hasta hace nada no existía, pero que ya se han encargado de crear por nuestro bien para tocar los cojones, aumentar requisitos, y trabajar mucho menos.

El direct storage es humo, siempre lo ha sido, primero porque solo tendria sentido en una apu con memoria unificada, y segundo porque el 80% de la rapidez o lentitud de los tiempos de carga depende de lo buena o mala que sea la programación y la gestión de recursos.

Por ejemplo el mass effect 1 original tiene unos tiempos de carga, los famosos ascensores, de varios minutos tranquilamente, independientemente del hardware, y en el remaster de hace nada estos tiempo de carga son casi instantáneos, y no tiene absolutamente nada que ver con la enésima chorrada de mercadotecnia difundida por el becario de los vendehumos por antonomasia del unreal engine.
VíctorXD escribió:La descompresión al ser por GPU será más rápida por cual se ahorrará un poco de latencia.

Creo que te has equivocado porque no hay descompresión por GPU, no la habia antes y no la hay ahora. De hecho las texturas las leen descomprimidas.

Antes las texturas las descomprimia la CPU con un proceso añadido y las leia la RAM que las pasaba a la GPU que las cargaba en la memoria de la grafica, cosa que se seguira haciendo pero seguis obviando que en escenarios donde haya muchos objetos que usen texturas HD, el consumo de VRAM va a ser mayor, no va a haber reducción de uso de memoria grafica, todo lo contrario.

Y es la ultima vez que lo digo porque parece que no quereis escuchar.
    Antes los juegos no usaban texturas HD mayormente, si esto se usa con ellos, seguro que habra mejora de rendimiento porque lo que antes iba rapido, ira más rapido.

    Ahora los juegos van a usar texturas HD mayormente, aumentan la carga de trabajo en la grafica si o si y no compensa porque la memoria se va a llenar.

    Y como me considero abierto, voy a decir lo que podria suceder. Al usar directstorage se acelera la carga de texturas y 8GB no se saturan tanto los juegos usando texturas HD en determinados momentos de muchos objetos en pantalla, por lo que ya no hay micro tirones. Anteriormente esos tirones venian cambiando la visión de dirección, vamos girando la imagen.

    Pero esos microtirones no eran por leer lento la memoria, era porque estaba ya llena........y no habia donde meter más. Ahora con la lectura más rapida de memoria, se va a llenar todavia más rapido.

    Ademas los juegos que usaban texturas HD, seguro que no las usaban para todo, pero ahora hay la opción de usarlo para todo.

Y yo soy el primero en decir que si hicieran mejor los juegos, el hardware se aprovecharia mejor, pero cada motor de juego es una historia. Con todo esto de las texturas HD siempre me acuerdo de EA y su motor Frostbite, puesto que ese motor aprovecha muy bien el hardware y usa texturas, modelos y lo que se te ocurra de muy alta resolución sin requerir un hardware muy tremendo. Quizas fuera lo unico bueno que han hecho en EA. Claro que no es lo mismo un juego simulando el espacio o escenarios muy cerrados que un mundo abierto. Pero si que siempre me ha llamado la atención.

Por ultimo que un HDD puede servir como unidad de almacenamiento del directstorage, a mi me indica que la influencia de la velocidad de la unidad no es tan grande como se pensaba. Es de cajon.

Y un detalle que seguramente más de uno piense y nadie sabe. ¿Directstorage creara una carpeta en una unidad para todos los juegos?¿sera donde se instale el juego?¿o se podra escoger una unidad para un directstorage de un determinado juego?

Lo digo porque imaginense que tienes el directstorage creado en una unidad a la cual ya no le queda espacio y no puedes hacer otro directstorage para otro juego en otra unidad, pues eso va a ser un problema.
A ver... si la CPU siempre va a descomprimir las texturas poca ventaja va a aportar al sistema. Las GPUs (modernas) sí pueden descomprimir las texturas.

Nueva API GetCompressionSupport

DirectStorage actualmente elige la ruta de descompresión para los formatos de compresión integrados en función de las capacidades compatibles de la GPU. Hay escenarios en los que se elige una ruta alternativa basada en CPU.
Escuchamos de los desarrolladores que sería beneficioso comprender qué ruta de descompresión se está utilizando para que la configuración de resolución de textura predeterminada se pueda establecer en función de esto. Para habilitar esto, agregamos una nueva API para consultar qué ruta ha elegido el tiempo de ejecución.

IDStorageQueue2::GetCompressionSupport() devuelve un valor que indica si se usa una implementación optimizada de GPU, un respaldo de GPU para un respaldo de CPU para la descompresión, así como qué tipos de colas usará DirectStorage para la descompresión.

https://devblogs.microsoft.com/directx/ ... lable-now/

En negrita, se entiende q cuando una GPU es antigua y no incluye capacidades de decompresión o el formato comprimido no está soportado, entonces se elige la ruta alternativa de la CPU.
628 respuestas
1, 2, 3, 4, 5, 613