[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

https://www.nvidia.com/en-us/geforce/ne ... explained/

Imagen

Es más o menos como Windows, que si uno tiene 32GB de RAM, pues el sistema usa más RAM porque la usa como caché, etc... pero si el mismo sistema se deja con 16GB de RAM consume menos RAM, pero eso no quiere decir que porque un sistema tenga más RAM y gaste más, un caso sea peor que otro en cuanto a rendimiento, o no al menos algo que no sea marginal. Habrán casos donde si se dispone de una cantidad de RAM claramente insuficiente, como es lógico, el rendimiento se verá afectado si falta RAM.

Todo esto, sin irse a extremos de muy poca RAM o VRAM, claro. Si se necesita una cierta cantidad de RAM o VRAM, según el uso que se le de al equipo, pues si es insuficiente el rendimiento se verá penalizado como es lógico, pero se suele necesitar menos RAM y VRAM de lo que la mayoría cree.

Saludos.
(mensaje borrado)
Yo solo sé que mi 4070 de portátil con sus míseros 8gb de vram hasta se llena a 1080p [buuuaaaa] . Mínimo debería haber tenido 10. Algunos juegos ya me avisan de que se llena.

Aunque no rinde mal para 1080p es una buena jugarreta de nvidia pero también es verdad que tampoco había mucha más opción.
eric_14 escribió:Yo solo sé que mi 4070 de portátil con sus míseros 8gb de vram hasta se llena a 1080p [buuuaaaa] . Mínimo debería haber tenido 10. Algunos juegos ya me avisan de que se llena.

Aunque no rinde mal para 1080p es una buena jugarreta de nvidia pero también es verdad que tampoco había mucha más opción.

Bueno, es que tu grafica no es una 4070...........es menos, mil perdones si alguien se da por aludido, lo siento, pero los portatiles y nombres de cpus, gpus, etc, son todo una estafa, me sorprende que no los hayan denunciado.
Nomada_Firefox escribió:
eric_14 escribió:Yo solo sé que mi 4070 de portátil con sus míseros 8gb de vram hasta se llena a 1080p [buuuaaaa] . Mínimo debería haber tenido 10. Algunos juegos ya me avisan de que se llena.

Aunque no rinde mal para 1080p es una buena jugarreta de nvidia pero también es verdad que tampoco había mucha más opción.

Bueno, es que tu grafica no es una 4070...........es menos, mil perdones si alguien se da por aludido, lo siento, pero los portatiles y nombres de cpus, gpus, etc, son todo una estafa, me sorprende que no los hayan denunciado.

Pero los 8 gb de vram son los mismos en portátil que en sobremesa.
the_aeon escribió:Pero los 8 gb de vram son los mismos en portátil que en sobremesa.

Si pero la grafica no equivale a una 4070. Esa grafica igual es un poquito mejor que una RTX 3060.

Pero ya te digo yo que hace años, que 8GB se quedaban cortos. Aunque los problemas de quedarse cortos son varios, desde peor rendimiento en fps a micro tirones.

La ironia es que con apenas 1.5 más, tirando muy por lo alto, no sucederia.
DaNi_0389 escribió:
PSX22 escribió:sin DLSS 3 en hellblade 2 no podria jugar en mi monitor 4K oled, en serio, es la salvacion.

Me va a 4K a 20 fps. Si activo DLSS rendimiento y FG me da 70-80 y se ve de lujo en 4K oled.

En una 3070 no podria jugar tampoco porque no tiene DLSS3 ( sin mods). la serie 4000 es una salvacion gracias a eso. Es verdad que no es perfecto hay algo de lag y artefactos sino llegas a 40 fps.


Espero que la 5070 mejore mas de un 30% a la anterior.... porque cada vez las suben mas 650 y la serie 5000 parece que sube de precio+


por cierto la vram no se queda corta, hellblade 2 en 4K DLSS no pasa de 10GB y ya va raspadisimo a 35fps si no activas FG.... vamos que nos quedamos sin potencia antes que sin VRAM . EL proximo juego que suba el listo ya nos toca irnos a 1440p ajustes medios porque jugar a menos de 60 como que no.



Por mucho que os empeñeis, 12GB son algo justos.

Siempre ha ocurrido, gráficas con rendimiento similar siempre ha envejecido mejor la que más VRAM ha tenido.





Siempre he dicho que es suficiente pero 2-4Gb de mas seria mejor, aqui no se niega la evidencia


Hell2 en modo 4K calidad DLSS y FG paradojicamente consume 12-13 mas que a 4K nativo, muy en el limite, pero ocurre en un juego en el que la 4070 no va sobrada ni en 1440 nativos donde solo la ti super de 16 tiene musculo para moverlo sin trucos y esa si lleva 16
Nomada_Firefox escribió:
the_aeon escribió:Pero los 8 gb de vram son los mismos en portátil que en sobremesa.

Si pero la grafica no equivale a una 4070. Esa grafica igual es un poquito mejor que una RTX 3060.

Pero ya te digo yo que hace años, que 8GB se quedaban cortos. Aunque los problemas de quedarse cortos son varios, desde peor rendimiento en fps a micro tirones.

La ironia es que con apenas 1.5 más, tirando muy por lo alto, no sucederia.

El compañero solo ha dicho que esos 8 gb de vram se le quedan cortos y tu le dices que su gpu es menos potente que una de escritorio.

Hola?
the_aeon escribió:El compañero solo ha dicho que esos 8 gb de vram se le quedan cortos y tu le dices que su gpu es menos potente que una de escritorio.

Dime una cosa the_aeon ¿que haces hoy en dia con la potencia de una RTX 3060? aunque tenga 12GB, se queda corta. Los 8GB sin duda que son un problema pero es que la grafica no es una RTX 4070 ya de por si, es mucho menos.
Nomada_Firefox escribió:Bueno, es que tu grafica no es una 4070...........es menos, mil perdones si alguien se da por aludido, lo siento, pero los portatiles y nombres de cpus, gpus, etc, son todo una estafa, me sorprende que no los hayan denunciado.


Mi gráfica es una 4070 de portátil, que no es igual que la de sobremesa está claro, la de portátil consume 140w como máximo y la de escritorio 220w y eso sin contar la diferencia de núcleos, velocidad de la ram, el chip tampoco sé si es el mismo. etc... por lo que vi, en rendimiento realmente es un poco más que una 3070ti de portátil pero con dlss3.
La mierda es que solo tenga 8gb y los llena, la de sobremesa tiene 12gb, con 10 estaría más satisfecho.

Y sí, los nombres son marketing para parecer que va a rendir como una de sobremesa, por que usen el mismo nombre no veo problema pero sí que les deberían obligar a poner una aviso de que no va a rendir como la de sobremesa para gente inexperta, antes por lo menos eran nombres como 8800m o así que ya sabias que no era lo mismo.
Si somos serios da igual que sea de portatil o no, si tienes 8 y se te llenan a 1080p tienes un problema de vram no de GPU poco potente


Estamos hablando de que hoy dia con 12 no hay problemas pero si sube su uso pronto y con dlss alargamos la vida de la serie 40, nos va tocar bajar algo de vram en uso.


Si pagar los 1200 por 4080 tambien sabia yo en navidad, pero no me da la gana pagar el doble prefiero a los 4 años cambiar a una 6070 con 16-20 y usar los dlss nuevos por el mismo dinero


@eric_14


Se suele poner 4070 Laptop o ya ves que es un laptop


Yo le bajo un nivel y ya, digo 4070 es la 4060 desktop y ya
PSX22 escribió:el resumen es que te quedas antes sin 60 fps que sin vram , y que lo miden bastante bien los fabricantes, he llegado a usar 10GB de 12 y si consumia mas quitando DLSS el rendimiento caia a 20 fps pero claro la vram no me habria salvado por falta de potencia

No puedes decir que los fabricantes (Nvidia en este caso) miden bien la VRAM cuando se ha visto en el pasado que sus cutre limitaciones de VRAM ha generado problemas en varios juegos y aún cuando varios medios han demostrado el problema del mal rendimiento de las tarjetas con VRAM limitadas respecto a otras con menos potencial pero con mas VRAM, Nvidia ha seguido sacando gráficas con VRAM limitada. Para mi los 12GB de VRAM de la 4070 es directamente un insulto.

El uso de VRAM que dices que te da el juego no es para fiarte con esa gráfica de 12GB. Además de lo que dijo javier español (de la propia Nvidia), el juego te usará la VRAM que pueda e incluso quizás dice menos del límite y no significa que vaya sobrada ni mucho menos, aquí lo explican (min 1:44) y además se pueden ver muchos ejemplos del rendimiento de la 4060 entre sus versiones 8GB vs 16GB:


PSX22 escribió:sin DLSS 3 en hellblade 2 no podria jugar en mi monitor 4K oled, en serio, es la salvacion.

Pues esa salvación que dices precisamente agrava el problema de no tener suficiente VRAM, ya que con DLSS Frame Generation se usa mas VRAM. Lo verás en este reddit y en los siguientes análisis técnicos, entre otros muchos sitios.

En estos análisis de Hellblade 2, Alan Wake 2 y Cyberpunk 2077: Phantom Liberty se puede ver cómo el uso de VRAM puede ser muy alto en algunas configuraciones y también que con Frame Generation se usa mas VRAM:

Cyberpunk 2077: Phantom Liberty: https://www.techpowerup.com/review/cybe ... sis/5.html
Alan Wake 2: https://www.techpowerup.com/review/alan ... ark/6.html
Hellblade 2: https://www.techpowerup.com/review/senu ... ark/5.html

El caso concreto de Alan Wake 2 ya es destacable incluso en casos 12 GB:
    - Muchísimas opciones que usan mas de 12GB, desde resoluciones de 1080p! También indican mas uso de VRAM con FG.

    - En 1440p sin RT (11GB): la 4070 12GB va a 62,8 fps y la 4060 Ti 16GB va a 47,5 fps y la 4060 Ti 8GB va a 47,3 fps --> Todo correcto

    - En 4k sin RT (12,7GB): la 4070 12GB va a 35,3 fps y la 4060 Ti 16GB va a 26,5 fps y la 4060 Ti 8GB va a 25,2 fps --> Parece que no hay mucha diferencia con la de 8GB, pero y los fps mínimos? Ahí se nota mas: 23,8 fps mínimos la de 16GB vs 18,2 fps mínimos la de 8GB (y otra cosa que no se ve en el análisis, seguramente la de 8GB tenga más microparones)

    - En 1440p con RT (13GB): la 4070 12GB va a 39,7 fps, la 4060 Ti 16GB va a 29,4 fps y la 4060 Ti 8GB va a 7,6 fps --> La de 8GB no puede, cuando la de 16GB tiene un rendimiento aceptable en consolas de 30 fps.

    - En 4k con RT (15,8GB): la 4070 12GB va a 4,5 fps y la 4060 Ti 16GB va a 15,2 fps --> Baja muchísimo el rendimiento en esa gráfica de 12GB (pero con DLSS se soluciona en este caso, incluso con FG)

En cualquier caso en esos análisis y gráficas hablan de FPS y uso de VRAM, pero no se ven otros problemas como el micro stutering/micro parones o problemas con las texturas. Por ejemplo, en algunos casos la 4070 Ti de 12GB con Cyberpunk tiene microparones al activar el FG en 4k:

Con todo esto no estoy diciendo que ahora mismo los 12GB sea un problema "real", porque por ejemplo el caso de Alan Wake 2 que en el caso problemático al aplicar DLSS ya pasa a usar menos VRAM (unos 13GB?) y entra dentro del margen que parece que funciona bien. ¿Pero qué pasará con los nuevos juegos que hagan mas uso de VRAM? Ya han tenido problemas las 8GB en el pasado y no veo por qué no debería pasar lo mismo con los 12GB de VRAM llegado el momento. Y desde luego ir diciendo que los fabricantes/Nvidia miden bien la VRAM me parece engañar a la gente.

Claro que la "solución" puede pasar por bajar el uso de VRAM (bajando calidad de texturas, no usando RT/PT, etc.), pero si eso se hace no porque la gráfica no pueda a nivel de FPS sino porque la VRAM le limita, ahí claramente se daría el problema. Me parece que es comprarse una gráfica con una fecha de caducidad mas próxima a la que debería.


Nomada_Firefox escribió:
Valhan escribió:
Imagen

Un poco raro que gaste más con DLSS+FG en 4k en nivel alto que en nivel alto sin eso. No tiene sentido. Tampoco he visto un juego que en 1440p gaste a maximo de detalle más de 9.5GB.

Igual en esos datos omitieron el Raytracing. No cuadran. O lo que es peor, que estan hechos con formulas en un excell.

Una cosa es el DLSS (Super Resolution, que no se dice muchas veces pero se da por hecho de toda la vida) y otra el DLSS FG, ahí no dicen DLSS+FG sino DLSS FG, que no es lo mismo. Y por si hubiera dudas, además de ver los otros análisis donde lo indican mas claramente lo de FG, en las conclusiones lo dejan mas claro refiriéndose a cada cosa por separado:
Senua's Saga has excellent support for upscalers: DLSS, FSR, and XeSS are supported. In terms of Frame Generation you only get support for DLSS FG, FSR 3 is not supported. It's also not possible to enable just Frame Generation, without DLSS upscaling, you have to enable DLAA at least, which is a reasonable compromise, but not the perfect solution.

Como dije antes, FG hace mas uso de VRAM, y los de Techpowerup no usan el DLSS Super Resolution para indicar la VRAM ya que para eso hay que ver el consumo de la resolución anterior y no hace falta estar repitiendo números.

Por otra parte, ¿no has visto ningún juego que gaste mas de 9,5GB en 1440p? Quizás sigues con Far Cry 6, mira juegos mas actuales como Alan Wake 2 con sus 11GB:
Imagen

Pero vamos, que quizás sea mas un tema de no querer verlo no sea que quede en evidencia tu 4070 Ti de 12 GB, como por ejemplo en The Last of Us donde se ve cómo la 4070 Ti de 12GB es un 10% peor que la 4070 TI Super de 16GB en 1080p y 1440p pero mas de un 25% peor a 4k. A la que vamos a 4k en lugar de ser un 10% peor (debería ir a unos 47fps aproximadamente) pasa a ser mas de un 25% peor y los fps bajan a 38 fps: https://www.techpowerup.com/review/giga ... oc/29.html

Pero nada, que como juegas a 1440p no es un problema... todavía.

Si la 4070 con 12 GB me parece un insulto, la Ti con 12GB me parece que debería venir en un pack junto con un pote de vaselina.
@Rvilla87


lo de que el DLSS FG consume mas VRAM ya lo he puesto mas arriba, no es que me tengas que convencer, todos esos datos no hacian falta pues ya lo he puesto yo del analisis de noticias 3d lo refleja claramente.

Aun asi me gusta ver la info porque ayuda a reafirmar o no lo que uno sabe , o no sabe.

Sobre lo de vram limitadas las nvidia, no es asi ,es mas bien optimizadas , tener ram sin uso es desperdiciar energia y encarecer ya de por si las GPUs mas caras del mercado ,que son las mejores claro esta las nvidia.

No es un tema opinable, si faltase vram, pues quien paga manda, nadie compraria una gpu que le va a ir las cosas comprometidas y mal, porque esta lider del sector? porque lo que dan esta equilibrado y funciona muy bien.

Esto no quita que a 5 años vista habria venido mejor algo mas de vram, como ya dije arriba, vendria bien mas margen pero realmente no lo necesita, tu mismo dices que no es un problema real. Realmente quien va a querer jugar con 12vram y una antiga 4070 al gta6 en 2028 a 4K? eso no tira.... da igual la vram que tengas

entiendo tu caso de alan 2 con 4K RT va a 4fps y la 4060ti a 15 que con FG serian casi 30, dirias 4 vs 30 ,la 4070 queda en ridiculo por la vram no? pues no... quien va a jugar a 4K RT FG en 4060ti? porque FG por debajo de 40 fps nativos da asco de artefactos, con lo que me da igual 4 que 30, es injugable ( en PC menos de 60 nativos es un insulto, para eso estan la consolas).

Pero ademas casos como alan 2 , hay muy pocos y tiene muy poco sentido irse a una 60ti antes que a una 4070 super a dia de hoy. Las cosas en contexto no tiene sentido tener vram de sobra si el chip no acompaña, y la 4070 no acompaña para cosas de dentro de muchos años, recuerdo que hell2 no va bien ni en 4090 con 24gb, y no es por falta de vram .

mucha gente pago 950 por la 4070 ti en su momento, la verdad que 1000€ no lo veo para 12gb, pero en tarjetas menos potentes como 4070 que ronda 550, no requieres mas porque no mueves 4k nunca en nada moderno.

Yo por 50€ pagaria por tener 16, pero pagar 950 para una ti super , esos 4GB en cuanto pasemos a ps6 no nos van a salvar, porque se estima que vayan minimo a 24-32 de memoria unificada y no nos va a salvar de la quema los 16
PSX22 escribió:@Rvilla87


lo de que el DLSS FG consume mas VRAM ya lo he puesto mas arriba, no es que me tengas que convencer, todos esos datos no hacian falta pues ya lo he puesto yo del analisis de noticias 3d lo refleja claramente.

Aun asi me gusta ver la info porque ayuda a reafirmar o no lo que uno sabe , o no sabe.

Sobre lo de vram limitadas las nvidia, no es asi ,es mas bien optimizadas , tener ram sin uso es desperdiciar energia y encarecer ya de por si las GPUs mas caras del mercado ,que son las mejores claro esta las nvidia.

No es un tema opinable, si faltase vram, pues quien paga manda, nadie compraria una gpu que le va a ir las cosas comprometidas y mal, porque esta lider del sector? porque lo que dan esta equilibrado y funciona muy bien.

Esto no quita que a 5 años vista habria venido mejor algo mas de vram, como ya dije arriba, vendria bien mas margen pero realmente no lo necesita, tu mismo dices que no es un problema real. Realmente quien va a querer jugar con 12vram y una antiga 4070 al gta6 en 2028 a 4K? eso no tira.... da igual la vram que tengas

entiendo tu caso de alan 2 con 4K RT va a 4fps y la 4060ti a 15 que con FG serian casi 30, dirias 4 vs 30 ,la 4070 queda en ridiculo por la vram no? pues no... quien va a jugar a 4K RT FG en 4060ti? porque FG por debajo de 40 fps nativos da asco de artefactos, con lo que me da igual 4 que 30, es injugable ( en PC menos de 60 nativos es un insulto, para eso estan la consolas).

Pero ademas casos como alan 2 , hay muy pocos y tiene muy poco sentido irse a una 60ti antes que a una 4070 super a dia de hoy. Las cosas en contexto no tiene sentido tener vram de sobra si el chip no acompaña, y la 4070 no acompaña para cosas de dentro de muchos años, recuerdo que hell2 no va bien ni en 4090 con 24gb, y no es por falta de vram .

Hay muchos casos demostrados donde tener mas de 12GB de vram te genera o un rendimiento mucho mas estable o una calidad grafica muy superior ya que hay varios juegos que cuandos e quedan sin memoria dejan de cargar texturas.
Hogwards legacy.
Halo infinite.
The last of us.
Forspoken.

Y lo siento pero es innegable, hardware unboxed hizo un video donde comparaba la 3070 con una a4000 que utiliza el mismo núcleo con menos frecuencias pero con 16Gb de vram:

Y repito, hay que mirar juego por juego ya que muchos de ellos no tienen problemas de rendimiento al necesitar mas vram de la que tienes sino que dejan de cargar texturas y se ven como el culo.
Luego además está esta comparativa donde la rx 6800 pasa a rendir más con ray tracing que la 3070 pese a tener una arquitectura muy inferior para ello simplemente por tener mas memoria.

La 3070 ha tardado bastante menos de 5 años en tener problemas con su memoria en juegos en que su núcleo rinde suficiente y lo mismo le pasará a las 4070, 4070 super y 4070ti.

Negar esto a estas alturas solo en base a "ellos saben lo que hacen" es no querer ver la realidad ni aunque te esté pisando la cabeza.
@adriano_99

no es eso de no querer ver la realidad, es que si la gente sigue comprandolas en masa, es porque sacan el trabajo adelante y bien, normalmente se cambia de GPU mucho antes que de consola , y esta podria ser la razon, quien tenga gpu mas de 5 años si que deberia ir a las 90 con 24gb o 20gb , pero es mas habitual comprar series 60 y 70 cada 2-3 años que lo contrario ( los entusiastas que luego mira se sigue mucha gente con 3060 y 1060 incluso en steam)
PSX22 escribió:@adriano_99

no es eso de no querer ver la realidad, es que si la gente sigue comprandolas en masa, es porque sacan el trabajo adelante y bien, normalmente se cambia de GPU mucho antes que de consola , y esta podria ser la razon, quien tenga gpu mas de 5 años si que deberia ir a las 90 con 24gb o 20gb , pero es mas habitual comprar series 60 y 70 cada 2-3 años que lo contrario ( los entusiastas que luego mira se sigue mucha gente con 3060 y 1060 incluso en steam)

La 3070 y la 3080 se empezaron a quedar sin memoria antes de cumplir los 2 años, y lo se porque tengo una 3070.
Lo siento pero no, que la 4070-4070 super y 4070ti tengan solo 4GB mas de lo que tenía la GTX 1070 en su momento es una cagada como producto y reírse del consumidor.
PSX22 escribió:lo de que el DLSS FG consume mas VRAM ya lo he puesto mas arriba, no es que me tengas que convencer, todos esos datos no hacian falta pues ya lo he puesto yo del analisis de noticias 3d lo refleja claramente.

¿Que dijiste arriba lo de que el FG consume mas VRAM? ¿Te refieres a lo de paradójico? Para nada me pareció que lo dijeras como si lo supieras y/o fuera lo normal sino mas bien todo lo contrario, una excepción o si no al menos en el sentido estricto de la palabra paradoja: contrario a la lógica.

No es ilógico, es simplemente saber cómo funciona FG y saber que no es una simple escalado como el DLSS Super Resolution. No me parece nada paradójico y por eso puse varios análisis de juegos para que veas que es normal, no lo dije por decir ni mucho menos.

PSX22 escribió:Esto no quita que a 5 años vista habria venido mejor algo mas de vram, como ya dije arriba, vendria bien mas margen pero realmente no lo necesita, tu mismo dices que no es un problema real. Realmente quien va a querer jugar con 12vram y una antiga 4070 al gta6 en 2028 a 4K? eso no tira.... da igual la vram que tengas

No dije que no sea un problema real así en general, me refería en concreto a ahora. Y tampoco negaba que fuese un problema, simplemente no confirmaba que lo fuera, que parece que no pero es algo bastante diferente.

¿Pero por qué te vas a un juego que no existe y tan lejano? Te hablo de juegos en un futuro próximo, en no mas de 2 años supongo que tendremos varios ejemplos claros que no los salve ni con DLSS.

Luego por otro lado qué facilidad para ningunear a la 4070 en 4k, pero para qué sirve el DLSS y FG si no para estirarlas? Otra cosa es que pueda estirarse con su falta de VRAM, ya se verá. Tienes de ejemplo el video que ha puesto adriano_99. ¿Eso mismo con la 3070 8GB imaginas que pueda pasar con la 4070 12 GB o te parece irreal? Porque lo mas probable es que se repita la historia (¿y si no de qué sacar luego la 4070 Ti Super de 16GB?) y no te quedará otra que asumir que a tu gráfica le falta VRAM y cambiar ajustes que no deberías por qué cambiar si tuviera mas VRAM. Pero bueno, la excusa de bajar algo "para tener mas fps" siempre sirve.

El caso de Alan Wake 2 que puse como ya dije se soluciona con DLSS, no lo dije en plan que con la 4060 Ti fuera jugable sino para que veas que ya existen casos actuales en los que una peor gráfica, pero con mas VRAM, tiene mejor rendimiento que la 4070 Ti de 12GB. No estamos en la historia de las tarjetas de 8GB VRAM vs 16 GB VRAM (o más) como en el video de adriano, no, estamos ahora entrando en el problema de los 12GB. Asoma la patita y no quieres verlo. Ya vendrán mas ejemplos mucho mas claros, a ver entonces qué dices.

Sobre todos los temas de si es las Nvidia son las que mas vende y/o lo que hace la gente la verdad que no me demuestra nada o si eso justo me da mas razón, porque en muchos temas (y en estos técnicos aún mas) la gente en general no tiene ni idea.
@Rvilla87

paradojicamente lo puse porque normalmente cuando usas DLSS3 reduces resolucion y por tanto vram, pero en este caso aumenta , en cyberpunk no es asi, cuando uso 4K nativo me usa mucha mas vram que cuando uso 4K DLSS FG, no es una norma. y no viene de un analisis sino de probarlo yo mismo






adriano_99 escribió:
PSX22 escribió:@adriano_99

no es eso de no querer ver la realidad, es que si la gente sigue comprandolas en masa, es porque sacan el trabajo adelante y bien, normalmente se cambia de GPU mucho antes que de consola , y esta podria ser la razon, quien tenga gpu mas de 5 años si que deberia ir a las 90 con 24gb o 20gb , pero es mas habitual comprar series 60 y 70 cada 2-3 años que lo contrario ( los entusiastas que luego mira se sigue mucha gente con 3060 y 1060 incluso en steam)

La 3070 y la 3080 se empezaron a quedar sin memoria antes de cumplir los 2 años, y lo se porque tengo una 3070.
Lo siento pero no, que la 4070-4070 super y 4070ti tengan solo 4GB mas de lo que tenía la GTX 1070 en su momento es una cagada como producto y reírse del consumidor.


no hombre tu 3070 tiene potencia para 1080 ultra hoy dia, me extrañaria que te quedes sin VRAM , no puedes pretender poner hell2 en la 3070 en 4K DLSS FG porque se come 11GB, pero que ibas a sacar 15 fps nativos y 30 con FG con graves artefactos ( teniendo 16gb por ej suponiendolo) , no , no jugarias asi ni aunque te diese la vram... es mi razonamiento

pero si creo que deberian haber dejado atras los 8gb en 2020, y no haber seguido ese año con 8 cuando sabian que las consolas ps5 y eso tendrian 16 unificada

gta 6 no esta lejano, esta a 1 año en consola, ya hay version interna PC sin optimizar de hecho , donde rendia fatal con una 3080 por cierto, pero se espera que cuando salga , la 4070 no sea una tarjeta antigua , estara la 5070 pero no convierte la 40x en obsoleta

yo no estoy ninguneando la 70, poque mas que nada la tengo y estoy con ello con hell2, gracias al FG puedo jugar a 70 fps sino serian 35-40, pero en cuanto los juegos pidan mas que este, no alcazare 40 nativos, y que pasara? que FG no me valdra de nada, porque lo he probado cuando saco 25 fps nativos poniendo DLAA en hell2, que ocurre, que el FG no me salva, me da 40fps pero esta la imagen llena de artefactos y es injugable por microstutering y por rotura de imagen constante al rotar camara, precisamente , el defecto de la 4070 cada vez mas veo que va a ser su falta de poder nativo, antes que la VRAM que eso poniendo los ajustes en medio se solventaria a futuro cercano, pero no .... es que no es un gran salto respecto a la 3070 sin usar los trucos dlss, debemos sentirnos mas estafados por la falta de rasterizado mas que por la falta de vram, al menos son las carencias que mas me estan afectando.

cunado no llegue la VRAM con 12, pues se hara lo mismo que cuando no llegue con 24 cuando alguien intente jugar en 8k DLAA y RT a hellblade 2, que tendra que bajar a la realidad y ajustar cosas y seguir jugando. Todo es relativo a lo que esperes obtener. Y no pasa nada toda gpu tiene sus limitaciones y no hay grandes diferencias en los ciclos de vida que suelen ser 4-5 años, no he visto ninguna GPU que mueva a tope todo 10 años las cosas, disfrutemos y renovamos y ya.
adriano_99 escribió:La 3070 y la 3080 se empezaron a quedar sin memoria antes de cumplir los 2 años, y lo se porque tengo una 3070.
Lo siento pero no, que la 4070-4070 super y 4070ti tengan solo 4GB mas de lo que tenía la GTX 1070 en su momento es una cagada como producto y reírse del consumidor.

La cuestión es que los chips de mayor densidad de memoria que había por aquel entonces en GDDR6X eran 8Gb (1GB). Por eso la 3090 con sus 24GB de VRAM tenía que llevar la friolera de 24 chips repartidos (12+12) en ambas caras del PCB, y tenía otros problemas asociados. La 3080 NO podía llevar más de 12GB de ninguna manera en el momento que se lanzó, y eso se materializó primero en la 3080Ti y luego en la 3080 12GB, que son dos gráficas que a mi juicio no tienen ninguna razón para existir, y menos al precio que salieron en pleno "río revuelto".

Entiendo que no es lo óptimo para los consumidores desde luego, pero no sé exactamente cuál es la queja. El problema "grande" de la serie 3000 a mi juicio fue el boom de las cripto y el confinamiento que hizo que muchos no pudiéramos conseguir una (me incluyo).

Pero no solo no pienso que no hayan hecho nada "feo" con la VRAM, sino que creo que la 3080 era un paso en la buena dirección en el sentido de que es la primera -80 que lleva el chip grande en mucho tiempo (desde Fermi, para ser exactos) y para colmo a un precio bastante competitivo, al nivel de otras -80 con chips que no deberían llevar ese nombre. Por supuesto ese paso lo deshicieron en la serie 4000, y de milagro no llamaron a la 4070Ti 4080 12GB (ver las primeras notas de prensa y filtraciones de la época).

En la 4070 tal como la han pensado, con 192 bits de bus de memoria, o ponían 12GB o ponían 24. Poner 24 aparte de no tener sentido alguno porque haría las gráficas 1) Bastante más caras 2) Bastante mejores para IA incluso que su hermana mayor la 4080 3) Exactamente iguales cara a rendimiento en juegos creo que es lo peor que podría haber pasado al mercado de gráficas de consumo para juegos porque simple y llanamente sería imposible conseguir una sin pagar un sobreprecio abismal.

Coincido en que la 4070Ti Super es lo que debería haber sido la 4070Ti. Todos los nombres de gama en la serie 4000 menos la 4090 están un peldaño por encima de lo que deberían. Pero si tienen un producto competitivo en rendimiento y en precio con una gama superior, que no te quepa duda que van a venderlo como tal.

Saludos
Se vienen nuevas gpus cada año en vez de cada 2 años... Noticia en portada.

Los que (que ami personalmente hoy en dia ya no me parece viable, pero eso ya es según la necesidad de cada uno) pretenden que una gpu les dure 7 años, ahora si que lo van a tener crudo... [+risas]

Eso si, personalmente pienso que es algo que puede ser bueno, ya q puede hacer q, si queda mucho stock, los precios bajen.

Pero como volvamos a stocks con cuentagotas para controlar q no quede entre generaciones demasiado en las estanterías, vamos a volver a estar jodid*s para conseguir algo y encima con precios abusivos...
neox3 escribió:Se vienen nuevas gpus cada año en vez de cada 2 años... Noticia en portada.

Eso es seguramente solo para IA. No creo que en gaming hagan eso. De hecho la noticia lo dice al principio. Se habran dado cuenta que pueden dividir la potencia y ganar dos veces eso porque hay mercado para ello.

Nvidia no se limitará a mantener el ritmo, sino que lo aumentará y para conseguirlo diseñará un nuevo chip de IA cada año en lugar de cada dos.


Los stocks ya estan con cuenta gotas. Hay mucho menos que habia en 2016 pero muchisimo menos. Y los precios ya son abusivos pese a ser más baratos que en la burbuja. No hay una sola grafica que no tenga algo de inflada ¿por que? porque saben que lo venden y la gente se lo compra.

Total al final lo más vendido es siempre gamas baratas, las RTX 4060, ese tipo de graficas acabaran por llenar el listado de hardware de Steam.
La serie 60 es la reina

Lo fue la 6600 gtx lo fue 960 lo fue la 1060 lo es la 3060 y lo sera la 4060
Alguien mas le pasa que se le buguean las métricas del GeForce experience?
A la velocidad que va la IA, o actualizan cada año o se quedan atrás.
PD: Después de leer tu último mensaje en el que dices la burrada de que el SR, FG y RR "No son distinta cosa sino mejoras" ya es demasiado surrealista, me parece increíble que digas eso después de todo lo que te he explicado.

Así que mejor voy a hacer caso a ivan95 y voy a dejar de perder el tiempo contigo. A ver si a the_aeon le haces mas caso y dejas de hablar de versiones y hablas mas del componente propiamente (SR, FG o RR) y te queda claro de una vez. También te dejo otro post donde expliqué todo este problema de nomenclatura y que la solución veo que pasa por hablar de módulos (que se pueden activar/desactivar independientemente) y no de la versión que lía mas que otra cosa: hilo_hilo-oficial-nvidia-ada-lovelace-rtx4000_2446714_s11300#p1754157222

Dicho esto, si lo quieres entender bien y si no ya tendré en cuenta que no hay que hacerte caso cuando hables de DLSS.


PSX22 escribió:@Rvilla87
paradojicamente lo puse porque normalmente cuando usas DLSS3 reduces resolucion y por tanto vram, pero en este caso aumenta , en cyberpunk no es asi, cuando uso 4K nativo me usa mucha mas vram que cuando uso 4K DLSS FG, no es una norma. y no viene de un analisis sino de probarlo yo mismo

Vale, veo que hacía falta que lo explicara porque por lo que dices ahora confirmas que no sabes la diferencia entre el DLSS 2 y DLSS 3. Y para evitar confusiones voy a empezar explicando por encima las 2:

    - DLSS Super Resolution (o DLSS 2 o DLSS a secas): reduce resolución (en realidad usa una inferior y la aumenta) --> Reduce el uso de la VRAM
    - DLSS Frame Generation (o DLSS 3, Frame Generation, FG): no reduce resolución, sino que se "inventa" un frame entero --> Aumenta el uso de la VRAM

Lo expliqué en la respuesta a nomada_firefox, que parece que no leíste porque te ha pasado como a él y veo que sigues insistiendo en la misma confusión: hilo_hilo-oficial-nvidia-ada-lovelace-rtx4000_2446714_s13450#p1754947675

Ahora, si para ti DLSS 3 es DLSS Super Resolution + DLSS Frame Generation te estás liando y normal que digas esas cosas que no son verdad. Si aplicas DLSS 2 reduces bastante VRAM y si juntamente aplicas DLSS 3 (FG) aumentas la VRAM, pero parece ser que no tanto como lo que has reducido con DLSS 2 y por eso te crees que con DLSS 3 reduces VRAM. Si haces la prueba de aplicar DLSS 2, fijarte en el uso de VRAM y luego aplicar DLSS 3 lo normal es que veas un mayor uso de VRAM debido al haber activado el DLSS 3 (frame generation).

Así que no veo sentido al hecho que digas que normalmente con DLSS 3 reduces VRAM (ni mucho menos resolución, eso es que te confundes con el DLSS 2), que digas que en caso de de Alan Wake 2 aumenta pero no es lo normal (cuando sí es lo normal) y encima pones como ejemplo a Cyberpunk cuando en ese también aumenta el uso de VRAM con el FG (como es normal, no tiene nada de paradójico):
Imagen

Que encima me digas que lo que dices no viene de un análisis sino de tus pruebas (con tu tarjeta de 12GB y que ni sabrás mirar bien cómo se mide el consumo de VRAM como citó javier español o explica Daniel Owen) me parece ya de traca, otro como nomada_firefox. ¿Pero cómo sois capaces de dar mas validez a vuestras pruebas (que ni entendéis bien) antes que a medios profesionales que se dedican a ello?

Y lo que me parece mas extraño, en lugar de plantearse uno mismo por qué no le cuadra lo que uno lee y pararse a informarse para entenderlo, ¿prefieres creer que sabes como funciona por tus pruebas y que quienes se equivocan son todos los demás? Que no es solo un medio quien lo dice, y por ejemplo si para ti tu prueba es válida, que me dices de todas estas pruebas y el resultado que dice que FG consume mas VRAM que sin tenerlo activado y donde encima demuestra que puede dar problemas ante la falta de VRAM?


Si hay algo que dije mal o no se entiende lo dices, pero no me vengas con que no hacía falta que lo dijera o que no te tengo que convencer cuando me parece evidente que estás confundiendo DLSS 2 con DLSS 3 y sí era necesario que te diga que DLSS 3 consume mas VRAM. Y vale que tenga gran parte de culpa con todo este tema Nvidia con su mierda de nomenclatura, pero si estamos informados del este tema técnico deberíamos saber de lo que estamos hablando y no confundiendo peras con manzanas.
@Rvilla87


Por favor he leido una linea solo y esta erronea

Yo uso DLSS3 y si reduce la resolucion estes usando FG o no, la reduce

No hay mas que pasar de dlss calidad a dlss ultrarendimiento y baja bastante el detalle por la resolucion


Dlss3 es dlss2 + FG y el 3.5 es lo mismo +RR


No son distinta cosa sino mejoras.


Pero se compensa y camufla, pues FG consume vram y dlss reduce , se da a la vez, y eso se ve facil al usar dlss3 sin FG baja vram, y con FG sube


Apagar FG no te activa DLSS2 , sigue siendo 3.5 o 3.7 solo que sin las mejoras potenciales



Al margen de esto, que aumente , si funciona bien , no hay problema, a mi me esta trabajando bien hell2 con FG, no requiero mas vram, para subir resolucion via dlss me faltaria potencia ademas de vram con lo que queda vetado el escenario
@Rvilla87 no lo va a entender, dejalo.

Lo que si es muy cierto es que el nombre que le dio Nvidia es lioso de cojones, pero esta asi a conciencia, para confundir a los usuarios y conseguir lo que tenemos en el mensaje anterior a este.
PSX22 escribió:@Rvilla87


Por favor he leido una linea solo y esta erronea

Yo uso DLSS3 y si reduce la resolucion estes usando FG o no, la reduce

No hay mas que pasar de dlss calidad a dlss ultrarendimiento y baja bastante el detalle por la resolucion


Dlss3 es dlss2 + FG y el 3.5 es lo mismo +RR


No son distinta cosa sino mejoras.


Pero se compensa y camufla, pues FG consume vram y dlss reduce , se da a la vez, y eso se ve facil al usar dlss3 sin FG baja vram, y con FG sube


Apagar FG no te activa DLSS2 , sigue siendo 3.5 o 3.7 solo que sin las mejoras potenciales



Al margen de esto, que aumente , si funciona bien , no hay problema, a mi me esta trabajando bien hell2 con FG, no requiero mas vram, para subir resolucion via dlss me faltaria potencia ademas de vram con lo que queda vetado el escenario

Al principio Nvidia la lio llamando al FG DLSS 3.

Olvídate de eso, a día de hoy solo existen 2 cosas:

FG

y

DLSS 2, 3, 3.5...etc

Totalmente independientes la una de la otra.

Deja de llamar al FG DLSS 3, eso es cosa del pasado, FG ya no se llama DLSS 3, se llama FG a secas.

La culpable es Nvidia, desde el día 1 tendrían que haberla llamado FG y punto.
(mensaje borrado)
@the_aeon


Esque literalmente he visto diapositivas de nvidia que ponia eso, es incremental el dlss no es invento mio


Yo no digo que dlss3 sea FG

Dlss es la version del Super resolution por IA

Van por la 3.7 y tu luego puedes activar features al gusto, por ej dlss3 con o sin FG


Si activas dlss 3 la vram baja respecto nativo

Si activas FG la vram sube

No he dicho otra cosa


Existe dlss3 sin FG pero no existe FG sin dlss3 ese es el resumen
PSX22 escribió:@the_aeon


Esque literalmente he visto diapositivas de nvidia que ponia eso, es incremental el dlss no es invento mio


Yo no digo que dlss3 sea FG

Dlss es la version del Super resolution por IA

Van por la 3.7 y tu luego puedes activar features al gusto, por ej dlss3 con o sin FG


Si activas dlss 3 la vram baja respecto nativo

Si activas FG la vram sube

No he dicho otra cosa


Existe dlss3 sin FG pero no existe FG sin dlss3 ese es el resumen

No,en varios juegos se puede usar frame generation sin usar DLSS.
@dicker31

pues no me ha pasado, se desactiva FG como opcion a la que el antialias no sea DLSS, ademas hablo del FG propietario, amd tiene otro y el loseless scaling tiene otro pero esos no son FG originales de nvidia
PSX22 escribió:@dicker31

pues no me ha pasado, se desactiva FG como opcion a la que el antialias no sea DLSS, ademas hablo del FG propietario, amd tiene otro y el loseless scaling tiene otro pero esos no son FG originales de nvidia

Algunos juegos tienen DLAA,que no es un rescalado,es un anti-aliasing bastante similar al TAA.Trabaja a resolución nativa,por lo que no te da frames,te los quita. XD .Y hay juegos,no todos,que tienen DLAA y se puede usar con frame generation.Es un buen AA,pero un poco chuponcete,aunque no tanto como el MSAA.
dicker31 escribió:
PSX22 escribió:@dicker31

pues no me ha pasado, se desactiva FG como opcion a la que el antialias no sea DLSS, ademas hablo del FG propietario, amd tiene otro y el loseless scaling tiene otro pero esos no son FG originales de nvidia

Algunos juegos tienen DLAA,que no es un rescalado,es un anti-aliasing bastante similar al TAA.Trabaja a resolución nativa,por lo que no te da frames,te los quita. XD .Y hay juegos,no todos,que tienen DLAA y se puede usar con frame generation.Es un buen AA,pero un poco chuponcete,aunque no tanto como el MSAA.


lo sabia, DLAA lo considero DLSS por ser parte del paquete nvidia pero esta claro que supera 4K si lo activas a 4K, si es un rescalado, pero un downsampling ya que a 4K renderiza a mas y no lo puedes mostrar en pantalla 4K, pero si mejora por downsampling la presentacion , alias etc Y traga exagerado como lo combines con MSA apaga, que no suele ser habitual pero puedes aplicar varios antialias en paralelo aunque ya es mas por testeo que por que tena algun sentido

DLSS rebajando resolucion tambien es un metodo de anti alias muchos juegos asi lo llaman , junto al xess , frs etc, son todo algoritmos de anti alias
PSX22 escribió:
dicker31 escribió:
PSX22 escribió:@dicker31

pues no me ha pasado, se desactiva FG como opcion a la que el antialias no sea DLSS, ademas hablo del FG propietario, amd tiene otro y el loseless scaling tiene otro pero esos no son FG originales de nvidia

Algunos juegos tienen DLAA,que no es un rescalado,es un anti-aliasing bastante similar al TAA.Trabaja a resolución nativa,por lo que no te da frames,te los quita. XD .Y hay juegos,no todos,que tienen DLAA y se puede usar con frame generation.Es un buen AA,pero un poco chuponcete,aunque no tanto como el MSAA.


lo sabia, DLAA lo considero DLSS por ser parte del paquete nvidia pero esta claro que supera 4K si lo activas a 4K, si es un rescalado, pero un downsampling ya que a 4K renderiza a mas y no lo puedes mostrar en pantalla 4K, pero si mejora por downsampling la presentacion , alias etc Y traga exagerado como lo combines con MSA apaga, que no suele ser habitual pero puedes aplicar varios antialias en paralelo aunque ya es mas por testeo que por que tena algun sentido

DLSS rebajando resolucion tambien es un metodo de anti alias muchos juegos asi lo llaman , junto al xess , frs etc, son todo algoritmos de anti alias

Bueno,realmente DLSS no es "solo" un AA,es un TAAU pero por IA.
MSAA supongo que cada vez se usará menos porque su impacto en el rendimiento es muy alto.El otro día lo puse a tope por probar en RDR2...y vaya pase de diapositivas mas guapo que me quedo. XD
Bueno, como esto sea verdad, la RTX 5090 va a ser todavia más problematica para meterla en la torre que lo que fue la RTX 4090. https://videocardz.com/newz/nvidia-gefo ... hree-parts
Imagen

A ver con que consumos y generación de calor se planta esta grafica. :)
Tras pasar hellblade 2 los 12gb de vram ha cumplido,

4K DLSS (modo calidad / rendimiento al gusto) FG consume unos 10.5GB en el peor de los casos sobre 60-80 fps

Si esto es el techo hasta 2028 en ps5, estamos muy contentos con su futuro


Y ademas parece increible el dlss en modo calidad y ultrarendimiento apenas se nota la perdida pero de locos


Me ponia a 60cm de la oled y apenas habia perdida de calidad es brujeria


Esto puede hacer que en 2027 lo tire todo con dlss ultrarendimiento a 60 fps con ayuda de FG ya incluso 80/100 fps
PSX22 escribió:Tras pasar hellblade 2 los 12gb de vram ha cumplido,

4K DLSS (modo calidad / rendimiento al gusto) FG consume unos 10.5GB en el peor de los casos sobre 60-80 fps

Si esto es el techo hasta 2028 en ps5, estamos muy contentos con su futuro


Y ademas parece increible el dlss en modo calidad y ultrarendimiento apenas se nota la perdida pero de locos


Me ponia a 60cm de la oled y apenas habia perdida de calidad es brujeria


Esto puede hacer que en 2027 lo tire todo con dlss ultrarendimiento a 60 fps con ayuda de FG ya incluso 80/100 fps

Yo voy a pasar de 8Gb a 24Gb. No veo la hora de que me llegue ya el juguetito nuevo. [chiu]
@Trimaxion

hombre te has gastado 4200 jaja no creo que tu problema sea la vram en los proximos 8 años, mas bien sera la factura de la luz y el extintor por si se pega fuego el conector de la 4090 [sati]
Pues si hacen esos inventos con la 5090 se me van quitando las ganas de comprar... Si al final vas a necesitar una fuente de 1000w ya me parece exagerado y no le veo mucho sentido.
eric_14 escribió:Pues si hacen esos inventos con la 5090 se me van quitando las ganas de comprar... Si al final vas a necesitar una fuente de 1000w ya me parece exagerado y no le veo mucho sentido.

Pues mi ordenador nuevo con una 4090 y un Ryzen 9 7950x3d ya lleva una fuente de 1200w [fiu]

Mas que nada por que la gráfica si se pone a tope consume 600W. [+furioso]
no se como sera las 4090 pero en la 4070 puedes bajar la curva y reduzco facil unos 50W de 200, un 20% facilmente.

igual vosotros podeis pasar de 450W a 350W y sin perder rendimiento y encima mas fresca
PSX22 escribió:no se como sera las 4090 pero en la 4070 puedes bajar la curva y reduzco facil unos 50W de 200, un 20% facilmente.

igual vosotros podeis pasar de 450W a 350W y sin perder rendimiento y encima mas fresca

Lo de la 4090 en ese ,es otro nivel.
Puedes bajar a 150w sin a penas palmar rendimiento.
En juegos en los que va sobrada ,que son bastante y no te hace falta más ,yo he llegado a jugar por ejemplo, a Banishers ,a 90w-150w con todo en ultra en 1440p.
Te puedes quedar en unos 250w sin perder básicamente nada y rindiendo bastante por encima de una 4080 Super.
Puedes estar po debajo de los 300w rindiendo más que de stock.
Es una locura.Como digo, otro nivel de gráfica,no sólo.ppr sunpptencia ,sino por cómo refrigeran de bien y las maravillas que te permite hacer con Undervolt.

Por ejemplo, ese Banisehrs ,lo he jugado a 39°c. .

Para que te hagas una idea , tengo perfiles con 850mV y solo 2415mhz de reloj y otros con 1050 mV y 3000 MHz de reloj.
Ambos bajan el consumo,pero en el segundo caso, ganas rendimiento , y en el primer, baja suma burrada el consumo y las yemperaturas y a penas palmas rendimiento.

@Trimaxion
Lo más aconsejable es que le hagas Undervolt y que no pases de 450w ,porque no te renta ,y porque no te la juegas a un posible quemado del cable.

@eric_14
No hace falta fuente de 1200w para una 4090.
Yo voy con una de 850 y me sobra por todos lados.
En carga ,no se pone nunca jamás a más de 350w ,y en algunos juegos ,voy a 100+150w.
Echa cuentas.
hh1 escribió:
PSX22 escribió:@Trimaxion
Lo más aconsejable es que le hagas Undervolt y que no pases de 450w ,porque no te renta ,y porque no te la juegas a un posible quemado del cable.

Y eso como se hace? Donde se hace? Queremo de sabe...... [angelito]
Trimaxion escribió:
hh1 escribió:
PSX22 escribió:@Trimaxion
Lo más aconsejable es que le hagas Undervolt y que no pases de 450w ,porque no te renta ,y porque no te la juegas a un posible quemado del cable.

Y eso como se hace? Donde se hace? Queremo de sabe...... [angelito]

Con ,por la jemolo, el.MSzi aftetbutner

Tienes muchos titoriales en Youtube.
Es relativamente sencillo hacerlo.
Otra cosa es afinarlo, ya que eso depende del tiempo que le quieras invertir y de cada gráfica.
No salen todas iguales.

Pero te puedes basar en parámetros estandrad de la gente en internet o de los que te pongamos por aquí.Te deberían funcionar.

@PSX22
Desde 4K se notan menos las perdidas de calidad por DLSS.

Yo he probado Hellblade 2 todo al máximo, y lo estoy jugando 1440p a unos 110 fps en DLSS calidad.
Con Frame gererator se va a más de 180fps y la verdad es que en este tipo de juegos ,lo veo absurdo.
hh1 escribió:
Trimaxion escribió:
hh1 escribió:

Y eso como se hace? Donde se hace? Queremo de sabe...... [angelito]

Con ,por la jemolo, el.MSzi aftetbutner

Tienes muchos titoriales en Youtube.
Es relativamente sencillo hacerlo.
Otra cosa es afinarlo, ya que eso depende del tiempo que le quieras invertir y de cada gráfica.
No salen todas iguales.

Pero te puedes basar en parámetros estandrad de la gente en internet o de los que te pongamos por aquí.Te deberían funcionar.

Probare. Si veis una nube que asciende con forma de hongo por Barcelona he sido yo que he tocado algo que no debo [carcajad] [carcajad] [carcajad]
Trimaxion escribió:
hh1 escribió:
Trimaxion escribió:Y eso como se hace? Donde se hace? Queremo de sabe...... [angelito]

Con ,por la jemolo, el.MSzi aftetbutner

Tienes muchos titoriales en Youtube.
Es relativamente sencillo hacerlo.
Otra cosa es afinarlo, ya que eso depende del tiempo que le quieras invertir y de cada gráfica.
No salen todas iguales.

Pero te puedes basar en parámetros estandrad de la gente en internet o de los que te pongamos por aquí.Te deberían funcionar.

Probare. Si veis una nube que asciende con forma de hongo por Barcelona he sido yo que he tocado algo que no debo [carcajad] [carcajad] [carcajad]

Yo te lo digo porque no te compensa 600w ni por consumo, ni por temperaturas ni por rendimiento.
Al menos es mi forma de verlo.
Y menos ,con el riesgo de los quemados.

Si necesitas ayuda en algo, me lo dices. [beer]
dicker31 escribió:
PSX22 escribió:
dicker31 escribió:Algunos juegos tienen DLAA,que no es un rescalado,es un anti-aliasing bastante similar al TAA.Trabaja a resolución nativa,por lo que no te da frames,te los quita. XD .Y hay juegos,no todos,que tienen DLAA y se puede usar con frame generation.Es un buen AA,pero un poco chuponcete,aunque no tanto como el MSAA.


lo sabia, DLAA lo considero DLSS por ser parte del paquete nvidia pero esta claro que supera 4K si lo activas a 4K, si es un rescalado, pero un downsampling ya que a 4K renderiza a mas y no lo puedes mostrar en pantalla 4K, pero si mejora por downsampling la presentacion , alias etc Y traga exagerado como lo combines con MSA apaga, que no suele ser habitual pero puedes aplicar varios antialias en paralelo aunque ya es mas por testeo que por que tena algun sentido

DLSS rebajando resolucion tambien es un metodo de anti alias muchos juegos asi lo llaman , junto al xess , frs etc, son todo algoritmos de anti alias

Bueno,realmente DLSS no es "solo" un AA,es un TAAU pero por IA.
MSAA supongo que cada vez se usará menos porque su impacto en el rendimiento es muy alto.El otro día lo puse a tope por probar en RDR2...y vaya pase de diapositivas mas guapo que me quedo. XD


correcto , el DLAA es un Antialiasing de Nvidia que se hace mediante los tensor cores de la grafica con IA , proporciona una calidad de imagen superior al TAA tradicional , y el Frame Generation se puede usar independientemente de DLSS o DLAA , también se puede usar con TAA o sin AA si así lo prefieres

un saludo.
Buenas, me quiero pillar una 4070 super y tengo dudas con el tema de la alimentación, el famoso adaptador vienen inccluido? En caso contrario me recomendáis uno, o igual hasta mejor el cable entero para una fuente modular

De hecho estoy pensando en cambiar todos los cables aunque no se muy bien donde buscar algo de calidad aceptable
Si la gráfica no incluye conectores PCI-E (la inmensa mayoría, solo algunas utilizan conectores PCI-E) te incluirá un adaptador. Respecto a un cable para una fuente modular, ahí te toca mirar en la web del fabricante y mirar para tu modelo EXACTO de gráfica si los venden aparte. Cada fabricante y modelo puede tener un esquema diferente y no valen los de unos modelos para otros (en algunos casos sí, pero no como norma general).

Saludos.
13626 respuestas
1268, 269, 270, 271, 272, 273