[HO] NVIDIA GeForce RTX 5000

¿Alguien sabe si los drivers nuevos de hoy incluyen la nueva versión de DLSS 310.5.3?

https://github.com/NVIDIA/DLSS/releases
sirodyn escribió:Por lo que he entendido en el vídeo de digital foundry (mi inglés es muy malo) en la serie 5000 es mejor utilizar, en casi todo los casos, el preset M en modo rendimiento que el preset K en calidad. Que en juegos con ray tracing no está muy conseguido el preset M pero no me queda claro que en estos casos sea mejor el preset K.
He entendido bien el vídeo?
Estáis de acuerdo con eso? Que el preset M en rendimiento vaya mejor que el K en calidad?

No es preset k en calidad, si te fijas en el texto de cada modo, la mayoría de casos (por no decir todos) comparan el preset K en performance (PERF) con el preset M en performance.

Me parece una comparación algo engañosa porque el M tiene mas pérdida de rendimiento que el E, y quizás lo suyo hubiera sido comparar los modos como Nvidia recomienda: preset K en calidad (o balance que es algo peor) vs preset M en performance.

Luego cuando hablan de rendimiento comparan los preset K y M para demostrar lo que ya se sabía y dijo Nvidia, y es que el nuevo M penaliza mas en generaciones anteriores (sobre todo 3000).

Y a ver, aunque hay cosas que se deducen que podría estar mal en preset K calidad igual que lo hace en performance, como el tema de ghosting, pero el caso es que han mostrado preset K performance y no calidad con lo cual... y si no es así y el preset K en calidad se ve bien? Pues el M tendría menos sentido.

En cuanto a lo del ray tracing hay que destacar que no son todos los casos de ray tracing, cuando se usa ray reconstruction el modo M no penaliza a nivel visual como sí lo hace los que no tienen ray tracing, lo expliqué en este post de la info que ponen en el video: viewtopic.php?p=1756492345#p1756492345
Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/

Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.
hh1 escribió:
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/

Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.


Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)
Strait escribió:
hh1 escribió:
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/

Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.

Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)

No confundas, DLSS cuando se entiende como el super resolution, NO añade latencia sino que la mejora. FG ya es otro tema porque de base sí añade latencia por cómo se inventa le frame, aunque con Nvidia Reflex (y la tecnología de AMD) reduzca esa latencia.

Precisamente DLSS lo que consigue es que tengas mas fps reales (desde distinta resolución origen), pero el frame no se ha inventado, si eso "estirado" y a menos que visualmente notes algún tipo de imperfección molesta, es totalmente recomendado usarlo para ganar mas fps y por lo tanto tener menos latencia.

Y aclaro por si vas a entrar a un detalle absurdo para justificarte, por mucho que DLSS Super resolution pueda añadir un mínimo de latencia por el simple hecho de hacer algo más que simplemente no hacer nada (esto es de lógica), lo que ganas de latencia como resultado de tener mas FPS destroza esa posible pérdida de latencia y encima ayuda a que todavía se tenga menos latencia que sin DLSS.


@hh1 ahora leo tu comentario... lees que se gana latencia porque como también dice, se pierde rendimiento, lo que hace tener menos fps y por lógica mas latencia por justo lo que acabo de explicar: but performance also dropped w/ a INCREASE to latency.

Es como decir que porque hace mas calor hace menos frio, parece que ha liado mas que otra cosa XD

No leáis al 1º donnadie en reddit o donde sea y os creáis lo que dice como si fuera la verdad, suele tener mas sentido hacer mas caso a comentarios mas breves con mas votos (y no una biblia como el 1º post que quizás dice muchas cosas útiles y varios bulos pero la gente valora el esfuerzo). Por ejemplo, sin ir lejos, la 1º respuesta mas votada dice lo siguiente, cosa que lo veo correcto y es lo que explicaba:
DLSS FG only adds input latency when enabled. Simple as that. If there is no FG turned on, there is no increase input latency.

Now DLSS upscaling vs native, the upscaling will have less latency since it will have a higher FPS.


De hecho justo buscando a ver qué comentaban del DLSS precisamente había visto un comentario de otro que tampoco tenía ni idea diciendo precisamente que el DLSS se recomienda NO usar en juegos competitivos... y tenía 1 voto negativo y respuestas diciéndole que se equivocaba. Pero he refrescado la página y ya no veo ese mensaje, quizás lo ha borrado el autor para evitar esparcir bulos (bien hecho si así lo ha hecho).
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/


Pero esta hablando de consumo

Dice que baja el consumo y sube la latencia, lo cual siendo realistas no tiene puto sentido ninguna de las 2 [qmparto]
Strait escribió:
hh1 escribió:
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/

Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.


Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)

Ya ,pero DLSS si quiero fps y que se vea bien, es lo que hay.
FG ,ni de coña.

Tampoco tengo yo muy claro que DLSS sea algo chungo agregando latencia,o eso tenía entendido
hh1 escribió:
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/

Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.

Prueba el preset E, yo lo uso en BF6 y da fps a cholón!
Una pregunta sobre el 4.5 que no me queda muy claro en que escenarios usarlo.

Yo juego en 4k Nativo/DLAA y como mucho DLSS calidad, el rendimiento no me preocupa ya que me sobra.

Bien, en el panel lo tengo todo por defecto, es decir: "Utilizar la configuración de la aplicación 3D".

Me estoy perdiendo algo? como dije antes el rendimiento no me preocupa y lo que quiero es la mayor calidad posible.
@Rvilla87 yo entiendo que el dlss añade algo de latencia, no se cuánta pero tiene que añadir.

Entiendo que la GPU genera una imagen y luego con dlss se agranda debería añadir justamente ese tiempo, lo que tarde en agrandar la imagen que debería ser muy poco.

En los juegos competitivos normalmente se ponen casi todos los detalles al mínimo y a nada que tengas un pc decente llegas al máximo de fps que da tu monitor ya que no suelen ser juegos muy exigentes.

Yo entiendo que en ese caso, es preferible no usar dlss ni cualquier otra tecnología de escalado.

Ahora bien si tú pc no llega a los Hz del monitor en ese caso yo si usaría dlss.

Por supuesto que el fg lo dejaría desactivado siempre.
_Bender_ escribió:@Rvilla87 yo entiendo que el dlss añade algo de latencia, no se cuánta pero tiene que añadir.

Entiendo que la GPU genera una imagen y luego con dlss se agranda debería añadir justamente ese tiempo, lo que tarde en agrandar la imagen que debería ser muy poco.

Sí, sin saber cuánta latencia añade, tiene lógica que así sea, pero es que no tiene sentido hablar de ese posible añadido de latencia, es lo que explico en la parte de "Y aclaro por si vas a entrar a un detalle absurdo".

A ver, lo explico porque quizás doy por hecho que es mas conocido de lo que realmente es.

Uno de los valores mas importantes en el tema latencia son los FPS, y el motivo es que cuanto antes te llegue la imagen, antes podrás actuar. Con esta tabla (en parte sacado de rtings) se puede ver la diferencia (vamos a suponer que usamos VRR y fps = hz):

    - 1 fps --> La imagen se refresca cada 1000 ms
    - 30 fps --> La imagen se refresca cada 33,33 ms
    - 60 fps --> La imagen se refresca cada 16,67 ms
    - 120 fps --> La imagen se refresca cada 8,33 ms
    - 240 fps --> La imagen se refresca cada 4,17 ms

Si tienes un monitor que soporte 240 hz y el juego sin DLSS te va a 200 fps y con DLSS te va a 240 fps, tendrías menos latencia simplemente por la mejora de fps. Lo que internamente tarde el DLSS en darte la imagen no retrasará nada la latencia porque precisamente está haciendo que la imagen te llegue antes. Si internamente tarda 1 nanosegundo o 200 nanosegundos en hacerlo, da igual porque lo que te consigue adelantar la imagen redimensionada se ha "cargado" esa minúscula latencia de nanosegundos de sobras.

_Bender_ escribió:En los juegos competitivos normalmente se ponen casi todos los detalles al mínimo y a nada que tengas un pc decente llegas al máximo de fps que da tu monitor ya que no suelen ser juegos muy exigentes.

Yo entiendo que en ese caso, es preferible no usar dlss ni cualquier otra tecnología de escalado.

Ahora bien si tú pc no llega a los Hz del monitor en ese caso yo si usaría dlss.

Claro, eso último es clave, si tu PC no llega a los hz del monitor... por eso cuando decía que DLSS ayuda precisamente a tener menos latencia era porque como decía, ganaba FPS ("lo que consigue es que tengas mas fps reales"). Si no se gana FPS (el caso que dices de llegar a los hz máximos que soporta tu monitor), no se cumple lo que decía de que se gana rendimiento y por lo tanto no aplica lo que decía.

Vamos, que así como decir que FG aumenta latencia aunque se gane en rendimiento/fps y de eso no hay duda (por poca que pueda haber con reflex o similar), con DLSS no se puede afirmar lo mismo, y eso es lo que trataba de explicar.
Rvilla87 escribió:
_Bender_ escribió:@Rvilla87 yo entiendo que el dlss añade algo de latencia, no se cuánta pero tiene que añadir.

Entiendo que la GPU genera una imagen y luego con dlss se agranda debería añadir justamente ese tiempo, lo que tarde en agrandar la imagen que debería ser muy poco.

Sí, sin saber cuánta latencia añade, tiene lógica que así sea, pero es que no tiene sentido hablar de ese posible añadido de latencia, es lo que explico en la parte de "Y aclaro por si vas a entrar a un detalle absurdo".

A ver, lo explico porque quizás doy por hecho que es mas conocido de lo que realmente es.

Uno de los valores mas importantes en el tema latencia son los FPS, y el motivo es que cuanto antes te llegue la imagen, antes podrás actuar. Con esta tabla (en parte sacado de rtings) se puede ver la diferencia (vamos a suponer que usamos VRR y fps = hz):

    - 1 fps --> La imagen se refresca cada 1000 ms
    - 30 fps --> La imagen se refresca cada 33,33 ms
    - 60 fps --> La imagen se refresca cada 16,67 ms
    - 120 fps --> La imagen se refresca cada 8,33 ms
    - 240 fps --> La imagen se refresca cada 4,17 ms

Si tienes un monitor que soporte 240 hz y el juego sin DLSS te va a 200 fps y con DLSS te va a 240 fps, tendrías menos latencia simplemente por la mejora de fps. Lo que internamente tarde el DLSS en darte la imagen no retrasará nada la latencia porque precisamente está haciendo que la imagen te llegue antes. Si internamente tarda 1 nanosegundo o 200 nanosegundos en hacerlo, da igual porque lo que te consigue adelantar la imagen redimensionada se ha "cargado" esa minúscula latencia de nanosegundos de sobras.

_Bender_ escribió:En los juegos competitivos normalmente se ponen casi todos los detalles al mínimo y a nada que tengas un pc decente llegas al máximo de fps que da tu monitor ya que no suelen ser juegos muy exigentes.

Yo entiendo que en ese caso, es preferible no usar dlss ni cualquier otra tecnología de escalado.

Ahora bien si tú pc no llega a los Hz del monitor en ese caso yo si usaría dlss.

Claro, eso último es clave, si tu PC no llega a los hz del monitor... por eso cuando decía que DLSS ayuda precisamente a tener menos latencia era porque como decía, ganaba FPS ("lo que consigue es que tengas mas fps reales"). Si no se gana FPS (el caso que dices de llegar a los hz máximos que soporta tu monitor), no se cumple lo que decía de que se gana rendimiento y por lo tanto no aplica lo que decía.

Vamos, que así como decir que FG aumenta latencia aunque se gane en rendimiento/fps y de eso no hay duda (por poca que pueda haber con reflex o similar), con DLSS no se puede afirmar lo mismo, y eso es lo que trataba de explicar.

Si he entendido bien lo que explicas del DLSS llevándolo a un ejemplo más mundano sería algo como el siguiente ejemplo (corrígeme si estoy equivocado)

El DLSS (hablando del escalado de resolución) es como comerse un yogurt desnatado, estás metiendo a tu cuerpo las calorías de comerte el yogurt (incremento de latencia por encender el DLSS) pero al final tu cuerpo gasta más calorías de las que has consumido con el propio yogurt para poder hacer la digestión del mismo (mejora de la latencia por ganar rendimiento en FPS al haber activado el DLSS) por lo que comerte el yogurt en el cómputo final te ha hecho perder calorías no ganarlas (es decir bajar la latencia no subirla)
Rvilla87 escribió:
Strait escribió:
hh1 escribió:Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.

Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)

No confundas, DLSS cuando se entiende como el super resolution, NO añade latencia sino que la mejora. FG ya es otro tema porque de base sí añade latencia por cómo se inventa le frame, aunque con Nvidia Reflex (y la tecnología de AMD) reduzca esa latencia.

Precisamente DLSS lo que consigue es que tengas mas fps reales (desde distinta resolución origen), pero el frame no se ha inventado, si eso "estirado" y a menos que visualmente notes algún tipo de imperfección molesta, es totalmente recomendado usarlo para ganar mas fps y por lo tanto tener menos latencia.

Y aclaro por si vas a entrar a un detalle absurdo para justificarte, por mucho que DLSS Super resolution pueda añadir un mínimo de latencia por el simple hecho de hacer algo más que simplemente no hacer nada (esto es de lógica), lo que ganas de latencia como resultado de tener mas FPS destroza esa posible pérdida de latencia y encima ayuda a que todavía se tenga menos latencia que sin DLSS.


@hh1 ahora leo tu comentario... lees que se gana latencia porque como también dice, se pierde rendimiento, lo que hace tener menos fps y por lógica mas latencia por justo lo que acabo de explicar: but performance also dropped w/ a INCREASE to latency.

Es como decir que porque hace mas calor hace menos frio, parece que ha liado mas que otra cosa XD

No leáis al 1º donnadie en reddit o donde sea y os creáis lo que dice como si fuera la verdad, suele tener mas sentido hacer mas caso a comentarios mas breves con mas votos (y no una biblia como el 1º post que quizás dice muchas cosas útiles y varios bulos pero la gente valora el esfuerzo). Por ejemplo, sin ir lejos, la 1º respuesta mas votada dice lo siguiente, cosa que lo veo correcto y es lo que explicaba:
DLSS FG only adds input latency when enabled. Simple as that. If there is no FG turned on, there is no increase input latency.

Now DLSS upscaling vs native, the upscaling will have less latency since it will have a higher FPS.


De hecho justo buscando a ver qué comentaban del DLSS precisamente había visto un comentario de otro que tampoco tenía ni idea diciendo precisamente que el DLSS se recomienda NO usar en juegos competitivos... y tenía 1 voto negativo y respuestas diciéndole que se equivocaba. Pero he refrescado la página y ya no veo ese mensaje, quizás lo ha borrado el autor para evitar esparcir bulos (bien hecho si así lo ha hecho).


Esto ya se demostró hace muchos años. Si comparamos la imagen real con el DLSS gana el DLSS en tiempo de respuesta, pero porque estamos comparando una imagen a 2k con pocos fps a otra a 1080p reescalada con más FPS, pero si cogemos la imagen real y la ponemos al mismo tamaño de la imagen a la que funciona el DLSS tiene mejor input lag. En este caso es 1ms mejor. Es tontería, el DLSS es un postprocesado relativamente complejo, y todo lo que sean postprocesados añaden algo de latencia. Demasiado bien va para lo que es. Lo que no sé si el DLSS actual funciona más rápido o más lento (puede que sea más lento viendo que el rendimiento de los presets nuevos es cada vez peor)

Imagen
@dunkam82 sí, ese ejemplo me parece que concuerda con lo que explicaba.

Otro ejemplo que se me ocurre, es como si te pesaras en una báscula y ves que indica 70 Kg pero luego tienes un cinturón especial (DLSS) que pesa 1 KG (con lo cual pesarías 71 Kg) pero tiene micropropulsores que te intentan propulsar muy levemente hacia arriba haciendo que "pierdas" 10 Kg y acabando con un peso final de 61 Kg.

Vamos, aunque es verdad que el cinturón te haga pesar mas por el simple hecho de ponerte algo adicional, te ayuda a que peses menos por el trabajo que hace.

Aunque ahora explico mejor la relación de fps <--> latencia porque tampoco es una relación directa en un caso real, ya que el tema está relacionado con muchas otras cosas que no solo los fps/hz.

Strait escribió:Esto ya se demostró hace muchos años. Si comparamos la imagen real con el DLSS gana el DLSS en tiempo de respuesta, pero porque estamos comparando una imagen a 2k con pocos fps a otra a 1080p reescalada con más FPS, pero si cogemos la imagen real y la ponemos al mismo tamaño de la imagen a la que funciona el DLSS tiene mejor input lag. En este caso es 1ms mejor. Es tontería, el DLSS es un postprocesado relativamente complejo, y todo lo que sean postprocesados añaden algo de latencia. Demasiado bien va para lo que es.

Imagen

¿Por qué no pones la fuente para que todos lo podamos comprobar y veamos si interpretamos lo mismo que tú o quizás algo diferente? Qué poco me gusta cuando la gente hace esto, a ti justamente ya te lo he visto hacer alguna que otra vez: hilo_ho-nvidia-geforce-rtx-5000_2507243_s12850#p1755713335

Aquí la fuente justo en esa parte de tu captura (min 10:53):

Justo lo he puesto en ese momento pero donde, anda qué raro que convenientemente no lo hubieras visto (porque no lo has visto, no?) hablan del caso 1080p donde justo indica que con DLSS calidad tiene la misma latencia que su respectivo modo sin DLSS a 85% de resolución a similar número de fps.

Y luego, otra cosa que tampoco habrás visto convenientemente, que son las conclusiones a las que llega Hardware Unboxed en el min 11:20 y que creo que despeja cualquier duda del tema:
(castellano)
Hardware Unboxed escribió:Ahora tenemos una respuesta bastante buena a la pregunta de si DLSS afecta a la latencia de entrada. La respuesta a esta pregunta, en la mayoría de los casos de uso realistas, es no.

Si DLSS proporciona un aumento del rendimiento, es muy probable que también se observe una disminución de la latencia de entrada.

El grado en que mejora la latencia de entrada está muy relacionado con el aumento de la velocidad de fotogramas. Cuanto más aumente DLSS la velocidad de fotogramas, más disminuirá la latencia de entrada. Pero incluso cuando el aumento del rendimiento es pequeño, normalmente también se observa una pequeña mejora en la latencia.

Sin embargo, hay algunos casos extremos en los que DLSS puede perjudicar la latencia de entrada. Estos se dan cuando la CPU está limitada [...]. En estas situaciones, DLSS no proporciona ninguna ventaja de rendimiento, ya que la reducción de la resolución de renderizado no suele mejorar la velocidad de fotogramas cuando la CPU está limitada. De hecho, el rendimiento puede empeorar debido a la sobrecarga de DLSS, lo que provoca un pequeño aumento de la latencia en un par de escenarios que hemos evaluado, normalmente 1080 con ajustes bajos.

(inglés)
Hardware Unboxed escribió:So now we have a pretty god answer to question wether DLSS impacts input latency. The answer to this in most realistic use cases is gonna be no.

If DLSS is providing a performance increase it's very likely you'll also be seeing a decreased input latency.

The degree to which input latency inproves is tied pretty closely to the rise in frame rate. The most DLSS can boost that frame rate the more it will decrease input latency. But even when permormance increases are small, typically you'll still see a small latency benefit as well.

However there are some edge cases where DLSS can hurt input latency. These are going to be when you're CPU limited [...]. In these situations DLSS doesn't provide any performance benefit as reducing the render resolution typically doesn't improve framerate when CPU limited. In fact performance can get worse due to the overhed of DLSS leading to a small increase of latency in a couple of scenarios we benchmarked, typically 1080 using low settings.

Precisamente es lo que expliqué en mi anterior comentario, que viene siendo lo que se ve en el 99% de casos de ese video, y no ese caso puntual que indicaste.

En juegos competitivos, o mas que el hecho que sean competitivos, los que tengamos limitación por CPU, el DLSS es peor pero por la sencilla lógica, como también explican los de Hardware Unboxed, que con DLSS tendremos menos FPS. Vamos, de nuevo se cumple lo que expliqué antes.

La pregunta que me hago es, ¿cómo es posible que hayas llegado a la fuente de información y de forma totalmente partidista solo destacaste una parte minúscula de ese video parece que te da la razón a lo que afirmaste cuando el 99,9% restante del video no te la da a ti sino a lo que explicaba yo? Es que hasta el punto ha sido cutre que cortaste la captura para que solo se vea el caso 1440p y no el de 1080p que desmonta lo que decías. Quizás lo has sacado de otro sitio y ha sido otra persona quien fue partidista, pero vamos, no es la 1º vez que lo haces y déjame que dude de tus buenas intenciones.


Y aun con todo esto, es que resulta que la latencia no es solo un tema de FPS e incluso ese caso aislado que comentas (para nada algo general como hiciste ver con tu 1º comentario), podría estar afectando por otros factores diferente a los FPS. Hay mucho mas detrás, aquí lo explica un ingeniero de Nvidia:


No he visto el video pero recuerdo ver algo similar, tampoco me interesa saber todo ese detalle porque no me molesta especialmente unos pocos milisegundos de latencia. A quien le interese mucho el tema y quieran aplicarlo, si no recuerdo mal creo que había una web donde daban muchos consejos, a nivel de elegir mejores componentes (ratón/gamepad/monitor/etc), configuración de juegos o panel de control de la gráfica, activar/desactivar cosas en windows/apps y cosas así, lo leí muy en diagonal y ahora ni recuerdo qué web era.
En un mismo hardware siempre vas a ganar reducción en latencia con DLSS activado porque esa es su magia, escalar desde una resolución inferior, pero obviamente, si enfrentas DLSS escalado a otro Hardware potente que mueve la misma resolución en nativo a los mismos FPS el DLSS te va a meter un poco de latencia, tampoco una locura, pero si que la mete, pero la gracia del DLSS no está en compararlo entre dos máquinas diferentes, una más potente que otra, está en la ventaja que da desde un mismo hardware, donde ahí si ganas una reducción de latencia bastante pronunciada que copensa de sobras esa ridícula latencia que mete, todo eso gracias a ese reescalado mágico desde una resolución inferior.


Al final la latencia, el frame time, está directamente condicionado por los FPS, a más FPS menos frame time, a menos FPS más frame time, por lo que en una misma máquina si no haces un downscale a una resolución inferior, si vas ahogado en la nativa, el frame time será superior, por eso no tiene sentido compararlo con otro PC o romperse la cabeza con que introduce latencia, que lo hace, pero no es algo malo porque lo que ganas es una locura, es como si por dar 20 céntimos te diesen 50 euros, pues si, pierdes 20 céntimos, pero has ganado 50 euros, buscarle a eso las cosquillas pues no tiene mucho sentido la verdad, porque todos cambiaríamos esos 20 céntimos por esos 50 euros, y el que tiene 50 euros los cambiaría por 12500.

Además está el tema de que actúa como un AA muy bueno respecto a un AA como podría ser el TAA que es el que estaba más extendido por su bajo consumo en recursos, pero es que es mejor que MSAA, que para mover MSAA tenías que tener una GPU muy top o incluso esperar una generación siguiente.

De hecho tuve un enganche fuera del foro sobre el tema donde me vendían que el DLSS era una mierda y que metía input lag, todo el rato intentando despreciarlo, que no era 4K real, por el típico debate de que no necesitas gastar 3000 euros en un PC (aunque ahora con lo de la ram y tal igual si que compro ese argumento [carcajad] ), todo para justificar que se habían dejado un pastizal en sus GPUs y que jugar en nativo era mejor, lo mismo ni usaban DLAA, no les pregunté por los monitores pero no me extrañaría 1440p y 5080 + 5090 [carcajad]

Les dolió que con una 3080 estuviera jugando en 4K 60fps a muchos juegos actuales con presets casi en ultra X D, aunque ansío sus 5080 cuando uso reshade o ciertos mods gráficos [+risas]
katatsumuri escribió:En un mismo hardware siempre vas a ganar reducción en latencia con DLSS activado porque esa es su magia, escalar desde una resolución inferior, pero obviamente, si enfrentas DLSS escalado a otro Hardware potente que mueve la misma resolución en nativo a los mismos FPS el DLSS te va a meter un poco de latencia, tampoco una locura, pero si que la mete, pero la gracia del DLSS no está en compararlo entre dos máquinas diferentes, una más potente que otra, está en la ventaja que da desde un mismo hardware, donde ahí si ganas una reducción de latencia bastante pronunciada que copensa de sobras esa ridícula latencia que mete, todo eso gracias a ese reescalado mágico desde una resolución inferior.


Al final la latencia, el frame time, está directamente condicionado por los FPS, a más FPS menos frame time, a menos FPS más frame time, por lo que en una misma máquina si no haces un downscale a una resolución inferior, si vas ahogado en la nativa, el frame time será superior, por eso no tiene sentido compararlo con otro PC o romperse la cabeza con que introduce latencia, que lo hace, pero no es algo malo porque lo que ganas es una locura, es como si por dar 20 céntimos te diesen 50 euros, pues si, pierdes 20 céntimos, pero has ganado 50 euros, buscarle a eso las cosquillas pues no tiene mucho sentido la verdad, porque todos cambiaríamos esos 20 céntimos por esos 50 euros, y el que tiene 50 euros los cambiaría por 12500.

Además está el tema de que actúa como un AA muy bueno respecto a un AA como podría ser el TAA que es el que estaba más extendido por su bajo consumo en recursos, pero es que es mejor que MSAA, que para mover MSAA tenías que tener una GPU muy top o incluso esperar una generación siguiente.

De hecho tuve un enganche fuera del foro sobre el tema donde me vendían que el DLSS era una mierda y que metía input lag, todo el rato intentando despreciarlo, que no era 4K real, por el típico debate de que no necesitas gastar 3000 euros en un PC (aunque ahora con lo de la ram y tal igual si que compro ese argumento [carcajad] ), todo para justificar que se habían dejado un pastizal en sus GPUs y que jugar en nativo era mejor, lo mismo ni usaban DLAA, no les pregunté por los monitores pero no me extrañaría 1440p y 5080 + 5090 [carcajad]

Les dolió que con una 3080 estuviera jugando en 4K 60fps a muchos juegos actuales con presets casi en ultra X D, aunque ansío sus 5080 cuando uso reshade o ciertos mods gráficos [+risas]

Hombre, yo uso monitor 1440p con una 5080.
No veo dónde está el problema.
Prefiero priorizar fps a resolución, por no hablar de que no me gusta estar obligado a alimentar el 4K, porque nunca sé hasta cuando podré o hasta cuanto estaré dispuesto a gastar.

No veo el problema ,como te digo.Y si en algunos juegos voy muy sobrado de fps ,tiro de DSR 4K y se ve de maravilla.
Yo acabo de pedir una Palit 5080, ya tengo las 3 gráficas más potentes , que puto enfermo joder xd

Probablemente venda la 4090 aunque es una pasada de grafica
leonigsxr1000 escribió:Yo acabo de pedir una Palit 5080, ya tengo las 3 gráficas más potentes , que puto enfermo joder xd

Probablemente venda la 4090 aunque es una pasada de grafica

Lo es, pero sinceramente, yo hice el cambio por la 5080, y ni me acuerdo de ella.
Solo rinde un pelo por debajo ,y básicamente, lo único que noto, es que para rendir cercana a la 4090, tengo que consumir más con la 5080.

La 4090 hace unos undervolts de locos.

Por lo demás, ni me doy cuenta del cambio, y si la vendes para IA, te sacas un buen dinero.
No sé lo que pagarán ahora, pero seguro que más de los 1700€ que me dieron a mí.
@hh1
Igual lo hago , 1800e de media están pagando :)
Entonces estas contento con la 5080 xd ?
leonigsxr1000 escribió:@hh1
Igual lo hago , 1800e de media están pagando :)
Entonces estas contento con la 5080 xd ?

Sin duda.
A igualdad de dinero, me quedaría con la 4090 por ese poco más que te puede rendir, sus 24gb de Vram y porque puedes hacer que consuma muy poco rendiendo más que una 5080.

Pero la 5080 con un pequeño UV con OC, se acerca bastante con DLSS 4 a la 4090.No llega ,pero casi.
Le sumas el extra de la posible utilización del MFG (nunca lo he usado, solo probado), y la verdad que el x3 va mejor de lo que yo esperaba.Bastante usable en juegos de 1 jugador (depende del juego también).

Tengo una de las baratas ,una Windforce, y las temperaturas, para mi sorpresa, son básicamente ,las mismas que la 4090.
Lo único que a la 4090 la conseguía a veces bajar más de temperatura, pero por le conseguía undervolts que no consumíán ni 200w y se perdía poquísimo rendimiento.

Esto lo debatí aquí con un usuario que tenía la 5080 y se emperraba en que esta era mejor y más eficiente.Que no hombre, que no.
Es más eficiente de stock.Pero en el momento en el que tienes que hacerle OC a la 5080 para intentar acercarte al rendimiento de una 4090 de stock y a esta le puedes hacer UV sin palmar nada de rendimiento, ya es más eficiente que la 5080.

Vamos, ni lo dudes.Es dinero regalado.Aunque ahora es peor momento que hace un mes, porque las 5080 han subido de precio.

La única duda es hasta dónde darán de sí los 16Gb de Vram.
Pues parece que ha llegado el MFG para todas las gráficas como pasó con el FG en su día: https://www.nexusmods.com/site/mods/757
@hh1
Bueno he pagado 1199e por la 5080 no está nada mal y la 4090 está un poco mas cotizada ahora que hace unos meses :)
leonigsxr1000 escribió:@hh1
Bueno he pagado 1199e por la 5080 no está nada mal y la 4090 está un poco mas cotizada ahora que hace unos meses :)

Incluso ganando 300€ ,ya vale la pena ,a mí parecer

Por menos ,yo creo que no lo haría.
hh1 escribió:
leonigsxr1000 escribió:@hh1
Bueno he pagado 1199e por la 5080 no está nada mal y la 4090 está un poco mas cotizada ahora que hace unos meses :)

Incluso ganando 300€ ,ya vale la pena ,a mí parecer

Por menos ,yo creo que no lo haría.
perdon por el oftopics , 600e de ganancia tendré, no está mal ;)
leonigsxr1000 escribió:
hh1 escribió:
leonigsxr1000 escribió:@hh1
Bueno he pagado 1199e por la 5080 no está nada mal y la 4090 está un poco mas cotizada ahora que hace unos meses :)

Incluso ganando 300€ ,ya vale la pena ,a mí parecer

Por menos ,yo creo que no lo haría.
perdon por el oftopics , 600e de ganancia tendré, no está mal ;)

Está genial porque a penas vas a notar diferencia y eso que te llevas. [beer]

Yo cuando expuse el tema ,tenía dudas.
Algunos me decían que ni de coña ,y otros que sí lo hiciera.

Ahora , a los que duden ,les digo que si ganan dinero ,lo hagan a ojos cerrados siempre que gane unos cientos de €.
Lo tengo clarísimo
SECHI está baneado del subforo hasta el 9/5/2026 18:46 por "faltas de respeto continuadas"
Aparte de recuperar dinero hay que contar los dos o tres años de disfrute, que eso es imposible de contabilizar, y que ahora tendreis una gráfica nueva con sus otros 3 años de garantía.
SECHI escribió:Aparte de recuperar dinero hay que contar los dos o tres años de disfrute, que eso es imposible de contabilizar, y que ahora tendreis una gráfica nueva con sus otros 3 años de garantía.

Exacto.Y en mi caso, el juego que más uso ha pasado a perder unos 15 fps ,no mucho más ,y ya va por encima de 200, por lo que no lo toco.
Como digo, solo noto el consumo ,que obviamente, para acercarse a la 4090, es mayor la 5080.

La 4090 la puedes tener por poco más de 200 rindiendo por encima de la 5080, por mucho OC que le hagas a esta.
La situación es tan surrealista que las gpu mas caras son las que menos se devalúan

Que una 4070 se haya devaluado mas en 3 años que una 4090 es de traca, y no hablo de porcentaje si no de dinero real....
FranciscoVG escribió:La situación es tan surrealista que las gpu mas caras son las que menos se devalúan

Que una 4070 se haya devaluado mas en 3 años que una 4090 es de traca, y no hablo de porcentaje si no de dinero real....

Toodo llega.Tarde o temprano se devaluarán mucho.
Yo lo que suelo hacer , "a mar revuelto,ganancia de pescadores"...suelo aprovechar las oportunidades.
Cuando las criptos ,igual.Compré la 3070 en 519€ y la vendí en 950€.Y pude sacar más si la hubiese vendido antes,pero estaba empecinado en conseguir una 3080 FE a 719€ y no hubo forma.Al final cambié a una 3080TI FE en 1169€.

Ahora ,lo mismo.al final, sumas todas estas cosas, y es un dineral que te vas ahorrando .

Pero sí, la situación es surrealista,igual que lo fue aquella en su momento.

Yo prefiero que no haya "cosas raras" ,la verdad.
FranciscoVG escribió:La situación es tan surrealista que las gpu mas caras son las que menos se devalúan

Que una 4070 se haya devaluado mas en 3 años que una 4090 es de traca, y no hablo de porcentaje si no de dinero real....


La 4090 es la segunda mejor gráfica del mercado en potencia y con sus 24GB de VRAM la convierte en bastante mejor opción a corto y largo plazo que las que tiene por debajo, tanto para jugar como para trabajar. Es normal y lógico que la 4090 se devalúe mucho menos que una 4070 (que ya salió bastante mal en su día)
hh1 escribió:
FranciscoVG escribió:La situación es tan surrealista que las gpu mas caras son las que menos se devalúan

Que una 4070 se haya devaluado mas en 3 años que una 4090 es de traca, y no hablo de porcentaje si no de dinero real....

Toodo llega.Tarde o temprano se devaluarán mucho.
Yo lo que suelo hacer , "a mar revuelto,ganancia de pescadores"...suelo aprovechar las oportunidades.
Cuando las criptos ,igual.Compré la 3070 en 519€ y la vendí en 950€.Y pude sacar más si la hubiese vendido antes,pero estaba empecinado en conseguir una 3080 FE a 719€ y no hubo forma.Al final cambié a una 3080TI FE en 1169€.

Ahora ,lo mismo.al final, sumas todas estas cosas, y es un dineral que te vas ahorrando .

Pero sí, la situación es surrealista,igual que lo fue aquella en su momento.

Yo prefiero que no haya "cosas raras" ,la verdad.


Ya claro en algun momento llegara, pero la 4090 va camino de tener 4 años en el mercado, es absurdo realmente cuestión de juntarse todo, que si la crisis de las memorias, la IA, y que la serie 5000 sea una puta mierda

@Strait

A ver, ya se que con en la situacion actual es algo que podia pasar, pero hablo históricamente o lo habitual

Históricamente lo logico o normal y mas si hablamos de hardwares es que cuanto mas caro sea algo mas se devalúa con el tiempo, lo es ahora por que la situación actual es un puto cachondeo
FranciscoVG escribió:@Strait

A ver, ya se que con en la situacion actual es algo que podia pasar, pero hablo históricamente o lo habitual

Históricamente lo logico o normal y mas si hablamos de hardwares es que cuanto mas caro sea algo mas se devalúa con el tiempo, lo es ahora por que la situación actual es un puto cachondeo


Históricamente la 5070 debería haber sido igual o incluso más potente que la 4090 a un precio que debería ser irrisorio. Por eso siempre se han devaluado mucho las gráficas más caras. Por ejemplo la 2080Ti era una gráfica top en su día y salió a un precio TEÓRICO de 999$. En la siguiente generación, la 3070 ya superaba a la 2080Ti por un 1%, pero con un precio TEÓRICO de 499$. En este caso la 2080Ti se tenía que devaluar por debajo del precio de la 3070. En cambio, en este caso al salir las 5000 ninguna gráfica se ha acercado al rendimiento de la 4090, exceptuando la 5090. La 5080 es casi un 20% más lenta y con 8GB de VRAM menos. Obviamente el precio de la 4090 no puede estar por debajo de una gráfica peor nunca.
Hildr está baneado por "Clon de usuario baneado"
Aquí una orgullosa propietaria de una flamante ASUS RTX4090 OC que no pienso vender por que es una grafica fabulosa, se le puede hacer de todo de forma segura y no depende de la generación de frames ni ninguna chorrada de ese estilo como las de la generación 5000, aunque reconozco que el DLSS es sublime. Me llegaron a ofrecer 1.900€ por ella hace unos meses, le hicieron no se que prueba y salían las graficas desbordadas, fue cuando sacaron las 5000 y dije que no. No se vende el caballo ganador.

Yo no veo un cambio de generación real de la serie 4000 a la 5000 la verdad. A ver cuando saquen la serie 6000 que tal.
SECHI está baneado del subforo hasta el 9/5/2026 18:46 por "faltas de respeto continuadas"
Esta generación deberia haberse llamado 4560-4570-4580-4590 y dejar el nombre de 5000 para la siguiente gen.
Yo me compré la 5090 TUF porque la 4090 de segunda mano, sin garantía y pagando un pastizal, pues como que no. Tengo reservado el WireView Pro 2 de Thermal Grizzly para monitorear los pins del conector y estar más tranquilo aparte del undervolt. No entra en mis planes cambiar hardware en 10 años a no ser que en 5 alguien me ofrezca una cantidad razonable por la 5090. Cosa que dudo, pero nunca se sabe.

Respeto a la gama 6000 no espero mucha mejora en cuanto a rasterización la verdad. Si en consumos y eficiencia.
Strait escribió:
FranciscoVG escribió:@Strait

A ver, ya se que con en la situacion actual es algo que podia pasar, pero hablo históricamente o lo habitual

Históricamente lo logico o normal y mas si hablamos de hardwares es que cuanto mas caro sea algo mas se devalúa con el tiempo, lo es ahora por que la situación actual es un puto cachondeo


Históricamente la 5070 debería haber sido igual o incluso más potente que la 4090 a un precio que debería ser irrisorio. Por eso siempre se han devaluado mucho las gráficas más caras. Por ejemplo la 2080Ti era una gráfica top en su día y salió a un precio TEÓRICO de 999$. En la siguiente generación, la 3070 ya superaba a la 2080Ti por un 1%, pero con un precio TEÓRICO de 499$. En este caso la 2080Ti se tenía que devaluar por debajo del precio de la 3070. En cambio, en este caso al salir las 5000 ninguna gráfica se ha acercado al rendimiento de la 4090, exceptuando la 5090. La 5080 es casi un 20% más lenta y con 8GB de VRAM menos. Obviamente el precio de la 4090 no puede estar por debajo de una gráfica peor nunca.

historicamente dice, si antes de la 4090 solo estuvo la 3090. la verdad que os leo y querer justificar los 3000e o 2000 y pico de la serie 90 me hace gracia,. y lo del 20% te lo has inventado tu,
No me queda claro entonces (soy nuevo), yo tengo una 5080 y casi siempre juego en calidad, cual seria el mejor present a elegir o lo dejo en la opcion recomendada?
xxvalencianoxx escribió:
Strait escribió:
FranciscoVG escribió:@Strait

A ver, ya se que con en la situacion actual es algo que podia pasar, pero hablo históricamente o lo habitual

Históricamente lo logico o normal y mas si hablamos de hardwares es que cuanto mas caro sea algo mas se devalúa con el tiempo, lo es ahora por que la situación actual es un puto cachondeo


Históricamente la 5070 debería haber sido igual o incluso más potente que la 4090 a un precio que debería ser irrisorio. Por eso siempre se han devaluado mucho las gráficas más caras. Por ejemplo la 2080Ti era una gráfica top en su día y salió a un precio TEÓRICO de 999$. En la siguiente generación, la 3070 ya superaba a la 2080Ti por un 1%, pero con un precio TEÓRICO de 499$. En este caso la 2080Ti se tenía que devaluar por debajo del precio de la 3070. En cambio, en este caso al salir las 5000 ninguna gráfica se ha acercado al rendimiento de la 4090, exceptuando la 5090. La 5080 es casi un 20% más lenta y con 8GB de VRAM menos. Obviamente el precio de la 4090 no puede estar por debajo de una gráfica peor nunca.

historicamente dice, si antes de la 4090 solo estuvo la 3090. la verdad que os leo y querer justificar los 3000e o 2000 y pico de la serie 90 me hace gracia,. y lo del 20% te lo has inventado tu,


Quizás no lo recuerdes, pero estaban las xx80Ti que equivalían a las actuales xx90. De hecho la 3080Ti tenía prácticamente en mismo rendimiento de la 3090, y antes de esa 3080Ti estaban la 2080Ti, 1080Ti, 980Ti, 780Ti... Y en cuanto a que me lo he inventado, pues no, según TechPowerUp es un 16% más lenta que la 4090. De hecho hay menos diferencia entre la 4080 y la 5080 que entre la 5080 y la 4090.
El equivalente de las gamas 90's era la Titan.

Pda: Por ejemplo la RTX Titan (serie 2000) era la GPU TOP del mercado domestico con 24gb de Vram, con un precio bastante prohibitivo... 2.500$
Jezebeth escribió:El equivalente de las gamas 90's era la Titan.

Pda: Por ejemplo la RTX Titan (serie 2000) era la GPU TOP del mercado domestico con 24gb de Vram, con un precio bastante prohibitivo... 2.500$


Las Titan estaban más enfocadas a trabajar, aumentando mucho la VRAM con respecto a la gama "gamer", pero en juegos rendían prácticamente lo mismo que las xx80Ti y no merecían nada la pena desembolsar 1000€ más para 1-5 fps más.
Strait escribió:
xxvalencianoxx escribió:
Strait escribió:
Históricamente la 5070 debería haber sido igual o incluso más potente que la 4090 a un precio que debería ser irrisorio. Por eso siempre se han devaluado mucho las gráficas más caras. Por ejemplo la 2080Ti era una gráfica top en su día y salió a un precio TEÓRICO de 999$. En la siguiente generación, la 3070 ya superaba a la 2080Ti por un 1%, pero con un precio TEÓRICO de 499$. En este caso la 2080Ti se tenía que devaluar por debajo del precio de la 3070. En cambio, en este caso al salir las 5000 ninguna gráfica se ha acercado al rendimiento de la 4090, exceptuando la 5090. La 5080 es casi un 20% más lenta y con 8GB de VRAM menos. Obviamente el precio de la 4090 no puede estar por debajo de una gráfica peor nunca.

historicamente dice, si antes de la 4090 solo estuvo la 3090. la verdad que os leo y querer justificar los 3000e o 2000 y pico de la serie 90 me hace gracia,. y lo del 20% te lo has inventado tu,


Quizás no lo recuerdes, pero estaban las xx80Ti que equivalían a las actuales xx90. De hecho la 3080Ti tenía prácticamente en mismo rendimiento de la 3090, y antes de esa 3080Ti estaban la 2080Ti, 1080Ti, 980Ti, 780Ti... Y en cuanto a que me lo he inventado, pues no, según TechPowerUp es un 16% más lenta que la 4090. De hecho hay menos diferencia entre la 4080 y la 5080 que entre la 5080 y la 4090.

no tienen nada que ver la serie 80ti con la serie 90,
Hildr escribió:Aquí una orgullosa propietaria de una flamante ASUS RTX4090 OC que no pienso vender por que es una grafica fabulosa, se le puede hacer de todo de forma segura y no depende de la generación de frames ni ninguna chorrada de ese estilo como las de la generación 5000, aunque reconozco que el DLSS es sublime. Me llegaron a ofrecer 1.900€ por ella hace unos meses, le hicieron no se que prueba y salían las graficas desbordadas, fue cuando sacaron las 5000 y dije que no. No se vende el caballo ganador.

Yo no veo un cambio de generación real de la serie 4000 a la 5000 la verdad. A ver cuando saquen la serie 6000 que tal.

Eso ya va en cada un@.
Peor desde luego que te digo desde eya que no vale 700€ más que la 5080.
Te lo digo yo que he tenido la 4090 y tengo la 5080.
No hay tanta diferencia a poco que tioques la 5080.

Es más ,yo sigo diciendo que no noto nada ,exceptuando los maravillosos undervolts que permitía la 4090.
Y una vez probado el MFG x3 , que no es Oara todos los juegos ,ni mucho menos ,es un señor "salvavidas" futuro en casi de necesitarlo.y que va mejor de los que esperado.

Vamos ,que sin ser igual, pero juego prácticamente igual con 700€ en la l bolsillo y una garantía nueva ,que no es tontería
Hildr está baneado por "Clon de usuario baneado"
@hh1 Vale, bien. Me alegro muchísimo por ti. Y no es sarcasmo. Pero como dije yo prefiero mi 4090 que tantas alegrías me ha dado y me tiene que dar. [oki]
Strait escribió:
Jezebeth escribió:El equivalente de las gamas 90's era la Titan.

Pda: Por ejemplo la RTX Titan (serie 2000) era la GPU TOP del mercado domestico con 24gb de Vram, con un precio bastante prohibitivo... 2.500$


Las Titan estaban más enfocadas a trabajar, aumentando mucho la VRAM con respecto a la gama "gamer", pero en juegos rendían prácticamente lo mismo que las xx80Ti y no merecían nada la pena desembolsar 1000€ más para 1-5 fps más.


La serie 90 (gtx 590 y 690) paso a llamarse Titan en la serie 700 y luego más adelante de nuevo 90 en la serie 3000, sin más.
Claro que en principio no merecían la pena solo para jugar un poco mejor ,las 90 tampoco lo merecen... si tu idea es solo jugar y están enfocadas a usarlas también en productividad.
Torru85 escribió:Yo me compré la 5090 TUF porque la 4090 de segunda mano, sin garantía y pagando un pastizal, pues como que no. Tengo reservado el WireView Pro 2 de Thermal Grizzly para monitorear los pins del conector y estar más tranquilo aparte del undervolt. No entra en mis planes cambiar hardware en 10 años a no ser que en 5 alguien me ofrezca una cantidad razonable por la 5090. Cosa que dudo, pero nunca se sabe.

Respeto a la gama 6000 no espero mucha mejora en cuanto a rasterización la verdad. Si en consumos y eficiencia.

Eso de aguantar el hardware 10 años lo siento pero es parte del pasado, las compañías ya se sacaran algo de la manga para que cambies.

Por ponerte un ejemplo, la serie gtx 1000 ya no tiene soporte de drivers para los juegos.

A la que saquen DX13, tu 5090 tiene DX12, ya no podrás jugar a nada que lleve DX13.

Mira el DLSS 4.5, la serie 2000 y 3000 se ahogan con ese DLSS.

Cuando saquen el DLSS 6 por ejemplo, tu 5090 puede que se ahogue con ese DLSS

Es triste, pero es la realidad.

Yo antes pensaba como tu, compraba una gpu pepino para que durara muchos años, pero la tecnología cada vez cambia mas rápido.

Ahora compro una gama mas baja pero cambio gpu en cada generación, si haces cuentas te gastas mas o menos el mismo dinero.

Pero puedes disfrutar de las ultimas tecnologías y vuelves a tener una gpu nueva con su garantía.
Jezebeth escribió:
Strait escribió:
Jezebeth escribió:El equivalente de las gamas 90's era la Titan.

Pda: Por ejemplo la RTX Titan (serie 2000) era la GPU TOP del mercado domestico con 24gb de Vram, con un precio bastante prohibitivo... 2.500$


Las Titan estaban más enfocadas a trabajar, aumentando mucho la VRAM con respecto a la gama "gamer", pero en juegos rendían prácticamente lo mismo que las xx80Ti y no merecían nada la pena desembolsar 1000€ más para 1-5 fps más.


La serie 90 (gtx 590 y 690) paso a llamarse Titan en la serie 700 y luego más adelante de nuevo 90 en la serie 3000, sin más.
Claro que en principio no merecían la pena solo para jugar un poco mejor ,las 90 tampoco lo merecen... si tu idea es solo jugar y están enfocadas a usarlas también en productividad.


¿Pero cómo que no merecen la pena las 90 para jugar? La 5090 es un 53% más potente que la 5080 en juegos. La 4090 es un 31% más rápida que la 4080. El que quiera lo mejor para jugar tiene que comprarse una 90. Todos los que tienen ahora la 90 tenían hace años las 80Ti.
Strait escribió:
Jezebeth escribió:
Strait escribió:
Las Titan estaban más enfocadas a trabajar, aumentando mucho la VRAM con respecto a la gama "gamer", pero en juegos rendían prácticamente lo mismo que las xx80Ti y no merecían nada la pena desembolsar 1000€ más para 1-5 fps más.


La serie 90 (gtx 590 y 690) paso a llamarse Titan en la serie 700 y luego más adelante de nuevo 90 en la serie 3000, sin más.
Claro que en principio no merecían la pena solo para jugar un poco mejor ,las 90 tampoco lo merecen... si tu idea es solo jugar y están enfocadas a usarlas también en productividad.


¿Pero cómo que no merecen la pena las 90 para jugar? La 5090 es un 53% más potente que la 5080 en juegos. La 4090 es un 31% más rápida que la 4080. El que quiera lo mejor para jugar tiene que comprarse una 90. Todos los que tienen ahora la 90 tenían hace años las 80Ti.


No hablo de que no haya diferencia de rendimiento notable, hablo que en relación de la potencia con la tremenda diferencia de precio no merece la pena si tu objetivo es solo jugar, es desaprovechar el dinero, para eso la gama 80 ya basta de sobra y el ahorro es masivo.

Y te repito Titan y 90 es la misma gama, siempre lo ha sido, entre la 5080 y la 5090 hay "tanto salto" porque falta una posible 5080ti/Super en medio (pero con la situación actual me da que nada de eso saldrá)
Hildr escribió:Aquí una orgullosa propietaria de una flamante ASUS RTX4090 OC que no pienso vender por que es una grafica fabulosa, se le puede hacer de todo de forma segura y no depende de la generación de frames ni ninguna chorrada de ese estilo como las de la generación 5000, aunque reconozco que el DLSS es sublime. Me llegaron a ofrecer 1.900€ por ella hace unos meses, le hicieron no se que prueba y salían las graficas desbordadas, fue cuando sacaron las 5000 y dije que no. No se vende el caballo ganador.

Yo no veo un cambio de generación real de la serie 4000 a la 5000 la verdad. A ver cuando saquen la serie 6000 que tal.


Es que la serie 5000 usa el mismo nodo de fabricación que la serie 4000, por lo que no hay un cambio de arquitectura real todo es marketing

Similar a lo que hizo intel hace unos años
Lo q dijeron en el Ces 2025 de q la 5070 rinde como una 4090 se ha cumplido de sobra, el fg super optimizado x6 y dssl 4.5 con una calidad bestial aunque sea modo rendimiento.

Yo tbn prefiero ahora cambiar cada generación pero tener todas las tecnologías. [beer]
20664 respuestas