sirodyn escribió:Por lo que he entendido en el vídeo de digital foundry (mi inglés es muy malo) en la serie 5000 es mejor utilizar, en casi todo los casos, el preset M en modo rendimiento que el preset K en calidad. Que en juegos con ray tracing no está muy conseguido el preset M pero no me queda claro que en estos casos sea mejor el preset K.
He entendido bien el vídeo?
Estáis de acuerdo con eso? Que el preset M en rendimiento vaya mejor que el K en calidad?
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/
hh1 escribió:Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/
Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.
Strait escribió:hh1 escribió:Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/
Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.
Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)
DLSS FG only adds input latency when enabled. Simple as that. If there is no FG turned on, there is no increase input latency.
Now DLSS upscaling vs native, the upscaling will have less latency since it will have a higher FPS.
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/
Strait escribió:hh1 escribió:Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/
Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.
Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)
hh1 escribió:Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/
Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.
_Bender_ escribió:@Rvilla87 yo entiendo que el dlss añade algo de latencia, no se cuánta pero tiene que añadir.
Entiendo que la GPU genera una imagen y luego con dlss se agranda debería añadir justamente ese tiempo, lo que tarde en agrandar la imagen que debería ser muy poco.
_Bender_ escribió:En los juegos competitivos normalmente se ponen casi todos los detalles al mínimo y a nada que tengas un pc decente llegas al máximo de fps que da tu monitor ya que no suelen ser juegos muy exigentes.
Yo entiendo que en ese caso, es preferible no usar dlss ni cualquier otra tecnología de escalado.
Ahora bien si tú pc no llega a los Hz del monitor en ese caso yo si usaría dlss.
Rvilla87 escribió:_Bender_ escribió:@Rvilla87 yo entiendo que el dlss añade algo de latencia, no se cuánta pero tiene que añadir.
Entiendo que la GPU genera una imagen y luego con dlss se agranda debería añadir justamente ese tiempo, lo que tarde en agrandar la imagen que debería ser muy poco.
Sí, sin saber cuánta latencia añade, tiene lógica que así sea, pero es que no tiene sentido hablar de ese posible añadido de latencia, es lo que explico en la parte de "Y aclaro por si vas a entrar a un detalle absurdo".
A ver, lo explico porque quizás doy por hecho que es mas conocido de lo que realmente es.
Uno de los valores mas importantes en el tema latencia son los FPS, y el motivo es que cuanto antes te llegue la imagen, antes podrás actuar. Con esta tabla (en parte sacado de rtings) se puede ver la diferencia (vamos a suponer que usamos VRR y fps = hz):- 1 fps --> La imagen se refresca cada 1000 ms
- 30 fps --> La imagen se refresca cada 33,33 ms
- 60 fps --> La imagen se refresca cada 16,67 ms
- 120 fps --> La imagen se refresca cada 8,33 ms
- 240 fps --> La imagen se refresca cada 4,17 ms
Si tienes un monitor que soporte 240 hz y el juego sin DLSS te va a 200 fps y con DLSS te va a 240 fps, tendrías menos latencia simplemente por la mejora de fps. Lo que internamente tarde el DLSS en darte la imagen no retrasará nada la latencia porque precisamente está haciendo que la imagen te llegue antes. Si internamente tarda 1 nanosegundo o 200 nanosegundos en hacerlo, da igual porque lo que te consigue adelantar la imagen redimensionada se ha "cargado" esa minúscula latencia de nanosegundos de sobras._Bender_ escribió:En los juegos competitivos normalmente se ponen casi todos los detalles al mínimo y a nada que tengas un pc decente llegas al máximo de fps que da tu monitor ya que no suelen ser juegos muy exigentes.
Yo entiendo que en ese caso, es preferible no usar dlss ni cualquier otra tecnología de escalado.
Ahora bien si tú pc no llega a los Hz del monitor en ese caso yo si usaría dlss.
Claro, eso último es clave, si tu PC no llega a los hz del monitor... por eso cuando decía que DLSS ayuda precisamente a tener menos latencia era porque como decía, ganaba FPS ("lo que consigue es que tengas mas fps reales"). Si no se gana FPS (el caso que dices de llegar a los hz máximos que soporta tu monitor), no se cumple lo que decía de que se gana rendimiento y por lo tanto no aplica lo que decía.
Vamos, que así como decir que FG aumenta latencia aunque se gane en rendimiento/fps y de eso no hay duda (por poca que pueda haber con reflex o similar), con DLSS no se puede afirmar lo mismo, y eso es lo que trataba de explicar.
Rvilla87 escribió:Strait escribió:hh1 escribió:Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.
Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)
No confundas, DLSS cuando se entiende como el super resolution, NO añade latencia sino que la mejora. FG ya es otro tema porque de base sí añade latencia por cómo se inventa le frame, aunque con Nvidia Reflex (y la tecnología de AMD) reduzca esa latencia.
Precisamente DLSS lo que consigue es que tengas mas fps reales (desde distinta resolución origen), pero el frame no se ha inventado, si eso "estirado" y a menos que visualmente notes algún tipo de imperfección molesta, es totalmente recomendado usarlo para ganar mas fps y por lo tanto tener menos latencia.
Y aclaro por si vas a entrar a un detalle absurdo para justificarte, por mucho que DLSS Super resolution pueda añadir un mínimo de latencia por el simple hecho de hacer algo más que simplemente no hacer nada (esto es de lógica), lo que ganas de latencia como resultado de tener mas FPS destroza esa posible pérdida de latencia y encima ayuda a que todavía se tenga menos latencia que sin DLSS.
@hh1 ahora leo tu comentario... lees que se gana latencia porque como también dice, se pierde rendimiento, lo que hace tener menos fps y por lógica mas latencia por justo lo que acabo de explicar: but performance also dropped w/ a INCREASE to latency.
Es como decir que porque hace mas calor hace menos frio, parece que ha liado mas que otra cosa![]()
No leáis al 1º donnadie en reddit o donde sea y os creáis lo que dice como si fuera la verdad, suele tener mas sentido hacer mas caso a comentarios mas breves con mas votos (y no una biblia como el 1º post que quizás dice muchas cosas útiles y varios bulos pero la gente valora el esfuerzo). Por ejemplo, sin ir lejos, la 1º respuesta mas votada dice lo siguiente, cosa que lo veo correcto y es lo que explicaba:DLSS FG only adds input latency when enabled. Simple as that. If there is no FG turned on, there is no increase input latency.
Now DLSS upscaling vs native, the upscaling will have less latency since it will have a higher FPS.
De hecho justo buscando a ver qué comentaban del DLSS precisamente había visto un comentario de otro que tampoco tenía ni idea diciendo precisamente que el DLSS se recomienda NO usar en juegos competitivos... y tenía 1 voto negativo y respuestas diciéndole que se equivocaba. Pero he refrescado la página y ya no veo ese mensaje, quizás lo ha borrado el autor para evitar esparcir bulos (bien hecho si así lo ha hecho).
Strait escribió:Esto ya se demostró hace muchos años. Si comparamos la imagen real con el DLSS gana el DLSS en tiempo de respuesta, pero porque estamos comparando una imagen a 2k con pocos fps a otra a 1080p reescalada con más FPS, pero si cogemos la imagen real y la ponemos al mismo tamaño de la imagen a la que funciona el DLSS tiene mejor input lag. En este caso es 1ms mejor. Es tontería, el DLSS es un postprocesado relativamente complejo, y todo lo que sean postprocesados añaden algo de latencia. Demasiado bien va para lo que es.
Hardware Unboxed escribió:Ahora tenemos una respuesta bastante buena a la pregunta de si DLSS afecta a la latencia de entrada. La respuesta a esta pregunta, en la mayoría de los casos de uso realistas, es no.
Si DLSS proporciona un aumento del rendimiento, es muy probable que también se observe una disminución de la latencia de entrada.
El grado en que mejora la latencia de entrada está muy relacionado con el aumento de la velocidad de fotogramas. Cuanto más aumente DLSS la velocidad de fotogramas, más disminuirá la latencia de entrada. Pero incluso cuando el aumento del rendimiento es pequeño, normalmente también se observa una pequeña mejora en la latencia.
Sin embargo, hay algunos casos extremos en los que DLSS puede perjudicar la latencia de entrada. Estos se dan cuando la CPU está limitada [...]. En estas situaciones, DLSS no proporciona ninguna ventaja de rendimiento, ya que la reducción de la resolución de renderizado no suele mejorar la velocidad de fotogramas cuando la CPU está limitada. De hecho, el rendimiento puede empeorar debido a la sobrecarga de DLSS, lo que provoca un pequeño aumento de la latencia en un par de escenarios que hemos evaluado, normalmente 1080 con ajustes bajos.
Hardware Unboxed escribió:So now we have a pretty god answer to question wether DLSS impacts input latency. The answer to this in most realistic use cases is gonna be no.
If DLSS is providing a performance increase it's very likely you'll also be seeing a decreased input latency.
The degree to which input latency inproves is tied pretty closely to the rise in frame rate. The most DLSS can boost that frame rate the more it will decrease input latency. But even when permormance increases are small, typically you'll still see a small latency benefit as well.
However there are some edge cases where DLSS can hurt input latency. These are going to be when you're CPU limited [...]. In these situations DLSS doesn't provide any performance benefit as reducing the render resolution typically doesn't improve framerate when CPU limited. In fact performance can get worse due to the overhed of DLSS leading to a small increase of latency in a couple of scenarios we benchmarked, typically 1080 using low settings.
), todo para justificar que se habían dejado un pastizal en sus GPUs y que jugar en nativo era mejor, lo mismo ni usaban DLAA, no les pregunté por los monitores pero no me extrañaría 1440p y 5080 + 5090 ![carcajada [carcajad]](/images/smilies/nuevos/risa_ani2.gif)
katatsumuri escribió:En un mismo hardware siempre vas a ganar reducción en latencia con DLSS activado porque esa es su magia, escalar desde una resolución inferior, pero obviamente, si enfrentas DLSS escalado a otro Hardware potente que mueve la misma resolución en nativo a los mismos FPS el DLSS te va a meter un poco de latencia, tampoco una locura, pero si que la mete, pero la gracia del DLSS no está en compararlo entre dos máquinas diferentes, una más potente que otra, está en la ventaja que da desde un mismo hardware, donde ahí si ganas una reducción de latencia bastante pronunciada que copensa de sobras esa ridícula latencia que mete, todo eso gracias a ese reescalado mágico desde una resolución inferior.
Al final la latencia, el frame time, está directamente condicionado por los FPS, a más FPS menos frame time, a menos FPS más frame time, por lo que en una misma máquina si no haces un downscale a una resolución inferior, si vas ahogado en la nativa, el frame time será superior, por eso no tiene sentido compararlo con otro PC o romperse la cabeza con que introduce latencia, que lo hace, pero no es algo malo porque lo que ganas es una locura, es como si por dar 20 céntimos te diesen 50 euros, pues si, pierdes 20 céntimos, pero has ganado 50 euros, buscarle a eso las cosquillas pues no tiene mucho sentido la verdad, porque todos cambiaríamos esos 20 céntimos por esos 50 euros, y el que tiene 50 euros los cambiaría por 12500.
Además está el tema de que actúa como un AA muy bueno respecto a un AA como podría ser el TAA que es el que estaba más extendido por su bajo consumo en recursos, pero es que es mejor que MSAA, que para mover MSAA tenías que tener una GPU muy top o incluso esperar una generación siguiente.
De hecho tuve un enganche fuera del foro sobre el tema donde me vendían que el DLSS era una mierda y que metía input lag, todo el rato intentando despreciarlo, que no era 4K real, por el típico debate de que no necesitas gastar 3000 euros en un PC (aunque ahora con lo de la ram y tal igual si que compro ese argumento), todo para justificar que se habían dejado un pastizal en sus GPUs y que jugar en nativo era mejor, lo mismo ni usaban DLAA, no les pregunté por los monitores pero no me extrañaría 1440p y 5080 + 5090
Les dolió que con una 3080 estuviera jugando en 4K 60fps a muchos juegos actuales con presets casi en ultra X D, aunque ansío sus 5080 cuando uso reshade o ciertos mods gráficos
leonigsxr1000 escribió:Yo acabo de pedir una Palit 5080, ya tengo las 3 gráficas más potentes , que puto enfermo joder xd
Probablemente venda la 4090 aunque es una pasada de grafica
leonigsxr1000 escribió:@hh1
Igual lo hago , 1800e de media están pagando
Entonces estas contento con la 5080 xd ?
leonigsxr1000 escribió:@hh1
Bueno he pagado 1199e por la 5080 no está nada mal y la 4090 está un poco mas cotizada ahora que hace unos meses
perdon por el oftopics , 600e de ganancia tendré, no está malhh1 escribió:leonigsxr1000 escribió:@hh1
Bueno he pagado 1199e por la 5080 no está nada mal y la 4090 está un poco mas cotizada ahora que hace unos meses
Incluso ganando 300€ ,ya vale la pena ,a mí parecer
Por menos ,yo creo que no lo haría.
leonigsxr1000 escribió:perdon por el oftopics , 600e de ganancia tendré, no está malhh1 escribió:leonigsxr1000 escribió:@hh1
Bueno he pagado 1199e por la 5080 no está nada mal y la 4090 está un poco mas cotizada ahora que hace unos meses
Incluso ganando 300€ ,ya vale la pena ,a mí parecer
Por menos ,yo creo que no lo haría.
![brindis [beer]](/images/smilies/nuevos2/brindando.gif)
SECHI escribió:Aparte de recuperar dinero hay que contar los dos o tres años de disfrute, que eso es imposible de contabilizar, y que ahora tendreis una gráfica nueva con sus otros 3 años de garantía.
FranciscoVG escribió:La situación es tan surrealista que las gpu mas caras son las que menos se devalúan
Que una 4070 se haya devaluado mas en 3 años que una 4090 es de traca, y no hablo de porcentaje si no de dinero real....
FranciscoVG escribió:La situación es tan surrealista que las gpu mas caras son las que menos se devalúan
Que una 4070 se haya devaluado mas en 3 años que una 4090 es de traca, y no hablo de porcentaje si no de dinero real....
hh1 escribió:FranciscoVG escribió:La situación es tan surrealista que las gpu mas caras son las que menos se devalúan
Que una 4070 se haya devaluado mas en 3 años que una 4090 es de traca, y no hablo de porcentaje si no de dinero real....
Toodo llega.Tarde o temprano se devaluarán mucho.
Yo lo que suelo hacer , "a mar revuelto,ganancia de pescadores"...suelo aprovechar las oportunidades.
Cuando las criptos ,igual.Compré la 3070 en 519€ y la vendí en 950€.Y pude sacar más si la hubiese vendido antes,pero estaba empecinado en conseguir una 3080 FE a 719€ y no hubo forma.Al final cambié a una 3080TI FE en 1169€.
Ahora ,lo mismo.al final, sumas todas estas cosas, y es un dineral que te vas ahorrando .
Pero sí, la situación es surrealista,igual que lo fue aquella en su momento.
Yo prefiero que no haya "cosas raras" ,la verdad.
FranciscoVG escribió:@Strait
A ver, ya se que con en la situacion actual es algo que podia pasar, pero hablo históricamente o lo habitual
Históricamente lo logico o normal y mas si hablamos de hardwares es que cuanto mas caro sea algo mas se devalúa con el tiempo, lo es ahora por que la situación actual es un puto cachondeo
Strait escribió:FranciscoVG escribió:@Strait
A ver, ya se que con en la situacion actual es algo que podia pasar, pero hablo históricamente o lo habitual
Históricamente lo logico o normal y mas si hablamos de hardwares es que cuanto mas caro sea algo mas se devalúa con el tiempo, lo es ahora por que la situación actual es un puto cachondeo
Históricamente la 5070 debería haber sido igual o incluso más potente que la 4090 a un precio que debería ser irrisorio. Por eso siempre se han devaluado mucho las gráficas más caras. Por ejemplo la 2080Ti era una gráfica top en su día y salió a un precio TEÓRICO de 999$. En la siguiente generación, la 3070 ya superaba a la 2080Ti por un 1%, pero con un precio TEÓRICO de 499$. En este caso la 2080Ti se tenía que devaluar por debajo del precio de la 3070. En cambio, en este caso al salir las 5000 ninguna gráfica se ha acercado al rendimiento de la 4090, exceptuando la 5090. La 5080 es casi un 20% más lenta y con 8GB de VRAM menos. Obviamente el precio de la 4090 no puede estar por debajo de una gráfica peor nunca.
xxvalencianoxx escribió:Strait escribió:FranciscoVG escribió:@Strait
A ver, ya se que con en la situacion actual es algo que podia pasar, pero hablo históricamente o lo habitual
Históricamente lo logico o normal y mas si hablamos de hardwares es que cuanto mas caro sea algo mas se devalúa con el tiempo, lo es ahora por que la situación actual es un puto cachondeo
Históricamente la 5070 debería haber sido igual o incluso más potente que la 4090 a un precio que debería ser irrisorio. Por eso siempre se han devaluado mucho las gráficas más caras. Por ejemplo la 2080Ti era una gráfica top en su día y salió a un precio TEÓRICO de 999$. En la siguiente generación, la 3070 ya superaba a la 2080Ti por un 1%, pero con un precio TEÓRICO de 499$. En este caso la 2080Ti se tenía que devaluar por debajo del precio de la 3070. En cambio, en este caso al salir las 5000 ninguna gráfica se ha acercado al rendimiento de la 4090, exceptuando la 5090. La 5080 es casi un 20% más lenta y con 8GB de VRAM menos. Obviamente el precio de la 4090 no puede estar por debajo de una gráfica peor nunca.
historicamente dice, si antes de la 4090 solo estuvo la 3090. la verdad que os leo y querer justificar los 3000e o 2000 y pico de la serie 90 me hace gracia,. y lo del 20% te lo has inventado tu,
Jezebeth escribió:El equivalente de las gamas 90's era la Titan.
Pda: Por ejemplo la RTX Titan (serie 2000) era la GPU TOP del mercado domestico con 24gb de Vram, con un precio bastante prohibitivo... 2.500$
Strait escribió:xxvalencianoxx escribió:Strait escribió:
Históricamente la 5070 debería haber sido igual o incluso más potente que la 4090 a un precio que debería ser irrisorio. Por eso siempre se han devaluado mucho las gráficas más caras. Por ejemplo la 2080Ti era una gráfica top en su día y salió a un precio TEÓRICO de 999$. En la siguiente generación, la 3070 ya superaba a la 2080Ti por un 1%, pero con un precio TEÓRICO de 499$. En este caso la 2080Ti se tenía que devaluar por debajo del precio de la 3070. En cambio, en este caso al salir las 5000 ninguna gráfica se ha acercado al rendimiento de la 4090, exceptuando la 5090. La 5080 es casi un 20% más lenta y con 8GB de VRAM menos. Obviamente el precio de la 4090 no puede estar por debajo de una gráfica peor nunca.
historicamente dice, si antes de la 4090 solo estuvo la 3090. la verdad que os leo y querer justificar los 3000e o 2000 y pico de la serie 90 me hace gracia,. y lo del 20% te lo has inventado tu,
Quizás no lo recuerdes, pero estaban las xx80Ti que equivalían a las actuales xx90. De hecho la 3080Ti tenía prácticamente en mismo rendimiento de la 3090, y antes de esa 3080Ti estaban la 2080Ti, 1080Ti, 980Ti, 780Ti... Y en cuanto a que me lo he inventado, pues no, según TechPowerUp es un 16% más lenta que la 4090. De hecho hay menos diferencia entre la 4080 y la 5080 que entre la 5080 y la 4090.
Hildr escribió:Aquí una orgullosa propietaria de una flamante ASUS RTX4090 OC que no pienso vender por que es una grafica fabulosa, se le puede hacer de todo de forma segura y no depende de la generación de frames ni ninguna chorrada de ese estilo como las de la generación 5000, aunque reconozco que el DLSS es sublime. Me llegaron a ofrecer 1.900€ por ella hace unos meses, le hicieron no se que prueba y salían las graficas desbordadas, fue cuando sacaron las 5000 y dije que no. No se vende el caballo ganador.
Yo no veo un cambio de generación real de la serie 4000 a la 5000 la verdad. A ver cuando saquen la serie 6000 que tal.
Strait escribió:Jezebeth escribió:El equivalente de las gamas 90's era la Titan.
Pda: Por ejemplo la RTX Titan (serie 2000) era la GPU TOP del mercado domestico con 24gb de Vram, con un precio bastante prohibitivo... 2.500$
Las Titan estaban más enfocadas a trabajar, aumentando mucho la VRAM con respecto a la gama "gamer", pero en juegos rendían prácticamente lo mismo que las xx80Ti y no merecían nada la pena desembolsar 1000€ más para 1-5 fps más.
Torru85 escribió:Yo me compré la 5090 TUF porque la 4090 de segunda mano, sin garantía y pagando un pastizal, pues como que no. Tengo reservado el WireView Pro 2 de Thermal Grizzly para monitorear los pins del conector y estar más tranquilo aparte del undervolt. No entra en mis planes cambiar hardware en 10 años a no ser que en 5 alguien me ofrezca una cantidad razonable por la 5090. Cosa que dudo, pero nunca se sabe.
Respeto a la gama 6000 no espero mucha mejora en cuanto a rasterización la verdad. Si en consumos y eficiencia.
Jezebeth escribió:Strait escribió:Jezebeth escribió:El equivalente de las gamas 90's era la Titan.
Pda: Por ejemplo la RTX Titan (serie 2000) era la GPU TOP del mercado domestico con 24gb de Vram, con un precio bastante prohibitivo... 2.500$
Las Titan estaban más enfocadas a trabajar, aumentando mucho la VRAM con respecto a la gama "gamer", pero en juegos rendían prácticamente lo mismo que las xx80Ti y no merecían nada la pena desembolsar 1000€ más para 1-5 fps más.
La serie 90 (gtx 590 y 690) paso a llamarse Titan en la serie 700 y luego más adelante de nuevo 90 en la serie 3000, sin más.
Claro que en principio no merecían la pena solo para jugar un poco mejor ,las 90 tampoco lo merecen... si tu idea es solo jugar y están enfocadas a usarlas también en productividad.
Strait escribió:Jezebeth escribió:Strait escribió:
Las Titan estaban más enfocadas a trabajar, aumentando mucho la VRAM con respecto a la gama "gamer", pero en juegos rendían prácticamente lo mismo que las xx80Ti y no merecían nada la pena desembolsar 1000€ más para 1-5 fps más.
La serie 90 (gtx 590 y 690) paso a llamarse Titan en la serie 700 y luego más adelante de nuevo 90 en la serie 3000, sin más.
Claro que en principio no merecían la pena solo para jugar un poco mejor ,las 90 tampoco lo merecen... si tu idea es solo jugar y están enfocadas a usarlas también en productividad.
¿Pero cómo que no merecen la pena las 90 para jugar? La 5090 es un 53% más potente que la 5080 en juegos. La 4090 es un 31% más rápida que la 4080. El que quiera lo mejor para jugar tiene que comprarse una 90. Todos los que tienen ahora la 90 tenían hace años las 80Ti.
Hildr escribió:Aquí una orgullosa propietaria de una flamante ASUS RTX4090 OC que no pienso vender por que es una grafica fabulosa, se le puede hacer de todo de forma segura y no depende de la generación de frames ni ninguna chorrada de ese estilo como las de la generación 5000, aunque reconozco que el DLSS es sublime. Me llegaron a ofrecer 1.900€ por ella hace unos meses, le hicieron no se que prueba y salían las graficas desbordadas, fue cuando sacaron las 5000 y dije que no. No se vende el caballo ganador.
Yo no veo un cambio de generación real de la serie 4000 a la 5000 la verdad. A ver cuando saquen la serie 6000 que tal.