Cambiar RTX 4090 por 5080 + 600-700€

1, 2, 3
mrmanson16v escribió:ni se te ocurra cambiar la 4090 por la 5080

No es una 4090 por una 5080.Es una 4090 por una 5080 y 650€ a mi favor.
Bueno, ahora serán 550€ o así porque ya no hay 5080 a 1000€
Johnny, la gente esta muy locaaaaa!
Yo estoy flipando con algun personaje, vamos que nos quiere convencer de algo que el mismo ni se lo cree [looco]
Cambia de proveidor por favor [rtfm]

Yo no he tengo la RTX5080, pero si la 4090/5090, en mi opinión la 4090 es un V8 de 5.0 litros, mucho par motor , vamos mucha fuerza bruta! La 5080 es como un v6 3.5 ecoboost (un sleeper del segmento), sobrealimentado optimizado, bajar consumos y optimización de forma nativa DLSS4, que es lo que va más enfocado esta el mercado gamer actual.

Si eres un gamer, esta claro que una RTX5080 ahora mismo es lo más rentable, pero para quien no este enfocado 100% al gamer, la RTX4090 para render y otros sectores es un monstruo

Mí opinión que tira más con el corazón, me quedo con la RTX4090
Por eso aun conservo las 6800Ultra, 7800GTX512, 7900GTX, GTX295, GTX480/580, 680/780Ti/980Ti
Tengo síndrome de diògenes con el hardware [facepalm]
hh1 escribió:
mrmanson16v escribió:ni se te ocurra cambiar la 4090 por la 5080

No es una 4090 por una 5080.Es una 4090 por una 5080 y 650€ a mi favor.
Bueno, ahora serán 550€ o así porque ya no hay 5080 a 1000€

Pero te sobra potencia?

No hagas caso por hacer caso cualquier opinion random

TIENES AHORA MISMO LA 4090.

La llevas al 100% de uso mucho tiempo? nada de tiempo? mucho tiempo?

Si te sobra potencia, tienes la oportunidad de recuperar pasta y renovar garantía de un producto que ES POSIBLE que te dé LA MISMA experiencia visual.

No hay mas que debatir, tienes que decirnos tu si la usas o no.


¿Para que cojones quiero un V8 si no me voy a saltar la velocidad legal en ningun momento, y no me voy a meter en circuitos en carreras?¿Para fardar no? SI.

Y hay gente que si lo metera en circuito no? eso nos lo diras tu, no nosotros.
(mensaje borrado)
@hh1 Bueno yo vengo a comentar 2 cosas como poseedor de una 5080:

1º Yo si haría el cambio ganándote esa pasta, sobre todo si juegas a 1440P que podrás estirar la 5080 más todavía para esperar la 6080/90 o incluso la 7080/90 y además con tu dinerito fresco en el bolsillo. A parte de tener una tarjeta NUEVA con sus 3 años de garantía.

2º En cuanto a lo del Multi Frame Generation voy a abrir un melón, no sé qué han hecho los de NVIDIA si es algo que hayan mejorado recientemente con los drivers pero ha mejorado mucho o mejor dicho muchísimo.

Por ejemplo yo ahora mismo estoy jugando al The Outer Worlds 2 a 4K con DLAA, con todo en ultra y el Ray Tracing activado con MFG X4 a unos 110FPS y te puedo asegurar que no noto lag, ni noto artefactos ni nada (en mi caso juego con mando), lo único que tuve que desactivar el HDR porque al tenerlo activado hacía ghosting la mirilla y si que metía artefactos en los extremos de la pantalla al hacer giros de cámara.

La cosa es que cuando compré la tarjeta de lanzamiento hice pruebas con varios juegos y por ejemplo el Jedi Survivor se me quedó grabado porque en cuanto le metía MFG X3 y X4 metía artefactos raros y se veía rara la cabeza del personaje al hacer giros de cámara.

A raíz de los buenos resultados con el TOW2 me metí el otro día en el Jedi Survivor y me puse a probar de nuevo el MFG X3 y MFG X4 y esos artefactos que tenía cuando probé la tarjeta hace unos meses han desaparecido y parece como si estuvieras jugando al juego de forma nativa sin tener MFG activado.

Tendría que probar con otros juegos, pero como te digo han tenido que hacer algo recientemente porque antes yo mismo veía artefactos (en su día creo que publiqué un mensaje hablando de ellos) y hoy en día han desaparecido en el Jedi, el Outer Worlds 2 al haber salido ahora obviamente no tengo una comparativa del antes y el después.

Nota: aclarar que siempre juego con mando, no sé si la experiencia con ratón y teclado será diferente.
dunkam82 escribió:@hh1 Bueno yo vengo a comentar 2 cosas como poseedor de una 5080:

1º Yo si haría el cambio ganándote esa pasta, sobre todo si juegas a 1440P que podrás estirar la 5080 más todavía para esperar la 6080/90 o incluso la 7080/90 y además con tu dinerito fresco en el bolsillo. A parte de tener una tarjeta NUEVA con sus 3 años de garantía.

2º En cuanto a lo del Multi Frame Generation voy a abrir un melón, no sé qué han hecho los de NVIDIA si es algo que hayan mejorado recientemente con los drivers pero ha mejorado mucho o mejor dicho muchísimo.

Por ejemplo yo ahora mismo estoy jugando al The Outer Worlds 2 a 4K con DLAA, con todo en ultra y el Ray Tracing activado con MFG X4 a unos 110FPS y te puedo asegurar que no noto lag, ni noto artefactos ni nada (en mi caso juego con mando), lo único que tuve que desactivar el HDR porque al tenerlo activado hacía ghosting la mirilla y si que metía artefactos en los extremos de la pantalla al hacer giros de cámara.

La cosa es que cuando compré la tarjeta de lanzamiento hice pruebas con varios juegos y por ejemplo el Jedi Survivor se me quedó grabado porque en cuanto le metía MFG X3 y X4 metía artefactos raros y se veía rara la cabeza del personaje al hacer giros de cámara.

A raíz de los buenos resultados con el TOW2 me metí el otro día en el Jedi Survivor y me puse a probar de nuevo el MFG X3 y MFG X4 y esos artefactos que tenía cuando probé la tarjeta hace unos meses han desaparecido y parece como si estuvieras jugando al juego de forma nativa sin tener MFG activado.

Tendría que probar con otros juegos, pero como te digo han tenido que hacer algo recientemente porque antes yo mismo veía artefactos (en su día creo que publiqué un mensaje hablando de ellos) y hoy en día han desaparecido en el Jedi, el Outer Worlds 2 al haber salido ahora obviamente no tengo una comparativa del antes y el después.

Nota: aclarar que siempre juego con mando, no sé si la experiencia con ratón y teclado será diferente.


Me alegro de poder leer por fin algo en este foro que sea real!!!, amigo dunkam82 aqui la gente son posedores de una 4090 y yo sinceramente no entiendo el debate si parece que lo que estan es queriendo justificarse que en todos los sentidos una 4090 es mejor, la última tontería habida y por haber es que no es mas eficiente que la 4090, Ridículo, y sobre todo por parte de la persona que supuestamente esta pidiendo consejo para saber si la cambia, por tanto no se parece que lo que quieren es defender que la 4090 es mejor, yo desde luego ya he puesto tantas especificaciones reales y pruebas hechas y siguen en su mundo que ya me he cansado, veo que es una perdida de tiempo.

@hh1 me debes estar tomando el pelo, te pongo los consumos de la 4090 comparados con la 5080, es ridículo lo que estas diciendo pero en mayúsculas y oye si al final lo que quieres es quedarte con tu gráfica 4090 pues quédatela muchacho pero entonces para que pides realmente información si después llevas la contraria? Decirme que que te Ries de que la 5080 no es mas eficiente vamos...me rio yo en tal caso, partiendo de la base del rendimiento que da por W y consumiendo bastante menos(100w) casi nada vamos 😂😂 y eso para solamente en la mayoría de juegos dar 6/7 fps menos, de verdad acuéstate creo que el viernes te ha sentado mal

La NVIDIA GeForce RTX 5080 es significativamente más eficiente energéticamente que la RTX 4090, consumiendo menos vatios (W) para ofrecer un rendimiento comparable o superior en muchas situaciones.
Comparativa de Consumo y Eficiencia (en Vatios)
Característica NVIDIA GeForce RTX 5080 NVIDIA GeForce RTX 4090
TDP (Potencia de diseño térmico) 360 W 450 W (TGP)
Consumo promedio en gaming Alrededor de 330 W en pruebas específicas Aproximadamente un 6% más que la RTX 5080 en promedio
Consumo máximo ~400 W Aproximadamente un 24% más que la RTX 5080 en pruebas específicas
Eficiencia Ofrece un rendimiento similar o ligeramente superior a la RTX 4090 con un consumo notablemente menor Mayor consumo energético para un rendimiento bruto ligeramente superior en muchos casos, pero menos eficiente por vatio
Puntos Clave
Menor Consumo en la 5080: La RTX 5080 está diseñada para ser más eficiente, con un TDP oficial de 360 W, considerablemente inferior a los 450 W de la RTX 4090.
Eficiencia Superior: La serie 50 (Blackwell) ofrece una eficiencia energética mejorada respecto a la serie 40 (Ada Lovelace). Esto significa que la 5080 logra un rendimiento similar o incluso mejor que la 4090 utilizando menos energía.
Rendimiento Bruto: Sin el uso de tecnologías de reescalado (como Multi Frame Generation o DLSS 4.0), la RTX 4090 puede seguir siendo un poco más rápida (hasta un 20% en algunas pruebas) en rendimiento bruto en juegos específicos. Sin embargo, la brecha se cierra o revierte al considerar la eficiencia por vatio.

Y con esta informacíón ya me retiro, puesto que veo que es una perdida de tiempo seguir debatiendo con gente que no sale de una idea fija en su cabeza, les dices que es mas potente en rasterización bruta la 4090, bien, les dices que el FG no tiene fallos y cambia totalmente de un 2x a un 4x..mal que con un 2 es igual dicen😂, les dices que el DLSS 4 esta mejor optimizado...mal, les dices que la diferencia al final es mínima en FPS...mal, cuando hay por ahi benchmark con ambas gáficas que a lo mucho la 4090 saca de 8 a 10 FPS en algunos juegos, que en muchos otros si llega a 5-7 demasiado pero cuidado que es una diferencia abismal con el consumo que no es mas eficiente cuando todo el mundo sabe que la 4090 es un puto radiador que solamente de base en diseño le saca 100W a la 5080 para dar que 7,8 fps, y lo mejor es que donde se puede llegar a diferenciar en potencia bruta es en nativo!!! , que luego nadie juega ya en nativo o sea es rídiculo completamente!!😂😂😂 es como decirme que tienes un coche que es mas rápido en marchas corta por nacional( con el consumo que conlleva de diferencia que es bastante claro) cuando actualmente se va por la autovia jajaja, vamos es que es ridículo esto yo sinceramente me sorprendo cada vez de la ignorancia de la gente, en fin yo lo dejo, saluditos.
Editado por quimico2008. Razón: Faltas de respeto
ffmaniaco6 escribió:
dunkam82 escribió:@hh1 Bueno yo vengo a comentar 2 cosas como poseedor de una 5080:

1º Yo si haría el cambio ganándote esa pasta, sobre todo si juegas a 1440P que podrás estirar la 5080 más todavía para esperar la 6080/90 o incluso la 7080/90 y además con tu dinerito fresco en el bolsillo. A parte de tener una tarjeta NUEVA con sus 3 años de garantía.

2º En cuanto a lo del Multi Frame Generation voy a abrir un melón, no sé qué han hecho los de NVIDIA si es algo que hayan mejorado recientemente con los drivers pero ha mejorado mucho o mejor dicho muchísimo.

Por ejemplo yo ahora mismo estoy jugando al The Outer Worlds 2 a 4K con DLAA, con todo en ultra y el Ray Tracing activado con MFG X4 a unos 110FPS y te puedo asegurar que no noto lag, ni noto artefactos ni nada (en mi caso juego con mando), lo único que tuve que desactivar el HDR porque al tenerlo activado hacía ghosting la mirilla y si que metía artefactos en los extremos de la pantalla al hacer giros de cámara.

La cosa es que cuando compré la tarjeta de lanzamiento hice pruebas con varios juegos y por ejemplo el Jedi Survivor se me quedó grabado porque en cuanto le metía MFG X3 y X4 metía artefactos raros y se veía rara la cabeza del personaje al hacer giros de cámara.

A raíz de los buenos resultados con el TOW2 me metí el otro día en el Jedi Survivor y me puse a probar de nuevo el MFG X3 y MFG X4 y esos artefactos que tenía cuando probé la tarjeta hace unos meses han desaparecido y parece como si estuvieras jugando al juego de forma nativa sin tener MFG activado.

Tendría que probar con otros juegos, pero como te digo han tenido que hacer algo recientemente porque antes yo mismo veía artefactos (en su día creo que publiqué un mensaje hablando de ellos) y hoy en día han desaparecido en el Jedi, el Outer Worlds 2 al haber salido ahora obviamente no tengo una comparativa del antes y el después.

Nota: aclarar que siempre juego con mando, no sé si la experiencia con ratón y teclado será diferente.


Me alegro de poder leer por fin algo en este foro que sea real!!!, amigo dunkam82 aqui la gente son posedores de una 4090 y yo sinceramente no entiendo el debate si parece que lo que estan es queriendo justificarse que en todos los sentidos una 4090 es mejor, la última tontería habida y por haber es que no es mas eficiente que la 4090, Ridículo, y sobre todo por parte de la persona que supuestamente esta pidiendo consejo para saber si la cambia, por tanto no se parece que lo que quieren es defender que la 4090 es mejor, yo desde luego ya he puesto tantas especificaciones reales y pruebas hechas y siguen en su mundo que ya me he cansado, veo que es una perdida de tiempo.

@hh1 me debes estar tomando el pelo porque sino veo que hablas sin saber de nada, te pongo los consumos de la 4090 comparados con la 5080, es ridículo lo que estas diciendo pero en mayúsculas, esta claro que no tienes ni puta idea y oye si al final lo que quieres es quedarte con tu gráfica 4090 pues quédatela muchacho pero entonces para que pides realmente información si después llevas la contraria? Decirme que que te Ries de que la 5080 no es mas eficiente vamos...me rio yo en tal caso de la payasada que has dicho, partiendo de la base del rendimiento que da por W y consumiendo bastante menos(100w) casi nada vamos 😂😂 y eso para solamente en la mayoría de juegos dar 6/7 fps menos, de verdad acuéstate creo que el viernes te ha sentado mal

La NVIDIA GeForce RTX 5080 es significativamente más eficiente energéticamente que la RTX 4090, consumiendo menos vatios (W) para ofrecer un rendimiento comparable o superior en muchas situaciones.
Comparativa de Consumo y Eficiencia (en Vatios)
Característica NVIDIA GeForce RTX 5080 NVIDIA GeForce RTX 4090
TDP (Potencia de diseño térmico) 360 W 450 W (TGP)
Consumo promedio en gaming Alrededor de 330 W en pruebas específicas Aproximadamente un 6% más que la RTX 5080 en promedio
Consumo máximo ~400 W Aproximadamente un 24% más que la RTX 5080 en pruebas específicas
Eficiencia Ofrece un rendimiento similar o ligeramente superior a la RTX 4090 con un consumo notablemente menor Mayor consumo energético para un rendimiento bruto ligeramente superior en muchos casos, pero menos eficiente por vatio
Puntos Clave
Menor Consumo en la 5080: La RTX 5080 está diseñada para ser más eficiente, con un TDP oficial de 360 W, considerablemente inferior a los 450 W de la RTX 4090.
Eficiencia Superior: La serie 50 (Blackwell) ofrece una eficiencia energética mejorada respecto a la serie 40 (Ada Lovelace). Esto significa que la 5080 logra un rendimiento similar o incluso mejor que la 4090 utilizando menos energía.
Rendimiento Bruto: Sin el uso de tecnologías de reescalado (como Multi Frame Generation o DLSS 4.0), la RTX 4090 puede seguir siendo un poco más rápida (hasta un 20% en algunas pruebas) en rendimiento bruto en juegos específicos. Sin embargo, la brecha se cierra o revierte al considerar la eficiencia por vatio.

Y con esta informacíón ya me retiro, puesto que veo que es una perdida de tiempo seguir debatiendo con gente que no sale de una idea fija en su cabeza, les dices que es mas potente en rasterización bruta la 4090, bien, les dices que el FG no tiene fallos y cambia totalmente de un 2x a un 4x..mal que con un 2 es igual dicen😂, les dices que el DLSS 4 esta mejor optimizado...mal, les dices que la diferencia al final es mínima en FPS...mal, cuando hay por ahi benchmark con ambas gáficas que a lo mucho la 4090 saca de 8 a 10 FPS en algunos juegos, que en muchos otros si llega a 5-7 demasiado pero cuidado que es una diferencia abismal con el consumo que no es mas eficiente cuando todo el mundo sabe que la 4090 es un puto radiador que solamente de base en diseño le saca 100W a la 5080 para dar que 7,8 fps, y lo mejor es que donde se puede llegar a diferenciar en potencia bruta es en nativo!!! , que luego nadie juega ya en nativo o sea es rídiculo completamente!!😂😂😂 es como decirme que tienes un coche que es mas rápido en marchas corta por nacional( con el consumo que conlleva de diferencia que es bastante claro) cuando actualmente se va por la autovia jajaja, vamos es que es ridículo esto yo sinceramente me sorprendo cada vez de la ignorancia de la gente, en fin yo lo dejo, saluditos.

@xevipiu otro para el bote que necesita acostarse y ser ignorado, en la ignorancia serás grande y lo mejor es que das la razón en que para jugar es mejor la 5080 pero primero hablas sin conocimiento de causa...que gran ejemplo eres amigo jajaja

Yo te he dicho que según el contexto, la 4090 puede ser más eficiente que la 5080.
No te he dicho otra cosa.
Si no lo quieres ver ,no lo veas.
Una 5080 de stock tiene de TDP máximo 360w.Una 4090 450w.
De stock consume menos la 5080.Cierto.
¿Más eficiente?Bueno, también rinde menos de stock la 5080.

Ahora, lo que yo te estoy diciendo, dado que tú estás empecinado con que la 5080 con OC a la 4090 de stock en rendimiento bruto, que es cierto, pero la 5080 se va a 460w , para seguir rindiendo con y sin DLSS , por debajo de la 4090.
¿Dónde ves ahí la eficiencia?

Y también te he dicho, que si nos ponemos a tocar, le haces un UV a la 4090 dejándola en unos 350w máximo, Diría que con 325w también mejoro a la de stock,ganándole aún un 2% aproximado de rendimiento con 350w máximo, y tienes una gráfica más potente que la 5080 con OC, y a mi parecer, más eficiente, porque es más potente y está tragando 110w menos.
Yo a eso le llamo ser más eficiente.

Vamos, no sé ya cómo explicártelo.Y me da igual que la 4090 le saque a la 5080 un 1%,un 5% o un 10%.No me he puesto a mirarlo en este caso.

Sigo tampoco sin ver eso que dices de que usando SOLO DLSS4 ,la 5080 le recorta rendimiento la 4090.

Ahora, si nos basamos solo en rendimiento con MFG, pues obviamente la 5080 es mejor a costa de otras cosas.

Yo es que no sé porqué le das tantas vueltas.No es tan complicado.

Ahora, volvemos a lo mismo.Está erre que erre con que tenemos una 4090.
Aquí hay muchos que han opinado lo mismo que los que tenemos una 4090.

Igual que tú dices que tenemos una 4090 y ni idea de la 5080, yo te igo que no tienes una 4090 y no sabes la locura de gráfica que es en los undervolts.Jamás vi nada ni medio parecido.No sé la 5090 cómo será en esto.

Segundo, estuvo varias veces en casa de mi amigo que tiene una 5080 y estuve probando a conciencia el MFG y SE NOTABA ,vaya si se notaban cosas raras.

Que a día de hoy ,como dice el compañero @dunkam82 esté mejorado esto, no lo sé porque ya no he vuelto a probarla con MFG.
Ahí ya no opino a cómo ande a día de hoy.
Pueden haberlo mejorado bastante en unos juegos o en general el tema de artefactos.Pero aún te queda el input lag, que en juegos multijugador es diferencial.
En juegos un jugador, puede pasar seguramente.

Yo en con el FG x2 no suelo notar nada de inpu lag, lo cuál no quiere decir que esté ahí, y en juegos competitivos ,me olvido de usarlo, porque algo más de lag ,hará seguro.
@hh1 Perfecto, entonces también por esa razón le haces un undervolt a la 5080 y te sigue consumiendo menos con mayor eficiencia, creo que no te enteras de que la eficiencia significa que rinde más por w, me es igual que me digas de stock como si la subes o la bajas, el rendimiento por W siempre va a ser mejor, la diferencia como ya te he comentado es mínima y estamos hablando en comparación consumo/rendimiento, la 4090 rinde mas pero consume obviamente más en comparación con la diferencia que hay de la 5080 que a mismo nivel tiene mucha mejor eficiencia, es decir, consumo y sin tanta diferencia en el rendimiento( por mas que estés empecinado en decir que no)

Si nos ponemos hablar de cuando sale una gráfica entonces por esas no cambiaríamos nunca, porque las nuevas tecnologías hasta que se adaptan bien los desarrolladores dan problemas, pero es que estamos hablando de presente digo yo, y a día de hoy como ya comente se nota y sobradamente la diferencia de FG de 2 a 4 , me hablas del input lag hay otra tecnología que se llama réflex, yo sinceramente juego multijugador y eso del LAG que dices de nuevo me suena bastante a chino, pero ya te digo que si te estas basando en cuando han salido al mercado de nuevo mal hecho.

Tienes miles de pruebas de juegos en YouTube, que usando DLSS en ambas gráficas, sin FG, la 4090 le saca como muchísimo 10 FPS( con un mayor consumo obviamente), en la mayoría de juegos hay una diferencia de 5-7 fps como muchísimo, y obviamente ya con el FG X4 la 5080 se desmarca y si quieres verlo, en internet lo tienes, mas claro agua.
hh1 escribió:Que a día de hoy ,como dice el compañero @dunkam82 esté mejorado esto, no lo sé porque ya no he vuelto a probarla con MFG.
Ahí ya no opino a cómo ande a día de hoy.
Pueden haberlo mejorado bastante en unos juegos o en general el tema de artefactos.Pero aún te queda el input lag, que en juegos multijugador es diferencial.
En juegos un jugador, puede pasar seguramente.

Yo en con el FG x2 no suelo notar nada de inpu lag, lo cuál no quiere decir que esté ahí, y en juegos competitivos ,me olvido de usarlo, porque algo más de lag ,hará seguro.

Varios puntos por matizar:

1º Que conste que no generalizo y digo que en todos los juegos vaya perfecto, solo puedo hablar de primera mano de esos 2 que he probado estos días
2º Tendré que probar en más juegos a parte del Jedi con los que hice pruebas en su día y probarlos a día de hoy para ver si es una mejora generalizada o solo de algunos juegos concretos
3º Yo a los juegos que juego no son multijugador competitivo, son de un jugador con modo historia entonces no te puedo decir la experiencia en esos
4º En cuanto a la latencia como digo juego con mando y de forma inalámbrica, ya no sé si con ratón se notaría algo más pero la experiencia con mando es perfecta en el sentido de no notar ninguna latencia entre mis acciones y lo que veo en pantalla

De todos modos si vas a jugar en 1440P muy chungo tendría que estar el juego para necesitar de MFG con una 5080 yo te hablo de jugar a 4K y en caso del The Outer Worlds 2 y en el Jedi Survivor mejorando aún más la calidad del 4K con el DLAA
dunkam82 escribió:
hh1 escribió:Que a día de hoy ,como dice el compañero @dunkam82 esté mejorado esto, no lo sé porque ya no he vuelto a probarla con MFG.
Ahí ya no opino a cómo ande a día de hoy.
Pueden haberlo mejorado bastante en unos juegos o en general el tema de artefactos.Pero aún te queda el input lag, que en juegos multijugador es diferencial.
En juegos un jugador, puede pasar seguramente.

Yo en con el FG x2 no suelo notar nada de inpu lag, lo cuál no quiere decir que esté ahí, y en juegos competitivos ,me olvido de usarlo, porque algo más de lag ,hará seguro.

Varios puntos por matizar:

1º Que conste que no generalizo y digo que en todos los juegos vaya perfecto, solo puedo hablar de primera mano de esos 2 que he probado estos días
2º Tendré que probar en más juegos a parte del Jedi con los que hice pruebas en su día y probarlos a día de hoy para ver si es una mejora generalizada o solo de algunos juegos concretos
3º Yo a los juegos que juego no son multijugador competitivo, son de un jugador con modo historia entonces no te puedo decir la experiencia en esos
4º En cuanto a la latencia como digo juego con mando y de forma inalámbrica, ya no sé si con ratón se notaría algo más pero la experiencia con mando es perfecta en el sentido de no notar ninguna latencia entre mis acciones y lo que veo en pantalla

De todos modos si vas a jugar en 1440P muy chungo tendría que estar el juego para necesitar de MFG con una 5080 yo te hablo de jugar a 4K y en caso del The Outer Worlds 2 y en el Jedi Survivor mejorando aún más la calidad del 4K con el DLAA

No solo juego 1440p.En los juegos que me lo permite, juego DSR 4k.

También podría cambiar a un monitor 4K Oled si alguna vez sale alguna oferta convincente.

Pero vamos, que no es algo imperativo ,y si no fuese lo suyo o no se pudiese , no tengo problema en dejarlo en 1440p.

Me alegraría bastante saber que ese x3 y x4 ha mejorado tanto que en la mayoría de juegos fuese más que usable de manera aceptable.
Ya ves ,por mí, de lujo.

@ffmaniaco6
Claro, pero es que estamos hablando de rendir lo más cercano la 5080 a la 4090.
Si buscamos fps parecidos sin usar MFG, no hay color.
Es lo que te trato de decir.
SI le haces UV a una 5080, ya estarás más lejos aún de una 4090.
Es lo que trato que entiendas.
Que buscando fps similares y lo más cercano a una 4090, una 5080 NO es más eficiente.Eso ya te lo digo yo, porque la 4090 hace un UV de locos.

Los vídeos que hay por ahí, igual que las pruebas, no dicen que con DLSS4 se acerca más la 5080 a la 4090 comparado a si van en nativo.
Siguen guardando distancias similares.
Por eso te estoy diciendo ,una prueba clara de esa supuesta mejora tan notoria.

Donde sí mejora es con DLSS4 y MFG, obvio. Pero eso de que solo con DLSS 4 rinde más, repito, no lo veo claro en ningún sitio.
Que no digo que no pueda ser, pero es que no lo he visto jamás
Y en todo caso, seguimos igual.Con la 4090 por delante con DLSS.

Si esto no es una guerra de seguidores o fans de una y otra gráfica.A mí me la pela..
Pero lo suyo es ver las cosas como son.

Tienes programas para medir el input lag ,y ya te digo que un mero x2, hace que se incremente.
¿Que se puede jugar?Sí.
Pero que no lo notes, no quiere decir que no esté o incida en los resultados posibles del juego llegado un momento.
Yo ya he dicho que en x2 ,jamás he notado nada raro de input lag, pero con programa de medición, sí.
Que no lo note, no quiere decir que no esté.
En un x4, es más acusado.
Y da igual Reflex .Eso solo lo mejora, pero no lo elimina.

Y vamos, no podría yo estar más contento, si una 5080 con un x3 ,fuese tan sumamente buena que supera de verdad ,sin que se note nada raro ,a una 4090, y encima llevarme 500€-600€.
Vamos, yo encantado.Y que se llame la gráfica como le dé la gana, ya ves tú.

Si fuese todo tan maravilloso ,estaríamos tirándoles el dinero a la cara por una 5070Ti , no haría falta más, y mientras , quemando las 4090.

Mira lo que he encontrado de hace un mes:


Parece que visualmente, como decís , ha mejorado, pero el tema del input lag, es lo que hay.
Es que eso es muy complicado de mitigar con tanto multiplicador.
Por eso te digo que no todo es tan bonito y perfecto.

Este con artefactos en GTA V
@hh1 pero que nadie juega en nativo!!!, que en nativo le saca en rendimiento bruto un 20% a la 5080, perfecto...¿¿y que??? de que te sirve si tu tampoco vas a jugar en nativo, en nativo puedes jugar en juegos antiguos y perfecto, pero en los modernos para tener tasas estables de fps y altas necesitas usar DLSS en su mayoria, y con DLSS la serie 5 maneja mejor por la IA , a pesar de que en rendimiento nativo le saque un 20% con DLSS se reduce en su mayoria como ya he dicho mil veces a un 10% como muchisisisisisisismo, y es una diferencia de FPS infima cuando ya nos vamos a tecnologias DLSS ya que si con una 4090 obtienes 80 en una 5080 obtienes 70 ya estamos hablando de estar por encima de los 60 FPS que es la medida standar para que un juego pueda ser jugable, pero que por lo general no es asi, en ultimos juegos le puede sacar una diferencia de 5 a 7 fps en muchos titulos modernos y para de contar, y con FR como ya te he dicho la cosa cambia, yo no voy a seguir repitiendo lo mismo porque es que aburre ya, ni tampoco el tema de que es mas eficiente porque ya esta demostrado, y si es mas eficiente es por la construcción y la tecnologia no porque hagas UV O OV va a dejar de serlo entonces es tonteria seguir con eso.
ffmaniaco6 escribió:@hh1 pero que nadie juega en nativo!!!, que en nativo le saca en rendimiento bruto un 20% a la 5080, perfecto...¿¿y que??? de que te sirve si tu tampoco vas a jugar en nativo, en nativo puedes jugar en juegos antiguos y perfecto, pero en los modernos para tener tasas estables de fps y altas necesitas usar DLSS en su mayoria, y con DLSS la serie 5 maneja mejor por la IA , a pesar de que en rendimiento nativo le saque un 20% con DLSS se reduce en su mayoria como ya he dicho mil veces a un 10% como muchisisisisisisismo, y es una diferencia de FPS infima cuando ya nos vamos a tecnologias DLSS ya que si con una 4090 obtienes 80 en una 5080 obtienes 70 ya estamos hablando de estar por encima de los 60 FPS que es la medida standar para que un juego pueda ser jugable, pero que por lo general no es asi, en ultimos juegos le puede sacar una diferencia de 5 a 7 fps en muchos titulos modernos y para de contar, y con FR como ya te he dicho la cosa cambia, yo no voy a seguir repitiendo lo mismo porque es que aburre ya, ni tampoco el tema de que es mas eficiente porque ya esta demostrado, y si es mas eficiente es por la construcción y la tecnologia no porque hagas UV O OV va a dejar de serlo entonces es tonteria seguir con eso.

Y dale...
Que yo no te estoy diciendo que se juegue en nativo.
Te estoy poniendo TODOS los escenarios, y del nativo es de donde parte TODO.

Si no he parado de hablarte CON DLSS.

Luego, pues según te conviene, usas el argumento de que el nativo no se usa y se usa DLSS o MFG, pero sin embargo, cuando te saco la alternativa del UV para rebatirte el consumo y la eficiencia, no vale.

Claro, cuando te digo que con 325-350w saco sobre un 1-2% más de rendimiento a la 4090 de stock, pues ya se te cae por los suelos el relato de la 5080 y su eficiencia, ya que para tener la cerca de una 4090, la tienes que llevar a los 460w.o mínimo, pasarla de 400w.
Pues ya me dirás.

Y volvemos a lo mismo.Aún con Oc la 5080 y con su mejor desempeño con DLSS 4, sigue sin superar a una 4090 con DLSS.Tiene que tirar de MFG.
Y el MFG no se usa siempre ni es para todos.
Que se use DLSS te lo compro.Es una muy buena tecnología .Lo usamos todos.
Pero MFG, no.Depende de la persona, tipo de juego y cómo está implementado en el juego.



Van casi todas con DLSS y 5080 OC
Yo no la cambiaba, con la 4090 tienes gráfica para esperar a la serie 6000 perfectamente, yo he estado en tu situación y decidí esperarme a la serie 6000 con la mejora en latencia en x3 y x4 y quedarme con la 4090 que va de maravilla.
Ya no entiendo el hilo la verdad, si ya solo das argumentos para quedarte la 4090, ya esta no?

Estas discutiendo con gente que te da otro punto de vista y parece que tienes las cosas muy muy claras.

Necesitas que un grupo de desconocidos te den la razon o algo asi? Si la 4090 es mejor en todo no?
@hh1 a ver yo ya me rindo contigo de verdad, es que no se trata de que la 5080 alcance el rendimiento de la 4090, se trata de que si tu bajas la tuya de stock, yo también puedo bajar la mía, y siempre seguirá consumiendo menos y no teniendo tanta diferencia de rendimiento en cuanto a consumo, si la tuya consume 425W y saca un 20% de rendimiento en nativo y la mía consume 325W y es un 15-20% menos potente que la tuya, creo que esta clara la eficiencia ¿no?, es la relación de diferencia entre consumo/rendimiento por W pero es que yo creo que es que sigues sin entenderlo, si la 5080 tiene mayor capacidad de UV/OV es por algo, y precisamente porque tiene mejor eficiencia que la 4090 en relación consumo/W.
Yo tengo una 4090 y no la cambiaria por la 5080, otra cosa es que si se me jodiera ahora mismo la grafica posiblemente me tiraría por una 5080.
suemrri escribió:Yo tengo una 4090 y no la cambiaria por la 5080

Lo que planteó el OP es si la cambiaría por una 5080 y además sacando 600-700€ extras, no solo cambiar una gráfica por la otra, que creo que eso cambia bastante las cosas, al menos bajo mi punto de vista.

Saludos.
ProfesorFrink escribió:Ya no entiendo el hilo la verdad, si ya solo das argumentos para quedarte la 4090, ya esta no?

Estas discutiendo con gente que te da otro punto de vista y parece que tienes las cosas muy muy claras.

Necesitas que un grupo de desconocidos te den la razon o algo asi? Si la 4090 es mejor en todo no?

Consume menos watios por fps no?
Es la cosa mas ridicula que he visto decir a alguien que tiene +1500€ para una gpu, pero oye, que lo tienes clarisimo. (Es que no son ni 100 putos watios/hora pero bueno)

Que lo has hecho muy bien quedandotela tranquilo, aplaudimos o algo asi?

La "gente" que le da otro punto de vista, aunque desconozco qué argumentos está dando en las últimas intervenciones ya que terminé ignorándolo tras faltas de respeto en este mismo post, está partiendo de premisas erróneas y dando información que objetivamente es incorrecta (como por ejemplo que la 4090 de escritorio y de portátil son el mismo chip, que por mucho que edite las citas ahí están).

Para alguien que sabe de lo que le hablan, como puede ser el caso del compañero @hh1, da poco más o menos igual. Pero para alguien que no esté metido en el mundillo y lea el tema "a ciegas", desde luego que me parece que vale la pena discutirlo. No por la parte subjetiva, sino por la parte objetiva. De hecho es que en la parte subjetiva yo ya dije que, personalmente, habría hecho el cambio sin dudar también. El hecho de "dejarlo estar" se puede interpretar como "el que calla otorga". Cosa que a veces me insta a responder, siempre con ánimo de debatir y no de imponer nada (con muchos otros usuarios discrepo CONTINUAMENTE y no solo no tengo mal rollo sino que diría que es al revés)

Y serán watios, no watios/hora. Los watios miden potencia, ya están divididos por el tiempo, si habláramos de energía serían W·h. La verdad que lo de usar la misma palabra (por) para multiplicar y para abreviar "por cada" (ej. km/h como kilómetros por hora) no sé quién lo pensó pero no estaba muy inspirado :)

Saludos
@Pollonidas yo es que con los ultimos mensajes he flipado un poco, ya no es una cuestion de argumentos y tampoco de chips de portatiles.

Ha batallado con un compañero que la 4090 es mejor si o si que la 5080, con argumentos mas que obvios y ya discutiendo si tal undervolteada es mejor que la otra overclockeada.

Pero vamos a ver, que aqui todos tenemos claro que la 4090 tiene mas potencia bruta, pero el que dudaba de cambiarla era EL, y OBVIAMENTE el cambio NUNCA se ha dicho que sea a MEJOR

La cosa es que si no la aprovechaba al 100%, tenia la opcion de irse a una gama inferior y recuperar pasta, NO HAY MAS.

Y el que la aproveche al 100% bien aprovechada estará, si es que no hay mucho debate.

O el que la aproveche al 100% pero le venga bien la pasta pues igual le cunde el cambio.

Para aprovecharla al 100% tendrias que tener un pedazo de monitor 4k120 minimo, asi que tampoco tendria sentido recuperar 600€ de la gpu si el monitor en el que has invertido vale mas que eso.

Y si tienes un monitor inferior a 4k120hz, dudo que la aproveches al 100%, bueno vamos, en algun juego activando todo lo posible al maximo y quitando dlss.

Pero esa es otra, si no usas dlss, tampoco la estas usando al 100%
Pollonidas escribió:
ProfesorFrink escribió:Ya no entiendo el hilo la verdad, si ya solo das argumentos para quedarte la 4090, ya esta no?

Estas discutiendo con gente que te da otro punto de vista y parece que tienes las cosas muy muy claras.

Necesitas que un grupo de desconocidos te den la razon o algo asi? Si la 4090 es mejor en todo no?

Consume menos watios por fps no?
Es la cosa mas ridicula que he visto decir a alguien que tiene +1500€ para una gpu, pero oye, que lo tienes clarisimo. (Es que no son ni 100 putos watios/hora pero bueno)

Que lo has hecho muy bien quedandotela tranquilo, aplaudimos o algo asi?

La "gente" que le da otro punto de vista, aunque desconozco qué argumentos está dando en las últimas intervenciones ya que terminé ignorándolo tras faltas de respeto en este mismo post, está partiendo de premisas erróneas y dando información que objetivamente es incorrecta (como por ejemplo que la 4090 de escritorio y de portátil son el mismo chip, que por mucho que edite las citas ahí están).

Para alguien que sabe de lo que le hablan, como puede ser el caso del compañero @hh1, da poco más o menos igual. Pero para alguien que no esté metido en el mundillo y lea el tema "a ciegas", desde luego que me parece que vale la pena discutirlo. No por la parte subjetiva, sino por la parte objetiva. De hecho es que en la parte subjetiva yo ya dije que, personalmente, habría hecho el cambio sin dudar también. El hecho de "dejarlo estar" se puede interpretar como "el que calla otorga". Cosa que a veces me insta a responder, siempre con ánimo de debatir y no de imponer nada (con muchos otros usuarios discrepo CONTINUAMENTE y no solo no tengo mal rollo sino que diría que es al revés)

Y serán watios, no watios/hora. Los watios miden potencia, ya están divididos por el tiempo, si habláramos de energía serían W·h. La verdad que lo de usar la misma palabra (por) para multiplicar y para abreviar "por cada" (ej. km/h como kilómetros por hora) no sé quién lo pensó pero no estaba muy inspirado :)

Saludos

Bueno no digas que nadie te ha faltado al respeto porque es mas bien al reves, cuando se te han debatido solo te has dedicado a ignorar por no darte la razón, y nuevamente te digo que de ninguna forma eso se ha dicho asi, pero por supuesto que es la misma gráfica solo que recortada y con mas limitación, obviamente por el tamaño, otra cosa es como rinda al nivel de sobremesa, que precisamente por eso suelen ser en comparación versiones de escritorio de menor nivel que es bien distinto, pero claro tu entiendes lo que quieres .
@profesorfrink creo que tu tampoco estas siendo muy claro, estas diciendo que el cambio no es a mejor asi porque si, y para nada, la 5080 es una gama mas nueva, por tanto no es un cambio a peor muchacho, otra cosa es que la 4090 sea la tope gama de la generación anterior y en según que cosas sea mejor, porque no es mejor en todas, como ya se ha aclarado dependiendo de la tecnología que se utilice ( FG), entonces eso de que es un cambio a peor, para nada.
Según el uso que se le vaya a dar, ya que ha dicho gente por aquí (hasta contradiciéndose) que la 5080 si es para jugar es una opción mejor,
Editado por quimico2008. Razón: Faltas de respeto
@ffmaniaco6 Te aclaro que para mi es mejor como producto la 5080, lo que he dicho es por el tema de la fuerza bruta que a mucha gente solo le interesa eso.

No soy partidario de evaluar solo fuerza bruta, me gusta el DLSS y la generacion de fotogramas. Y si usas MFG en su esplendor, la RTX 5080 rinde mas, consume menos (a mi me da igual la factura de la luz, pero es accesible a mas PSU) y sobre todo, es mas barata.

Tendria que haber especificado en que es mejor la otra en lo que muchos miran, la fuerza bruta.
ProfesorFrink escribió:@ffmaniaco6 Te aclaro que para mi es mejor como producto la 5080, lo que he dicho es por el tema de la fuerza bruta que a mucha gente solo le interesa eso.

No soy partidario de evaluar solo fuerza bruta, me gusta el DLSS y la generacion de fotogramas. Y si usas MFG en su esplendor, la RTX 5080 rinde mas, consume menos (a mi me da igual la factura de la luz, pero es accesible a mas PSU) y sobre todo, es mas barata.

Tendria que haber especificado en que es mejor la otra en lo que muchos miran, la fuerza bruta.

te agradezco la aclaración.
ProfesorFrink escribió:Ya no entiendo el hilo la verdad, si ya solo das argumentos para quedarte la 4090, ya esta no?

Estas discutiendo con gente que te da otro punto de vista y parece que tienes las cosas muy muy claras.

Necesitas que un grupo de desconocidos te den la razon o algo asi? Si la 4090 es mejor en todo no?

No es como dices.
Una cosa es que valga la pena o no, un cambio de 4090 por 5080 y dinero extra, y otra el denate que ha salido de que la 5080 es mejor que la 4090.
Creo que son cosas distintas.

Bajo mi punto de vista ,la 4090 es mejor gráfica por varios motivos:
-Potencia bruta.
-Mayor Vram
-Mayor rendimiento en nativo y con DLSS activado

Pero que me parezca mejor, no hace que esté ciego y vea a la 5080 como una gráfica que es una muy buena opción, más si tenemos en cuenta que me llevo unos buenos cientos de € al bolsillo, y que, no está nada lejos de la 4090 en muchos escenarios.
Incluso me genera dudas de si ,en muchos casos , fuera de los números ,voy a notar alguna diferencia.
Y encima, tiene el MFG que puede estar bien en algunos casos.

Lo uno no quita lo otro.
¿A pelo la cambiaría por una 5080?No.
Pero es que hay un bien dinero por medio.

@ffmaniaco6
Creo que nos hemos perdido entre tanto debate.

Yo me estoy refiriendo a tus argumentos, en los que dices que una 5080 con OC rinde casi casi lo que una 4090.
Que con DLSS 4 rinde casi igual.
Y yo te estoy diciendo que se acerca mucho, pero en la mayoría de casos, no rinde igual.Se acerca mucho eso sí.
Y te he respondido que se puede hacer también OC a la 4090 y ampliar ese acercamiento de la 5080.

Luego, con esto claro, me has saltado que con MFG se la fusila, cosa que es cierta, pero yo te estoy diciendo que eso ya no es igual de comparable ya que pierdes calidad, subes el input lag, y que va a depender del juego al que juegues ,por su implementación y tipo de juego, por lo que ya ,para mí no es un argumento sólido, sino un extra a tener en cuenta.

Seguimos que me has soltado lo de la eficiencia, cosa que es cierta con las gráficas de stock.Sin echar números, seguramente una 5080 con consumo de 350w usa menos W que por fps que una 4090 con 450w de stock.
Hasta aquí ,de acuerdo.
Y aquí te he argumentado que ,una de las maravillas de la 4090, por no decir ,que es lo mejor que tiene la gráfica, es su barbaridad de capacidad de hacer UV sin palmar rendimiento, o bajando muy poco el rendimiento, lo cuál, da la vuelta a la tortilla a lo que me sueltas de la eficiencia por rendimiento, que si tú, como dices ,loe haces UV a la 5080, te quedas más lejos de la 4090 en rendimiento, porque esta es capaz de bajar 100-125w sin perder rendimiento, e incluso, aumentarlo un pelo.
Creo que no es tan complicado de entender.

Y si de lo que estamos hablando en el inicio es de conseguir que una 5080OC sea similar con DLSS4 a una 4090, pues están a años luz en eficiencia, ya que para un OC semejante de la 5080 en el cual se acerque lo máximo posible a una 4090, necesitas meterla en 460w mientras que ,con una 4090 en 350w, sigues por delante en rendimiento y encima, le puedes subir sobre un 2% más.

Creo que es muy muy sencillo de entender y que está todo muy claro.

Que tengo claro que la 5080 es un tarjetón, que se puede quedar relativamente cerca de la 4090 en rendimiento con una calidad igual a la 5090 de experiencia, y que , sacrificando ciertas cosas según juego, puede rendir aún más que la 4090.
Esa es la realidad.
Pero eso no es rendir más que una 4090 ni ser más eficiente que una 4090.Eso va a depender del escenario que propongamos.

Por mi parte, debate finalizado.

@Pollonidas
Así es.
Simplemente le estoy explicando las cosas porque está emperrado en que sus argumentos son sólidos e inamovibles, y no es así. [beer]
hh1 escribió:
ProfesorFrink escribió:Ya no entiendo el hilo la verdad, si ya solo das argumentos para quedarte la 4090, ya esta no?

Estas discutiendo con gente que te da otro punto de vista y parece que tienes las cosas muy muy claras.

Necesitas que un grupo de desconocidos te den la razon o algo asi? Si la 4090 es mejor en todo no?

No es como dices.
Una cosa es que valga la pena o no, un cambio de 4090 por 5080 y dinero extra, y otra el denate que ha salido de que la 5080 es mejor que la 4090.
Creo que son cosas distintas.

Bajo mi punto de vista ,la 4090 es mejor gráfica por varios motivos:
-Potencia bruta.
-Mayor Vram
-Mayor rendimiento en nativo y con DLSS activado

Pero que me parezca mejor, no hace que esté ciego y vea a la 5080 como una gráfica que es una muy buena opción, más si tenemos en cuenta que me llevo unos buenos cientos de € al bolsillo, y que, no está nada lejos de la 4090 en muchos escenarios.
Incluso me genera dudas de si ,en muchos casos , fuera de los números ,voy a notar alguna diferencia.
Y encima, tiene el MFG que puede estar bien en algunos casos.

Lo uno no quita lo otro.
¿A pelo la cambiaría por una 5080?No.
Pero es que hay un bien dinero por medio.

@ffmaniaco6
Creo que nos hemos perdido entre tanto debate.

Yo me estoy refiriendo a tus argumentos, en los que dices que una 5080 con OC rinde casi casi lo que una 4090.
Que con DLSS 4 rinde casi igual.
Y yo te estoy diciendo que se acerca mucho, pero en la mayoría de casos, no rinde igual.Se acerca mucho eso sí.
Y te he respondido que se puede hacer también OC a la 4090 y ampliar ese acercamiento de la 5080.

Luego, con esto claro, me has saltado que con MFG se la fusila, cosa que es cierta, pero yo te estoy diciendo que eso ya no es igual de comparable ya que pierdes calidad, subes el input lag, y que va a depender del juego al que juegues ,por su implementación y tipo de juego, por lo que ya ,para mí no es un argumento sólido, sino un extra a tener en cuenta.

Seguimos que me has soltado lo de la eficiencia, cosa que es cierta con las gráficas de stock.Sin echar números, seguramente una 5080 con consumo de 350w usa menos W que por fps que una 4090 con 450w de stock.
Hasta aquí ,de acuerdo.
Y aquí te he argumentado que ,una de las maravillas de la 4090, por no decir ,que es lo mejor que tiene la gráfica, es su barbaridad de capacidad de hacer UV sin palmar rendimiento, o bajando muy poco el rendimiento, lo cuál, da la vuelta a la tortilla a lo que me sueltas de la eficiencia por rendimiento, que si tú, como dices ,loe haces UV a la 5080, te quedas más lejos de la 4090 en rendimiento, porque esta es capaz de bajar 100-125w sin perder rendimiento, e incluso, aumentarlo un pelo.
Creo que no es tan complicado de entender.

Y si de lo que estamos hablando en el inicio es de conseguir que una 5080OC sea similar con DLSS4 a una 4090, pues están a años luz en eficiencia, ya que para un OC semejante de la 5080 en el cual se acerque lo máximo posible a una 4090, necesitas meterla en 460w mientras que ,con una 4090 en 350w, sigues por delante en rendimiento y encima, le puedes subir sobre un 2% más.

Creo que es muy muy sencillo de entender y que está todo muy claro.

Que tengo claro que la 5080 es un tarjetón, que se puede quedar relativamente cerca de la 4090 en rendimiento con una calidad igual a la 5090 de experiencia, y que , sacrificando ciertas cosas según juego, puede rendir aún más que la 4090.
Esa es la realidad.
Pero eso no es rendir más que una 4090 ni ser más eficiente que una 4090.Eso va a depender del escenario que propongamos.

Por mi parte, debate finalizado.

@Pollonidas
Así es.
Simplemente le estoy explicando las cosas porque está emperrado en que sus argumentos son sólidos e inamovibles, y no es así. [beer]

Es más eficiente a todos los niveles que una 4090, fin, puedes seguir así hasta que salga la generación 6 que da igual, y puedes seguir diciéndome que la puedes bajar con una perdida blablablá y todo lo que quieras, que seguirá siendo mas eficiente la 5080.

RTX 5080
Mayor eficiencia energética: Consume menos energía para el rendimiento que ofrece.
Mejor rendimiento en juegos modernos: Con tecnologías como DLSS 4 y Multi Frame Generation, la 5080 puede igualar o superar a la 4090 en algunos escenarios, a pesar de tener menos potencia bruta.
Ventajas con DLSS 4: La arquitectura de la 5080 (Blackwell) maneja mejor el DLSS 4, lo que la hace más competitiva en juegos que lo utilizan.
ffmaniaco6 escribió:
hh1 escribió:
ProfesorFrink escribió:Ya no entiendo el hilo la verdad, si ya solo das argumentos para quedarte la 4090, ya esta no?

Estas discutiendo con gente que te da otro punto de vista y parece que tienes las cosas muy muy claras.

Necesitas que un grupo de desconocidos te den la razon o algo asi? Si la 4090 es mejor en todo no?

No es como dices.
Una cosa es que valga la pena o no, un cambio de 4090 por 5080 y dinero extra, y otra el denate que ha salido de que la 5080 es mejor que la 4090.
Creo que son cosas distintas.

Bajo mi punto de vista ,la 4090 es mejor gráfica por varios motivos:
-Potencia bruta.
-Mayor Vram
-Mayor rendimiento en nativo y con DLSS activado

Pero que me parezca mejor, no hace que esté ciego y vea a la 5080 como una gráfica que es una muy buena opción, más si tenemos en cuenta que me llevo unos buenos cientos de € al bolsillo, y que, no está nada lejos de la 4090 en muchos escenarios.
Incluso me genera dudas de si ,en muchos casos , fuera de los números ,voy a notar alguna diferencia.
Y encima, tiene el MFG que puede estar bien en algunos casos.

Lo uno no quita lo otro.
¿A pelo la cambiaría por una 5080?No.
Pero es que hay un bien dinero por medio.

@ffmaniaco6
Creo que nos hemos perdido entre tanto debate.

Yo me estoy refiriendo a tus argumentos, en los que dices que una 5080 con OC rinde casi casi lo que una 4090.
Que con DLSS 4 rinde casi igual.
Y yo te estoy diciendo que se acerca mucho, pero en la mayoría de casos, no rinde igual.Se acerca mucho eso sí.
Y te he respondido que se puede hacer también OC a la 4090 y ampliar ese acercamiento de la 5080.

Luego, con esto claro, me has saltado que con MFG se la fusila, cosa que es cierta, pero yo te estoy diciendo que eso ya no es igual de comparable ya que pierdes calidad, subes el input lag, y que va a depender del juego al que juegues ,por su implementación y tipo de juego, por lo que ya ,para mí no es un argumento sólido, sino un extra a tener en cuenta.

Seguimos que me has soltado lo de la eficiencia, cosa que es cierta con las gráficas de stock.Sin echar números, seguramente una 5080 con consumo de 350w usa menos W que por fps que una 4090 con 450w de stock.
Hasta aquí ,de acuerdo.
Y aquí te he argumentado que ,una de las maravillas de la 4090, por no decir ,que es lo mejor que tiene la gráfica, es su barbaridad de capacidad de hacer UV sin palmar rendimiento, o bajando muy poco el rendimiento, lo cuál, da la vuelta a la tortilla a lo que me sueltas de la eficiencia por rendimiento, que si tú, como dices ,loe haces UV a la 5080, te quedas más lejos de la 4090 en rendimiento, porque esta es capaz de bajar 100-125w sin perder rendimiento, e incluso, aumentarlo un pelo.
Creo que no es tan complicado de entender.

Y si de lo que estamos hablando en el inicio es de conseguir que una 5080OC sea similar con DLSS4 a una 4090, pues están a años luz en eficiencia, ya que para un OC semejante de la 5080 en el cual se acerque lo máximo posible a una 4090, necesitas meterla en 460w mientras que ,con una 4090 en 350w, sigues por delante en rendimiento y encima, le puedes subir sobre un 2% más.

Creo que es muy muy sencillo de entender y que está todo muy claro.

Que tengo claro que la 5080 es un tarjetón, que se puede quedar relativamente cerca de la 4090 en rendimiento con una calidad igual a la 5090 de experiencia, y que , sacrificando ciertas cosas según juego, puede rendir aún más que la 4090.
Esa es la realidad.
Pero eso no es rendir más que una 4090 ni ser más eficiente que una 4090.Eso va a depender del escenario que propongamos.

Por mi parte, debate finalizado.

@Pollonidas
Así es.
Simplemente le estoy explicando las cosas porque está emperrado en que sus argumentos son sólidos e inamovibles, y no es así. [beer]

Es más eficiente a todos los niveles que una 4090, fin, puedes seguir así hasta que salga la generación 6 que da igual, y puedes seguir diciéndome que la puedes bajar con una perdida blablablá y todo lo que quieras, que seguirá siendo mas eficiente la 5080.

RTX 5080
Mayor eficiencia energética: Consume menos energía para el rendimiento que ofrece.
Mejor rendimiento en juegos modernos: Con tecnologías como DLSS 4 y Multi Frame Generation, la 5080 puede igualar o superar a la 4090 en algunos escenarios, a pesar de tener menos potencia bruta.
Ventajas con DLSS 4: La arquitectura de la 5080 (Blackwell) maneja mejor el DLSS 4, lo que la hace más competitiva en juegos que lo utilizan.

Y erre que erre.
Deja de usar IA para buscar info y cíñete a pruebas,a realidades.
La 5080 NO supera a la 4090 con DLSS 4.La supera con MFG, obviamente, a base de perder calidad de juego.
Que gestione mejor el DLSS4 NO implica que gracias a ello rinda más que la 4090.No es lo mismo decir que con DLSS 4 en ambas, la 5080 gana más fps,que decir que con DLSS 4 ya la 5080 supera a la 4090.Eso NO es cierto.

Yo ya no sé cómo explicarte que según el escenario, la 5080 es más eficiente o menos que la 4090.
Creo que te lo he explicado ya más que bien.

Es que , en serio, no es tan difícil.

Te lo voy a explicar con números,a ver si así ya lo ves.

5080 con OC saca en X juego 150 fps consumiendo 430w.No te voy a poner ni los 460w
4090 con UV saca en el mismo X juego 165 fps con 350w de consumo.
¿Cuál es más eficiente?


Ahora, me saldrás con que a la 5080 también le puedes hacer UV.Ok.
Pero es que lo mismo, con ese UV, ya no sacas esos 150fps, sino que 125 fps (no lo he mirado y me lo estoy iventando.)

Si es que ya no sé cómo explicártelo.
ahí arriba tienes un vídeo de una 5080 con Oc vs 4090 de stock, siendo esta última siempre mejor CON DLSS 4.
A esa misma 4090 le quitas 100w y sigue rindiendo IGUAL o algo más porque te permite subir la frecuencia, por lo que seguiría delante de la 5080 Oc en rendimiento pero consumiendo menos.

Al menos, en el escenario en el que metes OC a la 5080 para acercarte en rendimiento a la 4090 lo máximo posible, la 5080 NO es más eficiente que la 4090.

Pero nada ,la perra gorda para ti

Yo ya más no te puedo explicar.Me rindo.
Algún problema personal o algún trauma con la 4090
Yo lo tuve con el conector que se me quemó hace año y 2 meses pero lo he superado(buen RMA,he de decir impecable)
Espero que con la 6090 cambien el sistema de alimentación
Por otro lado las bondades de está grafica si la optimización es buena es jugar en DLAA
Dificil en una época que Unreal Engine 5 es el rey
Pero se busca la opción
Nativo siempre
Es más eficiente a todos los niveles que una 4090, fin, puedes seguir así hasta que salga la generación 6 que da igual, y puedes seguir diciéndome que la puedes bajar con una perdida blablablá y todo lo que quieras, que seguirá siendo mas eficiente la 5080.

RTX 5080
Mayor eficiencia energética: Consume menos energía para el rendimiento que ofrece.
Mejor rendimiento en juegos modernos: Con tecnologías como DLSS 4 y Multi Frame Generation, la 5080 puede igualar o superar a la 4090 en algunos escenarios, a pesar de tener menos potencia bruta.
Ventajas con DLSS 4: La arquitectura de la 5080 (Blackwell) maneja mejor el DLSS 4, lo que la hace más competitiva en juegos que lo utilizan.[/quote]
Y erre que erre.
Deja de usar IA para buscar info y cíñete a pruebas,a realidades.
La 5080 NO supera a la 4090 con DLSS 4.La supera con MFG, obviamente, a base de perder calidad de juego.
Que gestione mejor el DLSS4 NO implica que gracias a ello rinda más que la 4090.No es lo mismo decir que con DLSS 4 en ambas, la 5080 gana más fps,que decir que con DLSS 4 ya la 5080 supera a la 4090.Eso NO es cierto.

Yo ya no sé cómo explicarte que según el escenario, la 5080 es más eficiente o menos que la 4090.
Creo que te lo he explicado ya más que bien.

Es que , en serio, no es tan difícil.

Te lo voy a explicar con números,a ver si así ya lo ves.

5080 con OC saca en X juego 150 fps consumiendo 430w.No te voy a poner ni los 460w
4090 con UV saca en el mismo X juego 165 fps con 350w de consumo.
¿Cuál es más eficiente?


Ahora, me saldrás con que a la 5080 también le puedes hacer UV.Ok.
Pero es que lo mismo, con ese UV, ya no sacas esos 150fps, sino que 125 fps (no lo he mirado y me lo estoy iventando.)

Si es que ya no sé cómo explicártelo.
ahí arriba tienes un vídeo de una 5080 con Oc vs 4090 de stock, siendo esta última siempre mejor CON DLSS 4.
A esa misma 4090 le quitas 100w y sigue rindiendo IGUAL o algo más porque te permite subir la frecuencia, por lo que seguiría delante de la 5080 Oc en rendimiento pero consumiendo menos.

Al menos, en el escenario en el que metes OC a la 5080 para acercarte en rendimiento a la 4090 lo máximo posible, la 5080 NO es más eficiente que la 4090.

Pero nada ,la perra gorda para ti

Yo ya más no te puedo explicar.Me rindo.[/quote]

@hh1 Precisamente porque no lo has mirado y te lo estas inventando es que yo ya paso del tema, y dale con el overclock que no te hablo de hacerle overclock y tu a la tuya bajar el voltage, se te esta llendo ya la cabeza creo, te estoy diciendo que a nivel de rendimiento es mas eficiente porque da un mejor rendimiento por W, que no te entra en la cabeza, y subas o bajes el voltaje siempre va a rendir en % mejor que la 4090 aunque este por debajo, que no te enteras!!!
ffmaniaco6 escribió:5080 con OC saca en X juego 150 fps consumiendo 430w.No te voy a poner ni los 460w
4090 con UV saca en el mismo X juego 165 fps con 350w de consumo.
¿Cuál es más eficiente?

En el ejemplo que das, La RTX 4090 desde luego.

Otro asunto es lo que rinda y la eficiencia que tenga cada una de stock, que en ese caso tiene peor eficiencia la RTX 4090 de stock, pero rinde mejor que la RTX 5080 en general, pero en el ejemplo que das en lo que te he citado, sin lugar ninguno a dudas, la RTX 4090 rinde mejor y es más eficiente.

A lo que tampoco le veo sentido es a comparar las 2 gráficas, una de stock y la otra con OC, porque a la RTX 4090 también se le puede hacer OC y con el voltaje de serie (e incluso con undervolt) le da un buen repaso a la RTX 5080.

Lo que no entiendo es por qué te empeñas en ir contracorriente, que aquí ya son varios compañeros los que opinan lo mismo, por algo será y la mayoría son gente que sabe bien de lo que habla, que los leo hace tiempo y concuerdo (al menos con lo que se está debatiendo en este thread) con todo o casi todo lo que están exponiendo.

Saludos.
Yo creo que tenéis problemas de comprensión algunos, en el ejemplo que he puesto esta claro que es la 5080 que con bastantes menos W, saca unos fps muy altos en comparación con la 4090, eso se llama eficiencia no que una tarjeta rinda mas a consta de 100w mas que es una barbaridad, que os fumáis aqui???jajaja, y repito si es mas eficiente es mas eficiente en todos los aspectos, por tanto si la bajo no estoy buscando más rapidez sino menos temperatura y un mejor rendimiento, de la misma forma que si la subo, siempre va a ser mas eficiente aun que no sea más rápida, tenéis un retraso importante algunos de verdad, hacéroslo mirar por favor [facepalm] [facepalm] [facepalm] [facepalm] [facepalm]

@javierespañol hasta que punto llega vuestro retraso que yo no he escrito eso sino hh1, y tu lo has puesto como si lo hubiera escrito yo, mi ejemplo no era ese, creo que necesitas leer mejor quien escribe, que por cierto el ejemplo que ha puesto es extremo y descabellado, porque lo que trata es de subir la 5080 y bajar la 4090, y aun que hagas eso siempre tiene más margen de OC Y UC la 5080, por tanto sigue siendo mas EFICIENTE, me es igual que la 4090 de mas FPS o no, que eso no tiene nada que ver con la eficiencia, siempre seguirá consumiendo muchos mas W para sacar una mejora mínima de porcentaje sobre la 5080 (10-15%) me es igual que la bajes o la subas, eso no va a cambiar, que no os entra en la cabeza
ffmaniaco6 escribió:Yo creo que tenéis problemas de comprensión algunos

Sí, eso será... [facepalm]
sin lugar a dudas, voy a tener que haceros un dibujo, si una 4090 consume 450w para dar 150 fps y una 5080 consume 350w para dar 140 fps, esta claro que con bastantes menos W la diferencia es mínima, a eso se le llama EFICIENCIA, y aun que subas o bajes ambas, siempre va a seguir siendo mas eficiente la 5080 por mucho que la 4090 le saque unos pocos mas FPS, porque el precio de dar algo mas de FPS es un consumo muchísimo mas alto en W en relación al % de mejora de esos FPS sobre la 5080, a ver si os queda claro ya [facepalm] [facepalm] [facepalm]
ffmaniaco6 escribió:sin lugar a dudas, voy a tener que haceros un dibujo, si una 4090 consume 450w para dar 150 fps y una 5080 consume 350w para dar 140 fps, esta claro que con bastantes menos W la diferencia es mínima, a eso se le llama EFICIENCIA, y aun que subas o bajes ambas, siempre va a seguir siendo mas eficiente la 5080 por mucho que la 4090 le saque unos pocos mas FPS, porque el precio de dar algo mas de FPS es un consumo muchísimo mas alto en W en relación al % de mejora de esos FPS sobre la 5080, a ver si os queda claro ya [facepalm] [facepalm] [facepalm]

Mejor hazte el esquema a tí mismo, porque lo escribiste justo al revés, solo hay que ver la cita de mi penúltimo post.

Yo ya paso de tonterías, el botón de ignorados viene muy bien para ciertos personajes.
javier español escribió:
ffmaniaco6 escribió:sin lugar a dudas, voy a tener que haceros un dibujo, si una 4090 consume 450w para dar 150 fps y una 5080 consume 350w para dar 140 fps, esta claro que con bastantes menos W la diferencia es mínima, a eso se le llama EFICIENCIA, y aun que subas o bajes ambas, siempre va a seguir siendo mas eficiente la 5080 por mucho que la 4090 le saque unos pocos mas FPS, porque el precio de dar algo mas de FPS es un consumo muchísimo mas alto en W en relación al % de mejora de esos FPS sobre la 5080, a ver si os queda claro ya [facepalm] [facepalm] [facepalm]

Mejor hazte el esquema a tí mismo, porque lo escribiste justo al revés, solo hay que ver la cita de mi penúltimo post.

Yo ya paso de tonterías, el botón de ignorados viene muy bien para ciertos personajes.


El personaje eres tu, que eso lo escribió hh1, (de hecho es el último mensaje que escribió), pero como no lees y copias sin saber...
En los foros de vez en cuando aparecen personajes que son muy trolls, muy tontos, o ambas cosas a la vez.

Mi consejo es que lo mejor que se puede hacer es ignorarlos, como acabo de hacer ahora mismo con uno, que en este foro por suerte se puede en la opción de "Amigos e ignorados" del panel de control de usuarios (por si alguno no la conoce). ;)
Mí amigo Winston (el de mi avatar,) en su dia dijo ...Un fanático es alguien que no puede cambiar de opinión y no quiere cambiar de tema.
ffmaniaco6 escribió:
javier español escribió:
ffmaniaco6 escribió:sin lugar a dudas, voy a tener que haceros un dibujo, si una 4090 consume 450w para dar 150 fps y una 5080 consume 350w para dar 140 fps, esta claro que con bastantes menos W la diferencia es mínima, a eso se le llama EFICIENCIA, y aun que subas o bajes ambas, siempre va a seguir siendo mas eficiente la 5080 por mucho que la 4090 le saque unos pocos mas FPS, porque el precio de dar algo mas de FPS es un consumo muchísimo mas alto en W en relación al % de mejora de esos FPS sobre la 5080, a ver si os queda claro ya [facepalm] [facepalm] [facepalm]

Mejor hazte el esquema a tí mismo, porque lo escribiste justo al revés, solo hay que ver la cita de mi penúltimo post.

Yo ya paso de tonterías, el botón de ignorados viene muy bien para ciertos personajes.


El personaje eres tu, que eso lo escribió hh1, (de hecho es el último mensaje que escribió), pero como no lees y copias sin saber...

Creo que Javier se ha liado por que el mensaje publicado a las 12:09 viene mal puesto. Hay una cita que es casi todo el mensaje pero no se ve como cita por que se ha recortado el primer [ quote ] pero el segundo se puede ver.

Ffmaniaco siempre ha mantenido que la 5080 consume menos, es hh1 el que en un momento dado se lió con los watts.
Se ve claramente que ha salido mal el quote, no hay más. Es gracioso ver a dos foreros que parece que piensan lo mismo, discutir entre ellos por la cita de otro.
Daiben escribió:Se ve claramente que ha salido mal el quote, no hay más. Es gracioso ver a dos foreros que parece que piensan lo mismo, discutir entre ellos por la cita de otro.

Pues no leí bien el post porque no hizo bien la cita a @hh1, creía que lo había escrito todo el otro forero y ahora entiendo por qué me resultaba extraña la manera en que escribía algunas partes, pero como hay gente que escribe muy mal, pues tampoco me fijé en lo del quote.

Si no escribe bien es fácil cometer este tipo de equivocaciones, de todas formas, tampoco pienso lo mismo como dices, no concuerdo en bastantes cosas con él.

Saludos.
javier español escribió:
Daiben escribió:Se ve claramente que ha salido mal el quote, no hay más. Es gracioso ver a dos foreros que parece que piensan lo mismo, discutir entre ellos por la cita de otro.

Pues no leí bien el post porque no hizo bien la cita a @hh1, creía que lo había escrito todo el otro forero y ahora entiendo por qué me resultaba extraña la manera en que escribía algunas partes, pero como hay gente que escribe muy mal, pues tampoco me fijé en lo del quote.

Si no escribe bien es fácil cometer este tipo de equivocaciones, de todas formas, tampoco pienso lo mismo como dices, no concuerdo en bastantes cosas con él.

Saludos.


Pues antes de escribir lo que deberías hacer es leer, para darte cuenta de que entre otras cosas no tenia ningún sentido lo que dijo hh1 acerca de lo que yo le estoy diciendo a el ;), que entre otras cosas si sigues el hilo en vez de meterte al debate sin saber, verías que el fue el que escribió eso
@Daiben creo que no se trata en este caso de que piensen lo mismo, sino de que tengan el razonamiento suficiente para entender que significa eficiencia.
Como poseedor de una rtx 5080 yo creo que es claramente INFERIOR a un rtx 4090 , sobre todo en algo que la mía jugando en tres monitores 2k se queda corta, en VRAM

Solamente en ese caso me falta vram en algún juego y la rtx 4090 tiene 24gb vs 16gb ,es mucha diferencia

Para alguien que se gasta 1300 , 2000e en una grafica no mira la eficiencia , es como el que compra un ferrari y dice cuanto consume y mas cuando se tiene un combo como yo de rtx 5080 + i7 14700k, que solo el procesador llega a gastar mas de 150-250w en bench y juegos y a eso sumale lo 350w de la rtx 5080
Conclusión mi pc llega a gastar 650w en muchos momentos

La rtx 5080 tiene algo que me a mi me tiene sorprendido y que no he tenido antes en ninguna tarjeta y es el framegen x2,3,4, y yo jugando juegos de un jugador , cuando voy algo justo de fps, pongo x3 o x4 y el juego se ve de escandalo, yo no tengo ningun lag y con dlss 4
Yo no consigo ver diferencias entre framegen x3 o no framegen , hoy en dia la mayoria de los juegos no veo diferencia entre dlss 4 y framegen x4, lo que si noto cuando lo activo es una fluidez brutal jugando, una autentica delicia jugar asi
ffmaniaco6 escribió:sin lugar a dudas, voy a tener que haceros un dibujo, si una 4090 consume 450w para dar 150 fps y una 5080 consume 350w para dar 140 fps, esta claro que con bastantes menos W la diferencia es mínima, a eso se le llama EFICIENCIA, y aun que subas o bajes ambas, siempre va a seguir siendo mas eficiente la 5080 por mucho que la 4090 le saque unos pocos mas FPS, porque el precio de dar algo mas de FPS es un consumo muchísimo mas alto en W en relación al % de mejora de esos FPS sobre la 5080, a ver si os queda claro ya [facepalm] [facepalm] [facepalm]

Y dale...
Que nadie te está diciendo QUE EN ESO no tengas razón.
Lo que te estoy diciendo es que ,si modificas la 4090 con UV, pasa a ser más eficiente que la 5080 si hablamos de sacar máximos fps a la 5080 para que sea cercana en rendimiento a la 4090, que era tu principal baza defendiendo a la 4080, que con OC es casi una 4090.

Dicho de otra manera:
Si buscas aproximar el máximo posible la 5080 a la 4090 para que se parezcan en rendimiento, la 5080 va a consumir más, porque la 4090 la puedes tener ,mínimo, 100w por debajo de su consumo de stock sin palmar rendimiento.

No es tan difícil de entender ,digo yo
Lo siguiente,un croquis.
Por eso te estoy diciendo que ,en e escenario que argumentas, la 5080 OC NO es más eficiente que la 4090.
De stock ambas, obviamente ,sí lo es.Nadie dice lo contrarrio.Pero es que de stock, no rinde como una 4090.
Que hables tú de comprensión lectora...macho.Relájate un poco.

@javier español
A eso me refiero.Le planteo el escenario de una 5080 OC porque es el escenario que él propone para poner una 5080 OC a la altura o por delante de una 4090.
Por eso le estoy diciendo que, según escenario, es más eficiente o no lo es.
Que una 4090 con UV tenga mayor eficiencia con UV que de stock, es un extra utilizable y palpable que todo el mundo puede usar.

Pero para él le vale poner de argumento que una 5080 con OC es como una 4090, pero luego para la eficiencia, ya vale solo de stock.
Vamos, a los que conviene vaya.
O valoramos ambas usando OC UV o valoramos ambas de stock.
Lo que no puede ser es valorar solo lo que conviene.

Esto parece una guerra de niño y de defender lo suyo.Me parece absurdo.
ProfesorFrink escribió:@Pollonidas yo es que con los ultimos mensajes he flipado un poco, ya no es una cuestion de argumentos y tampoco de chips de portatiles.

Ha batallado con un compañero que la 4090 es mejor si o si que la 5080, con argumentos mas que obvios y ya discutiendo si tal undervolteada es mejor que la otra overclockeada.

Pero vamos a ver, que aqui todos tenemos claro que la 4090 tiene mas potencia bruta, pero el que dudaba de cambiarla era EL, y OBVIAMENTE el cambio NUNCA se ha dicho que sea a MEJOR

La cosa es que si no la aprovechaba al 100%, tenia la opcion de irse a una gama inferior y recuperar pasta, NO HAY MAS.

Y el que la aproveche al 100% bien aprovechada estará, si es que no hay mucho debate.

O el que la aproveche al 100% pero le venga bien la pasta pues igual le cunde el cambio.

Para aprovecharla al 100% tendrias que tener un pedazo de monitor 4k120 minimo, asi que tampoco tendria sentido recuperar 600€ de la gpu si el monitor en el que has invertido vale mas que eso.

Y si tienes un monitor inferior a 4k120hz, dudo que la aproveches al 100%, bueno vamos, en algun juego activando todo lo posible al maximo y quitando dlss.

Pero esa es otra, si no usas dlss, tampoco la estas usando al 100%

Agradezco la respuesta y el tono de la misma. Esperaba entrar hoy y ponerme de mal humor nada más leer este tema y en absoluto ha sido el caso.

Estoy de acuerdo con todos los puntos que expones, en mayor o menor medida (creo que existen unos pocos títulos en los que una 4090 ya va al límite a bastante menos de 4K@120, pero coincido en la valoración en el sentido de que tanto si la aprovecha y le viene bien el dinero como si no es un cambio a valorar). Es una postura que comparto y que nunca he ocultado. Pero creo que hay matices.

Es posible estar en desacuerdo con una persona y rebatir algunos de los puntos que objetivamente son de otra manera con todo el respeto del mundo. La cuestión es que tengo la impresión de que algunas de esas réplicas se toman como un ataque personal incluso cuando son datos que se pueden verificar con cosas tan simples como una captura de GPU-Z o una visita a la base de datos de TechPowerUp (por nombrar una relativamente exhaustiva).

Entiendo que se continúe la discusión y se sigan haciendo réplicas en base a esos puntos tanto si se comparte la conclusión final de un usuario como si no, independientemente de quién tenga razón si es que alguno la tiene. Desde luego que admiro la paciencia de personas como @hh1 o @javier español para seguir debatiendo. Yo por desgracia ya no tengo tanta. No me considero una persona especialmente "díficil", llevo muchos años en el foro y mi lista de ignorados tiene menos de 5 nombres. Pero en algunos casos es que no veo otra opción. edito: Añadir que si ignorara por no darme la razón tendría a medio foro ignorado, porque somos personas y casi siempre opinamos diferente, con más o menos acierto. Ignoro por faltas de respeto y por un comportamiento pueril e irracional, y como digo, de forma muy infrecuente, si bien cada vez tengo menos paciencia, será la edad. Y es irónico que el post en el que afirmas que no me faltas al respeto, esté editado por un moderador por "faltas de respeto". Pero en fin, debe ser cosa mía :-|

Saludos
Pollonidas escribió:
ProfesorFrink escribió:@Pollonidas yo es que con los ultimos mensajes he flipado un poco, ya no es una cuestion de argumentos y tampoco de chips de portatiles.

Ha batallado con un compañero que la 4090 es mejor si o si que la 5080, con argumentos mas que obvios y ya discutiendo si tal undervolteada es mejor que la otra overclockeada.

Pero vamos a ver, que aqui todos tenemos claro que la 4090 tiene mas potencia bruta, pero el que dudaba de cambiarla era EL, y OBVIAMENTE el cambio NUNCA se ha dicho que sea a MEJOR

La cosa es que si no la aprovechaba al 100%, tenia la opcion de irse a una gama inferior y recuperar pasta, NO HAY MAS.

Y el que la aproveche al 100% bien aprovechada estará, si es que no hay mucho debate.

O el que la aproveche al 100% pero le venga bien la pasta pues igual le cunde el cambio.

Para aprovecharla al 100% tendrias que tener un pedazo de monitor 4k120 minimo, asi que tampoco tendria sentido recuperar 600€ de la gpu si el monitor en el que has invertido vale mas que eso.

Y si tienes un monitor inferior a 4k120hz, dudo que la aproveches al 100%, bueno vamos, en algun juego activando todo lo posible al maximo y quitando dlss.

Pero esa es otra, si no usas dlss, tampoco la estas usando al 100%

Agradezco la respuesta y el tono de la misma. Esperaba entrar hoy y ponerme de mal humor nada más leer este tema y en absoluto ha sido el caso.

Estoy de acuerdo con todos los puntos que expones, en mayor o menor medida (creo que existen unos pocos títulos en los que una 4090 ya va al límite a bastante menos de 4K@120, pero coincido en la valoración en el sentido de que tanto si la aprovecha y le viene bien el dinero como si no es un cambio a valorar). Es una postura que comparto y que nunca he ocultado. Pero creo que hay matices.

Es posible estar en desacuerdo con una persona y rebatir algunos de los puntos que objetivamente son de otra manera con todo el respeto del mundo. La cuestión es que tengo la impresión de que algunas de esas réplicas se toman como un ataque personal incluso cuando son datos que se pueden verificar con cosas tan simples como una captura de GPU-Z o una visita a la base de datos de TechPowerUp (por nombrar una relativamente exhaustiva).

Entiendo que se continúe la discusión y se sigan haciendo réplicas en base a esos puntos tanto si se comparte la conclusión final de un usuario como si no, independientemente de quién tenga razón si es que alguno la tiene. Desde luego que admiro la paciencia de personas como @hh1 o @javier español para seguir debatiendo. Yo por desgracia ya no tengo tanta. No me considero una persona especialmente "díficil", llevo muchos años en el foro y mi lista de ignorados tiene menos de 5 nombres. Pero en algunos casos es que no veo otra opción. edito: Añadir que si ignorara por no darme la razón tendría a medio foro ignorado, porque somos personas y casi siempre opinamos diferente, con más o menos acierto. Ignoro por faltas de respeto y por un comportamiento pueril e irracional, y como digo, de forma muy infrecuente, si bien cada vez tengo menos paciencia, será la edad. Y es irónico que el post en el que afirmas que no me faltas al respeto, esté editado por un moderador por "faltas de respeto". Pero en fin, debe ser cosa mía :-|

Saludos

A mí me gusta debatir y no cabrearme.Es que es abusrdo.

Pero joder, que una persona que usa cuando le conviene el argumento del OC y cuando no le gusta, me invalida el del UV, todo para defender su gráfica a capa y espada , y que encima suelte que es que defendemos nuestra gráfica como sea...
Tiene narices el tema.
O vale OC y UV ,o no vale ninguna.No la que te conviene sí y la que no no,.

Y para mí ,deberían valer ambas, ya que son opciones que puedes usar en ambas.

Y que le demuestres que buscando en una 5080 OC el rendimiento máximo para acercarlo a una 4090 de stock, y que le digas que esa 4090 de stock puede bajar unos 125w y seguir siendo igual o más potente que una 5080 OC, pero más eficiente, y que te siga negando la evidencia...
Pues eso.
La eficiencia hay que medirla en igualdad de condiciones, ambas de stock/oc/uv, fuera de eso es paja y ganas de discutir con comparaciones injustas.

La 4090 es mejor, la cosa es si es lo suficientemente potente o atractiva respecto a una 5080+600€.
Daiben escribió:La eficiencia hay que medirla en igualdad de condiciones, ambas de stock/oc/uv, fuera de eso es paja y ganas de discutir con comparaciones injustas.

La 4090 es mejor, la cosa es si es lo suficientemente potente o atractiva respecto a una 5080+600€.

Claro, es lo que digo.
No me vale que metas OC a una 5080 para decir que se iguala mucho a 4090, para continuar diciendo que la 5080 es más eficiente, pero claro, teniendo en cuenta de stock...
Entonces...¿En qué quedamos?¿OC o stock?
Porque si le metes OC, ya no es más eficiente que una 4090, o ahí anda.Pero es que a esa 4090, le puedes meter UV sin palmar rendimiento y ya sí es más eficiente que la 5080 con OC.

Si dejas las 5080 con UV o de stock, ya no es tan similar a la 4090.

¿En qué quedamos?
Porque todo lo que conviene ,no `puede ser.
Muchos seguís anclados al pasado y solo veis potencia en rasterizacion , la tecnología avanza y los juegos nuevos y las gráficas van por otro camino,el del dlss y generación de fotogramas .IA

Yo lo veo claro si tu pones un juego ahora con pathtrancing ,raytrancing y no le añades dlss y generador de fotogramas ni la 5090 ni la futura 6090 lo moverá a 4k sin técnicas avanzadas

yo lo he probado ayer con ciberpunk 2077 con todo al máximo , si quitas las dos cosas el juego va 40 fps , MAL,mueves la camara y la experiencia es horrible, si activas dlss en calidad y generacion de fotogramas x4 el juego se ve perfecto sin artefactos y sin perder nada de calidad visual, y mueves la camara y es otro juego

En eso yo creo que la rtx 5080 es mejor que la rtx 4090 que solo tiene generación de fotogramas x2, y por mi experiencia subjetiva jugando la generación de fotogramas en juegos va perfecta, hay juegos que juego en nativo y activo generación de fotogramas por tres y voy fluido
El futuro esta ahí
Yo lo veo un gran cambio , ganas 600e tienes una tarjeta top y en juegos tienes esa ventaja , en otros,donde no tengan esas tecnicas perderas con la rtx 4090 , pero los juegos que van sacando viene con ello implementado
Hombre, si cambias la 4090 por la 5080 y 600 euros es un cambio muy bueno, la 5080 te vale para jugar perfectamente y los 600 euros los guardas para una futura 6080/6090.
Ganas un x3,x4 y en potencia bruta tampoco es tanta la diferencia,eso si pierdes en memoria, lo bueno que tienes 600 euros para lo que quieras.
Es como cambiar un Golf R por un Golf GTI, siempre sera un paso atras por mucho que queramos buscarle cosas buenas al GTI sobre el R (que las tiene).

Ahora, hay que pensar una cosilla, las memorias van a subir de precio, esos 8GB de Vram extra de la RTX 4090 para gente que necesite ese extra los va a pagar como si fueran oro, por lo que la RTX 4090 sera un "tesoro" mientras la otra es una GPU con 16GB de Vram, es algo ya muy masticado en esta industria.......
gsx650 escribió:Muchos seguís anclados al pasado y solo veis potencia en rasterizacion , la tecnología avanza y los juegos nuevos y las gráficas van por otro camino,el del dlss y generación de fotogramas .IA

Yo lo veo claro si tu pones un juego ahora con pathtrancing ,raytrancing y no le añades dlss y generador de fotogramas ni la 5090 ni la futura 6090 lo moverá a 4k sin técnicas avanzadas

yo lo he probado ayer con ciberpunk 2077 con todo al máximo , si quitas las dos cosas el juego va 40 fps , MAL,mueves la camara y la experiencia es horrible, si activas dlss en calidad y generacion de fotogramas x4 el juego se ve perfecto sin artefactos y sin perder nada de calidad visual, y mueves la camara y es otro juego

En eso yo creo que la rtx 5080 es mejor que la rtx 4090 que solo tiene generación de fotogramas x2, y por mi experiencia subjetiva jugando la generación de fotogramas en juegos va perfecta, hay juegos que juego en nativo y activo generación de fotogramas por tres y voy fluido
El futuro esta ahí
Yo lo veo un gran cambio , ganas 600e tienes una tarjeta top y en juegos tienes esa ventaja , en otros,donde no tengan esas tecnicas perderas con la rtx 4090 , pero los juegos que van sacando viene con ello implementado

No es perfecto el MFG ni por somo.
No quiero revivir la discusión otra vez porque está ya muy trillada.
Que pueda ir bien , aceptable o que alguien no lo note ,vale.
Pero perfecta no es, ni es para todas las personas ni vale para todos los juegos.
Ya solo la latencia añadida no lo hace aconsejable en juegos competitivos.

Luego, según juego está mejor o peor implementado o se notan más o menos los artefactos, igual que hay personas que lo ven más y otros que menos.
Yo mismo con el x2 no suelo notar nada raro en el 90% de los juegos.Ni artefactos ,ni latencia.Pero eso no quiere decir que no existan.
DE hecho, en su día medí la latencia y sí añadida aunque en juegos de un jugador es más usable y da más igual.
En x3 o x4 es peor ,obviamente.

Que es el futuro, yo no lo discuto.
No es dar más importancia al rasterizado, es que hoy dia, mientras no sea algo perfecto, rasterizado o DLSS ,es lo mejor para tener la mejor experiencia posible.

Podría entrar en temas de RT y PT, que me parecen una estafa total, en la mayoría de casos, con muy pocas excepciones.

@yosu888
A ver si esta semana que viene ya me la pueden pillar, porque como siga esperando, me da que no lo hago.
Se vana disparar los precios de las gráficas y yo a más de 1100€ la 5080 no hago el cambio.

@ivan95
A ver cómo se pone el tema, porque no sé si será favorable o no.También pueden subir las 5080 nuevas.
103 respuestas
1, 2, 3