[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Para los que estáis pensando en cambiar de gráfica cuando salgan las nuevas, estos días en el marco de la GDC se han presentado 2 tecnologías muy interesantes que aumentan el rendimiento de las tarjetas ya existentes.

1º Por parte de NVIDIA se ha presentado el SDK NVIDIA RTXGI 2.0, que es una mejora sustancial respecto a la primera versión y en la que prometen una mejor iluminación pero sobre todo con un mejor rendimiento.

Se podrá usar desde la RTX 2000 en adelante: 3000 y 4000.

2º Por parte de Microsoft se ha presentado una nueva característica para DX 12 que saldrá para finales de año y que se llama Work gragh, básicamente lo que hace es reducir al mínimo o eliminar cualquier cuello de botella que haya entre la CPU y la GPU aumentando el rendimiento.

Según dicen de esto se beneficiarán las RTX 3000 y RTX 4000 por el lado de NVIDIA y la serie 7000 por el lado de AMD.

En cuanto a mejoras tangibles, AMD ha publicado un artículo con una 7900XTX de ejemplo en el que en las pruebas han obtenido un 65% de mejora de rendimiento lo cual es una burrada ...

... entiendo que eso es una prueba sintética con las condiciones más óptimas posibles para mostrar esa mejora, pero es que luego si en la vida real fuese la mitad de eso, estamos hablando de una mejora de un 32,5% en el rendimiento lo cual es impresionante porque sería como un salto de generación con el mismo hardware, incluso aunque fuese 1/3 estaríamos hablando de una mejora de un 21%.
dunkam82 escribió:Para los que estáis pensando en cambiar de gráfica cuando salgan las nuevas, estos días en el marco de la GDC se han presentado 2 tecnologías muy interesantes que aumentan el rendimiento de las tarjetas ya existentes.

1º Por parte de NVIDIA se ha presentado el SDK NVIDIA RTXGI 2.0, que es una mejora sustancial respecto a la primera versión y en la que prometen una mejor iluminación pero sobre todo con un mejor rendimiento.

Se podrá usar desde la RTX 2000 en adelante: 3000 y 4000.

2º Por parte de Microsoft se ha presentado una nueva característica para DX 12 que saldrá para finales de año y que se llama Work gragh, básicamente lo que hace es reducir al mínimo o eliminar cualquier cuello de botella que haya entre la CPU y la GPU aumentando el rendimiento.

Según dicen de esto se beneficiarán las RTX 3000 y RTX 4000 por el lado de NVIDIA y la serie 7000 por el lado de AMD.

En cuanto a mejoras tangibles, AMD ha publicado un artículo con una 7900XTX de ejemplo en el que en las pruebas han obtenido un 65% de mejora de rendimiento lo cual es una burrada ...

... entiendo que eso es una prueba sintética con las condiciones más óptimas posibles para mostrar esa mejora, pero es que luego si en la vida real fuese la mitad de eso, estamos hablando de una mejora de un 32,5% en el rendimiento lo cual es impresionante porque sería como un salto de generación con el mismo hardware, incluso aunque fuese 1/3 estaríamos hablando de una mejora de un 21%.


Muy interesante. Pero el problema volverá a ser el de siempre, los vagos que son los desarrolladores y todo depende de ellos que implementen las nuevas tecnologías.

También se decían maravillas de Direct Storage... y al final, cuandos juegos lo utilizan a dia de hoy desde que salió hace la tira, 2, 3? Solo me suena Scorn que lo anunció pero al final ni lo implementó, Forsaken puede ser que si? y Para de contar...
Lo de DirectStorage yo creo que llegará, cosas como el RTX IO que van por debajo solo llevan un año disponibles ... en unos años yo creo que practicamente todo usará eso o las extensiones equivalentes de Vulkan.

Va despacio, es normal, aun hay juegos con DX11/OpenGL ...

dunkam82 escribió:2º Por parte de Microsoft se ha presentado una nueva característica para DX 12 que saldrá para finales de año y que se llama Work gragh, básicamente lo que hace es reducir al mínimo o eliminar cualquier cuello de botella que haya entre la CPU y la GPU aumentando el rendimiento.

Espero que sea mejor que el HAGS, que da problemas en muchos juegos, y desactivarlo requiere reinicio ...
neox3 escribió:
dunkam82 escribió:Para los que estáis pensando en cambiar de gráfica cuando salgan las nuevas, estos días en el marco de la GDC se han presentado 2 tecnologías muy interesantes que aumentan el rendimiento de las tarjetas ya existentes.

1º Por parte de NVIDIA se ha presentado el SDK NVIDIA RTXGI 2.0, que es una mejora sustancial respecto a la primera versión y en la que prometen una mejor iluminación pero sobre todo con un mejor rendimiento.

Se podrá usar desde la RTX 2000 en adelante: 3000 y 4000.

2º Por parte de Microsoft se ha presentado una nueva característica para DX 12 que saldrá para finales de año y que se llama Work gragh, básicamente lo que hace es reducir al mínimo o eliminar cualquier cuello de botella que haya entre la CPU y la GPU aumentando el rendimiento.

Según dicen de esto se beneficiarán las RTX 3000 y RTX 4000 por el lado de NVIDIA y la serie 7000 por el lado de AMD.

En cuanto a mejoras tangibles, AMD ha publicado un artículo con una 7900XTX de ejemplo en el que en las pruebas han obtenido un 65% de mejora de rendimiento lo cual es una burrada ...

... entiendo que eso es una prueba sintética con las condiciones más óptimas posibles para mostrar esa mejora, pero es que luego si en la vida real fuese la mitad de eso, estamos hablando de una mejora de un 32,5% en el rendimiento lo cual es impresionante porque sería como un salto de generación con el mismo hardware, incluso aunque fuese 1/3 estaríamos hablando de una mejora de un 21%.


Muy interesante. Pero el problema volverá a ser el de siempre, los vagos que son los desarrolladores y todo depende de ellos que implementen las nuevas tecnologías.

También se decían maravillas de Direct Storage... y al final, cuandos juegos lo utilizan a dia de hoy desde que salió hace la tira, 2, 3? Solo me suena Scorn que lo anunció pero al final ni lo implementó, Forsaken puede ser que si? y Para de contar...

Bueno hay algunos más que lo usan, pero creo que no es comparable la ganancia de velocidad con Direct Storage con estas tecnologías que estamos hablando. Lista de juegos que usan Direct Storage

Por ahora las tecnologías que va sacando NVIDIA las van usando los desarrolladores y en cuando a DX12 entiendo que debe de ser algo fácil de implementar para los desarrolladores y al beneficiándose tanto AMD como NVIDIA a todos les interesa usarla en cuanto esté disponible, sobre todo con esas ganancias de rendimiento tan importantes.

EDITO:

AMD ha presentado FSR 3.1 con mejoras en calidad de imagen, con menos ghosting pero sobre todo por lo que lo pongo en este hilo es porque va a soportar de forma oficial el uso de su generador de frames cualquier reescalador ya sea el DLSS de NVIDIA o el de Intel.

Según han anunciado se esperan que unos 40 juegos hagan uso de este FSR 3.1 para finales de año, FUENTE
dunkam82 escribió:
neox3 escribió:
dunkam82 escribió:Para los que estáis pensando en cambiar de gráfica cuando salgan las nuevas, estos días en el marco de la GDC se han presentado 2 tecnologías muy interesantes que aumentan el rendimiento de las tarjetas ya existentes.

1º Por parte de NVIDIA se ha presentado el SDK NVIDIA RTXGI 2.0, que es una mejora sustancial respecto a la primera versión y en la que prometen una mejor iluminación pero sobre todo con un mejor rendimiento.

Se podrá usar desde la RTX 2000 en adelante: 3000 y 4000.

2º Por parte de Microsoft se ha presentado una nueva característica para DX 12 que saldrá para finales de año y que se llama Work gragh, básicamente lo que hace es reducir al mínimo o eliminar cualquier cuello de botella que haya entre la CPU y la GPU aumentando el rendimiento.

Según dicen de esto se beneficiarán las RTX 3000 y RTX 4000 por el lado de NVIDIA y la serie 7000 por el lado de AMD.

En cuanto a mejoras tangibles, AMD ha publicado un artículo con una 7900XTX de ejemplo en el que en las pruebas han obtenido un 65% de mejora de rendimiento lo cual es una burrada ...

... entiendo que eso es una prueba sintética con las condiciones más óptimas posibles para mostrar esa mejora, pero es que luego si en la vida real fuese la mitad de eso, estamos hablando de una mejora de un 32,5% en el rendimiento lo cual es impresionante porque sería como un salto de generación con el mismo hardware, incluso aunque fuese 1/3 estaríamos hablando de una mejora de un 21%.


Muy interesante. Pero el problema volverá a ser el de siempre, los vagos que son los desarrolladores y todo depende de ellos que implementen las nuevas tecnologías.

También se decían maravillas de Direct Storage... y al final, cuandos juegos lo utilizan a dia de hoy desde que salió hace la tira, 2, 3? Solo me suena Scorn que lo anunció pero al final ni lo implementó, Forsaken puede ser que si? y Para de contar...

Bueno hay algunos más que lo usan, pero creo que no es comparable la ganancia de velocidad con Direct Storage con estas tecnologías que estamos hablando. Lista de juegos que usan Direct Storage

Por ahora las tecnologías que va sacando NVIDIA las van usando los desarrolladores y en cuando a DX12 entiendo que debe de ser algo fácil de implementar para los desarrolladores y al beneficiándose tanto AMD como NVIDIA a todos les interesa usarla en cuanto esté disponible, sobre todo con esas ganancias de rendimiento tan importantes.

EDITO:

AMD ha presentado FSR 3.1 con mejoras en calidad de imagen, con menos ghosting pero sobre todo por lo que lo pongo en este hilo es porque va a soportar de forma oficial el uso de su generador de frames cualquier reescalador ya sea el DLSS de NVIDIA o el de Intel.

Según han anunciado se esperan que unos 40 juegos hagan uso de este FSR 3.1 para finales de año, FUENTE


Pues ojalá.

También recuerdo que la propia Nvidia dijo / anunció que estaba preparando para sacar próximamente un driver nuevo para sus GPU´s que estaba siendo creado mediante IA, con una serie de mejoras imagino en "llamadas" etc más eficientes que como las creaba "un humano", algo así como que esas llamadas "utilizaban caminos menos cuadriculados" por decirlo de alguna manera, lo que que ofrecía una mejora de rendimiento del 15%... Y nunca más se supo.
@neox3 Sera el NVIDIA RTXGI 2.0 mejor trazado de rayos con un nuevo algoritmo de AI.

Lo que no sabemos es si esto lo usaran las RTX 40, si sera solo de las 50 y posteriores o si lo usara algun juego. Las herramientas fueron lanzadas pero ya puede ser facil como para que alguno lo añada ya o igual hasta dentro de un año nada.
Nomada_Firefox escribió:@neox3 Sera el NVIDIA RTXGI 2.0 mejor trazado de rayos con un nuevo algoritmo de AI.

Lo que no sabemos es si esto lo usaran las RTX 40, si sera solo de las 50 y posteriores o si lo usara algun juego. Las herramientas fueron lanzadas pero ya puede ser facil como para que alguno lo añada ya o igual hasta dentro de un año nada.

Lo de las gráficas si lo sabemos, se pueden beneficiar de RTXGI 2.0 todas las gráficas RTX, entiendo que cuanto más núcleos dedicados al ray tracing más mejora habrá, pero serán compatibles RTX 2000, 3000 y 4000.

En cuanto a la implementación en juegos ... pues eso no lo sabemos, pero es de esperar que si la haya, no creo que NVIDIA haya desarrollado algo así sin consultar con los desarrolladores y sin saber si después de invertir pasta en su desarrollo luego no lo van a usar.
dunkam82 escribió:pero serán compatibles RTX 2000, 3000 y 4000.

Yo de Nvidia no me fio nada con ese tipo de tema. No he visto ni una sola confirmación al respecto.
No habéis probado Lossless Scaling?

Es un frame generation que esta en Steam por 6 euros.

Os copio un post que he hecho antes:

Has probado Lossless Scaling? es un frame generation que puedes comprar en Steam por 6 euros.

Tienes que poner los juegos en modo ventana pantalla completa y bloquear los juegos a la mitad de la frecuencia de tu monitor.

Mi monitor es 160hz y bloqueo los juegos a 80 fps, pero ten en cuenta que tu gpu tiene que dar esos 80 fps constantemente, si no tendrás stuttering.

También los puedes bloquear a menos fps, si los bloqueas a 60 fps el programa te dará 120 fps.

A veces el programa da algún artefacto raro, pero por 6 euros esta de puta madre.

Yo lo uso en juegos que vienen capados a 60 fps y asi juego a 120 fps.

No lo uses en juegos online, genera algo de fag, pero para single player va genial.
the_aeon escribió:No habéis probado Lossless Scaling?

Es un frame generation que esta en Steam por 6 euros.

Os copio un post que he hecho antes:

Has probado Lossless Scaling? es un frame generation que puedes comprar en Steam por 6 euros.

Tienes que poner los juegos en modo ventana pantalla completa y bloquear los juegos a la mitad de la frecuencia de tu monitor.

Mi monitor es 160hz y bloqueo los juegos a 80 fps, pero ten en cuenta que tu gpu tiene que dar esos 80 fps constantemente, si no tendrás stuttering.

También los puedes bloquear a menos fps, si los bloqueas a 60 fps el programa te dará 120 fps.

A veces el programa da algún artefacto raro, pero por 6 euros esta de puta madre.

Yo lo uso en juegos que vienen capados a 60 fps y asi juego a 120 fps.

No lo uses en juegos online, genera algo de fag, pero para single player va genial.

Muy interesante.
neox3 escribió:También se decían maravillas de Direct Storage... y al final, cuandos juegos lo utilizan a dia de hoy desde que salió hace la tira, 2, 3? Solo me suena Scorn que lo anunció pero al final ni lo implementó, Forsaken puede ser que si? y Para de contar...

Ya no es solo que los tengan pocos, sino que sea efectivo.

Para mi el caso mas famoso fue el Ratchet & Clank, que en PS5 se habló mucho del tema de los portales (básicamente lo mas importante ocurre en una escena y deja inicial del juego y ya está), y concretamente en este juego recuerdo leer que en algunos casos (no sé si todos) iba mejor incluso sin DirectStorage, al menos de salida. Pero no sé cómo avanzó el tema y tampoco veo info fiable para saber cómo está ahora.

En cuanto al Forskpoken lo analizó DF y comentan que a nivel de Direct Storage se nota mas en CPUs mas lentas y no tanto en CPUs potentes y luego se añade el tema de que funciona mejor en Windows 11 o que cuando el rendimiento del juego está limitado por la CPU y no GPU se gana bastante activando el Direct Storage. Aunque también dice que la forma de deshabilitarlo no es "oficial" y quizás algo no funciona como debería.


654321 escribió:Espero que sea mejor que el HAGS, que da problemas en muchos juegos, y desactivarlo requiere reinicio ...

En muchos juegos da problemas el "Hardware Accelerated GPU Scheduling"?
Qué tipo de errores? Es con una configuración de hardware/software concreta o aplica de forma generalizada (Nvidia/AMD, Windows 10/11, juegos Unreal Engine, DX11/DX12, etc.)? Hay alguna lista de juegos que fallen por eso?

Me sorprende porque juego a muchos juegos, tanto con Windows 10 hasta abril del 2023 como con Windows 11 hasta el día de hoy, y no recuerdo ningún problema con juegos del que sea consciente que el motivo sea tener activado el "Hardware Accelerated GPU Scheduling". Bueno, de hecho ni siquiera recuerdo "problemas" en general que me hayan molestado en exceso XD
No suelo jugar a juegos recién lanzados (me espero unos meses a que los arreglen) o juegos muy retro (puntualmente alguno, pero casi nunca), por si fuera tu caso.

Se me hace difícil en un mundo mas o menos complejo como el del PC afirmar ciertas cosas de forma genérica. Por ejemplo en este reddit que acabo de encontrar con una búsqueda rápida hay todo tipo de comentarios que dicen que funciona bien y otros que no (dependiendo del SO dicen unos, otros de si es VR o no, etc.): https://www.reddit.com/r/nvidia/comment ... rated_gpu/

the_aeon escribió:No habéis probado Lossless Scaling?

Hace casi 2 meses hh1 lo mencionó en este hilo y llegamos a hablar unos cuantos del tema pero la verdad que no tuvo mucha aceptación: hilo_hilo-oficial-nvidia-ada-lovelace-rtx4000_2446714_s12750#p1754629686

Personalmente por suerte no voy falto de fps y doy mas prioridad a la calidad gráfica y evitar artefactos antes que ganar unos fps mas. Y de necesitar mejorar los fps, antes usaría soluciones mas profesionales como DLSS/FSR que no esa y primero elegiría el reescalado y como última opción el frame generation.
@davoker perdona que te responda por aquí, pero es que ya nos han llamado la atención un par de veces [qmparto]

Hombre sí, la cagaron con la VRAM en la 3000 (a por eso iba mi comentario de ratear, porque precisamente yo tuve una 3080 y parte del motivo para ir a 4090 fue eso) y rectificaron en la 4000, en eso estamos completamente de acuerdo [beer]

Y DLSS3 pues es que la verdad es que lo he usado muy muy poco, porque como dije en algún momento no puedo usarlo en VR (adiós Cyberpunk [qmparto]) y en el resto de juegos la verdad es que nunca me ha hecho falta, con DLSS Quality va sobradísimo en la TV 4K, y muchas veces opto por DLAA y GSync en el UW 3440x1440 y ya.

Pero vamos, si consigue que una gama media como es la 4070 pueda ir a 4K 60fps sin destruir la calidad de imagen o fluidez, desde luego que es una tecnología muy buena. Supongo que cuando empiece a flaquear la 4090 la usaré, si es que no la he cambiado antes [qmparto]
rethen escribió:@davoker perdona que te responda por aquí, pero es que ya nos han llamado la atención un par de veces [qmparto]

Hombre sí, la cagaron con la VRAM en la 3000 (a por eso iba mi comentario de ratear, porque precisamente yo tuve una 3080 y parte del motivo para ir a 4090 fue eso) y rectificaron en la 4000, en eso estamos completamente de acuerdo [beer]

Y DLSS3 pues es que la verdad es que lo he usado muy muy poco, porque como dije en algún momento no puedo usarlo en VR (adiós Cyberpunk [qmparto]) y en el resto de juegos la verdad es que nunca me ha hecho falta, con DLSS Quality va sobradísimo en la TV 4K, y muchas veces opto por DLAA y GSync en el UW 3440x1440 y ya.

Pero vamos, si consigue que una gama media como es la 4070 pueda ir a 4K 60fps sin destruir la calidad de imagen o fluidez, desde luego que es una tecnología muy buena. Supongo que cuando empiece a flaquear la 4090 la usaré, si es que no la he cambiado antes [qmparto]

No solo eso, consigue que una 4060 con preset ultra y RT activado roce los 60 fps a 1440p en CP2077, ahí es na, el preset ultra en los juegos se ha calificado como el "preset del modo foto", puedes bajar un puntito de ultra a alto "algunas opciones gráficas" (las que más comen como normal general) y no notarás apenas diferencia visual en la gran mayoría de juegos y ganarás un impulso de fps interesante, esos 60 fps en la situación anterior aumentan rápidamente a 70/80 bajando 3 o 4 cosillas solo punto del máximo, y salvo que tengas ojos biónicos, lo normal es que no notes una diferencia grande salvo que la busques, si las buscas, las encuentras, pero nadie juega fijándose en cada puñado de píxeles a ver si ve algo, si me entiendes XD

Realmente el DLSS3 ha marcado una diferencia brutal con respecto a la anterior generación, opté por una 4060 por varias razones, 1, no tenía que cambiar de fuente XD 2, bajo consumo (consume menos todavía que mi anterior gráfica, una GTX 1660 SUPER xD), y 3, un precio razonable para mi, en potencia/precio la 4060 era lo único que me encajaba, y no me arrepiento de nada, puedo jugar a todo incluso a 1440p, es lo que da mi monitor, ojala fuese de 1080p, pero es de esa resolución y no valoro reducir resolución porque emborrona y jode todo visualmente, apechugo y modifico opciones gráficas hasta quedar contento en relación rendimiento/calidad visual.

De lo único que me arrepiento es de tener poco micro "ahora", pero es lo que toca actualizar, primero fue micro, luego gráfica, luego micro, ya sabes [sonrisa] y aún así estoy muy contento con el, es un pequeñín muy peleón, un I3 12100f (siempre busco el bajo consumo, de ahí que sea ese modelo concreto), estuve apunto del i5 12400 pero al final opté por ese y estiré más en otras cosas, y sinceramente, ese pequeñín que me costó 120 pavos en su día es una bestia, se va quedando corto vaya, se queda corto para la 4060 que uso, pero tampoco algo muy exagerado vaya xD usaba un I5 6600k y literalmente pasé a doblar FPS solo con el cambio de micro en casi todos los juegos, especialmente en un puñado de juegos que exigen buen rendimiento "mono núcleo", destaca especialmente.
@davoker si a ti te funciona, desde luego que es ideal. Cada uno juega a su manera [carcajad]
@rethen No soy muy exigente, suelo priorizar los gráficos, pero no a costa de un mal rendimiento, prefiero 100 fps en calidad media/alta (algo intermedio, preset custom ya sabes) a 60 con bajadas por jugar en alto/o más, esto es algo personal claro, también considero que la resolución 4k no es la mejor para jugar debido al hardware incluso actual, que una 4090 sufre en los juegos más top incluso con las tecnologías tan flipantes que tenemos para aumentar los fps, y sin ellas en algunos juegos como CP2077, a 4k con preset ultra y RT a tope, una 4090 apenas se arrastra por los 30/5 fps, te pones el DLSSQ y FG que ofrece el juego y te aumenta a más de 100 fps, estamos hablando de una subida de más de 50 fps gracias a DLSSQ y FG, siendo el FG el que marca la brecha más grande, vamos, que sin FG apenas llega a 60 fps y con FG sube de los 100 fps.

Mi opinión al respecto es que si una 4090 con todo lo que vale solo puede hacer eso a 4k, es que no merece la pena esa resolución, no tenemos hardware, no estamos listos, pero esto como digo, es una opinión personal, considero que los 1440p es la resolución ideal a día de hoy, es como como los 1080p hace muchos años, lo más estándar o estable hoy sería los 1440p, repito, bajo mi opinión [beer]
@davoker yo también estoy de acuerdo en 1440p, de ahí que use DLSS Quality cuando voy a la TV 4K [beer]

Incluso 1440p DLAA tampoco lo vería nada mal, porque en el fondo para estar cómodo me siendo a algo más de 3m de la TV, y a 65" yo no noto la diferencia de 4K (sí si me acerco a 2.5m, pero no estoy tan cómodo). El día que suba a 80" o así igual cambio de opinión [carcajad]

Dicho esto, en el monitor sí que noto claramente que podría subir de los 3440x1440 actuales (5160 x 2160 sería lo suyo), pero todavía no me he animado a cambiar mi Predator, que salió muy bueno y GSync a 120Hz es suficiente para mi caso de uso.

En cualquier caso, para Max RT Psycho entendía que con DLSS Quality ya daba para 60fps (más o menos, pero para eso está GSync), aunque en mi caso es que juego en VR y las prioridades son otras [qmparto]
@rethen El tema del gsync, si es gsync "por hardware", es que supuestamente trabaja a partir de 30 fps, si es "gsync compatible" empezaría a trabajar a partir de los 40 fps, sin embargo, se recomienda que no bajes de 60 fps para que el gsync haga bien su trabajo, realmente puedo notar como si baja de 60 fps, rangos entre 40 y 60 el gsync no se nota mucho y noto que no es tan fluido, sin embargo, si estoy por encima de 60, pongamos que un juego me da bajadas de 140 fps a 90 en ciertas situaciones, no lo noto, todo es fluido y es gracias al gsync.

Pero bueno, tu le das a esa droga del VR, no se que se aplica ahí y que no XD vamos hablando [beer]
@davoker en VR no hay GSync, va la cosa por otro lado, con ASW/AWS, un festival [looco]

Y diría que mi pantalla es GSync por hardware https://www.acer.com/us-en/predator/monitors/x34 vamos, pongo la conocida demo del péndulo y va como toca incluso a 30fps [carcajad] ya te digo que las bajaditas puntuales a algo menos de 60fps no las noto nunca, prueba de ello es que no voy con el overlay [carcajad]
Amiguitos, con la nueva aplicación de nvidia se han cargado gamestream y por tanto Moonlight no?

Hay alguna alternativa?
Hola compañeros, acabo de comprar una 4080 super FE, tengo que comprar una fuente nueva porque tengo una de 650w y creo que no es suficiente.

Con 850w es suficiente o tengo que ir a 1000w?
Neero escribió:Hola compañeros, acabo de comprar una 4080 super FE, tengo que comprar una fuente nueva porque tengo una de 650w y creo que no es suficiente.

Con 850w es suficiente o tengo que ir a 1000w?

Con 850W es suficiente incluso para una RTX 4090 también, eso sí, procura que no sea una fuente chustera, sino una de calidad.

Saludos.
@Rvilla87 Pues no se exactamente en que juegos da problemas lo de HAGS, igual ya no pasa, a mi a la de poco de tener el PC, me paso en 2 juegos que tenia problemas de rendimiento, y en los foros la recomendacion era desactivar HAGS, y funciono, mucho mejor rendimiento.

Desde entonces lo tengo desactivado.

Tambien puede ser que mucha gente no se entere de que esta perdiendo una burrada de rendimiento en muchos juegos por tener el HAGS ...
654321 escribió:Tambien puede ser que mucha gente no se entere de que esta perdiendo una burrada de rendimiento en muchos juegos por tener el HAGS ...

Sí, te lo preguntaba justo por eso, porque yo lo tengo activado y como no voy justo en ningún juego personalmente no puedo asegurar si me empeora o no porque no he probado en ambos modos.

Pero por ejemplo estaba pensando que para el frame generation del DLSS se necesita esa opción activada, o al menos es lo que recuerdo de cuando en su momento salió y mucha gente se quejaba que no podía activarla incluso con una RTX 4000 (ejemplo: https://www.reddit.com/r/nvidia/comment ... cheduling/). De hecho en ese reddit de nuevo se repiten los comentarios de que a unos les va perfecto (destacan algunos en Windows 11 y no en Windows 10 donde tenían problemas), algunos con problemas con VR... en fin, lo dicho, parece complicado dar con una causa concreta.

Pero por todo lo visto quizás sería recomendable que si alguien tiene problemas de rendimiento en algún juego mire de probar si activando/desactivando HAGS le mejora el rendimiento.
@Rvilla87 Yo solo juego en VR, igual en plano no afecta.

Otra cosa que me comia el rendimiento en VR era el GeForce Experience, los juegos planos usaban 100% de la GPU,pero en VR habia muchos juegos que usaban solo 50-60%, y desinstalando Geforce Experience se me arreglo.

Una pena que ninguna de las 2 cosas la puedas desactivar al 100% al vuelo, para poder ponerlo quitarlo antes de lanzar los juegos, al final tengo que tener los 2 quitados siempre.
Neero escribió:Hola compañeros, acabo de comprar una 4080 super FE, tengo que comprar una fuente nueva porque tengo una de 650w y creo que no es suficiente.

Con 850w es suficiente o tengo que ir a 1000w?


Con 750w va perfecta
Que lástima que no saquen las FE en blanco
Goncatin escribió:Que lástima que no saquen las FE en blanco


No las compraría nadie.
Goncatin escribió:Que lástima que no saquen las FE en blanco


Siempre podrás desmontar la carcasa externa y pintarla (va anclada al disipador como si fueran 2 backplates), es relativamente facil de hacer

Imagen

Imagen
rootbeer escribió:
Goncatin escribió:Que lástima que no saquen las FE en blanco


No las compraría nadie.

Pues igual que las que tienen a la venta. [360º]
rootbeer escribió:
Goncatin escribió:Que lástima que no saquen las FE en blanco


No las compraría nadie.


Yo si, sin duda.
neox3 escribió:
Goncatin escribió:Que lástima que no saquen las FE en blanco


Siempre podrás desmontar la carcasa externa y pintarla (va anclada al disipador como si fueran 2 backplates), es relativamente facil de hacer

Imagen

Imagen

La 4080 así está GUAPÍSIMA.
La otra, blanco con ese gris...meh.
Buenas a todos, quería haceros una consulta: soy el feliz poseedor de una RTX 3080 MSi Suprim X que funciona perfectamente y a la que le quedan 14 meses de garantía todavía.
La cosa que le veo es que a veces se me quedan un pelín cortos los 10 GB de VRAM y que a algún juego que otro ya le cuesta llegar a 60 fps en 4K en ultra, así que la pregunta es si me sale rentable comprar hoy una RX 7900 GRE Shappire Pulse de 16 GB con solo unos dias de uso y factura de coolmod por 470, o esperarme a que salga la serie 5000 de nvidia e intentar conseguir una 4080 / 4080 super que no esté muy usada por unos 600-650 euros que podría ser algo razonable en ese momento de segunda mano con factura y minimo 2 de los 3 años de garantía. Saludos a todos.
PD: ya cuento con que la 4080 y la 4080 super son superiores a la 7900 GRE, pero también tendría que esperarme casi un año a que saliera la serie 5080 para ahi buscar ya una 4080 / 4080 super de segunda, ya que antes saldrá la 5090 que la 5080 entiendo...
Eddy Kun escribió:Buenas a todos, quería haceros una consulta: soy el feliz poseedor de una RTX 3080 MSi Suprim X que funciona perfectamente y a la que le quedan 14 meses de garantía todavía.
, o esperarme a que salga la serie 5000 de nvidia e intentar conseguir una 4080 / 4080 super que no esté muy usada por unos 600-650 euros que podría ser algo razonable en ese momento de segunda mano con factura y minimo 2 de los 3 años de garantía. Saludos a todos.
PD: ya cuento con que la 4080 y la 4080 super son superiores a la 7900 GRE, pero también tendría que esperarme casi un año a que saliera la serie 5080 para ahi buscar ya una 4080 / 4080 super de segunda, ya que antes saldrá la 5090 que la 5080 entiendo...

Me pregunto en que situación se te quedan cortos los 10GB, apostaria a que en algun juego donde ves consumos de 9.5GB pero eso no es quedarse corto. Corto es cuando la gasta toda y empiezas a ver micro stuttering al cambiar la perspectiva o cuando una grafica inferior o igual con más memoria rinde más, podria suceder esto porque no. Pero comparar con algo más potente, es injustamente incorrecto.

Por otro lado vas a cometer un error grotesco. La GRE es poco más que una 7800XT con mucho peor RT, que si que si que vale más no usarlo pero si lo usas, va a llamarte la atención cuan inferior es, sin DLSS, que decir. Lo ibas a notar y no saltas a nada mejor.
Entiendo, me espero mejor a que salga la 5080 y ahí intento encontrar una 4080 / 4080 super de segunda con bastante garantía entonces
Eddy Kun escribió:Entiendo, me espero mejor a que salga la 5080 y ahí intento encontrar una 4080 / 4080 super de segunda con bastante garantía entonces

Sin lugar a dudas es mucha mejor opción.
Han puesto la Gigabyte Gaming OC 4070 ti por 669€ en coolmod , me parece un súper precio de hecho acabo de comprar una.
vtec16 escribió:Han puesto la Gigabyte Gaming OC 4070 ti por 669€ en coolmod , me parece un súper precio de hecho acabo de comprar una.

Sí, es un super precio, yo compre la de Neobyte por 719€. Lo que no se sabe ahi, es si es la V1 o la V2. La de Neobyte era una V2 y para las malas lenguas, no es que se pueda decir que fuera más calentorra. Si es por las fotos del producto, es una V1, porque la apertura del radiador en el backplate, no es rectangular enteramente, es más canija. Pero recuerdo que cuando compre la RTX 3060 en coolmod, tampoco lo indicaban y es una V2.

Yo la probe en varios juegos. Ultimamente estaba jugando al Starfield en 1440p y tira muy bien sin DLSS ni na con todo en ultra. Sin calentarse apenas y muy silenciosa.
Editado por quimico2008. Razón: Spam youtube
Ya se va pareciendo más a lo que debería de costar una serie XX7X
MrKafka escribió:Ya se va pareciendo más a lo que debería de costar una serie XX7X

Pero tengan en cuenta una cosita, las 4070Ti no se fabrican y van a desaparecer. De hecho cada vez hay menos.

Y luego las Super normales deberian acabar reemplazando a las 4070 normales pero como nadie compra las normales.........pues va a ser que no.

Y las Ti Super........pues no se que pensar.
@Nomada_Firefox

ya la tengo, no se si es V1 o V2 tienes fotos de ambas?
vtec16 escribió:@Nomada_Firefox

ya la tengo, no se si es V1 o V2 tienes fotos de ambas?

La caja en donde pone el codigo de barras, trae claramente V2 cuando lo es.

Pero fisicamente se nota bien en esto. La salida del radiador es diferente.
V1:
Imagen
V2:
Imagen

Tambien los ventiladores de la V2 son un pelin más canijos. Pero no es más caliente como puedes ver bien en el video que puse.
@Nomada_Firefox
Vale, pues la mia es V2.
Gracias, la verdad es que hay bastantes diferencias si te fijas en el diseño.
vtec16 escribió:@Nomada_Firefox
Vale, pues la mia es V2.
Gracias, la verdad es que hay bastantes diferencias si te fijas en el diseño.

Sí, hay diferencias. Pero no hay ninguna prueba de que rebajen la calidad. Lo digo porque en otros sitios lei comentarios alegando peores temperaturas y lo cierto es que no es asi.

Buf.......ya se agotaron en coolmod! :O
Eddy Kun escribió:Buenas a todos, quería haceros una consulta: soy el feliz poseedor de una RTX 3080 MSi Suprim X que funciona perfectamente y a la que le quedan 14 meses de garantía todavía.
La cosa que le veo es que a veces se me quedan un pelín cortos los 10 GB de VRAM y que a algún juego que otro ya le cuesta llegar a 60 fps en 4K en ultra, así que la pregunta es si me sale rentable comprar hoy una RX 7900 GRE Shappire Pulse de 16 GB con solo unos dias de uso y factura de coolmod por 470, o esperarme a que salga la serie 5000 de nvidia e intentar conseguir una 4080 / 4080 super que no esté muy usada por unos 600-650 euros que podría ser algo razonable en ese momento de segunda mano con factura y minimo 2 de los 3 años de garantía. Saludos a todos.
PD: ya cuento con que la 4080 y la 4080 super son superiores a la 7900 GRE, pero también tendría que esperarme casi un año a que saliera la serie 5080 para ahi buscar ya una 4080 / 4080 super de segunda, ya que antes saldrá la 5090 que la 5080 entiendo...

¿Para qué vas a pasar de una 3080 a una 7900 Gre?
Me parece un cambio un tanto, ridículo.
hh1 escribió:
Eddy Kun escribió:Buenas a todos, quería haceros una consulta: soy el feliz poseedor de una RTX 3080 MSi Suprim X que funciona perfectamente y a la que le quedan 14 meses de garantía todavía.
La cosa que le veo es que a veces se me quedan un pelín cortos los 10 GB de VRAM y que a algún juego que otro ya le cuesta llegar a 60 fps en 4K en ultra, así que la pregunta es si me sale rentable comprar hoy una RX 7900 GRE Shappire Pulse de 16 GB con solo unos dias de uso y factura de coolmod por 470, o esperarme a que salga la serie 5000 de nvidia e intentar conseguir una 4080 / 4080 super que no esté muy usada por unos 600-650 euros que podría ser algo razonable en ese momento de segunda mano con factura y minimo 2 de los 3 años de garantía. Saludos a todos.
PD: ya cuento con que la 4080 y la 4080 super son superiores a la 7900 GRE, pero también tendría que esperarme casi un año a que saliera la serie 5080 para ahi buscar ya una 4080 / 4080 super de segunda, ya que antes saldrá la 5090 que la 5080 entiendo...

¿Para qué vas a pasar de una 3080 a una 7900 Gre?
Me parece un cambio un tanto, ridículo.

Ridiculo no se pero absurdo........creo que ya se dio cuenta que no hay beneficio en eso. Solamente habria lloros al darte cuenta de todo lo que has perdido.
3080 es mejor que la 7900 si juegas a cosas con mucho RTX, y tampoco es mucho mejor, yo la 3080 me iria minimo a la 4070ti super o 4080 o me quedaria quietecito
Nomada_Firefox escribió:
vtec16 escribió:@Nomada_Firefox
Vale, pues la mia es V2.
Gracias, la verdad es que hay bastantes diferencias si te fijas en el diseño.

Sí, hay diferencias. Pero no hay ninguna prueba de que rebajen la calidad. Lo digo porque en otros sitios lei comentarios alegando peores temperaturas y lo cierto es que no es asi.

Buf.......ya se agotaron en coolmod! :O


Acabo de actualizar el FIRM que tiene alguna correción con el tema de los leds.
https://www.gigabyte.com/es/Graphics-Ca ... l-firmware

La grafica es una pasada, en sonoridad y temperaturas exactamente igual que le mismo modelo que tenia de la 4070.
Lo curioso es que en la 4070 no venia el soporte de grafica teniendo las mismas dimensiones y peso.
Le he hecho un OC de +160 y +750 de memorias y no anda tan lejos de mi anterior RTX 4080 de stock, yo diria que no mas de un 15%.
La 4070 la vendi ayer por 495 y que había comprado por 500 en wallapop a estrenar hacia 3 semanas, me ha costado solo 1 dia venderla. Por la diferencia me ha salido muy bien ya que han sido 170-€ y el upgrade es importante en cuanto a ganancia y sobretodo porque es el mismo modelo de tarjeta que tenia, ya que ese cambio no creo que lo hubiera planteado siendo un modelo base.

Al final en esta generación de graficas he tenido:
RTX 4080 GB Eagle / 4090 Palit GameRock / 7800XT PC HellHound (Esta fue por cambio de 4090 + dinero) / 4070 GB Gaming OC Y 4070 TI GB Gaming OC
He hecho calculo exacto de todos las compras y ventas y el resultado es que me he gastado 890-€ y el resultado es que me he quedado despues de disfrutar varios meses probando varias graficas con una nueva, con 4 años de garantia que hasta hace poco costaba mas de 900-€, es decir que si hubiera comprado esta misma grafica desde el principio me hubiera gastado mas, tendría menos garantia y no hubiera probado pepinos como la 4090.

Y luego sobre todo, el disfrute que he tenido con el trasteo que reconozco que estoy enfermo un poco.
vtec16 escribió:Acabo de actualizar el FIRM que tiene alguna correción con el tema de los leds.
https://www.gigabyte.com/es/Graphics-Ca ... l-firmware

Ni lo mire, no he visto nada malo con los leds. Yo los controlo con el Fusión 2 porque asi puedo hacer que muestre la temperatura.

Respecto al soporte que incluye, creo que es algo reciente, relacionado con los problemas que hubo en otros modelos superiores. Se metieron mucho con Gigabyte pero si te fijas, a mayoria de ensambladores añaden un soporte.

Yo no tengo pensado hacer OC ni undervolt ni nada porque el uso que hago no es para jugar, yo tengo el PC prendido muchas horas, no juego, si uso la grafica, aunque para hacer que se ponga a tope salvo renderizando, no lo vas a ver, ni convirtiendo video. Asi que el mio es otro tipo de uso y la escogi porque tiene unas temperaturas muy buenas, tanto en carga como en reposo. Para lo que yo hago, tengo claro que no puedes usar un modelo de 2 ventiladores.

Yo venia de una RX 6800 y note mucho el cambio en todo. Tanto jugando como trabajando donde AMD es nula. Cada dia peor, no tienen soporte de nada de nada.

Al final en esta generación de graficas he tenido:
RTX 4080 GB Eagle / 4090 Palit GameRock / 7800XT PC HellHound (Esta fue por cambio de 4090 + dinero) / 4070 GB Gaming OC Y 4070 TI GB Gaming OC

Veo que te va bien el cacharreo. [sonrisa]
Quiero comprar una rtx 4080 super , pero tengo una duda, en una fuente DEEPCOOL DQ750-M-V2L 750W 80+ GOLD FULL MODULAR MODULAR, para usar el adaptador de nvidia que viene, es mejor conectar Un cable PCIE por conector, sin los divisores, seria tres cables distintos en la fuente, solo tengo 2 , tendría que pillar otro
he estado desconectado, hay novedades confirmadas para la serie 5000?

edit: acabo de leer la noticia del chapuzas, entonces todo rumores de momento, no hay fechas aun ni precios. Asi que no parece que se vayan a lanzar este año.
13865 respuestas