[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

que bajen el precio no queda otra.

Yo firmaría algo así...

3050 200€
3060 300€
3070 400€
3080 500€
3090 700€
Nomada_Firefox escribió:
pdriko31 escribió:Está claro que la mayoria de mortales juegan a 1080p o a 1040p y a 60fps y con los juegos que hay hoy dia con una serie 3000 va sobrado,no es descabellado que se vayan al año que viene,cuando realmente saquen juegos mas potentes y se requiera evidentemente mas potencia.
Visto las bajas ventas,esta gente no son tontos y van a estirar el chicle para fulminar la venta de las 3000 este año.

¿Y piensas que esperar va a mejorar las ventas? pues no es asi, tienen que lanzar algo para mantener la confianza de los inversores. Lanzan ahora en septiembre/octubre la 4090 y hasta marzo de 2023 siguen lanzando el resto.

Por esperar no van a vender el resto de RTX 30. Hay inflacción, va a haber recesión porque siempre es lo siguiente, los posibles clientes son menos y no necesitan una RTX 30, quieren algo más potente y novedoso.

Y lo de las cifras de ventas es muy relativo, claro venian de un periodo de super bonanza con la mineria y ahora han llegado a la triste realidad. Pues que se las coman todas.

Asi que para que esperar tanto ¿para encima ser peor tecnologicamente? ya sabemos que AMD no espera. Nvidia no va a esperar e Intel esta ahi por malo que sea. Al final el mercado les empuja y como cotizan en bolsa, más todavia.

Si todo eso que dices está muy bien y es correcto,el problema es que venimos de un año atrás no normal,de echo a habido mucha escasez de graficas y muy caras y la serie 4000 seguramente sean mas caras aun,no creo que bajen mucho mas de lo que están la serie 3000,pero ahi las tenemos,volviendo a su precio original,cuanta gente hay que no pudieron comprar una en su dia y ahora tienen la oportunidad de comprarla mas asequible,yo creo que este año que viene va a ser atipico y la serie 3000 se va a alrgar,pero por la diferencia de precio respecto a las 4000,espero equivovarme,pero pienso que con la jugarreta que nos han metido,se merecen que se las coman con patatas.
La serie 3000 y la 6000 de AMD ya están mas que amortizadas para ambas compañias, por lo que se pueden permitir perfectamente bajar precios para limpiar el stock si este es extremadamente grande. Los posibles retrasos de las nuevas series, de darse, estaran mas relacionados con problemas para producirlas o distribuirlas, que por tener aun muchas de la serie anterior, porque financieramente deben empezar a amortizar lo ya invertido en 4000/7000.

Si los consumos de la serie 4000 son los que se rumorean, en mi humilde opinion, es que ya contaban con el crash de la minería. Aunque no tengo mucha idea de minar, sospecho que esos consumos tan elevados, a pesar de poder meter UV, los haría productos poco atractivos para rings 24/7.

Y sobre el precio, sigo pensando que saldran a un precio parecido a la ultima gen, solo incrementado en función de como les afecte a ellos la inflación en su producción/distribución. Si, una vez eliminada la minería de la ecuación, el nicho de mercado es basicamente el gammer, si quieren vender, tendrán que adaptarse a las condiciones del mercado. Quitando un porcentaje marginal de entusiastas que pagaran lo que les pidan por el tope de gama (porque pueden), el resto no va a estar en condiciones de hacer grandes dispendios mientras sus actuales gpu les permitan jugar en unas condiciones aceptables. Tengamos en cuenta que a día de hoy, quien no tiene una 3000/6000 es porque, o no la quiere/necesita, o porque, a pesar de estar practicamente ya en su msrp, le parecen demasiado caras.
pdriko31 escribió:cuanta gente hay que no pudieron comprar una en su dia y ahora tienen la oportunidad de comprarla mas asequible

¿Viste alguna vez la noticia de Santiago Niño Becerra sobre el ultimo verano? pues todos esos miles que no compraron antes, no van a comprar ahora porque ya se quedaron sin dinero o nunca lo tuvieron para estos menesteres y aqui lo que importan son los accionistas, a los cuales hay que demostrar que tienes una compañia puntera.

Respecto al precio. Yo no espero más de un 10% de subida y no en todos los modelos. Creo que graficas como las 4060 y 4070 no van a ver una subida tan grande porque seria matarlas.

Al final pensar que lanzar un producto no significa que al dia siguiente este en los estantes, ni que salgan todos los modelos, entre pitos y flautas pasan de 3 a 6 meses dependiendo del modelo.

Ademas que ahora haya stock de las RTX 30, es porque no las estan vendiendo.

Yo creo que va a suceder como la anterior burbuja minera, una buena parte se lo van a comer, nunca bajaran de un precio minimo, me refiero a todo lo más top, no veras 3080 por debajo de 600€. Luego modelos medios como las 3050/3060 caeran tambien hasta un minimo que nos parecera estremadamente economico con respecto a ahora.

Todo eso sucedera porque el mercado de segunda mano se va a llenar de graficas y va a empujar al de primera pero tambien mantendra algunos precios como los de las graficas top en un punto alto. Si vieramos 3080 de segunda mano por 250€, en suficiente número, las nuevas bajarian, no les quedaria otra.

Y cuando la anterior burbuja minera donde habia sobrestockaje, tambien sacaron productos nuevos porque no tienen más narices. ¡Que cotizan en bolsa! una compañia tecnologica si se muestra anticuada, va a pique.

Lo de ahora los juegos no necesitan más, es falso en parte, necesitan más memoria para jugar con texturas HD a más resolución y las graficas actuales no es que tenga mucha.

Tambien otra cosa es que no es la primera vez que dos gamas conviven en el tiempo.
pues nada, con todo el panorama que se esta viendo no es de extrañar que la serie 4000 vuelva a precios de la serie 1000, recordad que la GTX 1080 salio por 650€ y la 970 por 400€ y la 1080ti por 750€
gojesusga escribió:que bajen el precio no queda otra.

Yo firmaría algo así...

3050 200€
3060 300€
3070 400€
3080 500€
3090 700€


En la calle de la piruleta de la esquina de la gominola... :Ð

No seais ilusos, ya avisó nvidia en un comunicado que la serie 4000 será más cara en la misma gama que la 3000 por la subida de costes de fabricación.

Y además lo unico que tienen que hacer para poder cumplir eso y no bajar precios, es fabricar menos unidades, y una sencilla regla básica de la oferta y la demanda...

Que no olvidemos, nvidia no es una ONG y a algunos parece que se les olvida.
Guau caída de ventas en graficas menuda sorpresa...., pero si esto se sabe desde enero, en enero ya se desplomaron las criptomonedas, ya muchos mineros dejaron de comprar, ya teniamos unas previsiones lamentables tanto para el tema cripto como para la economía en general, por eso me hace mucha gracia cuando hablan de sobre stock, ¿pero en serio alguien se cree que todos estos meses de caída sin parar nvidia a seguido fabricando a todo lo que podia esperando vender lo mismo que el año pasado?, en el tema de previsiones si que te pueden pillar por que es algo que se hace a largo plazo, pero la fabricación la puedes controlar en todo momento

Y luego encima te ponen el típico grafico de la caida del precio de las graficas, grafico que incluyen modelos que salieron a precio de robo y que simplemente han vuelvo a precio que deberían de tener, como la 3090ti, 3090 y 3080ti, de enero a ahora mismo ¿cuanto a bajado de precio una 3060 ti? ¿o una 3080?, en españa al menos yo sigo viendo los mismos precios desde la caída fuerte de principios de año, ¿que sentido tiene seguir haciendo eso cuando tienes los almacenes llenos de graficas?, es que ademas no es que las esten regalando que digamos la mayoria de modelos siguen por encima del precio de salida en 2020

Ya el tema de que se retrase o no, pues a saber, pero retrasarse se puede retrasar por muchos motivos
gojesusga escribió:que bajen el precio no queda otra.

Yo firmaría algo así...

3050 200€
3060 300€
3070 400€
3080 500€
3090 700€


Como mínimo valdría 50€+ cada GPU, y aún así dudo que bajasen tanto.
Estáis muy pero que muy equivocados los que pensáis que van a salir muy caras.

¿No veis como esta el mercado?
Seguimos con las filtraciones, seguimos con los cambios...

NVIDIA GeForce RTX 4080 y 4070 obtienen nuevas especificaciones de potencia (más bajas)

"La potencia total de la placa informada anteriormente de 420 W para RTX 4080 y 300 W para RTX 4070 supuestamente se redujo a 320 W y 285 W respectivamente. Tenga en cuenta que este valor no es TDP sino el límite de potencia total de la placa, que es más alto."
Pegcaero de barrio está baneado por "Troll"
cristiano.88 escribió:Estáis muy pero que muy equivocados los que pensáis que van a salir muy caras.

¿No veis como esta el mercado?

Si no salen tan caras van a recortar por algún lado. Yo no espero una serie 4xxx como se estipulaba hace unos días. Con 600W y una potencia abismal.
kikomanco escribió:pues nada, con todo el panorama que se esta viendo no es de extrañar que la serie 4000 vuelva a precios de la serie 1000, recordad que la GTX 1080 salio por 650€ y la 970 por 400€ y la 1080ti por 750€

355 euros me costó la 970 de lanzamiento.
Tiene pinta de buenas tostadoras esta gama
@adriano_99

Si algo así pague yo por la 970 G1 de gigabyte
Y luego la 1070 creo que fueron casi 450
ditifet está baneado del subforo hasta el 5/4/2024 15:03 por "acumulación de infracciones"
JaviGabber escribió:Seguimos con las filtraciones, seguimos con los cambios...

NVIDIA GeForce RTX 4080 y 4070 obtienen nuevas especificaciones de potencia (más bajas)

"La potencia total de la placa informada anteriormente de 420 W para RTX 4080 y 300 W para RTX 4070 supuestamente se redujo a 320 W y 285 W respectivamente. Tenga en cuenta que este valor no es TDP sino el límite de potencia total de la placa, que es más alto."


Baia baia :Ð
La verdad es que no tenía mucho sentido los supuestos 420W de la 4080 en comparación con los 450W de la 4090 y el salto grande que había en cuda, rendimiento, etc entre ambas para tan poca diferencia de consumo. Sinceramente cuadra más los 320w de consumo.
nikocrazy escribió:La verdad es que no tenía mucho sentido los supuestos 420W de la 4080 en comparación con los 450W de la 4090 y el salto grande que había en cuda, rendimiento, etc entre ambas para tan poca diferencia de consumo. Sinceramente cuadra más los 320w de consumo.

Puede ocurrir perfectamente si eliges los mejores chips para la 4090.
El ryzen 9 5950x tiene 16 núcleos y consume menos que el 5900x que tiene 12 por estar mejor bineado.
La 4070 debería salir antes de que acabe el año?
O solo 4080/90?
PHANTASIA escribió:La 4070 debería salir antes de que acabe el año?
O solo 4080/90?

Podría ser.

Aunque yo me decanto más para enero/febrero.
Y merece la pena comprar la 4080 o la 4090/ti si cada si cada 2 años duplica el rendimiento y digo que en 2024 tendremos una rtx 6060 que se follara a la 4090 y así sucesivamente ? Solo pregunto
@sinchan610
Realmente no la gama alta nunca sale a cuenta
Quizá sí la pillado de inicio...
Pero vamos el que se mueve en esas ganas le gusta tener todo lo último
Y se muere si en pantalla bajan los fps
Ni te digo si le da alguna rascada
Es que vamos le prenden fuego al pc antes que jugar con alguna rascada ocasional
zarcelo_2 escribió:@sinchan610
Realmente no la gama alta nunca sale a cuenta
Quizá sí la pillado de inicio...
Pero vamos el que se mueve en esas ganas le gusta tener todo lo último
Y se muere si en pantalla bajan los fps
Ni te digo si le da alguna rascada
Es que vamos le prenden fuego al pc antes que jugar con alguna rascada ocasional

Ni aunque la pilles de inicio, mínimo entre 700/900 euros yo soy siempre de gama media la 60/ti 70/ti como mucho ahora doblan rendimiento cada 2 años joder y aún así no puedes jugar a 4k ultra en todo
sinchan610 escribió:
zarcelo_2 escribió:@sinchan610
Realmente no la gama alta nunca sale a cuenta
Quizá sí la pillado de inicio...
Pero vamos el que se mueve en esas ganas le gusta tener todo lo último
Y se muere si en pantalla bajan los fps
Ni te digo si le da alguna rascada
Es que vamos le prenden fuego al pc antes que jugar con alguna rascada ocasional

Ni aunque la pilles de inicio, mínimo entre 700/900 euros yo soy siempre de gama media la 60/ti 70/ti como mucho ahora doblan rendimiento cada 2 años joder y aún así no puedes jugar a 4k ultra en todo

Pues tú mismo te respondes.
Hay gente que querrá jugar en 4K y se puede permitir gastar 2000€ cada dos años para renovar el PC periódicamente. ¿Que sí compensa? Pues depende de quien lo haga y disfrute. Unos dirán que no compensa hacer el sacrificio de gastarse 2000€, otros dirán que eso es calderilla. Y otros que ni ganando muchos miles de euros se gastan eso en una gráfica. Hay de todo
Ahora mismo....a fecha de hoy....precio mayorista

EVGA RTX3080TI FTW3 UG 12Gb GDDR6X a 1280
ZOTAC RTX3080 TRINITY LHR 12Gb a 780
ASUS TUF-RTX3080-O12G-GAMING a 870

Bajada de precios del stock actual....la 4080Ti rondará los 1500. Tiene toda la pinta....
Xx_TiO_PePe_xX escribió:Ahora mismo....a fecha de hoy....precio mayorista

EVGA RTX3080TI FTW3 UG 12Gb GDDR6X a 1280
ZOTAC RTX3080 TRINITY LHR 12Gb a 780
ASUS TUF-RTX3080-O12G-GAMING a 870

Bajada de precios del stock actual....la 4080Ti rondará los 1500. Tiene toda la pinta....

Estaba viendo especialmente los comentarios de este video. https://youtu.be/lbQBmuYrzOM y me hace gracia porque graficas como la RTX 3070 o esas 3080 han nacido obsoletas para algunos juegos cuando se usan texturas HD, incluso en resoluciones de 1080p porque aunque pareca que tengas memoria, el juego te baja el detalle. Puedes comparar con este video que grabe yo.


Yo no me gastaba el dinero en esas graficas que has puesto para jugar a 4k, ni 1440p.
Ese vídeo es con una RTX 3060, que es muy inferior en prestaciones a una RTX 3080 ó RTX 3080 Ti, quizás es que el juego baja los detalles porque el chip gráfico de la RTX 3060, que repito es muy inferior al de una RTX 3080 ó 3080 Ti, no pueda con las texturas, etc... debido al chip gráfico, no a la VRAM, es que no es comparable el desempeño de una RTX 3060 con una RTX 3080.

Si alguien se puede permitir una RTX 3080 o mejor aún una 3080 Ti, y es para jugar a resolución 4K o a 1440p a muchos Hz, no lo veo nada descabellado en absoluto, al revés, notará una diferencia en rendimiento muy importante respecto a una RTX 3060.
Con una RTX 3080 no puedes jugar en 4K a un juego con texturas HD porque el juego te baja automaticamente el detalle y se ve peor que si no usaras las texturas HD. En el primer video que puse se nota mucho con cosas como las rocas. Si a mi no me crees lo entiendes lee los comentarios del video.

12GB de VRam solo sirven en 1080p, segun aumentas la resolución necesitas más, 16 en 4k https://www.ubisoft.com/es-es/help/far- ... /000098943

Respecto a la 3060 en esos videos se aprecia una cosita, en 1080p las tasas de fps son bastante parecidas. Y eso que en el momento de ese video mio se aprecia algun problema en la gpu que no sube al 99%.
@javier español Que tendrá que ver el chip gráfico con la falta de memoria?? :-? estamos hablando de la misma arquitectura que usan las mismas optimizaciones de texturas/compresión, por lo que en este caso lo que dices carece de sentido. Igual necesitas ejemplos para ver que la 3080 a 4K con el pack de texturas HD tiene problemas para representarlas en este juego, donde una 6800 con 16GB no

Imagen



Básicamente dicen que si quieres evitar esa falta de vram con una 3080 10GB hay que bajar resolución o prescindir del pack de texturas. Vamos no creo que sorprenda a nadie este tema, quitando la 3060 y la 3090, toda la gama 3000 ha sido un timo en cuanto VRAM
Nomada_Firefox escribió:Con una RTX 3080 no puedes jugar en 4K a un juego con texturas HD porque el juego te baja automaticamente el detalle y se ve peor que si no usaras las texturas HD. En el primer video que puse se nota mucho con cosas como las rocas. Si a mi no me crees lo entiendes lee los comentarios del video.

12GB de VRam solo sirven en 1080p, segun aumentas la resolución necesitas más, 16 en 4k https://www.ubisoft.com/es-es/help/far- ... /000098943

Respecto a la 3060 en esos videos se aprecia una cosita, en 1080p las tasas de fps son bastante parecidas. Y eso que en el momento de ese video mio se aprecia algun problema en la gpu que no sube al 99%.



Con tus 12gb de vram tambien se aprecia "bajada de detalle" (para mi solo es que tarda en cargar la textura). Y ademas, estas comparando un video usando el fsr con otro sin usarlo... Normal que veas más cositas con el fsr activo... Sea como fuere, estamos hablando de un juego, patrocinado para mas INRI por AMD. Tildar de obsoletas las 3070 o las 3080... para mi es un atrevido brindis al sol.
Entonces ni 12gb son suficientes para 1440p?
Wookiee escribió:Con tus 12gb de vram tambien se aprecia "bajada de detalle" (para mi solo es que tarda en cargar la textura). Y.

Yo no aprecio esa bajada de detalle.

Gracias por darte cuenta que es video tiene FSR en calidad ultra y no consigue muchisimos más fps con una 3070. Si quieres el video con una 3060 y mismo detalle....

Obviamente el raytracing del juego baja muchisimo los fps. Si estuviera desactivado, la RTX 3070 sacaria como 60 fps más con seguridad.

Lo del patrocinio de AMD es una alegación divertida porque yo juego con una Nvidia y un procesador Intel, en el video usan una RTX 3070 y un Ryzen 5 5600X. [fiu] Por cierto que antes Nvidia patrocinaba los Far Cry, a partir del 5 era AMD.

Pero si de patrocineos hablamos, la mayoria de juegos son ports de consolas hechas con hardware AMD. XD ¿Y eso influye tanto? la verdad es que no. Y todos los juegos que tienen texturas HD hacen lo mismo, todos bajan el detalle sino tienes Vram suficiente.

@PHANTASIA a 1440p si tienes 8 GB de Vram, con texturas HD el juego reducira el detalle automaticamente. Son cosas que la gente se calla y no comenta demasiado porque les pueden afectar al bolsillo. Pero piensatelo antes de comprar una grafica nueva porque son verdad.
PHANTASIA escribió:Entonces ni 12gb son suficientes para 1440p?



A día de hoy, si son suficientes en el 95% de los casos (incluso 8Gb). El día de mañana... Dios dirá... No sabemos que es lo que está por venir en cuanto a juegos ni el impacto que podria tener Direct Storage en el reendimiento de las gpu.
Far Cry 6 tiene un problema con el uso de la vram y no lo digo yo, lo dice Alex Battlaglia de digital foundry que de esto sabe un rato.

"Encontré otro problema con la versión para PC e involucra la utilización de VRAM cuando se usa el paquete de texturas HD opcional. De acuerdo con los materiales de lanzamiento, se requieren 11 GB de memoria de video para estas texturas en 4K mientras se usa el trazado de rayos, lo que demostró no ser un problema para la Radeon RX 6800 XT de 16 GB. Por supuesto, el RTX 3080 de la competencia tiene problemas, ya que es una tarjeta de 10 GB, pero no es tan sencillo como parece. La utilización de VRAM aquí nunca supera los 8,6 GB, lo que significa que no se utilizan los 10 GB completos de memoria. En otros escenarios, descubrí que el RTX 3080 solo asignaría 7,9 GB de memoria y las texturas HD nunca se cargarían. Esto no me parece bien."

https://www.eurogamer.net/digitalfoundry-2021-far-cry-6-tech-review
Far Cry 6 tiene un problema con el uso de la vram y no lo digo yo, lo dice Alex Battlaglia de digital foundry que de esto sabe un rato.]

Sigan negandolo. Pero juegos como el Deathloop o Red Dead Redemption 2 hacen el mismo uso de las texturas HD.
Y de seguro que no son los unicos.

"Encontré otro problema con la versión para PC e involucra la utilización de VRAM cuando se usa el paquete de texturas HD opcional. De acuerdo con los materiales de lanzamiento, se requieren 11 GB de memoria de video para estas texturas en 4K mientras se usa el trazado de rayos, lo que demostró no ser un problema para la Radeon RX 6800 XT de 16 GB. Por supuesto, el RTX 3080 de la competencia tiene problemas, ya que es una tarjeta de 10 GB, pero no es tan sencillo como parece. La utilización de VRAM aquí nunca supera los 8,6 GB, lo que significa que no se utilizan los 10 GB completos de memoria. En otros escenarios, descubrí que el RTX 3080 solo asignaría 7,9 GB de memoria y las texturas HD nunca se cargarían. Esto no me parece bien."


¿Problema? esa cifra de uso no garantiza nada. Es todo debido a una mala interpretación influenciada por lo que sucedia en titulos más viejos. Los juegos con HD bajan el detalle de las texturas sino tienes las cifras que recomiendan y es un hecho consumado.

El que las graficas futuras de a la vuelta de la esquina vengan cargadas de Vram lo confirma aún más.
Nomada_Firefox escribió:
Wookiee escribió:Con tus 12gb de vram tambien se aprecia "bajada de detalle" (para mi solo es que tarda en cargar la textura). Y.

Yo no aprecio esa bajada de detalle.

Gracias por darte cuenta que es video tiene FSR en calidad ultra y no consigue muchisimos más fps con una 3070. Si quieres el video con una 3060 y mismo detalle....

Obviamente el raytracing del juego baja muchisimo los fps. Si estuviera desactivado, la RTX 3070 sacaria como 60 fps más con seguridad.

Lo del patrocinio de AMD es una alegación divertida porque yo juego con una Nvidia y un procesador Intel, en el video usan una RTX 3070 y un Ryzen 5 5600X. [fiu] Por cierto que antes Nvidia patrocinaba los Far Cry, a partir del 5 era AMD.

Pero si de patrocineos hablamos, la mayoria de juegos son ports de consolas hechas con hardware AMD. XD ¿Y eso influye tanto? la verdad es que no. Y todos los juegos que tienen texturas HD hacen lo mismo, todos bajan el detalle sino tienes Vram suficiente.

@PHANTASIA a 1440p si tienes 8 GB de Vram, con texturas HD el juego reducira el detalle automaticamente. Son cosas que la gente se calla y no comenta demasiado porque les pueden afectar al bolsillo. Pero piensatelo antes de comprar una grafica nueva porque son verdad.


Pues yo si la aprecio, no se, quizas sea cosa del youtube.

Lo del patrocinio lo digo porque el hecho diferenciador de AMD esta gen respecto a nvidia ha sido la cantidad de VRAM y porque esto solo pasa con ese juego.

Haz una prueba si te apetece por curiosidad. Carga el juego con los mismos ajustes pero sin el pack de texturas HD, a ver cuanta vram consume.

En serio, no se que perra le tienes a las 3070-3080. Desde luego estoy convencido de que si te cambiaran a pelo tu 3060 por una 3080 10gb precintada, la cambiabas con los ojos cerrados.
...
Editado por metalgear. Razón: Flame
Nomada_Firefox escribió:Sigan negandolo. Pero juegos como el Deathloop o Red Dead Redemption 2 hacen el mismo uso de las texturas HD.
Y de seguro que no son los unicos.


RDR2 no tiene texturas en 4K, cuando el juego se empezó a desarrollar, cuando empezaron a pintar los terrenos del mapeado, el 4K no era un estándar, aunque si que tiene texturas superiores a 1080p.
Muchos motores bajan la calidad de las texturas si no hay suficiente vram.

Yo creo que la 3080 tiene suficiente vram con 10gb, pero es muy justa y con el paso del tiempo se quedara corta. No es que pase demasiado porque se puede bajar la calidad de las texturas y listo, pero es una putada que una grafica de este precio vaya tan justa.

Si la serie 4000 trae mucha más memoria significara que efectivamente, la serie 3000 estaba muy justa de memoria.

De todas formas tienes una 3060 con 12gb, una 3090 con 24gb, la 3070 con 8, la 3080 con 10 y 12gb (depende de la version), vamos que Nvidia ha patinado con el tema de la vram, lo veais como lo veais.


@AL0 Nvidia no ha timado a nadie, las especificaciones estaban ahi antes de comprar.
Namaskar está baneado por "clon de usuario baneado"
Bueno gente acabo de pillar una KFA2 GeForce RTX 3090 Ti EX Gamer a 1299€ nueva, para cacharrear, no me he podido resistir ... es la única que me quedaba por probar [+risas]

Cuando me llegue iré posteando resultados, sensaciones , etc.... La exprimiré al máximo y probare varias bios ratataaaa
Nomada_Firefox escribió:
Far Cry 6 tiene un problema con el uso de la vram y no lo digo yo, lo dice Alex Battlaglia de digital foundry que de esto sabe un rato.]

Sigan negandolo. Pero juegos como el Deathloop o Red Dead Redemption 2 hacen el mismo uso de las texturas HD.
Y de seguro que no son los unicos.


RDR 2 se juega perfectamente a 4k con una 3080. Deathloop no lo he probado.

¿Problema? esa cifra de uso no garantiza nada. Es todo debido a una mala interpretación influenciada por lo que sucedia en titulos más viejos. Los juegos con HD bajan el detalle de las texturas sino tienes las cifras que recomiendan y es un hecho consumado.


Con todo el respeto pero Battlaglia creo que sabe bastante más que nosotros en temas gráficos.

PepeC12 escribió:Muchos motores bajan la calidad de las texturas si no hay suficiente vram.

Yo creo que la 3080 tiene suficiente vram con 10gb, pero es muy justa y con el paso del tiempo se quedara corta. No es que pase demasiado porque se puede bajar la calidad de las texturas y listo, pero es una putada que una grafica de este precio vaya tan justa.



Estoy de acuerdo.

Aún estoy esperando los juegos que consuman más de 10Gb de vram (alguno puntual supongo que habrá ) y sobre todo a 1440p que es mi monitor principal. Y la 3080 está cerca de los 2 años....

AL0 escribió:Yo no se que me da mas cosita, leer que "eejkee far cry 6 es pro amd" o "eeeejke mi gráfica de 1000€ con apenas año y medio aún no tiene problemas de VRAM", todo para justificar la metida de rabo que se ha marcado Nvidia con la memoria de la serie 3000. Total les da igual, se gastarán otros 1000€ en la serie 4000 cuando salga y evitarán ese problema, hasta lo puedo entender y así normal que Nvidia siga timando en ese sentido si la gente sigue tragando y encima justificándolo. [facepalm] [facepalm]


A ti si que da cosita leerte ¿Puedes debatir como un adulto?
JaviGabber escribió:Far Cry 6 tiene un problema con el uso de la vram y no lo digo yo, lo dice Alex Battlaglia de digital foundry que de esto sabe un rato.

"Encontré otro problema con la versión para PC e involucra la utilización de VRAM cuando se usa el paquete de texturas HD opcional. De acuerdo con los materiales de lanzamiento, se requieren 11 GB de memoria de video para estas texturas en 4K mientras se usa el trazado de rayos, lo que demostró no ser un problema para la Radeon RX 6800 XT de 16 GB. Por supuesto, el RTX 3080 de la competencia tiene problemas, ya que es una tarjeta de 10 GB, pero no es tan sencillo como parece. La utilización de VRAM aquí nunca supera los 8,6 GB, lo que significa que no se utilizan los 10 GB completos de memoria. En otros escenarios, descubrí que el RTX 3080 solo asignaría 7,9 GB de memoria y las texturas HD nunca se cargarían. Esto no me parece bien."

https://www.eurogamer.net/digitalfoundry-2021-far-cry-6-tech-review


Alex sabe mucho pero en este caso se está fijando en un dato que todos podríamos ver y es la cantidad que indica Afterburner sobre el uso de VRAM. Aquí hay tantas variables como uno quiera imaginar, como que Afterbuner no hace una lectura concisa e infalible, que el motor Dunia sea capaz de detectar insuficiente memoria y asigne texturas de menor resolución acorde a ello y obviamente use menos cantidad, que el juego tenga un bug específico la 3080 en concreto o cualquier otra cosa... Los que sabrán de verdad el comportamiento del motor y como trata los ajustes de memoria son los que han trabajado en el juego, y según ellos recomiendan al menos 11GB VRAM para las texturas HD, que curiosamente con las gráficas AMD de 16GB, la 3090 con 24 o la 3080 12GB no presentan ese problema.

Yo creo que no es tan difícil de entender que en este juego los 10GB con ese pack HD son insuficientes, si no nos fiamos ya de la palabra del desarrollador y las pruebas tangibles que lo verifican pues no se yo.
garbaje_de_potanzos escribió:
JaviGabber escribió:Far Cry 6 tiene un problema con el uso de la vram y no lo digo yo, lo dice Alex Battlaglia de digital foundry que de esto sabe un rato.

"Encontré otro problema con la versión para PC e involucra la utilización de VRAM cuando se usa el paquete de texturas HD opcional. De acuerdo con los materiales de lanzamiento, se requieren 11 GB de memoria de video para estas texturas en 4K mientras se usa el trazado de rayos, lo que demostró no ser un problema para la Radeon RX 6800 XT de 16 GB. Por supuesto, el RTX 3080 de la competencia tiene problemas, ya que es una tarjeta de 10 GB, pero no es tan sencillo como parece. La utilización de VRAM aquí nunca supera los 8,6 GB, lo que significa que no se utilizan los 10 GB completos de memoria. En otros escenarios, descubrí que el RTX 3080 solo asignaría 7,9 GB de memoria y las texturas HD nunca se cargarían. Esto no me parece bien."

https://www.eurogamer.net/digitalfoundry-2021-far-cry-6-tech-review


Alex sabe mucho pero en este caso se está fijando en un dato que todos podríamos ver y es la cantidad que indica Afterburner sobre el uso de VRAM. Aquí hay tantas variables como uno quiera imaginar, como que Afterbuner no hace una lectura concisa e infalible, que el motor Dunia sea capaz de detectar insuficiente memoria y asigne texturas de menor resolución acorde a ello y obviamente use menos cantidad, que el juego tenga un bug específico la 3080 en concreto o cualquier otra cosa... Los que sabrán de verdad el comportamiento del motor y como trata los ajustes de memoria son los que han trabajado en el juego, y según ellos recomiendan al menos 11GB VRAM para las texturas HD, que curiosamente con las gráficas AMD de 16GB, la 3090 con 24 o la 3080 12GB no presentan ese problema.

Yo creo que no es tan difícil de entender que en este juego los 10GB con ese pack HD son insuficientes, si no nos fiamos ya de la palabra del desarrollador y las pruebas tangibles que lo verifican pues no se yo.


Si yo creo que eso no lo niega nadie. De hecho sacaron parches para solucionar o mitigar eso mismo. A mi lo que me resulta curioso es el dato de vram requerido, 11gb. No se si es habitual dar datos de vram impares, porque salvo las integradas que tiran de ram y ahi puede pasar de todo (y nadie con una integrada creo que intente jugar con el pack de texturas), todas las gpu dedicadas que conozco visten vram par. Tambien me resulta cuanto menos curioso que las consolas manejen su respectivo pack hd con menos vram.

Y bueno, que estamos haciendo de un juego el todo. Es como si en su momento, hubieramos dicho que todas las gpu nacieron desfasadas porque no podian mover el Crysis original a full.
@Wookiee Igual tiene que ver que estaría pensando a gráficas tope de gama como 1080Ti o 2080Ti que montan esa misma cantidad y serían el target durante el desarrollo del juego. Al final no deja de ser la típica opción "future poof" para que las disfrute el tope de gama de hoy y la gama media de mañana, que dicho sea de paso tampoco se notan tanto, vamos para mi no es un drama.

El crysis esque era future proof en todos sus aspectos, anda que no pasaron años hasta que algún juego le tosiera gráficamente y que las gráficas pudieran moverlo con soltura xD
garbaje_de_potanzos escribió:@Wookiee Igual tiene que ver que estaría pensando a gráficas tope de gama como 1080Ti o 2080Ti que montan esa misma cantidad y serían el target durante el desarrollo del juego. Al final no deja de ser la típica opción "future poof" para que las disfrute el tope de gama de hoy y la gama media de mañana, que dicho sea de paso tampoco se notan tanto, vamos para mi no es un drama.

El crysis esque era future proof en todos sus aspectos, anda que no pasaron años hasta que algún juego le tosiera gráficamente y que las gráficas pudieran moverlo con soltura xD


Amen! Me habia olvidado de ellas... Como no son ni nunca han sido mi target... XD

Y lo del Crysis... el originbal, no la remasterización... no se yo como funcionará con una gpu y cpu actual... Era un pozo sin fondo de hard.
EMC2 está baneado por "Troll"
Kopite a bajado el consumo a 285w TGP, eso seria unos 250w TDP que ya no seria tan alto, el boost parece que sera de 2600mhz y el max en 2800mhz, rinde como una 3090ti. Viendo esto parece que no habria mejora de IPC en la arquitectura Ada Lovelace vs ampere:

RTX 3090 ti = 40 Tflops
RTX 4070 = 40 Tflops

Renderian lo mismo ambas arquitectura, aunque con ese TGP si parece indicar mejoras de energias, aparte de la mejora de cambio de nodo.

https://videocardz.com/newz/nvidia-geforce-rtx-4070-gpu-rumored-to-boost-over-2-8-ghz-offering-the-same-compute-power-as-rtx-3090-ti
garbaje_de_potanzos escribió:Alex sabe mucho pero en este caso se está fijando en un dato que todos podríamos ver y es la cantidad que indica Afterburner sobre el uso de VRAM. Aquí hay tantas variables como uno quiera imaginar, como que Afterbuner no hace una lectura concisa e infalible, que el motor Dunia sea capaz de detectar insuficiente memoria y asigne texturas de menor resolución acorde a ello y obviamente use menos cantidad, que el juego tenga un bug específico la 3080 en concreto o cualquier otra cosa... Los que sabrán de verdad el comportamiento del motor y como trata los ajustes de memoria son los que han trabajado en el juego, y según ellos recomiendan al menos 11GB VRAM para las texturas HD, que curiosamente con las gráficas AMD de 16GB, la 3090 con 24 o la 3080 12GB no presentan ese problema.


Si, tiene sentido lo que comentas pero es cuanto menos sorprendente. No recuerdo un caso igual.

Yo creo que no es tan difícil de entender que en este juego los 10GB con ese pack HD son insuficientes, si no nos fiamos ya de la palabra del desarrollador y las pruebas tangibles que lo verifican pues no se yo.


Es algo obvio que nadie duda.

A mí es que Far Cry me la suda , nunca lo voy a jugar. A los que le importe este juego pues que lo tengan en cuenta. Y quien quiera más Vram pues ahí tiene las AMD.
Wookiee escribió:Lo del patrocinio lo digo porque el hecho diferenciador de AMD esta gen respecto a nvidia ha sido la cantidad de VRAM y porque esto solo pasa con ese juego.

Interesante opinión pero yo veo que Nvidia sabia a quien vendia las graficas, a los mineros y no tenia necesidad de añadir más memoria. Cuando sacaron la 3070Ti lo demostro todavia más. Solamente la 3060 que no era buena para minar vino con más memoria.

Haz una prueba si te apetece por curiosidad. Carga el juego con los mismos ajustes pero sin el pack de texturas HD, a ver cuanta vram consume.

Aqui tienes, lo he grabado y subido rapiditamente que estos videos a mi me reportan muy poquita ganancia. :-|

No veo nada relevante, yo ya sabia que usaba menos memoria. Tengo jugado al mismo juego con el Ryzen 7 5700X y una vieja GTX 1060 6GB. Hasta con una 3GB.

En serio, no se que perra le tienes a las 3070-3080. Desde luego estoy convencido de que si te cambiaran a pelo tu 3060 por una 3080 10gb precintada, la cambiabas con los ojos cerrados.

Yo perras ninguna, tengo perro, un viejo labrador :) pero me gusta contar las verdades. No cambiaria la 3060 por una 3080 ¿para que? ¿para tener que tirar la fuente de alimentación? ¿para tener más calor en la torre sin usarla para nada? alma candida, creeme cuando te digo que si quisiera una grafica top ya la hubiera comprado hace tiempo. :)

@JaviGabber Se te ve enojado [beer] , menudo vocabulario, yo hay muchisimos juegos a los que no voy a jugar pero precisamente a los Far Cry juego mucho, a casi todos ellos. Pero respeto los demas. [bye]

@garbaje_de_potanzos No es solamente el Far Cry 6 por más que nos empeñemos en centrar la atención solo en dicho juego, es en casi todos los titulos que usan texturas HD opciones ultimamente. Los anteriores no, yo diria que tiene que ver con las consolas y los ports claramente.
@Nomada_Firefox No se no me viene a la mente otro juego así bruto con las texturas y memoria, aunque recuerdo que Control ponerlo con RTX y ajustes altos me ponía las texturas borrosas a veces, sería curioso verlo correr en una 3080 a 4k a ver si hace lo mismo.
Nomada_Firefox escribió:
Wookiee escribió:Lo del patrocinio lo digo porque el hecho diferenciador de AMD esta gen respecto a nvidia ha sido la cantidad de VRAM y porque esto solo pasa con ese juego.

Interesante opinión pero yo veo que Nvidia sabia a quien vendia las graficas, a los mineros y no tenia necesidad de añadir más memoria. Cuando sacaron la 3070Ti lo demostro todavia más. Solamente la 3060 que no era buena para minar vino con más memoria.

Haz una prueba si te apetece por curiosidad. Carga el juego con los mismos ajustes pero sin el pack de texturas HD, a ver cuanta vram consume.

Aqui tienes, lo he grabado y subido rapiditamente que estos videos a mi me reportan muy poquita ganancia. :-|

No veo nada relevante, yo ya sabia que usaba menos memoria. Tengo jugado al mismo juego con el Ryzen 7 5700X y una vieja GTX 1060 6GB. Hasta con una 3GB.

En serio, no se que perra le tienes a las 3070-3080. Desde luego estoy convencido de que si te cambiaran a pelo tu 3060 por una 3080 10gb precintada, la cambiabas con los ojos cerrados.

Yo perras ninguna, tengo perro un viejo labrador :) pero me gusta contar las verdades. No cambiaria la 3060 por una 3080 ¿para que? ¿para tener que tirar la fuente de alimentación? ¿para tener más calor en la torre sin usarla para nada? alma candida, creeme cuando te digo que si quisiera una grafica top ya la hubiera comprado hace tiempo. :)



La 3060 es tan buena a la mineria como lo es al gaming. Vamos, que sus debes en mineria estan relacionados con sus debes en gaming. Y si tiene mas vram, es porque con su bus, con 8gb de vram seria un trasto que no mejoraria a la 2060 Super. Solo tienes que mirar los diferentes modelos de 2060 (8gb-12gb-super) y veras que poquito tiene que ver la mineria en esto.

El video me referia a in game, no en la barra de carga de opciones, pero da igual, era para que comprobar cuanta vram traga con las texturas normales.

Y bueno, contaras tus verdades, que son tan discutibles como las de cualquiera. Para mi es una verdad que si te cambian a pelo la tuya por una 3080 pierdes el culo, del mismo modo que tambien es una verdad que otra cosa es que fueras a reconocerlo.
13345 respuestas