Epic Games avisa: GPU con 8GB VRAM ya está obsoleta para gaming

1, 2, 3, 4, 513
Ojito con tus próximas adquisiciones, y es que un desarrollador de Epic Games ya avisa que la memoria VRAM de tu actual, o futura GPU, será crucial para que disfrutes de los juegos. Si bien se pone como ejemplo el motor gráfico Unreal Engine 5, el cual traerá los verdaderos juegos de nueva generación, realmente no hay que esperar tanto para ver como las actuales GPU sufren de limitaciones de desempeño debido al ahorro sistemático en memoria VRAM que se está dando lugar en el negocio de las GPU de alta gama.

Un ejemplo rápido de ello, está en la recientemente lanzada beta del Diablo IV. Exacto, no es que sea un juego que alardee de un nivel visual sin precedentes y, pese a ello, los 8 GB de memoria VRAM de una NVIDIA GeForce RTX 3060 Ti ya tocan techo. Todo ello ejecutando este juego a simplemente una resolución de 1080p (Full HD) con todos los ajustes gráficos al máximo. Si este juego de 2023 ya se ve limitado por las GPU de 8 GB, ya podéis imaginar que puede pasar con otros juegos. Juegos que realmente sean exigentes a nivel visual.

Sin irnos tampoco muy lejos, otro lanzamiento de este año, el Hogwarts Legacy. En calidad máxima, y a una resolución 4K, llega a consumir 13 GB de memoria VRAM sin Ray Tracing. Al activar esta tecnología, en concreto se demanda 15 GB de memoria. Es por ello que es obligatorio tener una GPU de alta gama con 16 GB de memoria para alcanzar dicha configuración.
Epic Games ya está recomendando usar una GPU con al menos 12GB de VRAM, adiós a los 8GB
Demo Unreal Engine 5.1 que no funcionaría con una GPU con 8GB de VRAM
Demo del Unreal Engine 5.1 con Lumen y Ray Tracing

De esta forma, en una breve entrevista, el desarrollador de Epic Games indicó que a día de hoy, sería recomendado tener una GPU que al menos cuente con 10 o 12 GB de memoria. Si bien las consolas cuentan con 16 GB de memoria, esta es para todo el sistema. Es por ello que se indica que todos los juegos se están optimizando para ocupar entre 10 y 12 GB de memoria. Esto implica que es el mínimo para las consolas, mientras que para PC no hay límite. Eso sí, parece que NVIDIA no ayuda nada a que las GPU envejezcan bien, y es que incluso sus GPU de alta gama actuales, únicamente ofrecen entre 8 y 12 GB de memoria. El Unreal Engine 5 está pensado para al menos lidiar con 12 GB de memoria VRAM.

Es por ello que existe el temor que todas estas GPU estén capadas en rendimiento únicamente por la capacidad de memoria. Dicho de otra forma. Con una GPU con 8 GB de VRAM podrás seguir jugando, pero tendrás que bajar algunos ajustes gráficos. El problema, que estos ajustes tienen que ser reducidos únicamente por una limitación de memoria, mientras que la GPU de por sí sería lo suficientemente potente para lidiar con el juego a la máxima calidad posible.
¿Y ahora qué pasa con la GeForce RTX 4070 y las RTX 4060?

NVIDIA RTX 4070 12 GB

Obviamente, todas las miradas se dirigen a la futura NVIDIA GeForce RTX 4070. Estamos hablando de una gráfica que debutará el 13 de abril a un precio que superará la barrera de los 600 euros, . Pese a ello que apenas ofrecerá 12 GB de memoria. Es decir, que se estaría comprando el tipo de GPU que Epic Games ya avisa que no sería recomendable comprar si quieres disfrutar de los juegos en el futuro. En esencia, ya estaría en su límite de uso. De esta forma, lo recomendable es aspirar a los 16 GB de memoria si quieres garantizar que no irás sobrado de potencia, pero esta no servirá de nada por una limitación de memoria.

Quizás lo gracioso del asunto, venga por debajo, donde ningún usuario debería comprar ya gráficas como las GeForce RTX 4060. Estas gráficas se conformarán con ofrecer 8 GB de memoria. En concreto, estas gráficas sufrirán notablemente en desempeño al llegar el Unreal Engine 5.

https://elchapuzasinformatico.com/2023/ ... -engine-5/

La entrevista

https://twitter.com/HardwareUnboxed/sta ... 7524567040

Hablan de 1080p. 1440p o 4k ya ni hablamos. Existen ahora muchísimas gráficas de 8gb e incluso menos. Mismamente sin irnos a series muy viejas o gama baja, tenemos a la RTX 3070, 3060 ti entre otras.O la radeon rx 6600 que se vendió bastante como gráfica "calidad precio". Todas ésas que no vayan sobradas de memoria se van a quedar obsoletas en nada. No van a seguir la estela de las consolas. Encima la tendencia es racanear vram y cobrarte mucho más, si pasas a otro segmento. Yo ya no actualizo mi pc principal. Cuando una xbox series x tenga un precio imbatible, me compraré una. Mejor eso que después de pasar por el infierno de la minería, muchas tarjetas que costaban y cuestan un pastizal, ya vas a tener problemas para jugar bien.
Optimizar los juegos es algo impensable, a comprar gráficas con 64gb de vram y potencia bruta para mover el codigo roto y y una CPU de alta gama para mover el DRM debajo y encima del otro DRM.
Por lo que he leído en comentarios de la noticia, parece ser que hacen un copia y pega de la memoria unificada de las consolas. Es decir, que cargan casi todo a la vram para hacerlo más rápido, en vez de separar procesos

Tiene narices que juegos de ps3/x360 salieron más optimizados que estos, siendo una arquitectura powerpc de IBM.

Lo que he leído también. Gráficas de 10-12gb no podrás activar el RT en juegos, porque te quedas sin vram. Eso ya pasa en el resident evil 4. La 4070 ti ya está obsoleta con esos 12g y ese bus minúsculo. Ya de la 4060 de 8gb, ni lo menciono.

Al final va a envejecer mejor una RTX 3060 de 12gb, que tarjetas superiores, aunque escupa menores fps. [facepalm]

Y todo lo que venden de gama baja por debajo de 400€ es basura que moverán indies (y no todos) y poco más.
Y la mayoria de la gente conprandose 6700xt, 3060ti y 4070 ti.. por lo menos otra de las mas vendidas la 6800 xt tiene 16 gb, casi q es mejor inversion que cualquiera de las otras.

Yo aun espero la bajada de la 7900xt con sus 20gb de vram porque la 4080 no creo que baje de los 1200 euros a corto plazo.
algunos ya lo hemos advertido, incluso la 4070ti esta en el punto de mira de quedarse obsoleta en menos de 2 años (año y medio o asi). Las unicas opciones viables, con vistas a futuro, son la 4080 y 4090
Otra alternativa es bajarse del carro y que se lo coman con patatas, las gráficas y los juegos.

Yo últimamente disfruto de juegos indie, con menos pretensiones gráficas y jugabilidad que me engancha.
Se sabia de sobras que en cuanto los juegos de consola de Series X y PS5 dejasen de ser también de PS4 y One habria un bum de especificaciones, especialmente en la vram.
Sí, le dan a un boton de exportar codigo y lo empaquetan a 70 euros y luego sale lo que sale pero esto no es nuevo es tradición. También hiria diciendo adiós a los 8 gb de ram y marcar los 16 como minimo y tener un ssd

Aquí podiamos culpar también a los fabricantes de graficas que han racaneado vram como si costase un riñon, no quiero señalar nvidia pero joder con Nvidia. Y si yo lo llevo viendo venir desde hace más de un año que soy un mindundi, nvidia y amd seguramente desde antes de la pandemia
La mayoria de usuarios de steam con una 1650 en la mochila.
https://pbs.twimg.com/media/FoTn_JrX0AA ... ame=medium

pd: acabo de ver que ha bajado en el ranking este ultimo mes, ya era hora!
el año que viene renuevo el pc completo, que tras 5 años ya toca.
alguna grafica ya tiene hasta 16 vram y de momento sin problemas , pero vamos quien tenga uan 3070 o 3080 o similares aguntaran . quien compre una nueva ya se lo pensara
Mientras sigan esos precios integrada forever.

Estas diciendo que para no pillarte lo dedos necesitas 16gb de Vram que la GPU más barata con esa cantidad vale 600€...
Puede imaginarme a todos los que compraron modelos de 3060Ti/3070/3070Ti acordandose de Nvidia pero debo decir que se informaron mal y me acuerdo de algunos que me dijeron que la 3060 con 12GB moriria antes, puede pero no sera por falta de memoria.......

@PHANTASIA No es como lo cuenta, ahora mismo con 12GB vas perfectamente bien, pero depende de la resolución.

@Season 2 No hables en plural porque el unico que ha racaneado, ha sido Nvidia. Ni AMD, ni Intel lo han hecho.

@JR_GAMER Las 6700 tienen 12GB y con esa cantidad usas texturas de alta resolución sin problema alguno. El problema se le viene encima quien compro los modelos de Nvidia. Y si una RX 6600 tiene 8GB y van jodios tambien pero tampoco costaban una pastisima.
Nomada_Firefox escribió:Puede imaginarme a todos los que compraron modelos de 3060Ti/3070/3070Ti acordandose de Nvidia pero debo decir que se informaron mal y me acuerdo de algunos que me dijeron que la 3060 con 12GB moriria antes, puede pero no sera por falta de memoria.......

@PHANTASIA No es como lo cuenta, ahora mismo con 12GB vas perfectamente bien, pero depende de la resolución.

@Season 2 No hables en plural porque el unico que ha racaneado, ha sido Nvidia. Ni AMD, ni Intel lo han hecho.

@JR_GAMER Las 6700 tienen 12GB y con esa cantidad usas texturas de alta resolución sin problema alguno. El problema se le viene encima quien compro los modelos de Nvidia. Y si una RX 6600 tiene 8GB y van jodios tambien pero tampoco costaban una pastisima.


veo que vienes a sesgar el discurso del lado que mas te conviene, que estamos hablando de problemas de vram para jugar a tope con RT ON, las AMD nunca han tenido ese problema porque hay que poner siempre RT OFF
Tampoco es algo para morirse, todavia se defienden las 1650 Super con 4GB......

Y si hay que bajar las texturas de Ultra a Alto tampoco es algo que sea para llorar.

Yo me compre hace un mes y medio una RX 6600 XT, viendo como salen los juegos de optimizados, antes que sin Vram, es mas probable que se quede sin potencia en triples A, de nada me sirve que no consuma memoria y el juego va fatal como The last of US (ya una 6600 XT va rondando los 60 fps en ese juego😅)

Al final, todas las GPU actuales de 8GB acabaran su ciclo antes por rendimiento que por memoria en la mayoria de ocasiones.
Qué emocionado estaba hace 5 años cuando compré mi GTX 1080, no solo doblaba en potencia a mi anterior gráfica, la 970, sino que además pensaba que con sus 8 GB de VRAM me sobraba para años XD Bueno, en realidad, así ha sido hasta hace poco. La verdad es que no me extraña que ya los juegos empiecen a pedir más de eso.

Por cierto, considero la GTX 1080 la mejor tarjeta gráfica que he tenido (por el rendimeinto que me ha dado en comparación con otras en su día, la 2ª sería la 8800 GT), al menos hasta que pronto jubile mi actual PC por otro con una RTX 4090.
GordonFreeman escribió:Por cierto, considero la GTX 1080 la mejor tarjeta gráfica que he tenido (por el rendimeinto que me ha dado en comparación con otras en su día, la 2ª sería la 8800 GT), al menos hasta que pronto jubile mi actual PC por otro con una RTX 4090.

De la 1060 para arriba, toda esa parte de la serie 1000, fueron seguramente las mejores graficas de todos los tiempos porque con la llegada del VR metieron un subidon de potencia nunca antes visto.
@Nomada_Firefox y las que mejor han envejecido, una 1060 para jugar a 1080p sigue tirando todo, no en ultra pero puedes jugar a todo
Constantinoplas escribió:@Nomada_Firefox y las que mejor han envejecido, una 1060 para jugar a 1080p sigue tirando todo, no en ultra pero puedes jugar a todo

Sí, es totalmente cierto. Incluso muchos juegos actuales se pueden jugar en ultra si la acompañas de una CPU actual. Yo hasta hace nada tenia una puesta, de hecho tengo 2, una de 6GB y otra de 3GB que me da pereza vender de lo buenas que son, porque si todo lo que tengo se desintegra, se que con esas graficas gano como para comprar algo actual. :)
Y yo jugando al TLOU con una 970 (al 125%, 1080p y todo al mínimo), tan pichi. [qmparto]
Hasta las 1050 y 1050 ti fueron buenas graficas, poco queridas en su momento por que la 1060 era reina pero tengo una 1050 en un pc secundario que con una buena CPU sorprende mucho, poco queridas en su epoca y una relacion precio rendimiento que ni soñando tiene la serie 3000 y 4000
ivan95 escribió:Tampoco es algo para morirse, todavia se defienden las 1650 Super con 4GB......

Y si hay que bajar las texturas de Ultra a Alto tampoco es algo que sea para llorar.

Yo me compre hace un mes y medio una RX 6600 XT, viendo como salen los juegos de optimizados, antes que sin Vram, es mas probable que se quede sin potencia en triples A, de nada me sirve que no consuma memoria y el juego va fatal como The last of US (ya una 6600 XT va rondando los 60 fps en ese juego😅)

Al final, todas las GPU actuales de 8GB acabaran su ciclo antes por rendimiento que por memoria en la mayoria de ocasiones.


En el nuevo the last of us, hay gente que tiene que poner texturas en medio con una RTX 3070. Aunque creo que hablamos de configuraciones gráficas muy altas y RT activado. Pero el nuevo Star wars ya pide mínimo 8gb de vram

4gb en nada no va a ir bien los juegos ni al mínimo bajando resolución. 4gb ahora mismo es como hasta ahora gráficas de 2gb. Hay juegos que ya ni van como el dead space remake con gráficas de 2gb.

Ya no es el que tenga esa 1650 super, es que todavía se venden muchas tarjetas con menos de 8gb de vram y muchas caras para lo que ofrecen.

Como han dicho atrás, una gráfica con 16gb para no tener problemas en un tiempo, ya parte de 600€. El problema es siempre el mismo. El precio. Si una gráfica con 16gb de ram partiese de 200€, pues esta noticia no tendría mucho sentido. Pero no es el caso.
Menos mal que me estoy aficionando a los metroidvanias,manda cojones con una 3070...
Duendeverde escribió:
ivan95 escribió:Tampoco es algo para morirse, todavia se defienden las 1650 Super con 4GB......

Y si hay que bajar las texturas de Ultra a Alto tampoco es algo que sea para llorar.

Yo me compre hace un mes y medio una RX 6600 XT, viendo como salen los juegos de optimizados, antes que sin Vram, es mas probable que se quede sin potencia en triples A, de nada me sirve que no consuma memoria y el juego va fatal como The last of US (ya una 6600 XT va rondando los 60 fps en ese juego😅)

Al final, todas las GPU actuales de 8GB acabaran su ciclo antes por rendimiento que por memoria en la mayoria de ocasiones.


En el nuevo the last of us, hay gente que tiene que poner texturas en medio con una RTX 3070. Aunque creo que hablamos de configuraciones gráficas muy altas y RT activado. Pero el nuevo Star wars ya pide mínimo 8gb de vram

4gb en nada no va a ir bien los juegos ni al mínimo bajando resolución. 4gb ahora mismo es como hasta ahora gráficas de 2gb. Hay juegos que ya ni van como el dead space remake con gráficas de 2gb.

Ya no es el que tenga esa 1650 super, es que todavía se venden muchas tarjetas con menos de 8gb de vram y muchas caras para lo que ofrecen.

Como han dicho atrás, una gráfica con 16gb para no tener problemas en un tiempo, ya parte de 600€. El problema es siempre el mismo. El precio. Si una gráfica con 16gb de ram partiese de 200€, pues esta noticia no tendría mucho sentido. Pero no es el caso.


Esos casos sera con RT me imagino, una RX 6600 XT puede jugar con todo en Ultra sin RT, lo unico que ya esa grafica esta rondando los 60 fps y con suerte🤣🤣
@ivan95 ¿60 fps?

https://youtu.be/JA_oAqLJ9bA?t=240

Entre 30 y 40 fps y da gracias. Para que la 6600 dé 60 fps hay que jugar en medio o bajo a 1080p o jugando con el FSR.
https://youtu.be/frTyWdKTc58

Yo vi este, me imagino que habra zonas mas pesadas y por eso los fps mas bajos en el video que pusiste🤣
Que divertido saber esto teniendo una 3070 de 8 GB... no hay dinero para una nueva y de momento voy bien, cuándo toque, ya se cambiará.
Yo creo que una cosa es que si una gráfica tiene más VRAM, los juego la utilicen y otra muy distinta, es que con una gráfica que no tenga tanta VRAM, esta limite significativamente el rendimiento de un juego, que algún caso puede haber, pero no como norma general, la verdad. De ahí a decir que con 8GB de VRAM hasta a 1080p una gráfica está obsoleta, me parece una exageración en toda regla.

Es más o menos como un PC que tenga 16GB de RAM y otro que tenga 32GB de RAM, el S.O. cuanta más RAM tenga, más puede llegar a utilizar, otra muy distinta es que con 16GB de RAM el rendimiento se vea penalizado significativamente.

Saludos.
Todopc-WII escribió:Que divertido saber esto teniendo una 3070 de 8 GB... no hay dinero para una nueva y de momento voy bien, cuándo toque, ya se cambiará.

¿No me digas que cuando la compraste no lo veias venir? se sabia desde hace mucho, lo unico que los grandes vendedores de estas graficas con poca vram llevan más de 2 años defendiendolas a ultranza con tal de vender. Hay que tener un cuidado con las opiniones de mucha gente a la hora de escoger que compras.......porque hay muchisimo interesado.
Aquí el problema es también lo del huevo y la gallina.
¿Necesitamos gráficas con más VRAM porque los juegos piden más, o los juegos piden más porque hay gráficas con mayor VRAM y los optimizan menos?
Durante esta generación de consolas aún aguantaremos, cuando salga la próxima estaremos jodidos.
Uno con una 3080 FE de 10Gb por aquí.
Chevi escribió:Durante esta generación de consolas aún aguantaremos, cuando salga la próxima estaremos jodidos.
Uno con una 3080 FE de 10Gb por aquí.


supongo que te refieres al refresh de generacion que tendran las consolas con su version PRO, que apuntan al lanzamiento en el 4to trimestre el año que viene.

Si te refieres a PS6, creo que estas siendo hyper optimista. 10gb para finales de 2024 seran como ahora 8gb
Chaquetero está baneado por "troll"
Estafador estafando al decir que cuidado que viene el lobo con el unreal engine 5, motor con el que no hay ni un AAA anunciado a día de hoy, más que demos técnicas engañabobos como lleva pasando desde la del samaritano del 2005. Unreal engine CINCO, ha habido cuatro iteraciones antes de estos vendehumos asustaviejas y aquí estamos.

1° Nvidia lleva estafando a todo el mundo desde las rtx 2000. No ha subido la VRAM de sus gráficas en 7 años.

2° No hay ni habrá juegos "Next generation" a corto plazo, la gente está acomplejandose por un chorriport de un chorrijuegos de PS3 que apenas lleva un lavado de cara, cyberpunk o rdr2, o requiem, o el propio days gone son mucho mejores gráficamente y piden mucha menos máquina.

3° Vosotros seguid, seguid comprando GPUs de 1000-2000 euros para jugar a indies de 5 euros del gamepass. Es el SOFTWARE, lo que te tiene que hacer actualizar el HARDWARE, hasta que no saquen videojuegos que lo merezcan es absurdo tragarse estás gilipolleces de vendedor a puerta fría venido a más como el papanatas del twit este.
Chaquetero escribió:Estafador estafando al decir que cuidado que viene el lobo con el unreal engine 5, motor con el que no hay ni un AAA anunciado a día de hoy, más que demos técnicas engañabobos como lleva pasando desde la del samaritano del 2005. Unreal engine CINCO, ha habido cuatro iteraciones antes de estos vendehumos asustaviejas y aquí estamos.

1° Nvidia lleva estafando a todo el mundo desde las rtx 2000. No ha subido la VRAM de sus gráficas en 7 años.

2° No hay ni habrá juegos "Next generation" a corto plazo, la gente está acomplejandose por un chorriport de un chorrijuegos de PS3 que apenas lleva un lavado de cara, cyberpunk o rdr2, o requiem, o el propio days gone son mucho mejores gráficamente y piden mucha menos máquina.

3° Vosotros seguid, seguid comprando GPUs de 1000-2000 euros para jugar a indies de 5 euros del gamepass. Es el SOFTWARE, lo que te tiene que hacer actualizar el HARDWARE, hasta que no saquen videojuegos que lo merezcan es absurdo tragarse estás gilipolleces de vendedor a puerta fría venido a más como el papanatas del twit este.

Totalmente de acuerdo...[beer]
elrocho escribió:Aquí el problema es también lo del huevo y la gallina.
¿Necesitamos gráficas con más VRAM porque los juegos piden más, o los juegos piden más porque hay gráficas con mayor VRAM y los optimizan menos?

Al final, cuando juegas a ports de consola a pc, tienes que aceptar que la baja optimización va a ser asi de primeras. Aunque yo creo que la mayoria lo hacen a posta para evitar la pirateria porque lo normal es que se piratee la primera versión pero no las parcheadas.

Tambien me gustaria destacar que los juegos acostumbran a tener unos tiempos de realización muy apretados, a los cuales les obliga la distribuidora y que hace que muchas cosas no esten terminadas al 100%. Tambien es muy facil dejarse algo sin hacer y muy dificil probarlo todo antes de lanzarlo.

Ademas los juegos van a pedir más porque ha salido directstorage que les permite usar texturas más grandes sin penalizar las cargas. Es asi de sencillo. Ni tiene que ver con la baja optimización.

Lo unico reprochable, es que muchos juegos top, con precios nada economicos llegan asi al PC. Deberian ser más baratos de primeras ya que el jugador acostumbra a ser quien los prueba y encuentra los errores.
Nomada_Firefox escribió:
Todopc-WII escribió:Que divertido saber esto teniendo una 3070 de 8 GB... no hay dinero para una nueva y de momento voy bien, cuándo toque, ya se cambiará.

¿No me digas que cuando la compraste no lo veias venir? se sabia desde hace mucho, lo unico que los grandes vendedores de estas graficas con poca vram llevan más de 2 años defendiendolas a ultranza con tal de vender. Hay que tener un cuidado con las opiniones de mucha gente a la hora de escoger que compras.......porque hay muchisimo interesado.

Aunque sean opiniones, yo lo sabía desde hace mucho, pero claro, si ya me ha costado hacerme con una 3070ti la 3080 ya era prohibitiva para mi, esa GPU ya escalaba a mucho más precio. Si quieres estar provisto de esto tendrías que irte a una GPU de AMD o una de NVIDIA carera.

Lo que está claro es que si vas a jugar lo mejor ahora mismo es AMD, pero es que NVIDIA tiene cosas que no tiene AMD, CUDA CORES, TENSOR CORES, RT CORES, etc....
katatsumuri escribió:Lo que está claro es que si vas a jugar lo mejor ahora mismo es AMD, pero es que NVIDIA tiene cosas que no tiene AMD, CUDA CORES, TENSOR CORES, RT CORES, etc....

Para mi lo mejor que tiene Nvidia es el DLSS porque la realidad es que sin el, el Raytracing sigue consumiendo una barbaridad y se hace inutilizable en muchos juegos. Y AMD pues tiene el FSR pero no es tan efectivo como el DLSS. Y al igual que otras veces, sigo pensando que si quieres jugar por encima de 1080p y usar RT, pues deberias comprar una grafica de Nvidia pero no un modelo de 8GB. Es asi de sencillo.
hay modelos amd de 16 gigas y los nuevos con 20 o 24
Nomada_Firefox escribió:
katatsumuri escribió:Lo que está claro es que si vas a jugar lo mejor ahora mismo es AMD, pero es que NVIDIA tiene cosas que no tiene AMD, CUDA CORES, TENSOR CORES, RT CORES, etc....

Para mi lo mejor que tiene Nvidia es el DLSS porque la realidad es que sin el, el Raytracing sigue consumiendo una barbaridad y se hace inutilizable en muchos juegos. Y AMD pues tiene el FSR pero no es tan efectivo como el DLSS. Y al igual que otras veces, sigo pensando que si quieres jugar por encima de 1080p y usar RT, pues deberias comprar una grafica de Nvidia pero no un modelo de 8GB. Es asi de sencillo.

Es que NVIDA está en una posición privilegiada actualmente y nos torean como quieren, son empresas. Ellos saben que esas GPUs que estaban por los cielos las encontraremos en un año o dos que ya no las querrá nadie, de hecho puedes encontrar GPUs chinas de minería tiradas de precio a las que simplemente les tienes que cambiar la BIOS y ya ruedan, te hablo de 3080 por 280 euros, cuando aquí aún están a precio de venta cuando salieron o ni eso.

Hablando de tecnologías como el DLSS, verás cuando saquen filtros por IA, vamos a flipar dentro de poco cuando nvidia saque tecnología de filtros por IA porque será el antes y el después de los videojuegos, ese realismo tan ansiado que siempre hemos deseado vendrá de la mano de NVIDIA y está al caer, nos mataremos de nuevo por una NVDIA cuando liberen los filtros.

Imagen
La 4070 ti ya se queda corta en algún juego actual por el tema de la vram, no quiero imaginar en dos años.

Y eso que cuesta casi mil euros. Una cosa es que hagan modelos para que no te duren 6 años y tengas que renovar cada menos tiempo, y otra que cuando te la compres ya estés rezando para que la vram te dé en los juegos que van sacando.
Yo es que creo que el tema de la VRAM es perfectamente solucionable incluso en GPUs de 8 GBs, compresión más fuerte en algún preset y ya, y poder superar el límite de la VRAM y que cuando lo superes se carguen texturas de menos resolución en los lugares que menos molesten para compensar, yo creo que todo es optimizar.

Deberían sacar modos de texturas para diferente tamaño de VRAM.
flo79 escribió:La 4070 ti ya se queda corta en algún juego actual por el tema de la vram, no quiero imaginar en dos años.

Y eso que cuesta casi mil euros. Una cosa es que hagan modelos para que no te duren 6 años y tengas que renovar cada menos tiempo, y otra que cuando te la compres ya estés rezando para que la vram te dé en los juegos que van sacando.


Corta es no poder poner todo a tope en ultra y RT activado, no?
8Gb obsoletos quiere decir que ni al minimo todo bastará con 8Gb o habláis de vuestra ultritis y de si no está todo al maximo, es quedarse corta?

Alguien se apuesta algo que de aquí a 2 años como mínimo una 3070ti o una 3080 con 10gb, va a ser perfectamente usable?
Me flipa la facilidad con la que enterráis hardware.
Por si acaso todos a comprar la 4090, no vaya a ser que para juegos, no sea suficiente.

ditifet escribió:
flo79 escribió:La 4070 ti ya se queda corta en algún juego actual por el tema de la vram, no quiero imaginar en dos años.

Y eso que cuesta casi mil euros. Una cosa es que hagan modelos para que no te duren 6 años y tengas que renovar cada menos tiempo, y otra que cuando te la compres ya estés rezando para que la vram te dé en los juegos que van sacando.


Corta es no poder poner todo a tope en ultra y RT activado, no?


Yo estoy por tirarla porque en el único juego, TLOU, puedo poner el rtx y todo pero la texturas de las armas en alto solamente, porque si no, consume 12,1gb de vram.
KindapearHD escribió:8Gb obsoletos quiere decir que ni al minimo todo bastará con 8Gb o habláis de vuestra ultritis y de si no está todo al maximo, es quedarse corta?

Alguien se apuesta algo que de aquí a 2 años como mínimo una 3070ti o una 3080 con 10gb, va a ser perfectamente usable?
Me flipa la facilidad con la que enterráis hardware.
Por si acaso todos a comprar la 4090, no vaya a ser que para juegos, no sea suficiente.

ditifet escribió:
flo79 escribió:La 4070 ti ya se queda corta en algún juego actual por el tema de la vram, no quiero imaginar en dos años.

Y eso que cuesta casi mil euros. Una cosa es que hagan modelos para que no te duren 6 años y tengas que renovar cada menos tiempo, y otra que cuando te la compres ya estés rezando para que la vram te dé en los juegos que van sacando.


Corta es no poder poner todo a tope en ultra y RT activado, no?


Yo estoy por tirarla porque en el único juego, TLOU, puedo poner el rtx y todo pero la texturas de las armas en alto solamente, porque si no, consume 12,1gb de vram.


Ya no sirve, está obsoleta, tienes que bajar algún setting de ultra a alto, tírala total nadie la querrá
ditifet escribió:
KindapearHD escribió:8Gb obsoletos quiere decir que ni al minimo todo bastará con 8Gb o habláis de vuestra ultritis y de si no está todo al maximo, es quedarse corta?

Alguien se apuesta algo que de aquí a 2 años como mínimo una 3070ti o una 3080 con 10gb, va a ser perfectamente usable?
Me flipa la facilidad con la que enterráis hardware.
Por si acaso todos a comprar la 4090, no vaya a ser que para juegos, no sea suficiente.

ditifet escribió:
Corta es no poder poner todo a tope en ultra y RT activado, no?


Yo estoy por tirarla porque en el único juego, TLOU, puedo poner el rtx y todo pero la texturas de las armas en alto solamente, porque si no, consume 12,1gb de vram.


Ya no sirve, está obsoleta, tienes que bajar algún setting de ultra a alto, tírala total nadie la querrá



Eso estoy haciendo y justamente pagando 1.800€ por una 4090, porque es la única que va a valer de aquí a un par d años. Porque claro, 8Gb va a estar obsoleto por lo que los 12, será el mínimo mínimo. Pero por si acaso me voy a 24, no vaya a ser que salga el The last of us 2 y, aunque sea de 2020, te pida 18Gb de vram.
katatsumuri escribió:Hablando de tecnologías como el DLSS, verás cuando saquen filtros por IA, vamos a flipar dentro de poco cuando nvidia saque tecnología de filtros por IA porque será el antes y el después de los videojuegos, ese realismo tan ansiado que siempre hemos deseado vendrá de la mano de NVIDIA y está al caer, nos mataremos de nuevo por una NVDIA cuando liberen los filtros

Puede ser. Aunque yo espero más el FSR3.

Respecto al realismo...........los juegos siempre tendran tonos pastel y nunca recordaran a la vida misma. Ni con IA ni con calamares. [sonrisa]

Hablando de color, sigo pensando que me gusta más el color de las graficas de AMD.

Lo de las texturas de menor tamaño, ha existido desde siempre pero solo se usan en los juegos para escenas a más distancia, donde el detalle no se requiere o para modos de bajo detalle. Pero aqui hablamos de jugar en ultra, a maximo detalle se usan texturas HD.
@Nomada_Firefox pues no se que te parece esto a pastel, y esto es renderizado en tiempo real


katatsumuri escribió:@Nomada_Firefox pues no se que te parece esto a pastel, y esto es renderizado en tiempo real



Son caras de personas y yo me refiero a los mundos mostrados en general. Y luego depende en el juego de la luz en general que se use y los colores. Al final. Plastic.

Y cosas como el Raytracing no añaden más realismo, todo lo contrario.
@Nomada_Firefox que no, que no se verá de plástico, que estás muy equivocado, las caras esas son hechas a base de muestras de personas reales, si, son actrices, pero pronto podrán generarse rostros random, en realidad ya deberías de poder hacerlo, aunque ahora mismo sería más laborioso, tendrías que generar las imágenes a partir de una IA que genere imágenes; las ciudades estarán hechas a base de muestras de imágenes de ciudades reales, así de simple, incluso para entornos tridimensionales está NeRF que es una burrada lo que consigue, aunque aún le queda un poco para pulirlo, pero de ahí ya podremos tener plantas tridimensionales y entornos realistas.








El problema va a ser mover mundos abiertos con semejante carga poligonal en un motor gráfico, por eso la solución realmente son los filtros, que sea el filtro el que realmente simule que una planta 2D es 3D, o que con unos gráficos más o menos normales se ve alucinante con el filtro, así el peso cae sobre el filtro que simplemente depura el frame.

Incluso con esta tecnología es probable que google o microsoft empiecen a escanear el mundo para crear un clon 3D.
elcapoprods escribió:Optimizar los juegos es algo impensable, a comprar gráficas con 64gb de vram y potencia bruta para mover el codigo roto y y una CPU de alta gama para mover el DRM debajo y encima del otro DRM.


Se puede decir más alto pero no más claro.

Y una vez más, los desarrolladores pueden decir misa, pero al final el público es soberano y les toca respetar lo que tenemos en los hogares. Recordemos que en el top 5 de gráficas más usadas por los jugadores de Steam se cuelan modelos como la 1050, 1060 o 1650. Esta última sin ir más lejos se está montando a diestro y siniestro en portátiles y sobremesas "gaming" tanto de fabricantes como ensambladores. La propia nvidia ha reconocido estar sorprendida por su demanda.

Duendeverde escribió:Y todo lo que venden de gama baja por debajo de 400€ es basura que moverán indies (y no todos) y poco más.


Me extraña, sobre todo siendo indie. Estos serán los primeros en asegurarse que una GTX1650 puede correr sus juegos o estás perdiendo un trozo importante de pastel. Otro tema son los grandes estudios, que por temas de prestigio o sacar músculo, sacrifican un porcentaje de clientes a cambio de mostrar su potencial como desarrollador.
katatsumuri escribió:@Nomada_Firefox que no, que no se verá de plástico, que estás muy equivocado, las caras esas son hechas a base de muestras de personas reales, si, son actrices, pero pronto podrán generarse rostros random, en realidad ya deberías de poder hacerlo, aunque ahora mismo sería más laborioso, tendrías que generar las imágenes a partir de una IA que genere imágenes; las ciudades estarán hechas a base de muestras de imágenes de ciudades reales, así de simple, incluso para entornos tridimensionales está NeRF que es una burrada lo que consigue, aunque aún le queda un poco para pulirlo, pero de ahí ya podremos tener plantas tridimensionales y entornos realistas.








El problema va a ser mover mundos abiertos con semejante carga poligonal en un motor gráfico, por eso la solución realmente son los filtros, que sea el filtro el que realmente simule que una planta 2D es 3D, o que con unos gráficos más o menos normales se ve alucinante con el filtro, así el peso cae sobre el filtro que simplemente depura el frame.

Incluso con esta tecnología es probable que google o microsoft empiecen a escanear el mundo para crear un clon 3D.

Cuando se vea como tu dices que me avisen..........yo no he visto ni un solo juego en desarrollo que luzca como la vida real.
628 respuestas
1, 2, 3, 4, 513