Epic Games avisa: GPU con 8GB VRAM ya está obsoleta para gaming

18, 9, 10, 11, 12, 13
@Nomada_Firefox yo me refiero a la 7600 va 6600. Las otras no las miro, vamos que tengo claro no les voy a dar pasta a nvidia, cada cual con sus manías yo tras ver cómo está el mercado es que paso de ellos.
Kavezacomeback escribió:@Nomada_Firefox yo me refiero a la 7600 va 6600. Las otras no las miro, vamos que tengo claro no les voy a dar pasta a nvidia, cada cual con sus manías yo tras ver cómo está el mercado es que paso de ellos.

Bueno, cada uno es libre de hacer lo que quiera con su dinero siempre que no afecte a los demas ¿no es eso lo que se suele decir? quizas deberian prohibir comprar Nvidia. [sonrisa]

Lo de la 7600, quizas muchos, no se dieron cuenta que es el modelo no XT. Falta ver donde se queda ese cuando salga. Y si, tienes razon, igual es solo un poquito mejor, igual es una 6600 renombrada.
Viendo cómo la RX 7900 XTX compite con la 4080, no creo que esas 7600 sean gran cosa... Seguramente la gama media de AMD empiece con las X700 está generación, siendo una 7800 la competidora directa de la 4070.


Ahora mismo también tengo una RX 6000 y me gustaría dar un salto considerable cuando cambie, ya que la intención sería pasar a jugar de 1080 a 1440p.
VíctorXD está baneado por "clon de usuario baneado"
Es que quitando la 4090 ,el resto de 4000 también tienen un salto ridículo, yo creo que la 7600 se va pocionar en una 6700xt de rendimiento.

También hay que aclarar que la 7600 no son GPU de entrada, si no gama media, la 7500xt serán las gama de entrada.

Y también aclarar cómo explique atrás que el dds solo es un contenedor de texturas, los formatos de compresión DXT y BC se pueden almacenar en dds y lo más probable que este nuevo formato de Nvidia BCT también se pueda almacenar en dds, por cual serán compatibles con todas las GPU. El problema de la implementación será que los motores gráficos lo implemente, el formato BC es un estándar porque es el de DirectX y también se tendría que ver si al ser neuronal usa hardware dedicado como los núcleos IA(tenso core), con esto último si nacería muerto.
VíctorXD escribió:Es que quitando la 4090 ,el resto de 4000 también tienen un salto ridículo, yo creo que la 7600 se va pocionar en una 6700xt de rendimiento.

Lo dudo muchisimo para la versión no XT, la XT quizas sí.

Que Nvidia se apresure a sacar graficas con más Vram, a mi me dice que su formato de texturas no tiene mucho recorrido. Yo apostaria a que su nuevo formato hace uso de las librerias Cuda, al igual que ya lo hace su herramienta de creación de dds, aunque si es cierto que funciona con una grafica AMD, un poco a trompicones, pero yo la uso. Y seguramente no sea tan compatible con otras graficas.
@VíctorXD creo que eres optimista, pero ojalá lleves razón.
VíctorXD escribió:Es que quitando la 4090 ,el resto de 4000 también tienen un salto ridículo, yo creo que la 7600 se va pocionar en una 6700xt de rendimiento.

También hay que aclarar que la 7600 no son GPU de entrada, si no gama media, la 7500xt serán las gama de entrada.

Y también aclarar cómo explique atrás que el dds solo es un contenedor de texturas, los formatos de compresión DXT y BC se pueden almacenar en dds y lo más probable que este nuevo formato de Nvidia BCT también se pueda almacenar en dds, por cual serán compatibles con todas las GPU. El problema de la implementación será que los motores gráficos lo implemente, el formato BC es un estándar porque es el de DirectX y también se tendría que ver si al ser neuronal usa hardware dedicado como los núcleos IA(tenso core), con esto último si nacería muerto.


Por los specs que comentaron, la que será una 6700XT aproximadamente será la 7600XT.
La 7600 como una 6650XT.
solo consideraria la gama media de amd si se confirma que algun modelo vendra con 16gb de vram, en cualquier otro escenario (12 u 8 gb de vram) elegir amd no es la inversion sensata
https://elchapuzasinformatico.com/2023/ ... as-gpu-ia/

Vuelve la minería de Critpos. Más vale que la gente empieza a comprar ya, antes de que suban otra vez por las nubes.
spaizor6 escribió:https://elchapuzasinformatico.com/2023/05/mineros-criptomonedas-gpu-ia/

Vuelve la minería de Critpos. Más vale que la gente empieza a comprar ya, antes de que suban otra vez por las nubes.

Veo que no has leido la noticia. ;) No vuelve la mineria, lo que sucede es que se les ha ocurrido usar toda esa potencia que tienen los mineros en sus GPUs para la IA. Lo cual puede volver a hacer que las graficas suban de precio. La verdad es que yo ya habia pensado que habia muchas posibilidades de que esto sucediera y afortunadamente tengo grafica.

parh escribió:solo consideraria la gama media de amd si se confirma que algun modelo vendra con 16gb de vram, en cualquier otro escenario (12 u 8 gb de vram) elegir amd no es la inversion sensata

Creo que depende del precio. Ademas para mi las 4070 no son gama media, siguen siendo caras, en un punto economico donde si que no rentan.
spaizor6 escribió:https://elchapuzasinformatico.com/2023/05/mineros-criptomonedas-gpu-ia/

Vuelve la minería de Critpos. Más vale que la gente empieza a comprar ya, antes de que suban otra vez por las nubes.


deberias incluir esta info tambien en el hilo oficial de las rtx 4000

ojala volviese la histeria cripto y las 4090 se revaloricen hasta los 2500 o asi
parh escribió:ojala volviese la histeria cripto y las 4090 se revaloricen hasta los 2500 o asi

Lo que hay que leer...... [facepalm] [facepalm] [facepalm]

Y luego vendes una 4090 pero resulta que la 5090 cuesta 7500€. O lo que es peor, se estropea, te quedas sin tarjeta porque la garantia no te la cubre y no tiene 2500€ para otra.
VíctorXD está baneado por "clon de usuario baneado"
Kavezacomeback escribió:@VíctorXD creo que eres optimista, pero ojalá lleves razón.


No se si seré optimista, pero no veo descabellado que la 7600 recorte ese 25% que le saca la 6700xt, con el tema que la 7600 tiene doble Streaming Processor por CU.

De base la 7600 tiene 32 CU lo mismos que 6600XT, pero tiene el doble de ALU, ya que en RDNA3 hay 128 ALU por CU en ves de 64 de RDNA 2:

6600xt = 2048 ALU
7600 = 4096 ALU
6700xt = 2560 ALU

Duplicar ALU no tiene un escalado lineal y no significa el doble de rendimiento, menos en RDNA3 que de la forma como trabajan el escalado es bastante malo, pero yo creo que es posible que al menos un 25% extra de rendimiento saque la 7600 al duplicar esas ALU que la pondría en una 6700xt.
Para mi la noticia en pleno 2023 es la siguiente:

Remake de System Shock alardea de requisitos asequibles en pleno 2023
https://elchapuzasinformatico.com/2023/ ... equisitos/

Un juego q se ve bastante bien, con estos requisitos recomendados:
Procesador: Intel Core i7-3770 o AMD FX-8350
Memoria: 8 GB de RAM
Gráficos: NVIDIA GeForce GTX 970 4GB o AMD Radeon R9 290

Sobre la noticia de las gráficas para IA, no va a salir bien, OpenAI está perdiendo mucho dinero por el coste de cómputo (en ese coste está repercutido el coste de la factura eléctrica entre otros). No creo q haya mineros comprando nuevas GPUs, ese negocio ya está acabado, y las q tienen, son poco eficientes.
No sé como alguien puede desear que vuelva la basura de especulación de gráficas por los mineros...
PHANTASIA escribió:No sé como alguien puede desear que vuelva la basura de especulación de gráficas por los mineros...


hombre, no es nada personal, pero yo prefiero que mi grafica (4090) se revalorice no que se devalue
PHANTASIA escribió:No sé como alguien puede desear que vuelva la basura de especulación de gráficas por los mineros...

Cuando pasas el dia entrando aqui y escribiendo la primera tro**** que se te ocurra, sucede que lees cosas como esas. [facepalm]

Y con lo ultimo lo repite, supongo que el dia que la venda sera para no comprar jamas. Le doy un 10 en negocios. [sonrisa]

@BladeRunner Sera un remake pero luce como el System Sock 2...........no se puede poner como ejemplo de graficos. [sonrisa]

@VíctorXD Es tan facil como calcular la ganancia entre una 6900XT y la 7900XT, asi sacaras lo que posiblemente gane cada XT más o menos. Luego piensas lo que ganan una 7600XT y le quitas el tanto % que perdia la 6600 no XT frente a su hermana mayor. Yo no lo he calculado pero seguramente la cosa ande por ahi.
@parh mucho sentido no tiene por qué después te vas a encontrar que lo nuevo se ha encarecido y quizás ni pagando encuentres disponibilidad.
parh escribió:
PHANTASIA escribió:No sé como alguien puede desear que vuelva la basura de especulación de gráficas por los mineros...


hombre, no es nada personal, pero yo prefiero que mi grafica (4090) se revalorice no que se devalue



Está bien que desees venderla mas cara de lo que la compraste, pero recuerda que una vez la vendas, tendrás que soltar la pasta por otro modelo. Osea que tiene 0 sentido que pidas que se revalorice.
Nomada_Firefox escribió:@BladeRunner Sera un remake pero luce como el System Sock 2...........no se puede poner como ejemplo de graficos. [sonrisa]

Bueno la verdad q aunque se ve bien (vistos algunas demos/gameplays)... ciertamente me recordó mucho a System Shock 2, puede q incluso hayan aprovechado los mapas de la estación porque todo me ha parecido igual de claustrofóbico y los diseños muy parecidos. El uso de iluminación de colores no me termina de convencer, un ambiente con luz roja allí, luego otro ambiente azul, otro verde... así sin sentido es un poco raro. En su momento no pude terminarlo porque tenía la barrera del idioma y no me enteraba. Pero bueno... tampoco la haría ascos. En la historia y la jugabilidad está la clave. Y en ponerlo a 4K sin miramientos. XD
BladeRunner escribió:
Nomada_Firefox escribió:@BladeRunner Sera un remake pero luce como el System Sock 2...........no se puede poner como ejemplo de graficos. [sonrisa]

Bueno la verdad q aunque se ve bien (vistos algunas demos/gameplays)... ciertamente me recordó mucho a System Shock 2, puede q incluso hayan aprovechado los mapas de la estación porque todo me ha parecido igual de claustrofóbico y los diseños muy parecidos. El uso de iluminación de colores no me termina de convencer, un ambiente con luz roja allí, luego otro ambiente azul, otro verde... así sin sentido es un poco raro. En su momento no pude terminarlo porque tenía la barrera del idioma y no me enteraba. Pero bueno... tampoco la haría ascos. En la historia y la jugabilidad está la clave. Y en ponerlo a 4K sin miramientos. XD

Espero que solo se parezca graficamente al 2 porque me parecia un juego muy complicado que he jugado un par de veces usando trucos. Era la unica manera. Pero estaba bien hecho en todo lo demas, lo unico que el final es un tanto extraño. Yo suelo hacer todo en ingles, aunque ese juego es largo de hacer aunque lo entiendas, son todo lineas de texto de la historia.

Pero ya te digo que jugabilidad cero. Muchos juegos para mi que se pasan algo de frenada y estan pensado para jugadores no novatos. Me estaba acordando del Jedi Survivor y sus errores donde vi alguien grabando como era incapaz de pasar una elevación en el terreno. Ciertamente me recordo a The Force Unleashed, juego muy aclamado en su momento pero que tenia un monton de esas cosas. Vamos, dificultad excesiva para novatos. Yo lo comento porque yo no juego de continuo y a veces me gusta pasarlo bien con un juego de acción pero si son complicados.....como que no.
Ya no me creo nada, eso de que vuelve la minería puede ser una fake news para reactivar las ventas de GPUs, que la gente se ponga histérica a comprar.

También avisaron que la llegada de las primeras criptos que minaban usando el SSD podía disparar el precio de éstos y mira, ahora mismo están más baratos de lo que nunca han estado.
10 páginas y nadie ha dicho que la noticia es un pufo bien gordo (como todo lo que publica elchapuzas) y ningún desarrollador de Epic Games ha dicho nada, si no un desarrollador indie anónimo en un podcast de un cualquiera que publica toda la mierda que puede para conseguir visitas?
No hace falta que lo diga EPIC para ver como los 8GB se están quedando cada día que pasa más cortos.
PHANTASIA escribió:No hace falta que lo diga EPIC para ver como los 8GB se están quedando cada día que pasa más cortos.

Si es verdad, 3 paginas antes hay varios videos que vienen a demostrarlo. Yo lo unico que puedo añadir, es que el mundo de los videojuegos es más que el top 10, hay muchisimos más juegos que no van a tener estos problemas, esto es solo para ese tipo de juegos, ports de consola mayormente que tienen la fama de aprovechar las maximas tecnologias (aunque mal) y que cuentan con equipos de desarrollo ademas de pasta para hacer el juego a raudales.

Todos los demas con infinitamente menos dinero no haran eso y de hecho seguramente se aprovechen de que esos juegos pidan tanto para sacar juegos que puedan funcionar con muchisimo menos.
LordVulkan escribió:10 páginas y nadie ha dicho que la noticia es un pufo bien gordo (como todo lo que publica elchapuzas) y ningún desarrollador de Epic Games ha dicho nada, si no un desarrollador indie anónimo en un podcast de un cualquiera que publica toda la mierda que puede para conseguir visitas?



Tarde, la bola ya se ha hecho grande y el alarmismo estéril ya ha calado en mas de uno, que no para de repetir como loros por hilos que van, que con 8gb no puedes casi ni abrir el buscaminas.

8gb para gamas bajas-medias, es suficiente. Y el que espere jugar al máximo y a una tasa alta de frames, con esas gpus, pues que invierta mas dinero o se compre una consola.
KindapearHD escribió:
LordVulkan escribió:10 páginas y nadie ha dicho que la noticia es un pufo bien gordo (como todo lo que publica elchapuzas) y ningún desarrollador de Epic Games ha dicho nada, si no un desarrollador indie anónimo en un podcast de un cualquiera que publica toda la mierda que puede para conseguir visitas?



Tarde, la bola ya se ha hecho grande y el alarmismo estéril ya ha calado en mas de uno, que no para de repetir como loros por hilos que van, que con 8gb no puedes casi ni abrir el buscaminas.

8gb para gamas bajas-medias, es suficiente. Y el que espere jugar al máximo y a una tasa alta de frames, con esas gpus, pues que invierta mas dinero o se compre una consola.


y lo dice quien en cuanto vio el percal (que lo hemos venido advirtiendo ya largo y tendido el error de comprar hoy una grafica incluso con 12 gb vram) dio el salto cuanto antes a los 24gb de vram (de amd, pero 24gb al fin y al cabo) [360º] [+risas]
parh escribió:
KindapearHD escribió:
LordVulkan escribió:10 páginas y nadie ha dicho que la noticia es un pufo bien gordo (como todo lo que publica elchapuzas) y ningún desarrollador de Epic Games ha dicho nada, si no un desarrollador indie anónimo en un podcast de un cualquiera que publica toda la mierda que puede para conseguir visitas?



Tarde, la bola ya se ha hecho grande y el alarmismo estéril ya ha calado en mas de uno, que no para de repetir como loros por hilos que van, que con 8gb no puedes casi ni abrir el buscaminas.

8gb para gamas bajas-medias, es suficiente. Y el que espere jugar al máximo y a una tasa alta de frames, con esas gpus, pues que invierta mas dinero o se compre una consola.


y lo dice quien en cuanto vio el percal (que lo hemos venido advirtiendo ya largo y tendido el error de comprar hoy una grafica incluso con 12 gb vram) dio el salto cuanto antes a los 24gb de vram (de amd, pero 24gb al fin y al cabo) [360º] [+risas]


Pero que percal? Si yo con la 4070Ti jugaba perfectamente a todo. Como os gusta el drama [qmparto] . Yo espero que cualquiera que no sepa mucho del tema y os esté leyendo, no os haga caso.
A mí lo que me parece alucinante es que se esté centrando más el foco en el tema de actualizar las gráficas de 8gb de forma prematura que en dar un buen tirón de orejas a los desarrolladores que nos están colando cada 2x3 cutrePorts rotos ya sobradamente conocidos.

No digo que pueda haber en un futuro algún juegazo que sea un exponente gráfico y esté justificado en determinados casos gráficas con más de 8gb, pero llama la atención que justamente ahora que el mercado de gráficas y demás componentes no están pasando su mejor momento nos quieran vender la moto el disparate de que las gráficas de 8gb van a servir poco más que para jugar al lego.

Aquí hay muchos fabricantes y desarrolladores que esté escenario les viene de perlas, unos para salir del pozo en el que están ahora mismo desde que los mineros se fueron al garete venden a cuentagotas en comparación a antes, y otros para tener que esforzarse lo mínimo a la hora de optimizar.
apalizadorx escribió:A mí lo que me parece alucinante es que se esté centrando más el foco en el tema de actualizar las gráficas de 8gb de forma prematura que en dar un buen tirón de orejas a los desarrolladores que nos están colando cada 2x3 cutrePorts rotos ya sobradamente conocidos.

No digo que pueda haber en un futuro algún juegazo que sea un exponente gráfico y esté justificado en determinados casos gráficas con más de 8gb, pero llama la atención que justamente ahora que el mercado de gráficas y demás componentes no están pasando su mejor momento nos quieran vender la moto el disparate de que las gráficas de 8gb van a servir poco más que para jugar al lego.

Aquí hay muchos fabricantes y desarrolladores que esté escenario les viene de perlas, unos para salir del pozo en el que están ahora mismo desde que los mineros se fueron al garete venden a cuentagotas en comparación a antes, y otros para tener que esforzarse lo mínimo a la hora de optimizar.



Claro, el principal foco es la optimizacion de los juegos. A AMD le vino de perlas para su presentacion sacar el TLOU y su consumo para decir "eh, mira la VRAM que necesitas para jugar a TLOU, comprate una AMD con 16Gb". Y conforme lo van arreglando, el consumo de vram está bajando, como es lógico (creo que ya había bajado como 2gb).
Que se dediquen a optimizar los juegos y no sacarlos rotos, que luego mucha 4090 y da verguenza el framerate.
La mayoría de la gente tampoco tiene ni puta idea de lo que habla ni sabe interpretar datos de consumo de memoria.

Un youtuber enseña el Jedi Survivor con una 4090 y se ve que el juego llega a asignar 20GB de VRAM, automáticamente tienes a 50 gilipollas en los foros alarmando a la gente con que sin esa cantidad de VRAM no vas a poder jugar, cuando el juego por poder puede pedir toda la VRAM disponible aunque no la use, y eso es lo que van a reportar las herramientas de monitoring.

Luego hay casos como The Last of Us que como salieron con problemas de optimización se utilizaban para esgrimir que menos de XGB ya no servían, y tras unas cuantas actualizaciones el juego ya empieza a funcionar como debe y 8GB son suficientes para las texturas en ultra, pero no verás al subnormal de Hardware Unboxed hablando de ello.

Realmente a mi me gustaría saber de algún título para el que 8GB sean insuficientes. Obviamente no lo son para jugar a 4K en Ultra, pero para 1440p y texturas en alto (o la opción que sea equivalente a consolas) 8GB no van a ser un cuello de botella en el 99.99% de títulos.
VíctorXD está baneado por "clon de usuario baneado"
Lo que han hecho en TLOU como su nombre indica es un parche.

Simplemente han dado la opción de reducir la caché de Transmisión de Texturas ha costa de cierto poping de texturas en los objectos lejanos. Si tu en el menú pones transmisión de texturas en alto seguirá consumiendo la misma VRAM que se lanzamiento.

Vamos que no han optimizado nada simplemente actualmente hay una opción para sacrificar calidad por cantidad de VRAM.

El motor necesita adaptarse a PC, supungo que las Texturas Virtuales están adaptado a PS5, y la PS5 debido a que tiene conexión directa GPU > SSD puede hacer un Streaming de texturas al vuelo, sin necesidad de almacenar grandes cantidades de texturas en la VRAM (no tiene RAM), en PC por temas de compatibilidad no tiene ese tipo de conexión, así que supungo que para hacer un streaming alto tuvieron que crear caches grandes en la VRAM y RAM, haciendo un uso execivo de ello.
Hay mucho drama y vende humos. No me pille el Resident Evil 4 por miedo a los 8Gb de mi 3070 y tras un par de meses me la “jugué”… y puedo decir que son todo patrañas. Junto a 32gb de RAM y un 5600x a 1440, con ray Tracing activado y gráficos en alto me va entre 90-100fps. Y ningún craseo oiga.
Vamos a vivir más y preocuparnos menos.


A ver que os parece esto que me mola el salseo aunque no estoy alarmado [burla2]
Bueno algunos no lo entienden, no es no jugar, es jugar suavemente en todas las situaciones. Es lo que hay, ni más ni menos.

Por cierto que ahora el gran problema lo tienen los usuarios de graficas de 8GB que quieran revenderlas porque sus graficas han pasado a costar mucho menos y ser puestas en duda. Cosa que me parece que no va a mejorar para ellos. Asi es la vida de la informatica.

Esto me empieza a recordar al año en el que salio Supreme Commander, alla por 2007 y todos los que no teniamos Core 2 Duo, tuvimos que tirar nuestros PCs a la basura. Y era solo un titulo, de estrategia, aunque muy bonito pero al poco tiempo ya empezaban a salir otros juegos como Crysis, todos ellos aprovechando lo mismo y que eran injugables en otro tipo de CPUs, incluso si eran de Intel.

En aquella epoca, tambien se avanzo mucho con el uso de la vram. Yo recuerdo que en esos años con 512MB se jugaba muy bien pero cuando empezo a usarse más las de 1GB, la cosa cambio bastante, tenia una ATI 4870 de 512MB y con la llegado de las GTX 460 de 1GB, me apresure a venderla corriendo. Asi que si tuviera una grafica de 8GB, creo que tambien me apresuraria a venderla. Por cierto, esa GTX 460 que todavia tengo en uso, fue la que más cambio note, era muy buena grafica en su momento.
Con algunos juegos muy mal hechos si da problemas la falta de vram. Por ejemplo en el the witcher 3 con 6/8 gb tienes problemas. Cuando la vram llega al 95% el juego baja el rendimiento una barbaridad, da igual que después la vram se vacíe, ya no recuperas el rendimiento hasta que reinicias el juego. Ese problema de fuga de memoria creo que también lo tiene el de Howarts, aunque no lo probé.
Landinel escribió:Con algunos juegos muy mal hechos si da problemas la falta de vram. Por ejemplo en el the witcher 3 con 6/8 gb tienes problemas. Cuando la vram llega al 95% el juego baja el rendimiento una barbaridad, da igual que después la vram se vacíe, ya no recuperas el rendimiento hasta que reinicias el juego. Ese problema de fuga de memoria creo que también lo tiene el de Howarts, aunque no lo probé.


que no todo se puede achacar a la "fuga de memoria", el tema esta en que queremos realismo graficos, pues entonces esas texturas super realistas con la iluminacion mas avanzada consumen una barbaridad de VRAM.
Sí, pero en este caso en concreto el problema está en la programación del juego. Una cosa es que pongas las texturas en ultra o lo que sea y tengas tartamudeos cuando se llena la vram, que no te queda otra que bajar la calidad; y otra la que ocurre con the witcher 3 que baja el rendimiento cuando ni se ha llenado la vram, cambias de escenario, esta baja a por ejemplo 4000 mb de 6000 y el rendimiento no se recupera, con el gpu bus disparado hasta que reinicias el juego.
Que las texturas de alta calidad necesitan sus gb de vram? Sí. Pero que últimamente optimizan como una basura los juegos también.
Con los emuladores también se está viendo que 8GB es justito en algunos casos.

He visto que envidia va a lanzar las 4060ti con 16GB, se nota que han visto las orejas al lobo. Estas GPUs si lo van a pegar en ventas.
spaizor6 escribió:Con los emuladores también se está viendo que 8GB es justito en algunos casos.

No tengo ni idea de emuladores, ¿también se pueden ajustar los settings? (calidad ultra/alta/media...)
Nekrosan escribió:Hay mucho drama y vende humos. No me pille el Resident Evil 4 por miedo a los 8Gb de mi 3070 y tras un par de meses me la “jugué”… y puedo decir que son todo patrañas. Junto a 32gb de RAM y un 5600x a 1440, con ray Tracing activado y gráficos en alto me va entre 90-100fps. Y ningún craseo oiga.
Vamos a vivir más y preocuparnos menos.


Yo hace poco tambien lo empecé a jugar (con una 3070) y me esperaba shuttering y demas. Pero ni tan siquiera en el pueblo inicial (donde se cebaban las reviews) tuve el mas minimo shuttering, corte o problema. Tambien a 90/100 fps estables.

Lo mismo cuando salio daba tirones fuertes pero tras las actualizaciones muy bien. Asi que en este caso no son los 8 GB si no la optimizacion del juego. Lo sacaron verde!
ayer probe el far cry 6 la version trial y para las texturas en hd me recomendaba o pedia 11 vram, yo que tengo solo 8vram el juego me funcionaba perfectamente a 2560x1440 con todo el ultra con las texturas tambien en ultra y a mas de 90fps.
La beta del diablo 4 tambien estaba asustado por el vram y tambien me iba de cine.
eimia escribió:ayer probe el far cry 6 la version trial y para las texturas en hd me recomendaba o pedia 11 vram, yo que tengo solo 8vram el juego me funcionaba perfectamente a 2560x1440 con todo el ultra con las texturas tambien en ultra y a mas de 90fps.
.

Sí sí, activa el RT y ponte a girar la vista en una escena donde haya muchos enemigos, ya veras que sucede con 8GB en ese juego.
Yo mismo grabe este video y en 1080p rascaba una 3060Ti.


Y no es solo que lo dijera yo https://www.guru3d.com/articles_pages/f ... ew,10.html
Con 8GB vas al limite y rasca. No es mucho, se puede jugar, pero sucede.
spaizor6 escribió:Con los emuladores también se está viendo que 8GB es justito en algunos casos.

He visto que envidia va a lanzar las 4060ti con 16GB, se nota que han visto las orejas al lobo. Estas GPUs si lo van a pegar en ventas.


Es 100€ más cara que la de 8gb. Lo va a petar costando más de 558€ siendo gama media. [facepalm]
Nomada_Firefox escribió:
eimia escribió:ayer probe el far cry 6 la version trial y para las texturas en hd me recomendaba o pedia 11 vram, yo que tengo solo 8vram el juego me funcionaba perfectamente a 2560x1440 con todo el ultra con las texturas tambien en ultra y a mas de 90fps.
.

Sí sí, activa el RT y ponte a girar la vista en una escena donde haya muchos enemigos, ya veras que sucede con 8GB en ese juego.
Yo mismo grabe este video y en 1080p rascaba una 3060Ti.


Y no es solo que lo dijera yo https://www.guru3d.com/articles_pages/f ... ew,10.html
Con 8GB vas al limite y rasca. No es mucho, se puede jugar, pero sucede.



De verdad que eres cansino y torticero... En esa review se dice que tanto la 3060ti como la 3070 de 8gb de vram funcionan mejor que la 3060 de 12gb de vram. Y tu "prueba" es con una 3060ti que devolviste, según tu mismo testimonio, porque estaba tocada y hacia cosas raras. ¿Que pretendes con ello? ¿Sumar visitas a tu canal? Porque el ya tiene una gpu de 8GB y ya sabe como le funciona sin que tu le tengas que abrir los ojos con tu "prueba".
Duendeverde escribió:Es 100€ más cara que la de 8gb. Lo va a petar costando más de 558€ siendo gama media. [facepalm]

Sí, el modelo de 16GB no es muy atractivo en precio.

Pero la RTX 4060 entorno a 300€, si que lo seria incluso con sus 8GB de memoria. No olvidemos que tiene DLSS 3 y que el RT con que sea tan bueno como el de una RTX 3060, ya seria mejor que las RX.

Y luego como no el modelo de 16GB, acabara cayendo de precio.
eimia escribió:ayer probe el far cry 6 la version trial y para las texturas en hd me recomendaba o pedia 11 vram, yo que tengo solo 8vram el juego me funcionaba perfectamente a 2560x1440 con todo el ultra con las texturas tambien en ultra y a mas de 90fps.
La beta del diablo 4 tambien estaba asustado por el vram y tambien me iba de cine.


Precisamente far cry 6 es un juego ya demostrado que la falta de vram hace que las texturas pierdan calidad, vamos que por muy ultra y texturas hd que tu pongas realmente si no tienes suficiente vram no lo vas a ver asi, y no lo digo yo lo saco digital foundry en su video sobre este juego

Este tema va mas allá de que el juego me baje a 5fps, también esta la calidad visual y la magia no existe, si un juego en una gpu consume 12gb de vram y en otra 8gb en la misma configuración alguna diferencia tiene que haber
FranciscoVG escribió:Precisamente far cry 6 es un juego ya demostrado que la falta de vram hace que las texturas pierdan calidad, vamos que por muy ultra y texturas hd que tu pongas realmente si no tienes suficiente vram no lo vas a ver asi, y no lo digo yo lo saco digital foundry en su video sobre este juego

Este tema va mas allá de que el juego me baje a 5fps, también esta la calidad visual y la magia no existe, si un juego en una gpu consume 12gb de vram y en otra 8gb en la misma configuración alguna diferencia tiene que haber

De ser así sería una señal más de q es MUY difícil apreciar la diferencia entre setting ultra y alto.
BladeRunner escribió:De ser así sería una señal más de q es MUY difícil apreciar la diferencia entre setting ultra y alto.

Hombre..........en ese juego se nota, igual se nota entre jugar a 60 y 100fps, debe ser el shooter que más horas he jugado en mi vida. Ideal para cuando te sientes aburrido y apetece romper algo sin romperlo realmente. [sonrisa] [sonrisa]
628 respuestas
18, 9, 10, 11, 12, 13