Fair201 escribió:Ya que parece que va a ser casi imposible pillar una asus 3080 TUF o Strix me estoy decantando por las MSI o eVGA.
¿Cuál me recomendáis?
Blackpo92 escribió:https://www.youtube.com/watch?v=lY9OSdebKcc&feature=youtu.be
Por aquí anda una 3090 también en el Godfall y chupa casi 12 gb de vram.
Aquí pasa algo y hasta que no salga oficialmente no creo que sepamos que es.
Saludos
Bio81 escribió:Blackpo92 escribió:https://www.youtube.com/watch?v=lY9OSdebKcc&feature=youtu.be
Por aquí anda una 3090 también en el Godfall y chupa casi 12 gb de vram.
Aquí pasa algo y hasta que no salga oficialmente no creo que sepamos que es.
Saludos
mira el video que puse mas atrás de Godfall corriendo en la RTX 3080 , el rivatuner marca casi 9 GB y en los videos de la RTX 3090 marca mas de 10 GB , eso es por que en la tarjeta que tiene mas vram se reserva mas vram pero eso no quiere decir que el juego este consumiendo esa vram , en ambas tarjetas se consume la misma vram por que la configuración gráfica y la resolución es exactamente igual.
Los síntomas por falta de vram son que el juego empieza a pegar tirones , bajan los fps constantemente a 0 por unos segundos y desaparecen texturas , esto lo se por una prueba que hice hace años con una GTX 780 de 6 GB en GTA V a 4k , además otro indicador de que eso se estaba produciendo por falta de vram fue el marcador de vram del propio juego que advertía de que no había suficiente de hecho al desactivar el MSAA que consume una burrada de vram o bajar la resolución a 3K volvían las texturas y desaparecían los tirones.
Un saludo.
Fair201 escribió:@Mtinmtz
Bueno yo digo más que nada con el follón que hubo en la serie RTX 3000 que las ASUS eras las únicas que tenían los chips correctos y tal... además de que las TUF y las STRIX creo que son las más fresquitas y silenciosas de esta generación
De todas maneras seguramente me acabaré pillando una eVGA ( que serán las primeras en salir stock ) ya que las ASUS veo muy difícil encontrar alguna

ionesteraX escribió:@Blackpo92 Es el benchmark del juego, no el juego en sí, si tú como desarrollador mientes diciendo que usara tanta vram tienes que inventarte un sitio donde si lo haga y el benchmark del juego es el ideal, así no te pueden acusar de mentiroso aunque lo seas
Las gráficas actuales se quedaran cortas de potencia antes que cortas de vram, cualquiera que ande en esto tiempo lo sabe, yo ando midiendo la vram de los juegos desde hace bastante y solo juegos que salen mal programados ( memory leaks, etc... ) te pueden llegar a sobrepasar esos 10gb, todo a 4K con los settings al maximo, dicho esto lo minimo que hubiera puesto yo en estas gráficas top hubiera sido 12gb.
Un apunte más, el wdlegion se ve de lujo y se puede jugar perfectamente, no hay problemas de vram pero si hay problemas de falta de potencia.
metalgear escribió:@Blackpo92 eso es, el extra de los rayitos abre mucho el grifo para chupar más vram. De todas formas nvidia nos la ha colado, desde luego que juegos pasados en 4K no darían problemas, en el futuro próximo con las consolas ya aqui, los juegos van a pedir más recursos y para 4K se va a quedar limitada. Para mi no seria problema porque no la voy a usar para 4K, quiero jugarlo para 1440p. Y con ello iria sobrado. Pero primero no existe stock y las que me interesan valen su precio megainflado. Lo único que queda es esperar a que salga AMD sus tarjetas, estabilice un poco el mercado, mejore stock por un lado y otro, estabilice precios y podamos elegir bien y de paso ver demonios que movimiento hará nvidia para competir frente a la competencia.
![facepalm [facepalm]](/images/smilies/facepalm.gif) 
  Blackpo92 escribió:metalgear escribió:@Blackpo92 eso es, el extra de los rayitos abre mucho el grifo para chupar más vram. De todas formas nvidia nos la ha colado, desde luego que juegos pasados en 4K no darían problemas, en el futuro próximo con las consolas ya aqui, los juegos van a pedir más recursos y para 4K se va a quedar limitada. Para mi no seria problema porque no la voy a usar para 4K, quiero jugarlo para 1440p. Y con ello iria sobrado. Pero primero no existe stock y las que me interesan valen su precio megainflado. Lo único que queda es esperar a que salga AMD sus tarjetas, estabilice un poco el mercado, mejore stock por un lado y otro, estabilice precios y podamos elegir bien y de paso ver demonios que movimiento hará nvidia para competir frente a la competencia.
Yo me pillé la 3070 para jugar a tope en 1440p y está por ver lo que me durará, sobre el papel para ésta resolución con 8 gb de vram no debería de quedarse corta a priori pronto, pero expectante estoy. Si se confirma lo peor tendré que venderla y pillarme un futuro modelo súper o ti o igual una AMD.
Saludos
Yan7 escribió:@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...
Elevation_ph escribió:Yan7 escribió:@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...
Llevo esperando la versión RTX 3080 TI, todavía no sabia nada de la fecha exacta.
La 3080 no me convencennlos 10 gigas de vram y la 3090 se va de precio
 y juego a 60fps sin problema.
 y juego a 60fps sin problema.Yan7 escribió:@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...
Miklan84 escribió:Yan7 escribió:@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...
La semana que viene esta ya obsoleta la grafica con 10gb de ram.
 .
. .
.Yan7 escribió:Sabéis si ASUS hace algo del tipo renove? Creo que EVGA si hace algo así en las 3080 por si saliera la 3080Ti. Es que vaya putada comernos los 10gb cuando en dos meses sacarán la de 20gb... Dan ganas de pillarse una 6800XT...
Bio81 escribió:kaneli escribió:Bio81 escribió:
nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda
pega algunos tirones ¿será tema de optimización o drivers?
Si que tiene sentido, es puro marketing, generas una necesidad en el comprador que puede no ser real.
Yo llevo 3 años con la 1080Ti con 11 gb de vram y en todo este tiempo ningún juego ha pasado de 4 o 5 gb de vram asignada. Me han sobrado 6 gb de vram todo este tiempo, pues ahora pasara lo mismo con las Ti. Creo que si no haces render en 2 años sigues teniendo tarjeta de sobra con la 3080.
a que resolución? por que a 4k hay juegos de la generación de ps4 y xbox one que consumen mas de 5 GB , la 3080 Ti al ser mas de el doble de potente que una 1080 Ti (en teoría tendría el rendimiento de una 3090) implica poder subir mas los gráficos a 4k para mantener 60 fps y eso da como resultado un mayor consumo de vram , con esto no quiero decir que todos los juegos que salgan en los próximos 2 años vayan a consumir mas de 10 GB a 4K pero si habrá varios juegos que consuman 11 GB , 12GB o 15GB
Un saludo.
![Adorando [tadoramo]](/images/smilies/adora.gif) 
  Yan7 escribió:@neox3 ostias. Me puedes explicar un poco? Es de ASUS la tuya no? O me hablas de la EVGA?
ionesteraX escribió:@Lemmiwinks La última versión beta ( no si estara ya sin ser beta ) del msi afterburner te da la memoria reservada y en uso de la gráfica.
hh1 escribió:Blackpo92 escribió:metalgear escribió:@Blackpo92 eso es, el extra de los rayitos abre mucho el grifo para chupar más vram. De todas formas nvidia nos la ha colado, desde luego que juegos pasados en 4K no darían problemas, en el futuro próximo con las consolas ya aqui, los juegos van a pedir más recursos y para 4K se va a quedar limitada. Para mi no seria problema porque no la voy a usar para 4K, quiero jugarlo para 1440p. Y con ello iria sobrado. Pero primero no existe stock y las que me interesan valen su precio megainflado. Lo único que queda es esperar a que salga AMD sus tarjetas, estabilice un poco el mercado, mejore stock por un lado y otro, estabilice precios y podamos elegir bien y de paso ver demonios que movimiento hará nvidia para competir frente a la competencia.
Yo me pillé la 3070 para jugar a tope en 1440p y está por ver lo que me durará, sobre el papel para ésta resolución con 8 gb de vram no debería de quedarse corta a priori pronto, pero expectante estoy. Si se confirma lo peor tendré que venderla y pillarme un futuro modelo súper o ti o igual una AMD.
Saludos
Yo he hecho lo mismo ,pero me da tiempo a ver cómo sale la 6800Xt y ya valorar si cancelarla o no.
Además, de que me ha salido la 3070 "tirada" por suerte por 429€.
Pero si la 6800XT sale como debe, cancelo igualmente.
Yo creo que para 1440p da para años a buenos FPS.Y si es con DLSS, ni te cuento.
A lo que no estaba dispuesto es a pagar +700€ pensando que lo mismo la Vram se queda corta.
@Yan7
Que sean 10GB es lo de menos.
Con 4Gb más hubiese sido suficiente.
La cuestión es que 10 seguramente se queden en algunas circunstancias ,justos.
Con 10Gb a 1440p ,te dura bastante más de 3 años.Otra cosa es el 4K.
Hasta ahora, ninguna gráfica ha durado más de unos 3 años con un buen 4K.Sale muy caro de mantener.
miliko_one escribió:Elevation_ph escribió:Yan7 escribió:@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...
Llevo esperando la versión RTX 3080 TI, todavía no sabia nada de la fecha exacta.
La 3080 no me convencennlos 10 gigas de vram y la 3090 se va de precio
Pues haces mal en mi opinon, los 10gb de vram son mas que suficientes actualmente y mas si no juegas en 4k, una cosa es la vram que lleve la vga y otra cosa es si se aprovecha, si el rdr2 con todo en ultra y en 2k no ocupa ni 6gb, el re3 en ultra y con escalado al 150% dice que ocupa 13gby juego a 60fps sin problema.
La 3080ti no bajará de 1100-1200€ seguramente y a ver con que stock, yo con la 3080 voy sobrado para 3-4 años mas.
Dark_Crystal escribió:hh1 escribió:Blackpo92 escribió:Yo me pillé la 3070 para jugar a tope en 1440p y está por ver lo que me durará, sobre el papel para ésta resolución con 8 gb de vram no debería de quedarse corta a priori pronto, pero expectante estoy. Si se confirma lo peor tendré que venderla y pillarme un futuro modelo súper o ti o igual una AMD.
Saludos
Yo he hecho lo mismo ,pero me da tiempo a ver cómo sale la 6800Xt y ya valorar si cancelarla o no.
Además, de que me ha salido la 3070 "tirada" por suerte por 429€.
Pero si la 6800XT sale como debe, cancelo igualmente.
Yo creo que para 1440p da para años a buenos FPS.Y si es con DLSS, ni te cuento.
A lo que no estaba dispuesto es a pagar +700€ pensando que lo mismo la Vram se queda corta.
@Yan7
Que sean 10GB es lo de menos.
Con 4Gb más hubiese sido suficiente.
La cuestión es que 10 seguramente se queden en algunas circunstancias ,justos.
Con 10Gb a 1440p ,te dura bastante más de 3 años.Otra cosa es el 4K.
Hasta ahora, ninguna gráfica ha durado más de unos 3 años con un buen 4K.Sale muy caro de mantener.
429 la 3070 donde?
Blackpo92 escribió:Bio81 escribió:Blackpo92 escribió:https://www.youtube.com/watch?v=lY9OSdebKcc&feature=youtu.be
Por aquí anda una 3090 también en el Godfall y chupa casi 12 gb de vram.
Aquí pasa algo y hasta que no salga oficialmente no creo que sepamos que es.
Saludos
mira el video que puse mas atrás de Godfall corriendo en la RTX 3080 , el rivatuner marca casi 9 GB y en los videos de la RTX 3090 marca mas de 10 GB , eso es por que en la tarjeta que tiene mas vram se reserva mas vram pero eso no quiere decir que el juego este consumiendo esa vram , en ambas tarjetas se consume la misma vram por que la configuración gráfica y la resolución es exactamente igual.
Los síntomas por falta de vram son que el juego empieza a pegar tirones , bajan los fps constantemente a 0 por unos segundos y desaparecen texturas , esto lo se por una prueba que hice hace años con una GTX 780 de 6 GB en GTA V a 4k , además otro indicador de que eso se estaba produciendo por falta de vram fue el marcador de vram del propio juego que advertía de que no había suficiente de hecho al desactivar el MSAA que consume una burrada de vram o bajar la resolución a 3K volvían las texturas y desaparecían los tirones.
Un saludo.
De todas formas, x lo que he visto en el vídeo en el que consume 7 gb no hay Raytracing, lo dice el autor del vídeo en los comentarios.
Saludos
![por aquí! [poraki]](/images/smilies/nuevos/dedos.gif) 
  Draifet escribió:@Bio81 vamos entonces es algo parecido a cómo funciona hoy día la memoria ram del sistema, cuanta más tienes, más se reserva, pero no quiere decir que sea imprescindible para funcionar bien, y si realmente te quedas sin ram es cuándo se queda la aplicación parada unos instantes con el relojito dando vueltas.
Yan7 escribió:@neox3 ostias. Me puedes explicar un poco? Es de ASUS la tuya no? O me hablas de la EVGA?
![carcajada [carcajad]](/images/smilies/nuevos/risa_ani2.gif) 
  ![más risas [+risas]](/images/smilies/nuevos/risa_ani3.gif) 
  Antoniopua escribió:
¿Con una 2060 Super? No han mentido en NADA. Con la que competían era con la 2080 TI... con esa es con la que se iguala![carcajada [carcajad]](/images/smilies/nuevos/risa_ani2.gif)
Pulet escribió:Antoniopua escribió:
¿Con una 2060 Super? No han mentido en NADA. Con la que competían era con la 2080 TI... con esa es con la que se iguala![carcajada [carcajad]](/images/smilies/nuevos/risa_ani2.gif)
Sasel dice que compite y supera a la rtx 3080 jajajajajajajajajaja
![carcajada [carcajad]](/images/smilies/nuevos/risa_ani2.gif) 
  ![más risas [+risas]](/images/smilies/nuevos/risa_ani3.gif) 
  Pulet escribió:Antoniopua escribió:
¿Con una 2060 Super? No han mentido en NADA. Con la que competían era con la 2080 TI... con esa es con la que se iguala![carcajada [carcajad]](/images/smilies/nuevos/risa_ani2.gif)
Sasel dice que compite y supera a la rtx 3080 jajajajajajajajajaja
![disimulando [fiu]](/images/smilies/fiu.gif) 
  Eilex_D escribió:Sasel me come los huevos
![brindis [beer]](/images/smilies/nuevos2/brindando.gif) 
   ![Que me parto! [qmparto]](/images/smilies/net_quemeparto.gif) 
  ![Que me parto! [qmparto]](/images/smilies/net_quemeparto.gif)