[HO] Radeon RX 6000 Family

erderbi escribió:Pues a instalar esta preciosidad [amor]
Imagen



Misaka esta contenta [beer]
Eexee escribió:@battman80
Nvidia lo ha hecho mal y AMD peor.

¿Estás buscando tu RTX 3000? NVIDIA se la ha vendido a los mineros
https://hardzone.es/noticias/tarjetas-g ... k-mineros/

¿Por qué peor? El lanzamiento ha sido igual de malo, pero al menos sus productos llegan a los jugadores, las consolas, los ryzen 5000 y las 6800. Esta vez los mineros se han ido xon nvidia y parece que esta se las ha vendido directamente.
valrond escribió:
Eexee escribió:@battman80
Nvidia lo ha hecho mal y AMD peor.

¿Estás buscando tu RTX 3000? NVIDIA se la ha vendido a los mineros
https://hardzone.es/noticias/tarjetas-g ... k-mineros/

¿Por qué peor? El lanzamiento ha sido igual de malo, pero al menos sus productos llegan a los jugadores, las consolas, los ryzen 5000 y las 6800. Esta vez los mineros se han ido xon nvidia y parece que esta se las ha vendido directamente.


¿A quién han llegado? Han tenido incluso menos unidades.
A dónde vayan sus chips me da igual. Si saben que hay lanzamientos de consolas y procesadores ¿para qué lo hacen coincidir con el de sus gráficas?
Una semana después encontramos modelos referencia 6800 XT por casi 200€ más.

Yo pude reservar hasta 3 rtx 3080 la semana siguiente a su lanzamiento por su precio recomendado.
Por ahora tengo 2 6800 xt canceladas por ruptura de stock y una con un precio 180€ por encima de su precio recomendado.

Mucho peor.
https://www.hardwaretimes.com/amd-big-n ... at-launch/
Gente como veis este resultado en el superposition? viendo en algunas reviews me parece bajo...
la 6800, con el power limit al maximo del 15% que deja, la frecuencia a 2500Mhz,(aunque luego en el test no pasa de 2455Mhz, no se si es normal tambien), y las memorias a 2150Mhz y el voltaje a 1005, que a menos se queda capada en 60W.
Imagen
erderbi escribió:Gente como veis este resultado en el superposition? viendo en algunas reviews me parece bajo...
la 6800, con el power limit al maximo del 15% que deja, la frecuencia a 2500Mhz,(aunque luego en el test no pasa de 2455Mhz, no se si es normal tambien), y las memorias a 2150Mhz y el voltaje a 1005, que a menos se queda capada en 60W.
Imagen



No se como andan estas gráficas pero te diría que te fijaras en la temperatura del hotspot.

Suele ser el hotspot el que determina la frecuencia de trabajo.

La única forma de bajar la temperatura sería bajar el voltage.

Por ejemplo mi vega 56 que está pasada por agua mejora más con undervolt que intentando oc.
Pues algun problema ahi, porque, ya antes sin haber tocado nada, aleatoriamente se bajaba el consumo a 55W por la cara, y hasta que no pasaba un rato o hacia alt+tab, no volvia a la normalidad, pero ahora con el oc me lo esta haciendo todo el rato y no entiendo el porque... temperaturas no son porque esta ok... He visto otro en reddit que le pasa algo similar...
@erderbi Hombre no sé, por regla general la 6800 normal da 8500 y a ti 8751, así que está bien, al menos las reviews que he visto.

Saludos.
Bueno pues yo sigo trasteando con la GPU, y a ver si alguien me puede aclarar cosas, decir que esta es mi primera GPU tocha, ya que antes siempre he tenido nvidia y en portatil, por lo que esto de hacerle oc se me va de las manos.

El caso, es que leyendo por reddit, y esta guia, he sacado un par de conclusiones.
Ahora mismo la tengo a 2460Mhz, que jugando anda sobre 25MHz menos, y las memos a 2150Mhz y el power limit al 15%. Lo que no entiendo muy bien es el voltaje, porque de normal anda a 1025, y si lo bajo, hasta que no llego a unos 920 no empieza a bajar realmente, cosa que no entiendo. Tampoco se cuales son los valores normales por los que deberian de andar. El caso es que con esto, he estado jugando unas partidas al cold ward, y no he tenido problemas, ni el problema de que me baja la frecuencia a unos 500Mhz y 55W.

Lo que ahora no entiendo, es que la 6800 cual es la frecuencia turbo maxima que se supone que pilla de fabrica ?
Estoy leyendo en todos los lados que maximo 2105Mhz, pero es que a mi, sin tocar nada me anda sobre los 2320Mhz, se supone que eso es normal o que esta pasando? Porque ahora puedo llegar a entender, el porque de que tambien se bajaba la frecuencia los 500Mhz y los 55W, quizas porque tenia mas boost del que podia ????

A ver si alguien me puede iluminar un poco :)
@erderbi Creo que es normal en AMD, que automaticamente si ve que la temperatura está bien pues te sube más el reloj de la GPU. Mi gráfica el máximo es 2250 y sin tocar nada se me va a los 2500, a veces, y se queda tan ancha. Lo de lo voltaje no sé como va, me pasa como a ti, en la Nvidia todo era más fácil.

Saludos.
AlterNathan escribió:@erderbi Creo que es normal en AMD, que automaticamente si ve que la temperatura está bien pues te sube más el reloj de la GPU. Mi gráfica el máximo es 2250 y sin tocar nada se me va a los 2500, a veces, y se queda tan ancha. Lo de lo voltaje no sé como va, me pasa como a ti, en la Nvidia todo era más fácil.

Saludos.

Tu cual grafica tienes? leyendo en reddit veo a mas gente igual con problemas en el voltaje.

por cierto el droppeo de frecuencias y consumo, por llamarlo de alguna forma, me ha vuelto a pasar... Espero que lo arreglen para el proximo driver, que tampoco soy al unico al que le pasa.
@erderbi La 6800xt y me pasa lo mismo con el voltaje que no va muy bien, al menos si lo intento bajar normalmente no baja o baja demasiado, es el único problema que me he encontrado. También me ocurre según el juego, en el GTA V me va bien y en otros no xD. Con el MSI Afterburner no puedo tocar nada y con otros programas no sé como utilizarlos, así que así se queda.

También me pasa que con los drivers de AMD, no me detecta a que velocidad va el reloj, me suele pasar cuando salgo de un juego.

Saludos.


17 reviewers y 16 con cpu Intel y sin rage boost, claro está. xD
Eexee escribió:


17 reviewers y 16 con cpu Intel y sin rage boost, claro está. xD


Y sin dlss ni rt, que si meten esas cositas en los analisis la 6800xt queda por debajo de la 2070s [qmparto]
Miklan84 escribió:
Eexee escribió:


17 reviewers y 16 con cpu Intel y sin rage boost, claro está. xD


Y sin dlss ni rt, que si meten esas cositas en los analisis la 6800xt queda por debajo de la 2070s [qmparto]


Está bien que alguien que se ha comprado una 3080 venga al hilo de RX 6000 a justificar su flamante adquisición.

La 5700XT al principio era más lenta que la 2070. Unos meses después estaba compitiendo con la 2070 Super. AMD necesita mejorar sus drivers y que su Super Resolution compita en calidad y rendimiento con el dlss de Nvidia.

Seguramente si tienes intención de jugar a 4k, la 3080 sea la opción adecuada (por el momento, debido a sus 10gb de VRam quizás tengas que cambiarla en 2021), pero en 2k la 6800 XT le pasa por encima en muchas de las pruebas.

Espero que tengas un monitor 4k120 para sacar pecho en tu casa xD
Que pesados jaja, yo quería una nvidia pero hay que reconocer que 720€ y 10 gb de vram es de cabrones, el dirt 4 ya consumes más de esos 10gb espera a los nuevos juegos, los que se compraron una 3080 en unos meses estarán cagandose en nvidia por sacar las ti con más ram y es normal q los juegos rindan más con raytracing en nvidia mas que nada porque los juegos usan la tecnología de nvidia, habría que esperar q los juegos usan la de amd para comprar digo yo no se y vuelvo a repetir yo quería una nvidia pero al final cayó una 6800.
erderbi escribió:Gente como veis este resultado en el superposition? viendo en algunas reviews me parece bajo...
la 6800, con el power limit al maximo del 15% que deja, la frecuencia a 2500Mhz,(aunque luego en el test no pasa de 2455Mhz, no se si es normal tambien), y las memorias a 2150Mhz y el voltaje a 1005, que a menos se queda capada en 60W.
Imagen

Parece que es lo que suelen dar.Lo extraño es que las 3070 con undervolt están sobre los 9000 en ese bench.
Asran escribió:Que pesados jaja, yo quería una nvidia pero hay que reconocer que 720€ y 10 gb de vram es de cabrones, el dirt 4 ya consumes más de esos 10gb espera a los nuevos juegos, los que se compraron una 3080 en unos meses estarán cagandose en nvidia por sacar las ti con más ram y es normal q los juegos rindan más con raytracing en nvidia mas que nada porque los juegos usan la tecnología de nvidia, habría que esperar q los juegos usan la de amd para comprar digo yo no se y vuelvo a repetir yo quería una nvidia pero al final cayó una 6800.



Casi tanto como los testigos de la Vram y esos famosos juegos que pedirán 20gb... dime tu a mi donde están, porque juego a rdr2 en 4k ultra y consume 7gb, y el valhalla 7.5gb si quieres te mando captura.

Ya te digo que esta generación se quedará antes corta de potencia bruta que de vram.
@Miklan84 Ya se ha dicho varias veces, con los juegos que han salido hasta ahora perfecto, el problema son los juegos dentro de un tiempo cuando pidan texturas mejores, RT y más cosas. RDR2 no significa nada.

De hecho también pasa al contrario, veremos el RT del futuro si AMD lo puede aguantar.

Saludos.
Asran escribió:Que pesados jaja, yo quería una nvidia pero hay que reconocer que 720€ y 10 gb de vram es de cabrones, el dirt 4 ya consumes más de esos 10gb espera a los nuevos juegos, los que se compraron una 3080 en unos meses estarán cagandose en nvidia por sacar las ti con más ram y es normal q los juegos rindan más con raytracing en nvidia mas que nada porque los juegos usan la tecnología de nvidia, habría que esperar q los juegos usan la de amd para comprar digo yo no se y vuelvo a repetir yo quería una nvidia pero al final cayó una 6800.

Los que compran con mucha prisa (respetable) padecen de al menos 3 cosas:

[*]Depuracion de los fallos de juventud (errorres, bugs...).
[*]Ver como sacan revisiones ,mas eficientes/potentes (super,ti muchiflops+).
[*]Ver como se desploman los precios... Aunque ahora nos encontremos en una burbuja donde la demanda supera la oferta por x motivos, esta llegara a reventar y los precios se estabilizarán/bajarán .

Nada que no sepamos , ley de vida de la tecnología [bye]
@Miklan84
Esos juegos que citas son la de generación pasada compañero, el dirt 4 ya consume más de 10, para ser exactos 10 y medio, godfall aunque sea una mierda de juego también. Que puedas jugar a los juegos que estaban echoos para ps4 Xbox no significa q los que van a salir van a consumir la misma vram, mas que nada porque las nuevas consolas que es por desgracia para las que se piensan los juegos tienen más de 10gb de vram amigo. Ya te digo no soy fan de ninguna casa yo quería una nvidia pero en unos meses sacaran las ti con más ram no lo digo yo lo dicen los expertos en el tema que nvidia hizo el rata con la vram.
dohc1v escribió:
Asran escribió:Que pesados jaja, yo quería una nvidia pero hay que reconocer que 720€ y 10 gb de vram es de cabrones, el dirt 4 ya consumes más de esos 10gb espera a los nuevos juegos, los que se compraron una 3080 en unos meses estarán cagandose en nvidia por sacar las ti con más ram y es normal q los juegos rindan más con raytracing en nvidia mas que nada porque los juegos usan la tecnología de nvidia, habría que esperar q los juegos usan la de amd para comprar digo yo no se y vuelvo a repetir yo quería una nvidia pero al final cayó una 6800.

Los que compran con mucha prisa (respetable) padecen de al menos 3 cosas:

[*]Depuracion de los fallos de juventud (errorres, bugs...).
[*]Ver como sacan revisiones ,mas eficientes/potentes (super,ti muchiflops+).
[*]Ver como se desploman los precios... Aunque ahora nos encontremos en una burbuja donde la demanda supera la oferta por x motivos, esta llegara a reventar y los precios se estabilizarán/bajarán .

Nada que no sepamos , ley de vida de la tecnología [bye]


Se llama coste de oportunidad.
La gente puede esperar ofertas, revisiones y bajadas de precio.
Pero ese tiempo de espera tiene un valor y la compra de ese bien "con prisa" como tú dices incluye el disfrute del bien días, semanas o meses antes que la persona que lo compra a posteriori más barato, revisado, etc.

Le cuesta más: Sí; se arriesga a fallos: Sí; disfruta del bien antes que el resto de consumidores/usuarios: Sí.
AlterNathan escribió:@Miklan84 Ya se ha dicho varias veces, con los juegos que han salido hasta ahora perfecto, el problema son los juegos dentro de un tiempo cuando pidan texturas mejores, RT y más cosas. RDR2 no significa nada.

De hecho también pasa al contrario, veremos el RT del futuro si AMD lo puede aguantar.

Saludos.

No entiendo demasiado, pero AMD es una gran compañia y tendrá gente experta, si tiene una gráfica con una potencia bruta superior a Nvidia, no sacará AMD programas que puedas ayudar a mover el ray tracing? O un DLSS particular... Lo del DLSS no está en todos los juegos, no? Solo en aquellos que paga Nvidia para que lo pongan?

De aquí a finales del año que viene que es cuando pienso comprar la gráfica ya veré que hago, pero mi objetivo es 2k ultra con ray tracing...
@Pepe_13
Se espera que mañana en el evento AMD se hable de FidelityFX y DirectML Super Resolution, la alternativa al DLSS de Nvidia.

AMD espera que las ensambladoras vendan los modelos de referencia por el precio recomendado en 4-8 semanas.
https://videocardz.com/newz/amd-expects ... to-8-weeks

(AMD ha perdido tanta credibilidad que ya nos podemos esperar cualquier cosa)
Asran escribió:@Miklan84
Esos juegos que citas son la de generación pasada compañero, el dirt 4 ya consume más de 10, para ser exactos 10 y medio, godfall aunque sea una mierda de juego también. Que puedas jugar a los juegos que estaban echoos para ps4 Xbox no significa q los que van a salir van a consumir la misma vram, mas que nada porque las nuevas consolas que es por desgracia para las que se piensan los juegos tienen más de 10gb de vram amigo. Ya te digo no soy fan de ninguna casa yo quería una nvidia pero en unos meses sacaran las ti con más ram no lo digo yo lo dicen los expertos en el tema que nvidia hizo el rata con la vram.


Pues a ver, dudo que NVIDIA esté tan equivocada cuando se esta comentando que las 3070ti va con 10gb de vram

Y no tengo el dirt5 ni el otro para probar pero en este video en 4k ultra no llega ni a 6gb

https://youtu.be/fASMJ7CGvck
@Miklan84 Pues no sé, la mayoria de gente piensa que 10 de VRAM es algo corta y algunas páginas aconsejan tener más de 8gb de VRAM para 4k, también veo que en el vídeo pone Optimized Settings, es decir no han puesto todo lo que da de sí el juego.

Supongo que también dependera del juego, un Dirt 5 no pedirá mucho pero un otro juego sí.

Saludos.
AlterNathan escribió:@Miklan84 Pues no sé, la mayoria de gente piensa que 10 de VRAM es algo corta y algunas páginas aconsejan tener más de 8gb de VRAM para 4k, también veo que en el vídeo pone Optimized Settings, es decir no han puesto todo lo que da de sí el juego.

Supongo que también dependera del juego, un Dirt 5 no pedirá mucho pero un otro juego sí.

Saludos.


Godfall 4k, la gpu exprimida al máximo, 99% y no llega a los 9gb de vram. Sigo pensando que se quedaran cortas de potencia antes que de vram. Y no digo que la 3080 sea más potente, que en unos juegos es mejor y en otros es mejor la 6800xt, pero elegir una u otra solo por la vram como factor determinante, en mi opinión, no es lo correcto.

https://youtu.be/jakaIBxVW74
Godfall no es un referente gráfico, es más bien mediocre, y estamos a principios de gen.
En apenas 10 días sale Cyberpunk. Veremos lo que consumen en un juego más potente, con ese ya nos podríamos hacer una idea de por donde irán las cosas. La Vram es el único factor por lo que me decantaría por una 6800XT, y un poquito el precio.
Es cuestión de opiniones, pero estoy bastante convencido de que nvidia se ha quedado corta de vram.

Ya estamos viendo juegos que están en el límite de vram, y todavía no están saliendo juegos nextgen.

Es obvio que puedes bajar la calidad de las texturas y listo, pero es que estas pagando por una gráfica top, y puede dar en algunos juegos peor rendimiento que las consolas.

La vram no mejora el rendimiento pero cuando falta tenemos microparones cuando no se excede mucho hasta desplomarse el rendimiento si se excede en exceso.

Si la vas a cambiar dentro de uno o dos años te dará igual, pero si tu idea es aguantarla para toda la generación de consolas es un problema.

Seguramente además las versiones ti vengan con 16 y 20gb de vram.

Y parece que las 6700 van a venir con 12gb.
Ojo con el tema de la vram que es mas complicado de lo que muchos creéis eh?
Si, la 6800xt tiene 16GB pero tiene un problema estructural y es su infinity cache.
Su rendimiento es mejor que el de las nvidia a 1080p y a 1440p porque según amd a esas resoluciones el 90% de las veces que la GPU necesita un asset lo tiene disponible en la cache, a 4k el volumen de los assets aumenta y el ratio de veces en que la gpu tiene lo que necesita en cache disminuye.
Eso quiere decir que cuando los juegos de nueva generación empezarán a hacer uso de mas de 10GB de vram el ratio de uso de la cache en las gpu navi se desplomará y con el se desplomará su rendimiento, ya que esos assets mucho mas grandes no cabrán en la cache y los sacara de la vram que es mucho mucho mas lenta.

Ahora mismo es toda una incógnita que graficas envejecerán mejor ya que hay demasiadas cosas que pueden pasar.
@Miklan84 Como me pasas un video de GodFall para decirme que no pasa de 9 de vram y me pasas el video del juego corriendo en una 3080.... claro que no va a pasar de 10 pero es porque no tiene..............
Dirt V 10480 Mb de Ram como he dicho esto acaba de empezar y ya hay juegos q usan toda la vram de la 3080.
https://youtu.be/BhtcT8ixpZg?t=1581
GodFall mas de 10 tambien por aqui
https://youtu.be/NhbbOp04Jds?t=376
Para dentro de un año cuando las compañías hagan uso de los 12 gb como minimo de Vram que tendrán las consolas next gen hablamos.
Pepe_13 escribió:
AlterNathan escribió:@Miklan84 Ya se ha dicho varias veces, con los juegos que han salido hasta ahora perfecto, el problema son los juegos dentro de un tiempo cuando pidan texturas mejores, RT y más cosas. RDR2 no significa nada.

De hecho también pasa al contrario, veremos el RT del futuro si AMD lo puede aguantar.

Saludos.

No entiendo demasiado, pero AMD es una gran compañia y tendrá gente experta, si tiene una gráfica con una potencia bruta superior a Nvidia, no sacará AMD programas que puedas ayudar a mover el ray tracing? O un DLSS particular... Lo del DLSS no está en todos los juegos, no? Solo en aquellos que paga Nvidia para que lo pongan?

De aquí a finales del año que viene que es cuando pienso comprar la gráfica ya veré que hago, pero mi objetivo es 2k ultra con ray tracing...


Sí, el DLSS está en muy pocos juegos, básicamente los juegos patrocinados por nVidia. Usar RT y DLSS que se usa en una cantidad ínfima de juegos no tiene mucho sentido.

Aquí una lista de la "amplia" cantidad de juegos con DLSS y RT:

https://www.rockpapershotgun.com/2020/1 ... /#comments

PD: Yo tengo una EVGA 3080 FTW3 Ultra.
adriano_99 escribió:Ojo con el tema de la vram que es mas complicado de lo que muchos creéis eh?
Si, la 6800xt tiene 16GB pero tiene un problema estructural y es su infinity cache.
Su rendimiento es mejor que el de las nvidia a 1080p y a 1440p porque según amd a esas resoluciones el 90% de las veces que la GPU necesita un asset lo tiene disponible en la cache, a 4k el volumen de los assets aumenta y el ratio de veces en que la gpu tiene lo que necesita en cache disminuye.
Eso quiere decir que cuando los juegos de nueva generación empezarán a hacer uso de mas de 10GB de vram el ratio de uso de la cache en las gpu navi se desplomará y con el se desplomará su rendimiento, ya que esos assets mucho mas grandes no cabrán en la cache y los sacara de la vram que es mucho mucho mas lenta.

Ahora mismo es toda una incógnita que graficas envejecerán mejor ya que hay demasiadas cosas que pueden pasar.


No te creas.

El ratio de acierto de la cache es directamente proporcional al tamaño de la misma, y no al tamaño de la vram.

Me explico, la cache funciona a nivel de pagina, el tamaño de la pagina puede ser variable y nose exactamente que numero maneja la grafica pero es relativa al tamaño de la cache, vram etc, digamos que es de 1mb.

Esto te daria 16k paginas en vram y 128 en cache no?

cada vez que se lee informacion se transfiere en tamaños de la pagina, se pide a la vez tanto a la cache como a la vram. Si esta en cache perfecto, se devuelve y tarda menos, si no esta, se coge la informacion de la vram y se copia en la cache.

Como te puedes imaginar, cualquier aplicacion que use más de 128mb de vram no cabe en la cache y ya tendriamos el baile de información.

La gracia de la cache es que aunque la informacion se pide a nivel de pagina se usa normalmente datos que estaran en tamaños de 32, 64 o 128 bits.

Por lo que si divides ese 1mb entre los 32 bits te da el numero de aciertos que vas a tener en cache - 1 (la primera vez que accedes a la pagina falla).

Es un poco complicado pero basicamente, no tiene que ver que uses 4gB de vram o 16, la cache va funcionar igual de bien o de mal.
PepeC12 escribió:
adriano_99 escribió:Ojo con el tema de la vram que es mas complicado de lo que muchos creéis eh?
Si, la 6800xt tiene 16GB pero tiene un problema estructural y es su infinity cache.
Su rendimiento es mejor que el de las nvidia a 1080p y a 1440p porque según amd a esas resoluciones el 90% de las veces que la GPU necesita un asset lo tiene disponible en la cache, a 4k el volumen de los assets aumenta y el ratio de veces en que la gpu tiene lo que necesita en cache disminuye.
Eso quiere decir que cuando los juegos de nueva generación empezarán a hacer uso de mas de 10GB de vram el ratio de uso de la cache en las gpu navi se desplomará y con el se desplomará su rendimiento, ya que esos assets mucho mas grandes no cabrán en la cache y los sacara de la vram que es mucho mucho mas lenta.

Ahora mismo es toda una incógnita que graficas envejecerán mejor ya que hay demasiadas cosas que pueden pasar.


No te creas.

El ratio de acierto de la cache es directamente proporcional al tamaño de la misma, y no al tamaño de la vram.

Me explico, la cache funciona a nivel de pagina, el tamaño de la pagina puede ser variable y nose exactamente que numero maneja la grafica pero es relativa al tamaño de la cache, vram etc, digamos que es de 1mb.

Esto te daria 16k paginas en vram y 128 en cache no?

cada vez que se lee informacion se transfiere en tamaños de la pagina, se pide a la vez tanto a la cache como a la vram. Si esta en cache perfecto, se devuelve y tarda menos, si no esta, se coge la informacion de la vram y se copia en la cache.

Como te puedes imaginar, cualquier aplicacion que use más de 128mb de vram no cabe en la cache y ya tendriamos el baile de información.

La gracia de la cache es que aunque la informacion se pide a nivel de pagina se usa normalmente datos que estaran en tamaños de 32, 64 o 128 bits.

Por lo que si divides ese 1mb entre los 32 bits te da el numero de aciertos que vas a tener en cache - 1 (la primera vez que accedes a la pagina falla).

Es un poco complicado pero basicamente, no tiene que ver que uses 4gB de vram o 16, la cache va funcionar igual de bien o de mal.

No he dicho en ningún momento momento que al tener mas vram el ratio de la caché baje sino que bajará cuando los assets que necesites sean mas grandes de lo que son ahora.
Por eso digo que cuando los juegos pidan mas memoria que los actuales la caché será menos efectiva.

Asran escribió:@Miklan84 Como me pasas un video de GodFall para decirme que no pasa de 9 de vram y me pasas el video del juego corriendo en una 3080.... claro que no va a pasar de 10 pero es porque no tiene..............
Dirt V 10480 Mb de Ram como he dicho esto acaba de empezar y ya hay juegos q usan toda la vram de la 3080.
https://youtu.be/BhtcT8ixpZg?t=1581
GodFall mas de 10 tambien por aqui
https://youtu.be/NhbbOp04Jds?t=376
Para dentro de un año cuando las compañías hagan uso de los 12 gb como minimo de Vram que tendrán las consolas next gen hablamos.


Esto se ha repetido ya mil veces, lo que estas viendo es la cantidad de vram reservada, los juegos reservan toda la memoria que encuentran pero eso no significa que la estén usando ni mucho menso que la necesiten.
Si puedes correr el juego en una grafica con 10GB sin microparones es que el juego no usa esos 10Gb, por mas que llegue a reservar usando otras tarjetas.
Luego entraría ancho de banda vs infinity cache, que ni idea de lo que es mejor.

Saludos.
Asran escribió:@Miklan84 Como me pasas un video de GodFall para decirme que no pasa de 9 de vram y me pasas el video del juego corriendo en una 3080.... claro que no va a pasar de 10 pero es porque no tiene..............
Dirt V 10480 Mb de Ram como he dicho esto acaba de empezar y ya hay juegos q usan toda la vram de la 3080.
https://youtu.be/BhtcT8ixpZg?t=1581
GodFall mas de 10 tambien por aqui
https://youtu.be/NhbbOp04Jgráficas
Para dentro de un año cuando las compañías hagan uso de los 12 gb como minimo de Vram que tendrán las consolas next gen hablamos.



Videos de alguien subvencionado por AMD que le regala las gráficas, no hay más ciego que quien no quiere ver, esta claro.

Te he mostrado 2 videos de los juegos que nombras a 4k y más de 60fps en ultra y ahora esos videos no valen.

No hay ningún juego que use toda la vram en las 3080, porque entonces habría videos de como se cae el rendimiento a 5-10 fps que es lo que pasaría si peta la vram.

Pero paso de perder más el tiempo contigo, es evidente que eres ingeniero y tú sabiduría esta desperdiciada y sin embargo los de NVIDIA no tienen ni puta idea de lo que hacen. Así de injusta es la vida, cuanto talento desperdiciado.
@Miklan84 Es que los tuyos no es que no valgan, es que al menos en el Dirt 5 parece que no utiliza la calidad máxima del juego. Yo también te puedo enseñar el Watchdogs 2 como me utiliza 10 gigas de VRAM a 1080p, así que imagina xD.

Y lo de subvencionado de AMD, no sé también podemos decir lo contrarios con los vídeos que has mostrado.

Saludos.
Asran escribió:@Miklan84 Como me pasas un video de GodFall para decirme que no pasa de 9 de vram y me pasas el video del juego corriendo en una 3080.... claro que no va a pasar de 10 pero es porque no tiene..............

Entonces ¿Si lo prueban en una gráfica con más VRAM de verdad necesita usar más o los asigna porque los tiene a la mano?
¿Acaso el juego sufre tirones por falta de VRAM en la RTX 3080 porque solo tiene 10GB?
Es que hay que diferenciar asignar porque está disponible de necesitar de verdad.
Miklan84 escribió:
Asran escribió:@Miklan84 Como me pasas un video de GodFall para decirme que no pasa de 9 de vram y me pasas el video del juego corriendo en una 3080.... claro que no va a pasar de 10 pero es porque no tiene..............
Dirt V 10480 Mb de Ram como he dicho esto acaba de empezar y ya hay juegos q usan toda la vram de la 3080.
https://youtu.be/BhtcT8ixpZg?t=1581
GodFall mas de 10 tambien por aqui
https://youtu.be/NhbbOp04Jgráficas
Para dentro de un año cuando las compañías hagan uso de los 12 gb como minimo de Vram que tendrán las consolas next gen hablamos.



Videos de alguien subvencionado por AMD que le regala las gráficas, no hay más ciego que quien no quiere ver, esta claro.

Te he mostrado 2 videos de los juegos que nombras a 4k y más de 60fps en ultra y ahora esos videos no valen.

No hay ningún juego que use toda la vram en las 3080, porque entonces habría videos de como se cae el rendimiento a 5-10 fps que es lo que pasaría si peta la vram.

Pero paso de perder más el tiempo contigo, es evidente que eres ingeniero y tú sabiduría esta desperdiciada y sin embargo los de NVIDIA no tienen ni puta idea de lo que hacen. Así de injusta es la vida, cuanto talento desperdiciado.


Se te va la pinza no es que los tuyos no valgan pero de nada me sirve que me pases un video para decirme que esa grafica no pasa de 10 Gb cuando su maximo son 10 Gb.
AlterNathan escribió:@Miklan84 Es que los tuyos no es que no valgan, es que al menos en el Dirt 5 parece que no utiliza la calidad máxima del juego. Yo también te puedo enseñar el Watchdogs 2 como me utiliza 10 gigas de VRAM a 1080p, así que imagina xD.

Y lo de subvencionado de AMD, no sé también podemos decir lo contrarios con los vídeos que has mostrado.

Saludos.


Claro porque el video mostrado del dirt 5 a 6gb de vram, en 4k y todo al máximo o casi, le cambias de alta a muy alta y la vram se dispara a de 6gb de uso a 16gb, como he podido fallar así y no darme cuenta? [toctoc]

Claro claro, se me va la pinza, me nombras 2 juegos, te los pongo en la 3080 a 4k ultra y ahora esos no valen. Pues dime que juego hace que la 3080 pete de vram, con caídas de fps a 5-10 y te doy la razon
AlterNathan escribió:@Miklan84 Es que los tuyos no es que no valgan, es que al menos en el Dirt 5 parece que no utiliza la calidad máxima del juego. Yo también te puedo enseñar el Watchdogs 2 como me utiliza 10 gigas de VRAM a 1080p, así que imagina xD.

Y lo de subvencionado de AMD, no sé también podemos decir lo contrarios con los vídeos que has mostrado.

Saludos.


Por favor esto se ha explicado mil millones de veces, NINGUN juego usa 10Gb de vram ni a 4k, NINGUNO, ya ni hablemos a 1080p....
Lo que estás leyendo es la cantidad de vram reservada.
Dejad de hacer llorar al niño jesus:
Imagen
@Miklan84 No, no he dicho eso, he dicho que no está al máximo, a lo mejor lo pones al máximo y se te queda como está.

@adriano_99 Si claro es asignar, ahora es asignar pero vamos yo asigno 10 gb de VRAM por qué, ni se sabe. Tengas o no razón habrá que esperar a ver.

Y ojo que aún no estoy seguro de si hice la elección correcta a elegir una AMD porque era Nvidia mi preferida pero es que todo el mundo, o casi, menciona que esos 10 gb pueden causarles problemas a Nvidia en un futuro.

Saludos.
Este chaval es un fan de Nvidia, pero yo no soy fan de ninguna ya que vengo de una 2060 y queria una 3080 pero venir a decir que nvidia no se ha quedado corta de Vram..... hasta las 1080 ti tenian mas.
Asran escribió:Este chaval es un fan de Nvidia, pero yo no soy fan de ninguna ya que vengo de una 2060 y queria una 3080 pero venir a decir que nvidia no se ha quedado corta de Vram..... hasta las 1080 ti tenian mas.


Gracias por lo de chaval, hacia décadas que nadie me lo decía.

No soy fan de nadie, de hecho sopese comprar la 6800xt. Y diras tu que los 11gb de vram de la 1080ti han sido necesarios, claro que si jaja
valrond escribió:
Pepe_13 escribió:
AlterNathan escribió:@Miklan84 Ya se ha dicho varias veces, con los juegos que han salido hasta ahora perfecto, el problema son los juegos dentro de un tiempo cuando pidan texturas mejores, RT y más cosas. RDR2 no significa nada.

De hecho también pasa al contrario, veremos el RT del futuro si AMD lo puede aguantar.

Saludos.

No entiendo demasiado, pero AMD es una gran compañia y tendrá gente experta, si tiene una gráfica con una potencia bruta superior a Nvidia, no sacará AMD programas que puedas ayudar a mover el ray tracing? O un DLSS particular... Lo del DLSS no está en todos los juegos, no? Solo en aquellos que paga Nvidia para que lo pongan?

De aquí a finales del año que viene que es cuando pienso comprar la gráfica ya veré que hago, pero mi objetivo es 2k ultra con ray tracing...


Sí, el DLSS está en muy pocos juegos, básicamente los juegos patrocinados por nVidia. Usar RT y DLSS que se usa en una cantidad ínfima de juegos no tiene mucho sentido.

Aquí una lista de la "amplia" cantidad de juegos con DLSS y RT:

https://www.rockpapershotgun.com/2020/1 ... /#comments

PD: Yo tengo una EVGA 3080 FTW3 Ultra.

En Crysis Remaster sí usé RT pero no vi la opción DLSS por ningún lado.
El Avengers que ahí no sale,tiene DLSS.Lo que no tiene es RT.

Esa lista me da que no está bien...

@Pepe_13
Sí,AMD tiene a expertos y seguro que sacan sus cosas.
Pero olvidas que no es cuestión de que saquen algo que vaya a bien,es que tienen que sacar algo que COMPITA con Nvidia.
Y Nvidia lleva con el RT algún año de ventaja.
Iguala eso no es fácil porque Nvidia,igual que AMD también tienes expertos,pero van con ventaja.
Miklan84 escribió:
Asran escribió:Este chaval es un fan de Nvidia, pero yo no soy fan de ninguna ya que vengo de una 2060 y queria una 3080 pero venir a decir que nvidia no se ha quedado corta de Vram..... hasta las 1080 ti tenian mas.


Gracias por lo de chaval, hacia décadas que nadie me lo decía.

No soy fan de nadie, de hecho sopese comprar la 6800xt. Y diras tu que los 11gb de vram de la 1080ti han sido necesarios, claro que si jaja


Nunca fueron necesarios, pero ahora si lo serán, te vuelvo a repetir las consolas next gen tienen mínimo 12, que no te extrañe que en menos de un año empieces a ver juegos que usen minimo 12 de vram.

PD: yo tambien queria una nvidia pero... se fueron de listos he hicieron el rata, ahora en unos meses nuevas serie 3000 con minimo 12 de vram y si no me lo recuerdas.
@Asran Pues mira en eso no estoy tan de acuerdo. Las consolas tienen 16 gddr6 aunque según cual tienen un ancho de banda distinto, pero dudo que se utilice 12 solo para el vídeo, y luego solo 4 para el sistema, me extrañaría muchísimo.

Saludos.
AlterNathan escribió:@Asran Pues mira en eso no estoy tan de acuerdo. Las consolas tienen 16 gddr6 aunque según cual tienen un ancho de banda distinto, pero dudo que se utilice 12 solo para el vídeo, y luego solo 4 para el sistema, me extrañaría muchísimo.

Saludos.


El sistema operativo de una consola no es windows. De esa memoria unificada de 16 Gb como mucho usaran 3 o 4 para todo el sistema el resto iran para video 4K texturas etc.
Asran escribió:
Miklan84 escribió:
Asran escribió:Este chaval es un fan de Nvidia, pero yo no soy fan de ninguna ya que vengo de una 2060 y queria una 3080 pero venir a decir que nvidia no se ha quedado corta de Vram..... hasta las 1080 ti tenian mas.


Gracias por lo de chaval, hacia décadas que nadie me lo decía.

No soy fan de nadie, de hecho sopese comprar la 6800xt. Y diras tu que los 11gb de vram de la 1080ti han sido necesarios, claro que si jaja


Nunca fueron necesarios, pero ahora si lo serán, te vuelvo a repetir las consolas next gen tienen mínimo 12, que no te extrañe que en menos de un año empieces a ver juegos que usen minimo 12 de vram.

PD: yo tambien queria una nvidia pero... se fueron de listos he hicieron el rata, ahora en unos meses nuevas serie 3000 con minimo 12 de vram y si no me lo recuerdas.



Y por eso ahora nvidia va a sacar la 3070ti a 10gb de vram, porque siempre se ha dicho que el ser humano es el único animal que tropieza dos veces en la misma piedra. No se como no has enviado tus conocimientos a nvidia... porque es evidente que les falta tu clarividencia para ver el futuro, y ya si te pones y me dices los números del euromillon del próximo sorteo, lo petas.
8701 respuestas