Son los 6gb de la 2060 una broma?

Al margen del raytracing y dlss que no usa ni Dios, es una buena gráfica para 2k en ultra 60fps, pero los 6gb de VRAM tiene pinta que va a provocar que envejezca mal y la límite. Viendo como Odyssey ya se come los 6 GB de VRAM en ultra a 2k... Para un usuario que no va a cambiar en muchos años de gráfica es mejor irse a una Vega 56 o 2070 haciendo el juego a Nvidia? Por los 8gb? O simplemente resignarse a bajar algo para no superar los 6gb en juegos futuros?

Bastante bien va la vega 56 para barajar la como opción no?
No es una broma, lo hacen muy en serio.
En tu caso lo mejor, como ya dijiste, es mejor irse a una Vega 56 o 2070 haciendo el juego a Nvidia por los 8 GB.
O mejor aun, esperar a Navi para no hacerle el juego a Nvidia y esperar que pongan más VRAM que Nvidia.
Primero de todo...los drivers de las RTX no estan maduros tienen margen de mejora y añado...tienes razon...la RTX 2060 tiene poca ram para el tarjeton que es...politicas de nvidia para que pagues mas y te compres una RTX 2070-8GB.
@XYOS6 y cuando estaran maduros los drivers?? Ya hace un tiempecito que salio el bicho
Ñomo escribió:Pelín tarde éste hallazgo, ¿no?


Es porqué estoy aconsejando a un amigo que quiere jugar a 2k 60fps, y al ver benchmarks lo he flipado que muchos ya se comen los 6gb XD Nvidia pensando en los usuarios...
pues cuando vea el final fantasy 15 o el rise of the tomb raider vas a flipar con el uso de vrm.

(como 6gb se queda corto se llega hasta más 18gb en uso de Windows y el juego en ram por falta de vrm.

ahora bien, no hace falta poner todo el ultra.
@Uchi23a Joder que barbaridad pero tiene más pinta a mala optimización no? Por cierto eso que comentas de como no tiene suficiente VRam tira de RAM lo hacen todos los juegos? Que diferencia hay en el rendimiento con vram holgada o llena pero con ram de sobra? Un par de tirones cuando recargue mapa o como?
La verdad que para lo que cuesta la 2060 ya podría tener 8gb de vram. [fumando]
@DAVIDSM4K

Pues el final fantasy 15 es una programación penosa que empieza bien pero no va borrando, como no suelo hacer viajes rápidos está tara sale a relucir antes de tiempo.

(Y jugando en 1080p sin llegar a ultra ni sombra en full y tampoco son vxao (oclusión ambiental

En el caso del tomb raider usa tanta vrm como se disponga para ya tenerlo cargado pero eh llegado a ver una titán Pascal con 9 de 12gb de vrm en uso en 2k a full.


Supongo que ya habrán mejorado esto... Pero en su momento Hera muy sangrante verlo.

https://t.co/9qI2CSKrvz
[Versión caribe actualizada

Otro caso es el último call off duty con 9gb vrm pero creo que ya lo han arreglado.
Experiencia propia con una 1060 6GB:

Hasta la fecha no he tenido problemas con 6GB de RAM y de hecho ni poniendo 4K Ultra en los juegos que puedo no he tenido problemas, de hecho lo máximo que he visto es cerca de 4GB de uso de VRAM. El Dying Light por ejemplo se traga casi 4GB de VRAM en 1080P Ultra y supera los 6GB en 4K y sin embargo no me ha supuesto un problema meterle el juego en 4K ULTRA en la 1060 superando esos 6GB y usando compartida y no he visto un impacto negativo en el framerate pero si en los tiempos de carga (a un frame rate bajo claro, es un juego muy mal pario). No es un buen ejemplo ya que es un juego que carga por bloques las zonas así que tarda un rato en cargar las zonas si vas un poco rápido con el gancho pero apenas son unos pocos segundos y si encima usas RAM DDR4 pues no se nota mucho ese tiempo comparado a una DDR3 que es lo que uso yo.

O el Monster Hunter World con el pack de texturas HD pide 8GB de VRAM y sin embargo no he tenido problemas con la 1060 y sus 6GB. Incluso he visto gente meterle el pack HD en uno 960 de 2GB.

Yo no lo veo mal 6GB.
Hardware Unboxed tienen un buen vídeo que trata este tema


La conclusión es que actualmente, los 6GB que tiene son suficientes incluso para 4K, parecen pocos pero entre las optimizaciones que ha hecho Nvidia con Turing en la compresión de memoria, y que los juegos que tienden a consumir mucha VRAM no lo hacen por un uso estrictamente necesario, si no mas bién por un uso de "comodidad", no hay ningún problema hoy ni en un futuro cercano.

Como bien dice nadie tenemos una bola de cristal para saber cuando esos 6GB se quedarán cortos, pero probablemente cuando éstos ya no sean suficientes en hipotéticamente 3 años, seguramente la gráfica ya no tenga la potencia suficiente para correr los juegos en Ultra a 1440p. Ponen como ejemplo la Fury X de 4GB con RE2:Remake al máximo y 1440p que sufre por falta de memoria. Pero al ajustar los settings de texturas un paso por debajo, el sufrimiento desaparece y sin apenas cambio visual, la gráfica rinde de manera óptima, obteniendo unos mínimos un 100% mejores, y un average un 75% mejor, sólo por bajar un peldaño un par de ajustes.

Conclusión final: Los 6GB de la 2060 no son un problema hoy ni dentro de 2 ó 3 años, y cuiando quizás lo empiecen a ser, irá de la mano que su potencia gráfica tampoco será suficiente para jugar en Ultra 1440p, por lo que no parece que esté desbalanceada en este sentido.
El eterno debate de siempre, también decían lo mismo en su dia de la gtx 660ti/770 de 2gb vs amd 7950/70 y estas ultimas han envejecido mucho mejor, amd siempre ha sido generosa en el tema de vram, mientras Nvidia siempre a racaneado y ha vendido los modelos con mas vram como una exclusividad que había que pagar, la historia se volverá repetir y esos 6gb de vram tarde o temprano serán insuficientes, ese es uno de los motivos por el cual no recomiendo la 2060, mismamente el Re 2 remake los 6gb de quedan cortos.
@garbaje_de_potanzos Te equivocas bastante, 6GB de Vram hoy en dia se quedan cortos en muchos juegos incluso en 1080P, en 1440P ya ni hablemos... te cito unos cuantos que se me vienen a la mente: FH4, Final Fantasy XV, Resident Evil 2 Remake, Watch Dogs 2, y largo etc que me parece innecesario seguir.

Otra cosa es que uno quiera engañarse a si mismo.

https://www.youtube.com/watch?v=NW0TStn2O6o

https://www.youtube.com/watch?v=e_qkN68Rs38

https://www.youtube.com/watch?v=RaM3UU6uFfY
@BrianBarba Vale, en el video de Hardware Unboxed ponen el RE2:Remake a 4k en ultra y la 2060 ni se despeina ni sufre por falta de VRAM, pero como para decirme que me equivoco ni te molestas en leer información aportada, pues allá tú.

Hay una diferencia grande entre la localización de memoria necesaria, y la que se hace por comodidad, que ya lo he puesto en mi post. Black ops IV por ejemplo, ponle una 1080 Ti y te va a consumir 10GB de VRAM, pero si le pones una 2060 te consumirá los 6GB y no se va a despeinar por ello, pero veo que no entiendes la diferencia. Así que nada, un número del afterburner en un juego con una gráfica de 8GB es la verdad verdadera y yo estoy equivocado porque la 2060 6GB sufre por ello... Estoy por bajarme esos juegos, ponerlos a ese nivel de detalle y demostrarte que no va a sufrir ningún tirón por VRAM, pero entonces me saltarás con otra cosa y para eso me ahorro el tiempo.


Black ops se lleva 10GB Vram en 1080p en una 1080 Ti
Imagen

Entonces la según tu lógica la 2060 6GB se caga y no puede no??

No baja en ningún momento de 80fps dando unos 100fps de media... Que dices ante esto?

Otro regalito, 2060 6GB vs 1070 Ti 8GB en 4K Ultra, la peor situación posible.

Que casualidad que FH4, Watch Dogs 2, los dos Tomb Raiders, Far Cry 5 y ese largo etc que comentas que consumen mas de 6GB dan un mejor average y mínimos en la 2060 no?? Que ocurre?? El único que va peor es AC:Odyssey por un par de frames, y no no es por VRAM porque los mínimos serían mucho mas bajos, achaquemóslo mas bien al ancho de banda de 192bits, que no están hechos para 4K Ultra en todas las situaciones.

Y porsupuesto le daré mas credibilidad a alguien que se dedica a analizar hardware cada día y me ofrece pruebas de rendimiento y de VRAM que algún random de un foro que me pone 3 vídeos sin demostrar nada sobre la RTX 2060, así que no, no me engaño a mi mismo, de hecho me informo mejor ;)
KraistGp escribió:@XYOS6 y cuando estaran maduros los drivers?? Ya hace un tiempecito que salio el bicho


La RTX 2060 salio a la venta en Enero de este mismo año (hace 6 meses), es una grafica joven, tiene margen de mejora.
https://www.techpowerup.com/gpu-specs/g ... 2060.c3310

La Vega 56 con la cual se la esta comparando salio a la venta en agosto del 2017 AMD ha tenido 2 años para pulir los drivers de las Vega.
https://www.techpowerup.com/gpu-specs/r ... a-56.c2993
apalizadorx escribió:El eterno debate de siempre, también decían lo mismo en su dia de la gtx 660ti/770 de 2gb vs amd 7950/70 y estas ultimas han envejecido mucho mejor, amd siempre ha sido generosa en el tema de vram, mientras Nvidia siempre a racaneado y ha vendido los modelos con mas vram como una exclusividad que había que pagar, la historia se volverá repetir y esos 6gb de vram tarde o temprano serán insuficientes, ese es uno de los motivos por el cual no recomiendo la 2060, mismamente el Re 2 remake los 6gb de quedan cortos.


Yo en 2K a full llegó fácilmente a 7 gb largos con la 2080 y va en ese juego al 99-100%.
XYOS6 escribió:
KraistGp escribió:@XYOS6 y cuando estaran maduros los drivers?? Ya hace un tiempecito que salio el bicho


La RTX 2060 salio a la venta en Enero de este mismo año (hace 6 meses), es una grafica joven, tiene margen de mejora.
https://www.techpowerup.com/gpu-specs/g ... 2060.c3310

La Vega 56 con la cual se la esta comparando salio a la venta en agosto del 2017 AMD ha tenido 2 años para pulir los drivers de las Vega.
https://www.techpowerup.com/gpu-specs/r ... a-56.c2993


Cuando salga navi hacemos comparaciones, que son de la misma quinta.
Tranquilos, que ya están a punto de sacar un refrito de las 2060,2070 y 2080. Simplemente hay que volver a rascarse el bolsillo.
XYOS6 escribió:Primero de todo...los drivers de las RTX no estan maduros tienen margen de mejora y añado...tienes razon...la RTX 2060 tiene poca ram para el tarjeton que es...politicas de nvidia para que pagues mas y te compres una RTX 2070-8GB.

Pero nvidia no era la que lanzaba los drivers muy pulidos nada mas sacar sus tarjetas??
Y AMD la peste que eso si poquito a poco te iba dejando siempre crema crema las graficas antiguas?

Desde la ignorancia eh
@Penetration Yo diría que ahora mismo es al revés, AMD creo que hace muy buen trabajo con los drivers en los últimos años, mientras Nvidia... como usuario suyo en los últimos años he tenido algunas pegas. Aunque también hay que reconocer que las RTX rinden mejor que cuando salieron, sobretodo bajo Dx12 y Vulkan
Necrofero escribió:Cuando salga navi hacemos comparaciones, que son de la misma quinta.


AMD actualmente no puede competir en potencia bruta con las mejores GPU de Nvidia ese es uno de los motivos por el cual las graficas de Nvidia son tan caras...hace falta mas competencia en el mercado de GPUs o los consumidores nos toca pagar de mas.
@garbaje_de_potanzos La semana pasada actualice de 417 a 430, he perdido unos frames en los juegos y así ha sido cada vez que he actualizado, AMD no se queda corto, también reduce rendimiento pero no es tan bestia como Nvidia. Por el contrario en la serie 10 el rendimiento en Vulkan ha bajado muchísimo respecto a cuando compre la 1060 en su momento.

@XYOS6 AMD presento dos nuevas gráficas Radeon Pro Vega II y la misma pero versión Duo. Compitiendo ambas contra los buques de Nvidia. Ya veremos como salen aunque son 550W de consumo la duo. De aquí a que salgan las NAVI pasara tiempo ya que tengo entendido que por problemas se han atrasado a 2020.
Salen el mes que viene.
Un mercado sin apenas competencia,es un pozo sin fondo para los consumidores. [decaio]
Tanto intel como Nvidia son los reyes del mambo,hacen y deshacen a su antojo,refritos de procesadores y gráficas a mansalva,no se calientan la cabeza en ofrecer algo exclusivo,para que,si no lo necesitan mientras vendan dichos refritos.En lo personal me repugna el marketing abusivo. [uzi]
josep345 escribió:Un mercado sin apenas competencia,es un pozo sin fondo para los consumidores. [decaio]
Tanto intel como Nvidia son los reyes del mambo,hacen y deshacen a su antojo,refritos de procesadores y gráficas a mansalva,no se calientan la cabeza en ofrecer algo exclusivo,para que,si no lo necesitan mientras vendan dichos refritos.En lo personal me repugna el marketing abusivo. [uzi]


La verdad esque a mi me gustaría que hubieran mas competidores en escena, como en su día estaban ATi, Nvidia, 3dfx, S3, Matrox... había competencia constante en diferentes rangos de precios y prestaciones. A día de hoy solo tenemos AMD vs Nvidia que si alguno de los dos se descuelga por un tiempo la otra se acomoda y empieza a sacar refritos e inflar precios a a mansalva y al final los perjudicados somos nosotros.

Lo mismo pasa en el campo de las CPU con AMD e intel... cuanto tiempo lleva intel con la misma arquitectura, 10 años ya? En cuanto AMD se tropezó con los FX. Y con los Ryzen de 1ª y 2ª generación que aunque mucho mejores, no forzaron a intel mas que añadir algún nucleo más y ale, a seguir vendiendo la misma arquitectura... pa que desarrollar nada nuevo [buuuaaaa]
25 respuestas