[Hilo oficial] Radeon RX 5000 Family

Gwyn escribió:
hh1 escribió:Pues si esto es cierto:

https://www.noticias3d.com/noticia.asp?idnoticia=81874

Mal va AMD.
Hay que cogerlo con pinzas
Pero si sacas una 6900XT de rendimiento entre una 3070 y una 3080,no puede valer 599$.
Se tendría que quedar en unos 525$ máximo a mi parecer.


A ver qué tal la 6800XT.

Si rinde parecido a la 3070 y cuesta 399€, puede ser un caramelito.

Según ese rumor es imposible.
Tiene la mitad de núcleos que la 6900xt y esa estaría entre medio de la 3070 y la 3080.
Es imposible que con la mitad de núcleos rinda como la 3070.


Si esto se confirma (espero que no) la única navi decente sería la que equivale a una 5700xt por 250 euros, el resto desastres.
adriano_99 escribió:
Gwyn escribió:
hh1 escribió:Pues si esto es cierto:

https://www.noticias3d.com/noticia.asp?idnoticia=81874

Mal va AMD.
Hay que cogerlo con pinzas
Pero si sacas una 6900XT de rendimiento entre una 3070 y una 3080,no puede valer 599$.
Se tendría que quedar en unos 525$ máximo a mi parecer.


A ver qué tal la 6800XT.

Si rinde parecido a la 3070 y cuesta 399€, puede ser un caramelito.

Según ese rumor es imposible.
Tiene la mitad de núcleos que la 6900xt y esa estaría entre medio de la 3070 y la 3080.
Es imposible que con la mitad de núcleos rinda como la 3070.


Si esto se confirma (espero que no) la única navi decente sería la que equivale a una 5700xt por 250 euros, el resto desastres.


Ese rumor no pone ni fuente, le doy poca credibilidad.

¿La 6800XT tiene la mitad de CUs que la 6900XT?

No creo, más bien las 6900 y 6800 saldrán del mismo silicio Navi 21 y 6700 para abajo de Navi 22.

La 6900 rondará los 80 CUs, pongamos 76 por temas de fiabilidad. Y la 6800 ponle unos 64 o por ahí
adriano_99 escribió:
Gwyn escribió:
hh1 escribió:Pues si esto es cierto:

https://www.noticias3d.com/noticia.asp?idnoticia=81874

Mal va AMD.
Hay que cogerlo con pinzas
Pero si sacas una 6900XT de rendimiento entre una 3070 y una 3080,no puede valer 599$.
Se tendría que quedar en unos 525$ máximo a mi parecer.


A ver qué tal la 6800XT.

Si rinde parecido a la 3070 y cuesta 399€, puede ser un caramelito.

Según ese rumor es imposible.
Tiene la mitad de núcleos que la 6900xt y esa estaría entre medio de la 3070 y la 3080.
Es imposible que con la mitad de núcleos rinda como la 3070.


Si esto se confirma (espero que no) la única navi decente sería la que equivale a una 5700xt por 250 euros, el resto desastres.


Estamos buenos entonces xD

No me había parado a mirar lo de las CU, la verdad.

Los precios me habían embobado [+risas]

Ojalá sean algo mejores de lo que pone ahí, la verdad.

Planeo cambiar mi [R5 2600 + RX580] por [R5 5600 + 6800/6900XT]
hh1 escribió:Pues si esto es cierto:

https://www.noticias3d.com/noticia.asp?idnoticia=81874

Mal va AMD.
Hay que cogerlo con pinzas
Pero si sacas una 6900XT de rendimiento entre una 3070 y una 3080,no puede valer 599$.
Se tendría que quedar en unos 525$ máximo a mi parecer.


Yo lo llevo diciendo un tiempo, si AMD quiere ganarse mercado, o lanza algo con el mismo rendimiento que su contrapartida de nVidia con un 15% menos de precio (como mínimo) o no hay tu tia. Una 6900XT con un rendimiento entre una 3070 y una 3080 por 600€, yo por lo menos no me la compro, mas que nada porque primero, esta tarjeta la podian haber sacado hace un año (porque es una navi 10 con RT), segundo porque carece tanto de algo como DLSS (y que no va a tener ni siquiera algo parecido a medio plazo) como de una implementación de RT que sea comparable a la serie 2000 de nVidia, y tercero y último porque muy probablemente se vea plagada de los mismos problemas que se vieron cuando salieron las 5700XT, que tardaron meses en atajar. Así que mas les vale a AMD que se pongan las pilas.
PepeC12 escribió:@hh1 hay que esperar

A las malas 100€ menos con 16gb de vram y un rendimiento entre la 3070 y 3080 no está tan mal (sobre todo si el tgp está en 250w).

Hay rumores de todo tipo, incluso alguno decía que superaría a la 3090 (cosa que dudó).

Los consumos que se rumorea son interesantes, significaría que no han tenido que forzar los chips para competir con NVidia.

En mi caso la gama que más me interesaría es la de la 3070 vs 6800.

Hasta el día 28 no sabremos nada

Claro,hablamos solo de rumores.
Yo es que ya puesto en esos preciso,me quedaba hasta antes una 3080 o 3070 que una 6900xt.
Habría que saber cuánto por encima está de la 3070.
Pero Nvidia on su DLSS y que seamos honestos,da más seguridad en soporte,a mí me convence más.
Por eso digo que de ser cierto,AMD tiene que bajar algo el precio par que la gente se vaya a ella antes que a Nvidia.
Lo primero que quiero decir es que el DLSS ni siquiera es algo masificado, lo hemos visto en títulos contados esta gen, como para considerarlo algo decisivo o determinante, en caso de que esta gen siga igual y sólo aparezca en los pocos títulos patrocinados por Nvidia (que es lo que suele pasar con tecnología cerrada y privativa). Segundo, que nadie sabe qué añadidos van a traer estas Navi, ni sabemos lo que rinden en Ray Tracing, pero algunos ya dais por seguro que rinde menos que Turing. Yo he visto a la PS5 mostrar cosas mejores que lo que hemos visto con las 2000 (Ratchet and Clank).

Red Gaming Tech, por ejemplo, que fue el primero en filtrar la Radeon VII en su momento, habla de que sus fuentes le dicen que la Navi21 está cerca de la 3090 en rasterización y que en RT es superior a Turing pero no a Ampere (que tampoco es que sea una mejora increíble en ese aspecto). Otros (Coreteks) hablan de que apenas iguala a la 2080Ti en rasterización.

Vamos a tomarnos las cosas con perspectiva y sentido común, hasta ahora todo son especulaciones, y nadie sabe lo que van a rendir realmente estas Navi :o
Pacorrr escribió:Lo primero que quiero decir es que el DLSS ni siquiera es algo masificado, lo hemos visto en títulos contados esta gen, como para considerarlo algo decisivo o determinante, en caso de que esta gen siga igual y sólo aparezca en los pocos títulos patrocinados por Nvidia (que es lo que suele pasar con tecnología cerrada y privativa). Segundo, que nadie sabe qué añadidos van a traer estas Navi, ni sabemos lo que rinden en Ray Tracing, pero algunos ya dais por seguro que rinde menos que Turing. Yo he visto a la PS5 mostrar cosas mejores que lo que hemos visto con las 2000 (Ratchet and Clank).

Red Gaming Tech, por ejemplo, que fue el primero en filtrar la Radeon VII en su momento, habla de que sus fuentes le dicen que la Navi21 está cerca de la 3090 en rasterización y que en RT es superior a Turing pero no a Ampere (que tampoco es que sea una mejora increíble en ese aspecto). Otros (Coreteks) hablan de que apenas iguala a la 2080Ti en rasterización.

Vamos a tomarnos las cosas con perspectiva y sentido común, hasta ahora todo son especulaciones, y nadie sabe lo que van a rendir realmente estas Navi :o

Estarás de coña con lo de ratchet and clanck, verdad?

Lo que tiene el dlss es que marca tantísimo la diferencia que aunque llegue a pocos títulos con que quieras jugar a dos de ellos en esos dos el equivalente a Nvidia barre a la AMD.
Cyberpunk es uno de los juegos más esperados del año y seguramente una 3070 pase por encima de forma descarada de la 6900xt por el dlss 2.0.
adriano_99 escribió:
Pacorrr escribió:Lo primero que quiero decir es que el DLSS ni siquiera es algo masificado, lo hemos visto en títulos contados esta gen, como para considerarlo algo decisivo o determinante, en caso de que esta gen siga igual y sólo aparezca en los pocos títulos patrocinados por Nvidia (que es lo que suele pasar con tecnología cerrada y privativa). Segundo, que nadie sabe qué añadidos van a traer estas Navi, ni sabemos lo que rinden en Ray Tracing, pero algunos ya dais por seguro que rinde menos que Turing. Yo he visto a la PS5 mostrar cosas mejores que lo que hemos visto con las 2000 (Ratchet and Clank).

Red Gaming Tech, por ejemplo, que fue el primero en filtrar la Radeon VII en su momento, habla de que sus fuentes le dicen que la Navi21 está cerca de la 3090 en rasterización y que en RT es superior a Turing pero no a Ampere (que tampoco es que sea una mejora increíble en ese aspecto). Otros (Coreteks) hablan de que apenas iguala a la 2080Ti en rasterización.

Vamos a tomarnos las cosas con perspectiva y sentido común, hasta ahora todo son especulaciones, y nadie sabe lo que van a rendir realmente estas Navi :o

Estarás de coña con lo de ratchet and clanck, verdad?

Lo que tiene el dlss es que marca tantísimo la diferencia que aunque llegue a pocos títulos con que quieras jugar a dos de ellos en esos dos el equivalente a Nvidia barre a la AMD.
Cyberpunk es uno de los juegos más esperados del año y seguramente una 3070 pase por encima de forma descarada de la 6900xt por el dlss 2.0.

Por supuesto que no estoy de coña, tiene reflejos y sombras en RT y en el último gameplay iba a 4K y 30 fps, a ver qué juego puntero ha salido con esos dos efectos a la vez y que corriera a esa resolución y fps en la gen de las RTX 2000 (tengo una 2080 y no he visto nada similar).

https://www.thesixthaxis.com/2020/06/11 ... station-5/

Y lo del DLSS está muy bien como añadido pero no como algo que decante una compra, al menos en mi opinión si siguen implementándolo en algunos juegos patrocinados nada más.
Pacorrr escribió:
adriano_99 escribió:
Pacorrr escribió:Lo primero que quiero decir es que el DLSS ni siquiera es algo masificado, lo hemos visto en títulos contados esta gen, como para considerarlo algo decisivo o determinante, en caso de que esta gen siga igual y sólo aparezca en los pocos títulos patrocinados por Nvidia (que es lo que suele pasar con tecnología cerrada y privativa). Segundo, que nadie sabe qué añadidos van a traer estas Navi, ni sabemos lo que rinden en Ray Tracing, pero algunos ya dais por seguro que rinde menos que Turing. Yo he visto a la PS5 mostrar cosas mejores que lo que hemos visto con las 2000 (Ratchet and Clank).

Red Gaming Tech, por ejemplo, que fue el primero en filtrar la Radeon VII en su momento, habla de que sus fuentes le dicen que la Navi21 está cerca de la 3090 en rasterización y que en RT es superior a Turing pero no a Ampere (que tampoco es que sea una mejora increíble en ese aspecto). Otros (Coreteks) hablan de que apenas iguala a la 2080Ti en rasterización.

Vamos a tomarnos las cosas con perspectiva y sentido común, hasta ahora todo son especulaciones, y nadie sabe lo que van a rendir realmente estas Navi :o

Estarás de coña con lo de ratchet and clanck, verdad?

Lo que tiene el dlss es que marca tantísimo la diferencia que aunque llegue a pocos títulos con que quieras jugar a dos de ellos en esos dos el equivalente a Nvidia barre a la AMD.
Cyberpunk es uno de los juegos más esperados del año y seguramente una 3070 pase por encima de forma descarada de la 6900xt por el dlss 2.0.

Por supuesto que no estoy de coña, tiene reflejos y sombras en RT y en el último gameplay iba a 4K y 30 fps (ahora hablan de 4K 60 veremos), a ver qué juego puntero ha salido con esos dos efectos a la vez y que corriera a esa resolución y fps en la gen de las RTX 2000 (tengo una 2080 y no he visto nada similar).

https://www.thesixthaxis.com/2020/06/11 ... station-5/

Control y metro exodus le pasan la mano por la cara facilmente en los efectos del RT, pero de lejos.
adriano_99 escribió:
Pacorrr escribió:Por supuesto que no estoy de coña, tiene reflejos y sombras en RT y en el último gameplay iba a 4K y 30 fps (ahora hablan de 4K 60 veremos), a ver qué juego puntero ha salido con esos dos efectos a la vez y que corriera a esa resolución y fps en la gen de las RTX 2000 (tengo una 2080 y no he visto nada similar).

https://www.thesixthaxis.com/2020/06/11 ... station-5/

Control y metro exodus le pasan la mano por la cara facilmente en los efectos del RT, pero de lejos.


Tengo ambos juegos, la iluminación global en Metro, a parte de que chupa una barbaridad y se caen los fps hasta a 1440p, sólo funciona al aire libre, está desactivada en sitios cerrados que usa screen-space ambient occlusion. Sólo pudieron añadir GI en interiores en un DLC https://www.eurogamer.net/articles/digi ... -emissives

Y esto ya va a gustos, pero a mí no me pareció más impresionante que el Ratchet & Clank. El Control es el que mejor implementado lo tiene pero estamos en las mismas, con una tarjeta equivalente a la PS5 ni de broma sacas 4K@30 fps. Y eso que es un juego pasillero.

Creo que infravaloras mucho lo mostrado por PS5, que se ve realmente bien y tienen una gpu nivel 5700XT-2070S, así que eso de que pasa la mano por la cara a lo que se ha visto en Rachet & Clank, cuanto menos me parece osado.
Pacorrr escribió:
adriano_99 escribió:
Pacorrr escribió:Por supuesto que no estoy de coña, tiene reflejos y sombras en RT y en el último gameplay iba a 4K y 30 fps (ahora hablan de 4K 60 veremos), a ver qué juego puntero ha salido con esos dos efectos a la vez y que corriera a esa resolución y fps en la gen de las RTX 2000 (tengo una 2080 y no he visto nada similar).

https://www.thesixthaxis.com/2020/06/11 ... station-5/

Control y metro exodus le pasan la mano por la cara facilmente en los efectos del RT, pero de lejos.


Tengo ambos juegos, la iluminación global en Metro, a parte de que chupa una barbaridad y se caen los fps hasta a 1440p, sólo funciona al aire libre, está desactivada en sitios cerrados que usa screen-space ambient occlusion. Sólo pudieron añadir GI en interiores en un DLC https://www.eurogamer.net/articles/digi ... -emissives

Y esto ya va a gustos, pero a mí no me pareció más impresionante que el Ratchet & Clank. El Control es el que mejor implementado lo tiene pero estamos en las mismas, con una tarjeta equivalente a la PS5 ni de broma sacas 4K@30 fps. Y eso que es un juego pasillero.

Creo que infravaloras mucho lo mostrado por PS5, que se ve realmente bien y tienen una gpu nivel 5700XT-2070S, así que eso de que pasa la mano por la cara a lo que se ha visto en Rachet & Clank, cuanto menos me parece osado.

Estas haciendo la misma trampa que hace mucha gente que es exigirle ultra a la versión de pc y compararlo con el rendimiento del ratchet que ni tiene la misma cantidad de efectos ni la misma cantidad de rayos usados o resolución de Ray tracing que esos juegos en ultra.
Así que repito, no, ratchet and clanck no es ni de lejos lo mejor que se ha visto en Ray tracing.
adriano_99 escribió:
Pacorrr escribió:
Tengo ambos juegos, la iluminación global en Metro, a parte de que chupa una barbaridad y se caen los fps hasta a 1440p, sólo funciona al aire libre, está desactivada en sitios cerrados que usa screen-space ambient occlusion. Sólo pudieron añadir GI en interiores en un DLC https://www.eurogamer.net/articles/digi ... -emissives

Y esto ya va a gustos, pero a mí no me pareció más impresionante que el Ratchet & Clank. El Control es el que mejor implementado lo tiene pero estamos en las mismas, con una tarjeta equivalente a la PS5 ni de broma sacas 4K@30 fps. Y eso que es un juego pasillero.

Creo que infravaloras mucho lo mostrado por PS5, que se ve realmente bien y tienen una gpu nivel 5700XT-2070S, así que eso de que pasa la mano por la cara a lo que se ha visto en Rachet & Clank, cuanto menos me parece osado.

Estas haciendo la misma trampa que hace mucha gente que es exigirle ultra a la versión de pc y compararlo con el rendimiento del ratchet que ni tiene la misma cantidad de efectos ni la misma cantidad de rayos usados o resolución de Ray tracing que esos juegos en ultra.
Así que repito, no, ratchet and clanck no es ni de lejos lo mejor que se ha visto en Ray tracing.


Ultra? Ni con RT en medio da para 1440p@60 en esos juegos que has citado (en mi 2080 con OC a tope) [+risas]

No hace falta menospreciar a las consolas porque nosotros prefiramos el pc, se puede ser un poco objetivo también.
Pacorrr escribió:
adriano_99 escribió:
Pacorrr escribió:
Tengo ambos juegos, la iluminación global en Metro, a parte de que chupa una barbaridad y se caen los fps hasta a 1440p, sólo funciona al aire libre, está desactivada en sitios cerrados que usa screen-space ambient occlusion. Sólo pudieron añadir GI en interiores en un DLC https://www.eurogamer.net/articles/digi ... -emissives

Y esto ya va a gustos, pero a mí no me pareció más impresionante que el Ratchet & Clank. El Control es el que mejor implementado lo tiene pero estamos en las mismas, con una tarjeta equivalente a la PS5 ni de broma sacas 4K@30 fps. Y eso que es un juego pasillero.

Creo que infravaloras mucho lo mostrado por PS5, que se ve realmente bien y tienen una gpu nivel 5700XT-2070S, así que eso de que pasa la mano por la cara a lo que se ha visto en Rachet & Clank, cuanto menos me parece osado.

Estas haciendo la misma trampa que hace mucha gente que es exigirle ultra a la versión de pc y compararlo con el rendimiento del ratchet que ni tiene la misma cantidad de efectos ni la misma cantidad de rayos usados o resolución de Ray tracing que esos juegos en ultra.
Así que repito, no, ratchet and clanck no es ni de lejos lo mejor que se ha visto en Ray tracing.


Ultra? Ni con RT en medio da para 1440p@60 en esos juegos que has citado (en mi 2080 con OC a tope) [+risas]

No hace falta menospreciar a las consolas porque nosotros prefiramos el pc, se puede ser un poco objetivo también.

https://www.youtube.com/watch?v=WQjbeTlkN1w

Con todo en ultra lo máximo que baja es a 46 fps y solo durante una pelea contra un boss, el resto del tiempo de 55 para arriba.

En fin, no merece la pena la pena seguir con alguien que claramente se está autoengañando.
Pero chiquillo, no ves que está usando el DLSS? Qué sentido tiene meter el DLSS si estamos hablando de potencia pura en RT de las tarjetas? Te puedo grabar un vídeo ahora mismo con todo a tope y RT en medio (que sólo activa los reflejos) a 1440p, y hay bajadas a 40

Lo que está claro es que a algunos se os ha metido la idea de que las consolas no llegan ni a una 2060 y nada os va a hacer cambiar de opinión.
Pacorrr escribió: Yo he visto a la PS5 mostrar cosas mejores que lo que hemos visto con las 2000 (Ratchet and Clank).


Dios lo que hay que leer... [facepalm] [facepalm]

A ver, no digo que no haya que tener hype, que entiendo que AMD lleva ya mucho tiempo a la cola y que va siendo hora de que se marque un Ryzen con nVidia (lo podían haber hecho pero con creces, pero han decidido dar gato por liebre), pero una cosa es eso y otra ir hasta los extremos.
PilaDePetaca escribió:
Pacorrr escribió: Yo he visto a la PS5 mostrar cosas mejores que lo que hemos visto con las 2000 (Ratchet and Clank).


Dios lo que hay que leer... [facepalm] [facepalm]

A ver, no digo que no haya que tener hype, que entiendo que AMD lleva ya mucho tiempo a la cola y que va siendo hora de que se marque un Ryzen con nVidia (lo podían haber hecho pero con creces, pero han decidido dar gato por liebre), pero una cosa es eso y otra ir hasta los extremos.


Pues así tal como lo lees, lo que he visto en el gameplay de Ratchet & Clank, visualmente, me parece mejor que lo que he podido jugar con mi 2080 esta gen, que ni de broma aguanta 4K y 30fps en juegos punteros con RT, cuando ya le cuesta los 1440p y 60 fps (2160p es más del doble de píxels que 1440p).

Yo no estoy hypeando nada, hablo de lo que veo, simple y llanamente. Yo en todo momento he dicho que hay que esperar a ver qué es lo que tiene AMD, ni he dicho que será una mierda ni he dicho que vaya a ser la repera. Puedo intuir cosas al igual que hacéis vosotros nada más. Pero el gameplay del Ratchet está ahí y sí se puede valorar y a mí modesto modo de ver me parece casi una peli de Pixar.
Meter DLSS en la ecuación es injusto.

Es una tecnología propietaria presente en MUY pocos juegos.
Gwyn escribió:Meter DLSS en la ecuación es injusto.

Es una tecnología propietaria presente en MUY pocos juegos.


no es injusto cuando el DLSS 3.0 que va salir en breve para las nuevas ampere y anteriores, funcionara en cualquier juego que tenga TAA, de los cuales, practicamente todos los nuevos juegos AAA que están saliendo ya lo implementan, por lo que AMD debe ponerse las pilas con ese tema
neox3 escribió:
Gwyn escribió:Meter DLSS en la ecuación es injusto.

Es una tecnología propietaria presente en MUY pocos juegos.


no es injusto cuando el DLSS 3.0 que va salir en breve para las nuevas ampere, funcionara en cualquier juego que tenga TAA, de los cuales, practicamente todos los nuevos juegos AAA que están saliendo ya lo implementan, por lo que AMD debe ponerse las pilas con ese tema


Ya veremos si eso no es humo.

De momento tenemos lo que tenemos.
Gwyn escribió:
neox3 escribió:
Gwyn escribió:Meter DLSS en la ecuación es injusto.

Es una tecnología propietaria presente en MUY pocos juegos.


no es injusto cuando el DLSS 3.0 que va salir en breve para las nuevas ampere, funcionara en cualquier juego que tenga TAA, de los cuales, practicamente todos los nuevos juegos AAA que están saliendo ya lo implementan, por lo que AMD debe ponerse las pilas con ese tema


Ya veremos si eso no es humo.

De momento tenemos lo que tenemos.

El que soltó eso fue el de Moore's Law is Dead. No ha acertado casi nada de las predicciones y filtraciones que soltó [+risas]

Y tiene pinta de que lo mismo le va a pasar con lo que va filtrando de las Navi.

Se ha filtrado el die de Navi21, ~536 mm2

Espero que con 80cu y 2200MHz compita directamente con la 3090 y así ambos tengan que bajar precios.
Quark escribió:Espero que con 80cu y 2200MHz compita directamente con la 3090 y así ambos tengan que bajar precios.


Mira que ante el desastre de salida de ampere he decidido esperar a amd y lo mas seguro que me pille lo mas gordo que saquen, pero creo firmemente que daremos gracias si da competido con la 3080, porque todo apunta a que va ser mas con la 3070 y posiblemente NVIDIA se estan guaedando el as en la manga de que anuncie tb una 3070ti, con mas ram, al dia siguiente de la presentacion de amd,, o porque están muy seguros que su 3070 está al mismo nivel que lo más gordo de AMD y de aí el retraso de la salida de la 3070 del 15 al 29 de octubre... Tiempo al tiempo... Esta gente no da puntada sin hilo

Ojala me equivoque, pero amd siempre ha estado por detras de nvidia en la gama alta, y no creo que esta vez vaya ser diferente básicamente porque no han tenido tiempo, al estar tan centrados en la producción de los chips cpu y gpu para las nuevas consolas
Lo que esta claro es que o compiten en precio o en potencia, y si en potencia no pueden, esos precios que se barajan en los leaks.....uf.....

Pero vaya que son solo rumores. Que mes mas duro nos queda por delante jajajajaja

Yo estoy deseando que le den un buen bofeton a nvidia, que ya llevan varias generaciones dominando, y que casualidad desde que lo hacen, las gráficas van siendo cada vez mas caras.

Ya el hecho de que moderaran el precio de las 30xx, y esten retrasando la salida de la 3070 da que pensar que como poco, cautela les tienen.
Gwyn escribió:@pacorrr @papatuelo



Pues si lo dice Katcorgy me fío más de él, Coreteks viene diciendo desde hace tiempo que N21 sólo es un poco más rápida que la 2080Ti [+risas]
@Pacorrr

Solo por numeros:

la 5700xt es parecida a una 2070

la 5700xt tiene 1605-1900mhz y 2560 shaders RDNA1 225 W
La 6900xt supuestamente tienen +2ghz y 5120 shaders RDNA2 ??? W


Yo creo que son esos datos deberia estar entre un 40%-50% mas que la 5700xt. Igual se acerca mucho a la 3080.

Pero vamos, mejor no hacerse esperanzas y ver realmente donde llegan.

Lo mejor que nos puede pasar a todos es que los precios de ambas marcas se ajusten.
Muy mal se tendría que dar para que la 6900XT no rondase el rendimiento de la 3080, que tampoco se destaca tanto de las 2080Ti.
PepeC12 escribió:@Pacorrr

Solo por numeros:

la 5700xt es parecida a una 2070

la 5700xt tiene 1605-1900mhz y 2560 shaders RDNA1 225 W
La 6900xt supuestamente tienen +2ghz y 5120 shaders RDNA2 ??? W


Yo creo que son esos datos deberia estar entre un 40%-50% mas que la 5700xt. Igual se acerca mucho a la 3080.

Pero vamos, mejor no hacerse esperanzas y ver realmente donde llegan.

Lo mejor que nos puede pasar a todos es que los precios de ambas marcas se ajusten.

Creo que te refieres a que sería un 90-100% más, si fuera un 40-50% más sería nivel 2080Ti. Ya veremos qué sucede, AMD está muy callada y controlando muy bien los leaks :o
Superar a NVIDIA no creo que suceda, pero a mi personalmente me vale con que este practicamente al nivel de la 3080, no a todo el mundo le interesa tecnologias propietarias y windows...
Probotector escribió:Superar a NVIDIA no creo que suceda, pero a mi personalmente me vale con que este practicamente al nivel de la 3080, no a todo el mundo le interesa tecnologias propietarias y windows...


Si sacan una equivalente a la 3070 que ronde los 425 lo revientan.

En la gama alta ya no se, pero en donde nvidia hace dinero, si salen buenas, les pueden hacer muuuuucha pupa, y mas con el lanzamiento de mierda que ha tenido nvidia y que no tiene visos de verse una solución inmediata.
Yo pienso que tecnicamente si se centran solo en rasterización, deberian ser capaces de superar a Nvidia.

Luego el Raytraicing y DLSS es otra cosa.
Da la casualidad y mira que hay juegos, que todos mis juegos y venideros (salvo Cyberpunk 2077) ninguno lleva RT :p , ¿DLSS? si lo llevaran el 100% de los juegos no lo dudaría e iría a por una 3080, pero como no es ni será el caso de que lo lleven el 100%, y solamente por lo visto juegos anunciados por Nvidia, pues espero que saquen buenas gpu y pueda optar por una de ellas.

Haciendo una porra de pitonisa, me gustaría que fuese algo así, equiparables a sus versiones 06/70/80/90 de envidia pero de fuerza bruta, nada de tecnologías propietarias.
AMD Radeon RX 6700 350€
AMD Radeon RX 6700 XT 419€
AMD Radeon RX 6800 XT 549
AMD Radeon RX 6900 XT 849€

Y el ombligo del mundo en tecnologías de gpu los tiene Nvidia, AMD usa otras distintas que funcionan de maravilla hilo_ho-amd-software-radeon_1368627 , y seguro que estarán mejoradas con la serie 6000

Aunque por experiencia me espero una media de 10%/15% menos de rendimiento en cada versión, pero si cumplen con el precio, es una candidata perfecta.
Miguemi escribió:
Probotector escribió:Superar a NVIDIA no creo que suceda, pero a mi personalmente me vale con que este practicamente al nivel de la 3080, no a todo el mundo le interesa tecnologias propietarias y windows...


Si sacan una equivalente a la 3070 que ronde los 425 lo revientan.

En la gama alta ya no se, pero en donde nvidia hace dinero, si salen buenas, les pueden hacer muuuuucha pupa, y mas con el lanzamiento de mierda que ha tenido nvidia y que no tiene visos de verse una solución inmediata.


Ojalá.

Yo también creo que el grueso de ventas está en los ≤400€
si quiere competir fes cuestieon de ofrecer algo igual a mejor precio sin problemas de drivers pero ya sabemos que se sube a la parra con los precios y no con la calidad precisamente.siempre detras con la calidad
Un negocio tiene éxito por alguna/s de las siguientes razones:

- Ofrece algo mejor
- Ofrece algo igual, más barato.
- Ofrece algo distinto.
Bueno, hasta que no salgan no sabremos nada.

Pero vamos, quieras comprar una AMD o no es evidente que cuando se anuncien se moverá el mercado. Para que nvidia tenga que sacar todas las suyas o rebajar algo el precio, que es algo que nos beneficia a todos. Eso sin contar con las consolas, que igual le hace mover fichas de nuevo a nvidia.

La putada que aún queda mucho, si anuncian el 28 igual hasta un mes después no salen, pero al menos ya sabremos lo que viene.

Y el DLSS es una pasada, eso no hay que discutirlo, pero no entiendo por qué no está en la gran mayoría de juegos, es rendimiento extra "gratis", pero debe haber algo más que no sabemos y por eso no se implementa tanto. O no quieren porque con las consolas no sirve o no ven tanta mejora como vemos nosotros comparado con el trabajo que supone,etc...
@eric_14 para implementarlo en un juego, los desarrolladores tienen que pagar un royalty a Nvidia CREO, y por eso no está en todos
El día 28 lo veremos, pero los rumores indican que va a sorprender.
gwallace escribió:@eric_14 para implementarlo en un juego, los desarrolladores tienen que pagar un royalty a Nvidia CREO, y por eso no está en todos


Pues vaya tela... si es así no sé cómo piensan inpulsar su dlss entonces para que sea algo claramente ventajoso.
eric_14 escribió:
gwallace escribió:@eric_14 para implementarlo en un juego, los desarrolladores tienen que pagar un royalty a Nvidia CREO, y por eso no está en todos


Pues vaya tela... si es así no sé cómo piensan inpulsar su dlss entonces para que sea algo claramente ventajoso.


No estoy muy al día de como funciona ahora mismo, pero inicialmente tenías que tener el juego corriendo a 10K para que un supercomputador (o varios o algo así) fueran aprendiendo. Después con esa información generaban archivos que eran los que hacían funcionar el dlss x eso los juegos iban mejorando en su implementación después de su salida.

Es decir, no era algo gratuito que implementabas y a correr, necesitaba ser una implementación exclusiva para cada juego y basada en horas de ejecución del juego.

En cuando a RDNA2 se puede decir que ya esta confirmado algo similar (no creo que sea una implementación exclusiva de la maquina de microsoft):

Imagen
Nose internamente como funciona el DLSS pero os puedo contar como funciona a grandes rasgos el deep learning.

La idea es con una imagen de menor resoulucion generar una de mayor resolucion.

Esto se consigue con una red de neuronas entrenadas, metes tu imagen en baja resolucion y te la transforma en alta resolucion.

Cual es el problema, que hay que entrenar las redes de neuronas, para ello necesitas mogollon de imagenes en baja resolucion y su correspondiente en alta resolucion, de esta forma la red de neuronas magicamente se va configurando y empieza a reconocer patrones de la imagen de baja resolucion en la imagen de alta resolucion.

Tecnicamente no tendria que ser necesario entrenar la red por cada juego, puedes tener modelos entrenados que te sirvan.

Hay cosas muy chulas hechas con esta tecnica.
Me esta fallando la bola de cristal y por eso vengo aquí, para preguntar a los que tenéis más experiencia, ¿desde que anuncian las gráficas (amd) hasta que se pueden comprar pasa mucho tiempo? llevo sin grafica un mes y no es por jugar, es por ansia de tener gráfica nueva y poder viciar en condiciones a cyberpunk y esas cosillas.

Gracias.
@PepeC12

No lo he probado; pero si la imagen se ve lavabada o borrosa por ese postprocesado de imagen, para mi carece de utilidad por que a mi me gusta jugar con la imagen limpia sin filtros y nitida a resolucion nativa de pantalla.

Vamos, que a mi lo que me importa es la potencia bruta y la calidad de imagen, no tecnologias supuestamente revolucionarias que luego quedan en el olvido (Mantle y SLI) por ejemplo...
V de viciado escribió:Me esta fallando la bola de cristal y por eso vengo aquí, para preguntar a los que tenéis más experiencia, ¿desde que anuncian las gráficas (amd) hasta que se pueden comprar pasa mucho tiempo? llevo sin grafica un mes y no es por jugar, es por ansia de tener gráfica nueva y poder viciar en condiciones a cyberpunk y esas cosillas.

Gracias.


dijeron que estarian a la venta a partir del 15 de noviembre...

como pase lo mismo con las ampere con el stock (esperemos que no) me veo sin grafica nueva hasta 2021
neox3 escribió:
Quark escribió:Espero que con 80cu y 2200MHz compita directamente con la 3090 y así ambos tengan que bajar precios.


Mira que ante el desastre de salida de ampere he decidido esperar a amd y lo mas seguro que me pille lo mas gordo que saquen, pero creo firmemente que daremos gracias si da competido con la 3080, porque todo apunta a que va ser mas con la 3070 y posiblemente NVIDIA se estan guaedando el as en la manga de que anuncie tb una 3070ti, con mas ram, al dia siguiente de la presentacion de amd,, o porque están muy seguros que su 3070 está al mismo nivel que lo más gordo de AMD y de aí el retraso de la salida de la 3070 del 15 al 29 de octubre... Tiempo al tiempo... Esta gente no da puntada sin hilo

Ojala me equivoque, pero amd siempre ha estado por detras de nvidia en la gama alta, y no creo que esta vez vaya ser diferente básicamente porque no han tenido tiempo, al estar tan centrados en la producción de los chips cpu y gpu para las nuevas consolas

Pues yo creo que ese retraso de la 3070 es por falta de stock en el lanzamiento.
Han visto que se están llevando ostias como panes por lo de las 3080,y ahora ven que de la 3070 van a vender aún más y no tienen.
Yo no veo más que eso.

Nvidia en cuanto a potencia está muy tranquila.
Encima con una posible 3070Ti en la recámara a parte de la 3080 20gb super.

@neox3
Pero tan mal vas para jugar?
Es que algunos lo decís cómo si fuésemos con la integrada... [carcajad]
hh1 escribió:
neox3 escribió:
Quark escribió:Espero que con 80cu y 2200MHz compita directamente con la 3090 y así ambos tengan que bajar precios.


Mira que ante el desastre de salida de ampere he decidido esperar a amd y lo mas seguro que me pille lo mas gordo que saquen, pero creo firmemente que daremos gracias si da competido con la 3080, porque todo apunta a que va ser mas con la 3070 y posiblemente NVIDIA se estan guaedando el as en la manga de que anuncie tb una 3070ti, con mas ram, al dia siguiente de la presentacion de amd,, o porque están muy seguros que su 3070 está al mismo nivel que lo más gordo de AMD y de aí el retraso de la salida de la 3070 del 15 al 29 de octubre... Tiempo al tiempo... Esta gente no da puntada sin hilo

Ojala me equivoque, pero amd siempre ha estado por detras de nvidia en la gama alta, y no creo que esta vez vaya ser diferente básicamente porque no han tenido tiempo, al estar tan centrados en la producción de los chips cpu y gpu para las nuevas consolas

Pues yo creo que ese retraso de la 3070 es por falta de stock en el lanzamiento.
Han visto que se están llevando ostias como panes por lo de las 3080,y ahora ven que de la 3070 van a vender aún más y no tienen.
Yo no veo más que eso.

Nvidia en cuanto a potencia está muy tranquila.
Encima con una posible 3070Ti en la recámara a parte de la 3080 20gb super.

@neox3
Pero tan mal vas para jugar?
Es que algunos lo decís cómo si fuésemos con la integrada... [carcajad]


si porque vendi lo que tenia 1 mes antes del anuncio de las ampere (gracias a dios, asi no me comi la devaluación brutal y vendí muy bien), pero no me esperaba esta falta brutal de stock y estoy tirando con una 7870 que tengo de reserva en casa y la pobre menos mal que sigue aí, aguantando..
neox3 escribió:
hh1 escribió:
neox3 escribió:
Mira que ante el desastre de salida de ampere he decidido esperar a amd y lo mas seguro que me pille lo mas gordo que saquen, pero creo firmemente que daremos gracias si da competido con la 3080, porque todo apunta a que va ser mas con la 3070 y posiblemente NVIDIA se estan guaedando el as en la manga de que anuncie tb una 3070ti, con mas ram, al dia siguiente de la presentacion de amd,, o porque están muy seguros que su 3070 está al mismo nivel que lo más gordo de AMD y de aí el retraso de la salida de la 3070 del 15 al 29 de octubre... Tiempo al tiempo... Esta gente no da puntada sin hilo

Ojala me equivoque, pero amd siempre ha estado por detras de nvidia en la gama alta, y no creo que esta vez vaya ser diferente básicamente porque no han tenido tiempo, al estar tan centrados en la producción de los chips cpu y gpu para las nuevas consolas

Pues yo creo que ese retraso de la 3070 es por falta de stock en el lanzamiento.
Han visto que se están llevando ostias como panes por lo de las 3080,y ahora ven que de la 3070 van a vender aún más y no tienen.
Yo no veo más que eso.

Nvidia en cuanto a potencia está muy tranquila.
Encima con una posible 3070Ti en la recámara a parte de la 3080 20gb super.

@neox3
Pero tan mal vas para jugar?
Es que algunos lo decís cómo si fuésemos con la integrada... [carcajad]


si porque vendi lo que tenia 1 mes antes del anuncio de las ampere (gracias a dios, asi no me comi la devaluación brutal y vendí muy bien), pero no me esperaba esta falta brutal de stock y estoy tirando con una 7870 que tengo de reserva en casa y la pobre menos mal que sigue aí, aguantando..

Vaya putada.Te pudo el ansia!
Bueno.esa a 1080p se defiende aún.
Yo tuve la 6870 y era cojonuda.
Yo creo que AMD no la va a cagar en el lanzamiento.

También se puede poner muy bien el mercado de segunda mano de las 2080TI,ya que con la 3070 o las 6900xt en la calle,por narices tiene que valer 400€ o menos.
Todo lo que sea más de eso es un robo.
Y oye,a esos precios no es mal opción tampoco.
Y por supuesto,todas las que estén por debajo de la 2080Ti ,bajan también.
Probotector escribió:@PepeC12

No lo he probado; pero si la imagen se ve lavabada o borrosa por ese postprocesado de imagen, para mi carece de utilidad por que a mi me gusta jugar con la imagen limpia sin filtros y nitida a resolucion nativa de pantalla.

Vamos, que a mi lo que me importa es la potencia bruta y la calidad de imagen, no tecnologias supuestamente revolucionarias que luego quedan en el olvido (Mantle y SLI) por ejemplo...

Dlss 2.0 se ve incluso más nítido que la resolución nativa, no emborronar para nada.
hh1 escribió:
neox3 escribió:
hh1 escribió:Pues yo creo que ese retraso de la 3070 es por falta de stock en el lanzamiento.
Han visto que se están llevando ostias como panes por lo de las 3080,y ahora ven que de la 3070 van a vender aún más y no tienen.
Yo no veo más que eso.

Nvidia en cuanto a potencia está muy tranquila.
Encima con una posible 3070Ti en la recámara a parte de la 3080 20gb super.

@neox3
Pero tan mal vas para jugar?
Es que algunos lo decís cómo si fuésemos con la integrada... [carcajad]


si porque vendi lo que tenia 1 mes antes del anuncio de las ampere (gracias a dios, asi no me comi la devaluación brutal y vendí muy bien), pero no me esperaba esta falta brutal de stock y estoy tirando con una 7870 que tengo de reserva en casa y la pobre menos mal que sigue aí, aguantando..

Vaya putada.Te pudo el ansia!
Bueno.esa a 1080p se defiende aún.
Yo tuve la 6870 y era cojonuda.
Yo creo que AMD no la va a cagar en el lanzamiento.

También se puede poner muy bien el mercado de segunda mano de las 2080TI,ya que con la 3070 o las 6900xt en la calle,por narices tiene que valer 400€ o menos.
Todo lo que sea más de eso es un robo.
Y oye,a esos precios no es mal opción tampoco.
Y por supuesto,todas las que estén por debajo de la 2080Ti ,bajan también.


si la 3070 rinde como se espera por debajo de la 2080 ti, siento decirte que no vas a encontrar una 2080ti por menos de 550 - 600 euros y mas con la falta de stock
1947 respuestas