Nomada_Firefox escribió:hh1 escribió:Qué haríais?
Me quedaria con lo que tienes o esperaria a que saliera lo nuevo. Claro aqui vemos todos tu terror de no sacar suficiente por tu 3080Ti para volver a comprar una grafica sin poner demasiado dinero nuevo encima.
Y eso es por lo que decian que Nvidia subia los precios para fastidiar a la reventa de graficas. Era una noticia del chapuzas absurda. Ademas practicamente todos sabemos que haciendo eso se fastidian más asi mismos y tiene el efecto no deseado que es que como la gente no pueda pagar algo nuevo, van a comprar el de segunda mano.
654321 escribió:BloodBlack escribió:Imagínate un dato que caiga en el GCD 2 y que una CU del GCD 1 necesite para procesar, esa CU va estar parada ,hasta que se vaya buscar al GCD 2 y se traiga.
Pero eso ya va a pasar con la 7900, no ? Una CU no tiene acceso a las 6 cachés imagino, solo a la que le corresponda.
BloodBlack escribió:La compatibilidad no es factor para decir que una arquitectura es un refrito y menos en PC que se trabaja con API aun nivel alto.
RDNA es una arquitectura nueva , no queda prácticamente nada de GCN, de los CU, rops, motores de geometría,teselados, sistemas de caches etc todo se rediseñado, lo único que queda inctacto de GCN son las unidades ACE. De ahí prácticamente todo se rediseñado.
PepeC12 escribió:@PilaDePetaca Yo no le veo mayores problemas a la arquitectura RDNA2 o RDNA3, la evolucion es muy buena y son ligeramente más eficientes que la competencia.
Si es cierto que el rendimiento en raytracing no es tan alto como Nvidia pero entiendo que tardara unas generaciones en ponerse a la altura (nvidia va con una generación de ventaja en esto). Hay que tener en cuenta que el rendimiento general no es tan malo en raytracing y que apenas hay juegos que expriman dicha tecnología de manera que merezca la pena activarlo.
GCN tenia serios problemas que hacían que incluso chips más complejos y caros de fabricar como fueron la serie vega o la serie 580 no rindieran tanto como deberían.
Hoy por hoy, AMD esta en una situación cómoda, o eso parece si los datos que han soltado sobre RDNA3 son ciertos, tienen gráficas menos tragonas que su competencia y más baratas de fabricar gracias a los chiplets.
Para mi lo que tendría que hacer es poner precios agresivos para ganar cuota de mercado que claramente aquí Nvidia les gana por goleada.
Jester_Box escribió:Me pregunto como hay cierto troll que siempre viene aqui a enmierdar y perjudicar a los que nos queremos informar de verdad que no esta baneado todavia.
BloodBlack escribió:@PilaDePetaca
No te entiendo muy bien la verdad, ninguna GPU es compatible por hardware, cuando tú desarrollas un juego nivel metal, con soló cambiar frecuencias se rompería el juego, para eso existen la API para dar compatibilidad con hardware atrás, eso no significa que una arquitectura sea refrito. Ya lo explicado AMD rediseñado prácticamente toda la arquitectura con RDNA.
Y en tu segundo párrafo(que va dirigido a otro usuario) lo que expones es justamente todo lo contrario lo que esta haciendo AMD con RDNA vs GCN. RDNA está pensando en términos de efeciencia y necesita menos CU para rendir mas, y es que también son más baratas de fabricar por lo mismo.
La Vega 64 era una GPU de 64CU (4096 SP), 494mm2, 300w que competía en rendimiento ante una GPU como GTX 1080 de 2560SP, 300m2 y 180w.
Si análizas RDNA vs Nvidia, es todo lo contrario a lo que fue GCN, ahora es al revés y es AMD quien compite con un chip más efecientes estamos hablando de 7900XTX(6144 SP, 300m2 y 340w) vs 4090 (16384 SP, 608mm2 y 450W). Y esto gran eficiencia en RDNA la han conseguido porque han rediseñado todo y poco les queda de GCN.
Es Nvidia quien parece que ha regresado a los tiempos de GCN y de dedicarse a meter shaders a saco en cada nuevo nodo, los papeles se han invertido totalmente y AMD goza actualmente de una arquitectura muchísimo mejor, mas efeciente en todos sus aspectos.
PilaDePetaca escribió:BloodBlack escribió:@PilaDePetaca
No te entiendo muy bien la verdad, ninguna GPU es compatible por hardware, cuando tú desarrollas un juego nivel metal, con soló cambiar frecuencias se rompería el juego, para eso existen la API para dar compatibilidad con hardware atrás, eso no significa que una arquitectura sea refrito. Ya lo explicado AMD rediseñado prácticamente toda la arquitectura con RDNA.
Y en tu segundo párrafo(que va dirigido a otro usuario) lo que expones es justamente todo lo contrario lo que esta haciendo AMD con RDNA vs GCN. RDNA está pensando en términos de efeciencia y necesita menos CU para rendir mas, y es que también son más baratas de fabricar por lo mismo.
La Vega 64 era una GPU de 64CU (4096 SP), 494mm2, 300w que competía en rendimiento ante una GPU como GTX 1080 de 2560SP, 300m2 y 180w.
Si análizas RDNA vs Nvidia, es todo lo contrario a lo que fue GCN, ahora es al revés y es AMD quien compite con un chip más efecientes estamos hablando de 7900XTX(6144 SP, 300m2 y 340w) vs 4090 (16384 SP, 608mm2 y 450W). Y esto gran eficiencia en RDNA la han conseguido porque han rediseñado todo y poco les queda de GCN.
Es Nvidia quien parece que ha regresado a los tiempos de GCN y de dedicarse a meter shaders a saco en cada nuevo nodo, los papeles se han invertido totalmente y AMD goza actualmente de una arquitectura muchísimo mejor, mas efeciente en todos sus aspectos.
@Pacorrr
Los grandes cambios de la arquitectura vinieron tanto por todo el cambio que hicieron en el backend, sino que el front-end que llevaba siendo un cuello de botella muchisimo tiempo, lo "liberaron" por así decirlo. Sin embargo, dejaron instrucciones por hardware para que el front-end actuase como las antiguas GCN (por eso se dice que es una arquitectura híbrida), y todos estos datos estan en los white papers de AMD es lo que ha publicado ellos. Con esto AMD se ahorro, lo primero sacar drivers nuevos de cero (y aun así, con los parcheos las 5xxx tuvieron muchisimos problemas al principio), y lo segundo, creó compatibilidad entre las consolas de la antigua generación y las nuevas sin necesidad de emular nada, directo del hardware. El problema es que el front-end sigue siendo prácticamente el mismo desde RDNA1, y sólo han sacado parcheos para optimizar la arquitectura híbrida (primero para que subiesen de Ghz, luego el RT, ahora una especie de SMT con el dual-purpose que en realidad sólo son algunas instrucciones y au y arreglar la cagada de cuello de botella que hicieron con el RT anterior).
Podían haber roto eso y haber sacado la arquitectura completa y dejarse de arrastrar el muerto que es GCN, y de una vez enterrar el cáncer que es nVidia, pero van por el camino que van...
NicOtE escribió:En teoría está semana que entra ya saldrán las reviews de terceros, no?
Se sabe día?
adriano_99 escribió:NicOtE escribió:En teoría está semana que entra ya saldrán las reviews de terceros, no?
Se sabe día?
No reviews, datos entregados por amd.
nadie tiene la gráfica aún.
Pacorrr escribió:Yo si se confirma ese rendimiento (habrá que ver reviews), estaré con el F5 en al web de AMD el 13 de diciembrea ver si puedo pillar una XTX. La XT no merece la pena para nada, por un poco más te pillas la gorda que le saca entre un 15-20%.
gojesusga escribió:Pues está mal explicado... tanto cuesta poner average o similar
adriano_99 escribió:Creo que para las 3-4 deberían de estar las reviews de la 4080, creeís que a amd se le escpará misteriosamente algo de info para hacer la contra?
adriano_99 escribió:Creo que para las 3-4 deberían de estar las reviews de la 4080, creeís que a amd se le escpará misteriosamente algo de info para hacer la contra?
Kavezacomeback escribió:adriano_99 escribió:Creo que para las 3-4 deberían de estar las reviews de la 4080, creeís que a amd se le escpará misteriosamente algo de info para hacer la contra?
Creo que hay mucho hype.
AMD sabe perfectamente lo que hay y lo ha dicho. Va a competir contra la 4080 y creo que casi seguro la pequeña se podrá flashear y acabarán siendo una xtx con 20gb.
Esto es lo que yo creo y sería un punto, aunque de por sí parece no hay mucha diferencia entre ambas.
654321 escribió:Ya estan las reviews de la 4080, si los datos que ha dado AMD de la 7900 XTX no son engañosos, se quedará mas o menos entre medias de la 4080 y la 4090. Teniendo en cuenta que la 4080 cuesta un 20% mas, todo pinta que AMD la va a petar !!!!!
PepeC12 escribió:Kavezacomeback escribió:adriano_99 escribió:Creo que para las 3-4 deberían de estar las reviews de la 4080, creeís que a amd se le escpará misteriosamente algo de info para hacer la contra?
Creo que hay mucho hype.
AMD sabe perfectamente lo que hay y lo ha dicho. Va a competir contra la 4080 y creo que casi seguro la pequeña se podrá flashear y acabarán siendo una xtx con 20gb.
Esto es lo que yo creo y sería un punto, aunque de por sí parece no hay mucha diferencia entre ambas.
De donde sacas lo del flasheo? porque hace muchos muchos años que no se flasea ninguna amd a la top, ni recuerdo la ultima que se podia flashear, pero creo que era ati.
Ni la vega, ni la 6800/6900 ni ninguna.
Gromber escribió:El capado para evitar mutaciones ya se perfecciono hace años.
BloodBlack escribió:Creo que la 7900XT va ser el competidor de la 4080 costando $899 vs $1299
BloodBlack escribió:Con los datos de AMD y la review de TPU de la RTX 4080, las cosas quedarían así en rasterizacion a 4k:
Residente Evil 8
RTX 4080 = 159 FPS
7900XT = 157 FPS
7900XTX = 190 FPS
Cyberpunk 2077
RTX 4080 = 56 FPS
7900 XT = 60 FPS
7900 XTX = 72 FPS
Watch Legión
RTX 4080 = 83 FPS
7900XT = 85 FPS
7900 XTX = 100 FPS
Creo que la 7900XT va ser el competidor de la 4080 costando $899 vs $1299, AMD reclama 300w vs 320w de la 4080. En Ray Tracing 4k las cosas quedarían asi:
Cyberpunk 2077
RTX 4080 = 29 FPS
7900XT = 18 FPS
7900XTX = 21 FPS
Residente Evil 8
RTX 4080 = 120 FPS
7900XT = 115 FPS
7900 XTX = 135 FPS
Dying Ligth 2 (CumputerBase)
RTX 4080 = 43 FPS
7900XT = 21 FPS
7900XTX = 24 FPS
BloodBlack escribió:Con los datos de AMD y la review de TPU de la RTX 4080, las cosas quedarían así en rasterizacion a 4k:
Residente Evil 8
RTX 4080 = 159 FPS
7900XT = 157 FPS
7900XTX = 190 FPS
Cyberpunk 2077
RTX 4080 = 56 FPS
7900 XT = 60 FPS
7900 XTX = 72 FPS
Watch Legión
RTX 4080 = 83 FPS
7900XT = 85 FPS
7900 XTX = 100 FPS
Creo que la 7900XT va ser el competidor de la 4080 costando $899 vs $1299, AMD reclama 300w vs 320w de la 4080. En Ray Tracing 4k las cosas quedarían asi:
Cyberpunk 2077
RTX 4080 = 29 FPS
7900XT = 18 FPS
7900XTX = 21 FPS
Residente Evil 8
RTX 4080 = 120 FPS
7900XT = 115 FPS
7900 XTX = 135 FPS
Dying Ligth 2 (CumputerBase)
RTX 4080 = 43 FPS
7900XT = 21 FPS
7900XTX = 24 FPS
HaGeK escribió:La leche, yo la verdad es que voy a seguir muy de cerca la 7900xtx, si se puede comprar por poco mas de 1k en la salida va a ser una opcion muy a tener en cuenta.
Cuando se podran comprar?
BennBeckman escribió:Si la XTX sale por 1000€ y es un 20% más potente que la 4080 AMD le va a dar un tortazo importante a Nvidia.