AMD RDNA3 "RX 7000" GPU.

hh1 escribió:Encima ,AMD lleva tiempo subida a la Larra en cuanto a precios de cpu y GPU.

Cosas de la mineria. Fueron los que menos stock tuvieron.

@garbaje_de_potanzos jo no pides nada tu, igual tienes que esperar 2 años. Eso seria una 7600 o 4060 y no espero que ninguna de ellas llegue a ese nivel.
Nomada_Firefox escribió:@garbaje_de_potanzos jo no pides nada tu, igual tienes que esperar 2 años. Eso seria una 7600 o 4060 y no espero que ninguna de ellas llegue a ese nivel.


Pensaba eso mismo, que las gamas medías que vedrían rendirían por ahí pero Nvidia supongo que no visto el tijeretazo de la serie 4000 por debajo de la tope de gama, veremos que tal AMD... Si la 7600 XT viene a rendir parecido a la 6800 ya me lo pienso.

Que la verdad para lo que juego y a la resolución que juego me veo con mi gráfica 2 años mas sin problemas [sonrisa]
AMD está cómoda de segundona en PC...tiene pinta de que pactan con Nvidia que ellos se quedan el pastel de consolas y los verdes el PC.
¿AMD como suele hace sus lanzamientos de graficas? ¿7600, 7700, 7800, 7900 de golpe o espaciadas como Nvidia?

@garbaje_de_potanzos Yo no tengo ninguna necesidad de comprar grafica en plan de necesito más potencia. Mis motivos son otros. En este PC tengo la RTX 3060 y estoy más que satisfecho con ella. Pero quiero algo mejor en el PC secundario. Ahora lo que va a pasarme, es que si sale la 7600, a ver como es. Me gustaria que por lo menos sacasemos un atisbo de su rendimiento, aunque creo que no va a ser mejor que una RX6700XT y a mi la RX6700 ya me parecia buena comprandola baratita con sus 10GB.

@PHANTASIA Yo no creo que pacten eso ¿cuanto llevan las consolas usando micros de AMD? , creo que se auto-pactan los precios porque al final son todo cosas muy parecidas, ni uno ni otro puede hacer algo tan parecido más barato de X y ni a uno ni a otro le interesa vender mucho más barato que el otro.
Kavezacomeback escribió:Lo que quiero decir es que me da igual AMD saque una gráfica como la 4090 por que no voy a gastar esa cantidad, ni 800€ tampoco la verdad. Que saquen las 6800 xt a 250€ verás si venden, aunque esto por mercado no es realista ya que el otro ajustaría precios.

Pero si sacaran una 7900xt superior a la 4090 (que ya sabemos q no va a pasar) más barata o a igual precio, puede uno hacerse un cálculo también de q todas las gamas inferiores serán más potentes y más baratas/precio similar a Nvidia. Ahora q no son más potentes, sólo pueden competir en precio. Y no veo a AMD siendo agresiva en este sentido. Puede q ahora con la bajada de la minería y la presencia de stock de Nvidia, la cosa cambie, pero no espero nada.
BladeRunner escribió:
Kavezacomeback escribió:Lo que quiero decir es que me da igual AMD saque una gráfica como la 4090 por que no voy a gastar esa cantidad, ni 800€ tampoco la verdad. Que saquen las 6800 xt a 250€ verás si venden, aunque esto por mercado no es realista ya que el otro ajustaría precios.

Pero si sacaran una 7900xt superior a la 4090 (que ya sabemos q no va a pasar) más barata o a igual precio, puede uno hacerse un cálculo también de q todas las gamas inferiores serán más potentes y más baratas/precio similar a Nvidia. Ahora q no son más potentes, sólo pueden competir en precio. Y no veo a AMD siendo agresiva en este sentido. Puede q ahora con la bajada de la minería y la presencia de stock de Nvidia, la cosa cambie, pero no espero nada.

El caso es que lo que comentas, ya sucedio con la gama 6000 por ejemplo y es cierto, tienen productos más baratos pero...........si los de Nvidia suben un pico, los de AMD, aunque sean más baratos, van a seguir siendo caros.

Asi pues si una 4090 cuesta 2000€, una 7900 igual cuesta 1800 o 1950, segun les de en gran parte a las tiendas.
Nomada_Firefox escribió:
BladeRunner escribió:
Kavezacomeback escribió:Lo que quiero decir es que me da igual AMD saque una gráfica como la 4090 por que no voy a gastar esa cantidad, ni 800€ tampoco la verdad. Que saquen las 6800 xt a 250€ verás si venden, aunque esto por mercado no es realista ya que el otro ajustaría precios.

Pero si sacaran una 7900xt superior a la 4090 (que ya sabemos q no va a pasar) más barata o a igual precio, puede uno hacerse un cálculo también de q todas las gamas inferiores serán más potentes y más baratas/precio similar a Nvidia. Ahora q no son más potentes, sólo pueden competir en precio. Y no veo a AMD siendo agresiva en este sentido. Puede q ahora con la bajada de la minería y la presencia de stock de Nvidia, la cosa cambie, pero no espero nada.

El caso es que lo que comentas, ya sucedio con la gama 6000 por ejemplo y es cierto, tienen productos más baratos pero...........si los de Nvidia suben un pico, los de AMD, aunque sean más baratos, van a seguir siendo caros.

Asi pues si una 4090 cuesta 2000€, una 7900 igual cuesta 1800 o 1950, segun les de en gran parte a las tiendas.


Así es, con las rx 6000 paso eso...gráficas un pelin por debajo de NVIDIA tanto en prestaciones como en precio....así nadie cambia XD XD
Las 6000 era bastante más caras de fabricar... iban en 7nm TSMC vs 8nm Samsung las Nvidia. Ahora es al revés, las 7000 son más baratas de fabricar debido a que son multichip muy pequeños con una tasa de éxito mucho mayor que un die monolítico gigantesco como el AD102. Luego que quieran sacar más margen de beneficio es otra cosa.
Pacorrr escribió:Las 6000 era bastante más caras de fabricar... iban en 7nm TSMC vs 8nm Samsung las Nvidia. Ahora es al revés, las 7000 son más baratas de fabricar debido a que son multichip muy pequeños con una tasa de éxito mucho mayor que un die monolítico gigantesco como el AD102. Luego que quieran sacar más margen de beneficio es otra cosa.


Pues a ver si esta vez AMD nos da una alegría XD XD
Pacorrr escribió:Yo no estoy de acuerdo en eso de que tenga peor sistema de reescalado (que al final no dejan de ser reescalados todos ellos, con una mejora de antialias y ya está), Digital Foundry ha hecho mucho daño con su fanatismo con Nvidia

Dependerá del juego, en algunos se verá mejor uno y en otros otro, y además ahora tenemos el XeSS que también es compatible con todas las tarjetas, aunque tienen que mejorar bastante (sobre todo en rendimiento en tarjetas que no sean Arc), pero ahí está la opción

https://tellusim.com/upscale/

A mi las demostraciones me gustan cuando lo hacen con algo que como jugadores vayamos a probar. Esa prueba que pones y las muchas sintéticas que se hacen que solo dan numeritos no me sirven de mucho.

Pero aún haciendo caso a la prueba que dices, es que incluso en eso dan la razón a Nvidia, no? Porque dicen:
Nvidia DLSS shows the best quality but starts shaking after 400%.

Cuando DLSS empieza a verse peor que en FSR es cuando pasa del 400%, cosa que no creo que sea lo habitual en uso en los videojuegos. De 1080p pasamos a 4k ampliando un 200% (o desde 720p a 4k ampliando un 300%), por lo tanto configurarlo más allá de los 300% no le acabo de ver un caso de uso real (o al menos no será algo común).

Por otra parte, dónde está el fanatismo de DF con Nvidia? Quizás en comparar sobre todo juegos donde en DLSS se ve mejor o lo dices por otro motivo?

Conoces varios videos de videojuegos exigentes donde se demuestre que FSR es mejor que DLSS? Yo la verdad que he visto pocas comparativas y la que recordaba era esa de DF.
Rvilla87 escribió:
Pacorrr escribió:Yo no estoy de acuerdo en eso de que tenga peor sistema de reescalado (que al final no dejan de ser reescalados todos ellos, con una mejora de antialias y ya está), Digital Foundry ha hecho mucho daño con su fanatismo con Nvidia

Dependerá del juego, en algunos se verá mejor uno y en otros otro, y además ahora tenemos el XeSS que también es compatible con todas las tarjetas, aunque tienen que mejorar bastante (sobre todo en rendimiento en tarjetas que no sean Arc), pero ahí está la opción

https://tellusim.com/upscale/

A mi las demostraciones me gustan cuando lo hacen con algo que como jugadores vayamos a probar. Esa prueba que pones y las muchas sintéticas que se hacen que solo dan numeritos no me sirven de mucho.

Pero aún haciendo caso a la prueba que dices, es que incluso en eso dan la razón a Nvidia, no? Porque dicen:
Nvidia DLSS shows the best quality but starts shaking after 400%.

Cuando DLSS empieza a verse peor que en FSR es cuando pasa del 400%, cosa que no creo que sea lo habitual en uso en los videojuegos. De 1080p pasamos a 4k ampliando un 200% (o desde 720p a 4k ampliando un 300%), por lo tanto configurarlo más allá de los 300% no le acabo de ver un caso de uso real (o al menos no será algo común).

Por otra parte, dónde está el fanatismo de DF con Nvidia? Quizás en comparar sobre todo juegos donde en DLSS se ve mejor o lo dices por otro motivo?

Conoces varios videos de videojuegos exigentes donde se demuestre que FSR es mejor que DLSS? Yo la verdad que he visto pocas comparativas y la que recordaba era esa de DF.


Eso que citas es del primer test checkerboard, en el segundo test in-game dicen esto:

Let’s take a look at a game-like scenario with dynamic lighting and animation, relatively low color contrast, and a lot of blue noise. All the upscaling libraries have the same input data with blue noise and volumetric lighting. The target rendering resolution is 2K. The source image size for 600% mode is only 428×241, but the upscaler turns it to the target resolution.

Overall, AMD FSR2 is the most stable at all resolutions, with even better denoising than DLSS 2.4. The results from DLSS 3.0 and XeSS running on Intel GPU will be added later.


Hombre, que Digital Foundry tira para Nvidia es un hecho demostrable, desde hace ya unos años se han vuelto una plataforma propagandística donde son los primeros en analizar sus novedades, y patrocinadas. Con DLSS 3 de repente ya no hacen 400% zoom como antes y no tienen en cuenta los graves defectos gráficos que introducen los frames fake, porque según ellos, jugando no se nota. Han cambiado su modo de analizar sólo porque ahora no saldría bien en la foto. Eso cuanto menos es sospechoso, y lo de que no se nota, es algo muy subjetivo, como para darlo por hecho, objetivamente el defecto ahí está, igual se podría decir de los defectos que pudieran haber visto en FSR o en XeSS en su momento, que jugando no se nota, y sería igual de subjetivo, pero ahí no lo hicieron, pusieron la lupa al x400 y sólo destacaban los defectos de FSR o XeSS. En Hardware Unboxed piensan lo contrario sobre DLSS 3 y aseguran que los defectos se notan jugando normal, sin slow motion ni zoom, y no poco, lo representaron en una miniatura para el vídeo que hicieron, que no gustó nada a uno de los de Digital Foundry que le hizo poner este tuit tan lamentable

https://twitter.com/Dachsjaeger/status/ ... 9049915394

Tampoco digo que HU sean el paradigma de la objetividad, pero Digital Foundry desde luego mucho menos.

Con Nvidia lo tapan todo, con el resto son minuciosos y hacen 400% zoom... se les nota a leguas, espero que les paguen bien porque si encima lo hacen gratis, sería aún peor. Hay muchos test FSR vs DLSS y también ahora con el reciente XeSS, DLSS no es siempre el mejor, y aunque lo fuera, las diferencias no son muy grandes como para descartar uno u otro. Al final todos son reescalados, si no fuera por el antialias que meten nunca se verían mejor que nativa, lo ideal es que saquen un antialias nativo para poder usar en los juegos equivalente a los que usan los reescalados, y descartar de una vez el borroso TAA.

P.D. Uno que se me viene a la mente así de primeras, es el Red Dead II, FSR se ve mejor, al menos para mí https://www.techpowerup.com/review/red- ... omparison/

dinamita4922 escribió:Pues a ver si esta vez AMD nos da una alegría XD XD


Ojo, que sean más baratas de fabricar no significa necesariamente que AMD las vaya a regalar o vender baratas, ojalá pongan precios buenos, pero una cosa no va con la otra.
PHANTASIA escribió:AMD está cómoda de segundona en PC...tiene pinta de que pactan con Nvidia que ellos se quedan el pastel de consolas y los verdes el PC.

Eso lo pensamos muchos.
Muy raro que tenga a Nvidia para destronarlos varias veces gracias a un buen precio con rendimiento similar o superior, y son iguales o más caras.
No tiene sentido.

Yo ya dije ,que es toy seguro ,que si sacan la 7800Xt ,rival de la 4080 16gb ,saldrá por 1400+1450€.
Es que estoy segurísimo.
Siempre hacen lo mismo.

O sea ,lo tienen a huevo para comérsela poniéndola a 1200€ ,por ejemplo, y no lo hacen ni lo van a hacer.
Y así con todas las gamad.

Que tiene un pacto de precios similares ,lo tengo muy claro.

@Pacorrr
AMD ,desde que más o menos compite en potencia en cpu y gpu con Intel y Nvidia ,se bajó del barco de los buenos precios.
Por eso muchos sabemos y no esperamos que vayan a tener precios "bajos".

@dinamita4922
Ojalá ,pero ya verás como no.
hh1 escribió:
PHANTASIA escribió:AMD está cómoda de segundona en PC...tiene pinta de que pactan con Nvidia que ellos se quedan el pastel de consolas y los verdes el PC.

Eso lo pensamos muchos.
Muy raro que tenga a Nvidia para destronatls varias veces gracias a un buen precio con rendimiento similar o superior, y son iguales o más caras.
No tiene sentido.

Yo ya dije ,que es toy seguro ,que si sacan la 7800Xt ,rival de la 4080 16gb ,saldrá por 1400+1450€.
Es que estoy segurísimo.
Siempre hacen lo mismo.

O sea ,lo tienen a huevo para comérsela poniéndola a 1200€ ,por ejemplo, y no lo hacen ni lo van a hacer.
Y así con todas las gamad.

Que tiene un pacto de precios similares ,lo tengo muy claro.

@Pacorrr
AMD ,desde que más o menos compite en potencia en cpu y gpu con Intel y Nvidia ,se bajó del barco de los buenos precios.
Por eso muchos sabemos y no esperamos que vayan a tener precios "bajos".

@dinamita4922
Ojalá ,pero ya verás como no.


Solo hay que ver que contra Intel entraron a saco en CPUs en cuanto tuvieron algo potente con lo que competir.
Contra Nvidia en la última década no han hecho nada destacable por ofrecer algo competitivo en precios.(quizás la serie 400 hace ya 6 años...)
BladeRunner escribió:
Kavezacomeback escribió:Lo que quiero decir es que me da igual AMD saque una gráfica como la 4090 por que no voy a gastar esa cantidad, ni 800€ tampoco la verdad. Que saquen las 6800 xt a 250€ verás si venden, aunque esto por mercado no es realista ya que el otro ajustaría precios.

Pero si sacaran una 7900xt superior a la 4090 (que ya sabemos q no va a pasar) más barata o a igual precio, puede uno hacerse un cálculo también de q todas las gamas inferiores serán más potentes y más baratas/precio similar a Nvidia. Ahora q no son más potentes, sólo pueden competir en precio. Y no veo a AMD siendo agresiva en este sentido. Puede q ahora con la bajada de la minería y la presencia de stock de Nvidia, la cosa cambie, pero no espero nada.


¿Pero por qué te va a dar un precio muy por debajo de mercado? No creo que eso los beneficie, eso también lo puede hacer nvidia y reventar el mercado.

Ya son más baratas y con igual rendimiento, según juegos.

nvidia hace algunas cosas mejor, no me refiero al Hard en si, pero si que mete los hocicos en todo lo que puede desde hace ya años, como implementar sus tecnologías agasajado y dando apoyo a otras empresas.
El 13 de octubre:
"Se rumorea que la GPU AMD Navi 31 es compatible con la interfaz DisplayPort 2.1 no anunciada"

Hoy 17 de octubre:
"VESA lanza la especificación DisplayPort 2.1"

Las 40xx de Nvidia se han quedado en DP 1.4, según el chino Juan suficiente (8k@60, 4k@120).

"“Lograr una mayor alineación entre DisplayPort y USB en un PHY común ha sido un esfuerzo particularmente importante dentro de VESA dada la superposición significativa en los modelos de casos de uso entre los ecosistemas DisplayPort y USB4. DisplayPort 2.1 hace converger DisplayPort con las especificaciones USB4 PHY para garantizar el rendimiento de video más alto en una amplia gama de productos de consumo. El transporte de pantalla a través de DisplayPort, con sus tasas de bits más altas y la calidad visual comprobada de la compresión DSC incluso para contenido HDR, ofrece un amplio ancho de banda para las necesidades de prácticamente todas las aplicaciones prácticas. Funciones como controlar múltiples pantallas a través de un solo cable o habilitar múltiples funciones en un solo puerto como video, alimentación y transferencia de datos, ya no requieren ningún compromiso en la elección del formato de video. Las capacidades avanzadas de la interfaz de video DisplayPort están habilitadas por las invaluables contribuciones de nuestras más de 300 empresas miembro de todo el ecosistema electrónico”. — declaró Alan Kobayashi, presidente de la junta de VESA y presidente del grupo de trabajo de VESA DisplayPort."
Pacorrr escribió:Eso que citas es del primer test checkerboard, en el segundo test in-game dicen esto:
Let’s take a look at a game-like scenario with dynamic lighting and animation, relatively low color contrast, and a lot of blue noise. All the upscaling libraries have the same input data with blue noise and volumetric lighting. The target rendering resolution is 2K. The source image size for 600% mode is only 428×241, but the upscaler turns it to the target resolution.

Overall, AMD FSR2 is the most stable at all resolutions, with even better denoising than DLSS 2.4. The results from DLSS 3.0 and XeSS running on Intel GPU will be added later.

Es verdad, leí lo que dices pero ahora veo que lo hice en diagonal porque pensaba que el origen era 428×241 y me parecía un ejemplo poco real :Ð
En todo caso lo dicho, prefiero un caso de uso mas real con un videojuego.


Pacorrr escribió:Con DLSS 3 de repente ya no hacen 400% zoom como antes y no tienen en cuenta los graves defectos gráficos que introducen los frames fake, porque según ellos, jugando no se nota.

Sobre lo de que no tienen en cuenta los defectos de los frames fake, has visto este video? En ese momento dice justo lo que dices de que, según ellos no se nota (y cada uno lo podrá apreciar o no), pero es que justo después se quejan de un error del DLSS 3 que vio a simple vista (cuando spiderman sube rápido el edificio). Podrían haber ignorado esa 2º parte y no lo hicieron. Es más, en el min 19:05 se quejan de los cambios bruscos de imagen y lo mal que va DLSS 3 en esos casos. Más tarde con los disparos dicen que con DLSS 3 tiene menos brillo. Luego lo del problema de spiderman al mover rápido el ratón, que tiene mas latencia que DLSS 2 y más cosas que me olvido. Pues no veas, para ser fanáticos de Nvidia qué mal lo hacen, no?

Lo gracioso del tema es que gracias a ese video consiguieron que mi idea del DLSS 3 pasara de un "parece bueno" después de ver lo que contaba Nvidia a un "no me interesa nada". Creo que nadie a quien se le pueda considerar fanático de una marca puede sacar un video así y convencer a gente "neutral" a pensar que esa nueva tecnología es algo que no quiere.

Sobre el resto de cosas que dices me parece que para hablar hay que conocer el histórico de DF y yo lo desconozco (no analizo el medio sino lo que dice). Aunque fuera el caso de que sean mas afines de Nvidia, tanto como para llamarlo fanáticos me parece demasiado. Quizás es que con tanto troll y fanático en los foros para mi fanático es otra cosa mucho mas evidente.

Pacorrr escribió:P.D. Uno que se me viene a la mente así de primeras, es el Red Dead II, FSR se ve mejor, al menos para mí https://www.techpowerup.com/review/red- ... omparison/

Me parece una comparativa bastante mala y desigual, no sé hasta qué punto puede influir el tiempo (iluminación/sombras), pero a priori la diferencia tan grande ya solo a iluminación no me gusta nada y se hace más difícil de comparar. De hecho 2 meses antes hicieron otro video con el mismo problema en el que las 3 partes no son en el mismo momento. Porque lo del camino me parece muy evidente y no creo que sea por que el FSR lo haga mejor que en nativo y en DLSS (que es lo que parece) cuando en otros videos no se ve así de mal.

La verdad que buscando rápido en youtube no he visto buenos vídeos de comparativas del RDR 2. Pero videos que se ven mejor en un lado o en otro, muchos. Por ejemplo en este la hierva a la izquierda del personaje se ve bien en nativo y DLSS pero en FSR 2 se ve mas borroso.

Aunque mi mensaje no iba tanto por encontrar 1 juego sino varios. La idea era mas por el hecho de que no me parece tan evidente que FSR gane de forma mas o menos clara en varios títulos importantes y por eso me parece que la idea que suele haber es que DLSS 2 es mejor que FSR 2. Quizás son varios motivos, no lo sé: FSR 2 es mas nuevo y no ha dado tiempo a hacer muchas comparativas (comparativas de calidad cuento la de DF y pocas mas), la imagen que quedó del FSR 1.0 era tan mala que quizás hizo daño al FSR... en fin, ojalá poder ver buenas comparativas de calidad de estas 2 tecnologías pero las pocas veces que he buscado por encima he visto en general mucha comparación de un nivel muy bajo.
Rvilla87 escribió:
Pacorrr escribió:Eso que citas es del primer test checkerboard, en el segundo test in-game dicen esto:
Let’s take a look at a game-like scenario with dynamic lighting and animation, relatively low color contrast, and a lot of blue noise. All the upscaling libraries have the same input data with blue noise and volumetric lighting. The target rendering resolution is 2K. The source image size for 600% mode is only 428×241, but the upscaler turns it to the target resolution.

Overall, AMD FSR2 is the most stable at all resolutions, with even better denoising than DLSS 2.4. The results from DLSS 3.0 and XeSS running on Intel GPU will be added later.

Es verdad, leí lo que dices pero ahora veo que lo hice en diagonal porque pensaba que el origen era 428×241 y me parecía un ejemplo poco real :Ð
En todo caso lo dicho, prefiero un caso de uso mas real con un videojuego.


Pacorrr escribió:Con DLSS 3 de repente ya no hacen 400% zoom como antes y no tienen en cuenta los graves defectos gráficos que introducen los frames fake, porque según ellos, jugando no se nota.

Sobre lo de que no tienen en cuenta los defectos de los frames fake, has visto este video? En ese momento dice justo lo que dices de que, según ellos no se nota (y cada uno lo podrá apreciar o no), pero es que justo después se quejan de un error del DLSS 3 que vio a simple vista (cuando spiderman sube rápido el edificio). Podrían haber ignorado esa 2º parte y no lo hicieron. Es más, en el min 19:05 se quejan de los cambios bruscos de imagen y lo mal que va DLSS 3 en esos casos. Más tarde con los disparos dicen que con DLSS 3 tiene menos brillo. Luego lo del problema de spiderman al mover rápido el ratón, que tiene mas latencia que DLSS 2 y más cosas que me olvido. Pues no veas, para ser fanáticos de Nvidia qué mal lo hacen, no?

Lo gracioso del tema es que gracias a ese video consiguieron que mi idea del DLSS 3 pasara de un "parece bueno" después de ver lo que contaba Nvidia a un "no me interesa nada". Creo que nadie a quien se le pueda considerar fanático de una marca puede sacar un video así y convencer a gente "neutral" a pensar que esa nueva tecnología es algo que no quiere.

Sobre el resto de cosas que dices me parece que para hablar hay que conocer el histórico de DF y yo lo desconozco (no analizo el medio sino lo que dice). Aunque fuera el caso de que sean mas afines de Nvidia, tanto como para llamarlo fanáticos me parece demasiado. Quizás es que con tanto troll y fanático en los foros para mi fanático es otra cosa mucho mas evidente.

Pacorrr escribió:P.D. Uno que se me viene a la mente así de primeras, es el Red Dead II, FSR se ve mejor, al menos para mí https://www.techpowerup.com/review/red- ... omparison/

Me parece una comparativa bastante mala y desigual, no sé hasta qué punto puede influir el tiempo (iluminación/sombras), pero a priori la diferencia tan grande ya solo a iluminación no me gusta nada y se hace más difícil de comparar. De hecho 2 meses antes hicieron otro video con el mismo problema en el que las 3 partes no son en el mismo momento. Porque lo del camino me parece muy evidente y no creo que sea por que el FSR lo haga mejor que en nativo y en DLSS (que es lo que parece) cuando en otros videos no se ve así de mal.

La verdad que buscando rápido en youtube no he visto buenos vídeos de comparativas del RDR 2. Pero videos que se ven mejor en un lado o en otro, muchos. Por ejemplo en este la hierva a la izquierda del personaje se ve bien en nativo y DLSS pero en FSR 2 se ve mas borroso.

Aunque mi mensaje no iba tanto por encontrar 1 juego sino varios. La idea era mas por el hecho de que no me parece tan evidente que FSR gane de forma mas o menos clara en varios títulos importantes y por eso me parece que la idea que suele haber es que DLSS 2 es mejor que FSR 2. Quizás son varios motivos, no lo sé: FSR 2 es mas nuevo y no ha dado tiempo a hacer muchas comparativas (comparativas de calidad cuento la de DF y pocas mas), la imagen que quedó del FSR 1.0 era tan mala que quizás hizo daño al FSR... en fin, ojalá poder ver buenas comparativas de calidad de estas 2 tecnologías pero las pocas veces que he buscado por encima he visto en general mucha comparación de un nivel muy bajo.

"For DLSS3, we'll be looking for issues that can be seen at normal speed without zooming in"

Eso lo dice en el propio video. A mí me parece vergonzoso, y si comparas sus análisis respecto FSR 1 y 2 y XeSS el agravio es claro. Y si luego le sumas que se va al twitter de los de Hardware Unboxed poco menos que llamándoles "clickbaiters", cuando en HU dicen que lo que muestran en la miniatura se ve jugando normal... No sé,. estuvo muy fuera de lugar, y refuerza aún más la sospecha ¿por qué ahora hay que buscar los problemas o defectos a velocidad normal y sin zoom? XD

Pero bueno, cada uno tendrá su opinión, no hay medio 100% objetivo e imparcial, pero lo de DF clama al cielo con las continuas colaboraciones que tienen con Nvidia.
HU se hizo un hueco con pruebas serias, como tantos otros, DF vive del cuento de contar pixeles y del console war.

No creo puedan tener la misma veracidad.
Kavezacomeback escribió:
BladeRunner escribió:
Kavezacomeback escribió:Lo que quiero decir es que me da igual AMD saque una gráfica como la 4090 por que no voy a gastar esa cantidad, ni 800€ tampoco la verdad. Que saquen las 6800 xt a 250€ verás si venden, aunque esto por mercado no es realista ya que el otro ajustaría precios.

Pero si sacaran una 7900xt superior a la 4090 (que ya sabemos q no va a pasar) más barata o a igual precio, puede uno hacerse un cálculo también de q todas las gamas inferiores serán más potentes y más baratas/precio similar a Nvidia. Ahora q no son más potentes, sólo pueden competir en precio. Y no veo a AMD siendo agresiva en este sentido. Puede q ahora con la bajada de la minería y la presencia de stock de Nvidia, la cosa cambie, pero no espero nada.


¿Pero por qué te va a dar un precio muy por debajo de mercado? No creo que eso los beneficie, eso también lo puede hacer nvidia y reventar el mercado.

Ya son más baratas y con igual rendimiento, según juegos.

nvidia hace algunas cosas mejor, no me refiero al Hard en si, pero si que mete los hocicos en todo lo que puede desde hace ya años, como implementar sus tecnologías agasajado y dando apoyo a otras empresas.

Pues porque la gente ,a aigualdsd de precio, casi siempre se va a Nvidia.
Por eso Nvidia es el rey de las gráficas en pc.
Si quieren ser ella los reyes ,por ejemplo,en esta gen ,lo tienen a huevo.

Vistos los precios de Nvidia ,es que vamos ,más margen para hacerlo ,imposible.
Con gráficas similares o un poco menos potentes ,mete una 7900xt por 1600€ y una 7800xtt en 1100€,y es que destroza a la 4090 y a la 4080.
Y eso ,por decir unos precios ,que lo mismo a 1700€ y 1200€ ,también.
Son 300-400€ cada una.

Si quiere el trono, lo tiene sencillo.

Nvidia no se va a bajar de la parra porque tiene el liderato y porque se quiere quitar antes las 3000.
Solo reaccionará ,si AMD hace algo como lo que digo y se los zampan.

Pero vamos ,que no va a pasar.Viendo cómo lleva AMD actuando hace años ,no lo veo.
Sigo pensando que aquí deben tener un margen de precios pactado entre ellos en los lanzamientos.
hh1 escribió:Vistos los precios de Nvidia ,es que vamos ,más margen para hacerlo ,imposible.
Con gráficas similares o un poco menos potentes ,mete una 7900xt por 1600€ y una 7800xtt en 1100€,y es que destroza a la 4090 y a la 4080.

Tengo mis dudas de que en ese rango de precios, AMD vendiera más si su producto tiene las comentadas caracteristicas a un nivel inferior, ni DLSS 3, ni RT igual de bueno.

Mirad, no hay más que ver los precios actuales y ciertamente esperar a ver que sucede proximamente porque no puedes ver RTX 3060 por debajo de 400€ pero si puedes ver RX 6600 y 6700, no se si alguna 6600XT tambien. Lo malo es que solo algunos modelos de Sapphire y poquito más.

Pero tengo la sospecha que mucha gente seguira queriendo una RTX antes que una RX.
Nomada_Firefox escribió:
hh1 escribió:Vistos los precios de Nvidia ,es que vamos ,más margen para hacerlo ,imposible.
Con gráficas similares o un poco menos potentes ,mete una 7900xt por 1600€ y una 7800xtt en 1100€,y es que destroza a la 4090 y a la 4080.

Tengo mis dudas de que en ese rango de precios, AMD vendiera más si su producto tiene las comentadas caracteristicas a un nivel inferior, ni DLSS 3, ni RT igual de bueno.

Mirad, no hay más que ver los precios actuales y ciertamente esperar a ver que sucede proximamente porque no puedes ver RTX 3060 por debajo de 400€ pero si puedes ver RX 6600 y 6700, no se si alguna 6600XT tambien. Lo malo es que solo algunos modelos de Sapphire y poquito más.

Pero tengo la sospecha que mucha gente seguira queriendo una RTX antes que una RX.

Si la diferencia es similar en todo con la pasada gen ,a esos precios ,arrasa.
O mínimo, se pone líder del mercado.

La 6800XT era mejor que la 3080 en rasterización, o sea ,más potente.
Precio similar.
Palmaba en tecnología (con el FSR 2 no por tanto) y en RT, que ya en dirás cuántos juegos hay que lo hagan diferencial el RT.
El RT, o mejora bastante ,o es que me la suda olímpicamente.

Ahora ,sacan una 7800Xt vs 4080 16gb en las mismas condiciones que la pasada gen,con mismas diferencias , por 300€ menos ,e incluso por 200 € menos ,me quedo la de AMD.
Imagina a 1100€ que son 400€ menls.Vamos ,de cabeza.
Es más ,a ese precio, cambio mi 3080Ti,cosa que no haría ni borracho, ahora por la 4080 16gb.
@hh1 eso no siempre ha sido así.

Eso es así por que AMD tropezó varias veces y nVidia lo supo aprovechar, además de reforzar con alianzas con diferentes estudios y motores.

No creas no le costo, pero hoy día las cosas son diferentes, el mercado es mayor, la gente más informada y ya tienen un nombre. Para que el mercado cambie primero debe fallar nVidia y después que AMD sea capaz de aprovecharlo, ¿ves que Intel esté tocada y vaya a replegarse a un segundo puesto?

Si fuese todo tan fácil como bajar precios no crees ya lo habrían hecho.
Kavezacomeback escribió:@hh1 eso no siempre ha sido así.

Eso es así por que AMD tropezó varias veces y nVidia lo supo aprovechar, además de reforzar con alianzas con diferentes estudios y motores.

No creas no le costo, pero hoy día las cosas son diferentes, el mercado es mayor, la gente más informada y ya tienen un nombre. Para que el mercado cambie primero debe fallar nVidia y después que AMD sea capaz de aprovecharlo, ¿ves que Intel esté tocada y vaya a replegarse a un segundo puesto?

Si fuese todo tan fácil como bajar precios no crees ya lo habrían hecho.

Pues yo el fallo de Nvidia ,lo veo enmos precios.
Ahí es donde AMD le puede dar un golpe.

Yo creo que no se hace porque tienen pactos para asegurar ganancias.
Si empiezan una guerra de precios ambas van a perder.
Yo creo que pactan unos mínimos por gamas.
hh1 escribió:Palmaba en tecnología (con el FSR 2 no por tanto) y en RT, que ya en dirás cuántos juegos hay que lo hagan diferencial el RT.

Esto tiene facil respuesta. Todos los juegos que aplican el RT sobre el agua, hacen que se note bastante.

Depende del juego pero yo todos los que he visto con esa caracteristica, se notaba mogollon la mejora grafica. El tan jugado Ciberpunk 2077, es uno de ellos.

Más que pactar minimos de gamas, si pactan algo, yo creo que es rendimientos. Pero si lo piensas un poco, el hecho de que pacten es absurdo porque las graficas de uno y otro las hacen las mismas fabricas, ademas de que son vendidas por las marcas. Y por eso mismo las ensambladoras no se van a torpedear otros productos poniendo unos mucho más baratos. No hay manera de que pueda interesarles hacer diferencias muy grandes.

En fin, la unica gama de graficas que recuerdo con un precio más agresivo, fue cuando AMD saco las 4000 justo déspues de comprar ATI. Y eran más baratas pero las diferencias no eran tanto a como tendrian que serlo ahora para romper el mercado. Lo que dije antes, si vendes algo por 1000 y la diferencia es 200 con la modelo del otro fabricante.....pues igual no se lanza la gente a por ello.

No obstante yo creo que AMD puede mancar a Nvidia con cosas como la cantidad de Vram y la gama media si mantuviera los precios por debajo de 400€. Pero bueno, cada vez que esperamos cosas más baratas, llegan más caras. [facepalm] [facepalm] [facepalm]
Kavezacomeback escribió:https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-second-quarter-fiscal-2023#:~:text=NVIDIA%20today%20reported%20revenue%20for,19%25%20from%20the%20previous%20quarter.

Ya veremos el siguiente reporte @hh1


Menudo pedazo de hostia, lo mejor es el apartado Inventarios, donde se ve claramente todas las GPU que se guardan, ahora que se jodan, por cerdos.
Estoy deseando jubilar la 1070ti por una que me de 4K@60fps por no mas de 350€, veremos AMD que hace.
AMD sorprende a NVIDIA: la RX 7900 XT está a la altura de la RTX 4090
https://elchapuzasinformatico.com/2022/ ... -rtx-4090/
cristiano.88 escribió:Estoy deseando jubilar la 1070ti por una que me de 4K@60fps por no mas de 350€, veremos AMD que hace.

Pues te puedo asegurar que no vas a comprar una RTX 3070 por ese dinero. Garantizado tal y como estan las cosas. Y salvo sorpresas, tampoco una 7600 o una 4060.
cristiano.88 escribió:
Kavezacomeback escribió:https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-second-quarter-fiscal-2023#:~:text=NVIDIA%20today%20reported%20revenue%20for,19%25%20from%20the%20previous%20quarter.

Ya veremos el siguiente reporte @hh1


Menudo pedazo de hostia, lo mejor es el apartado Inventarios, donde se ve claramente todas las GPU que se guardan, ahora que se jodan, por cerdos.
Estoy deseando jubilar la 1070ti por una que me de 4K@60fps por no mas de 350€, veremos AMD que hace.



Jombre...por 350€, 4k/60fps es pedirle muchas peras al olmo e . Que salvaje eres.
cristiano.88 escribió:
Kavezacomeback escribió:https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-second-quarter-fiscal-2023#:~:text=NVIDIA%20today%20reported%20revenue%20for,19%25%20from%20the%20previous%20quarter.

Ya veremos el siguiente reporte @hh1


Menudo pedazo de hostia, lo mejor es el apartado Inventarios, donde se ve claramente todas las GPU que se guardan, ahora que se jodan, por cerdos.
Estoy deseando jubilar la 1070ti por una que me de 4K@60fps por no mas de 350€, veremos AMD que hace.


Bueno en el anual van ganando y ahora con producto nuevo pues veremos si al mercado le parece fuera de lugar.

Aunque si quieres pillamos solo el sector gaming y vemos si sube (que es donde más bajo y supongo dices lo del ostion).

El caso es ver si sube con la salida de la serie 40xx pese a su alto precio y lo dejo que ya nos colamos de off topic [carcajad]
BladeRunner escribió:AMD sorprende a NVIDIA: la RX 7900 XT está a la altura de la RTX 4090
https://elchapuzasinformatico.com/2022/ ... -rtx-4090/

Lo gracioso es que el leak viene de Nvidia [carcajad]
Van asomando la patita [+risas]

BladeRunner escribió:AMD sorprende a NVIDIA: la RX 7900 XT está a la altura de la RTX 4090
https://elchapuzasinformatico.com/2022/ ... -rtx-4090/

Segun dicen las malas lenguas no es ninguna sorpresa, por eso la 4090 consume tanto, para arañar ese poquito de rendimiento a costa de entrar en una zona de poca eficiencia, para que cuando salga la 7900XT no les pase por encima ...
654321 escribió:
BladeRunner escribió:AMD sorprende a NVIDIA: la RX 7900 XT está a la altura de la RTX 4090
https://elchapuzasinformatico.com/2022/ ... -rtx-4090/

Segun dicen las malas lenguas no es ninguna sorpresa, por eso la 4090 consume tanto, para arañar ese poquito de rendimiento a costa de entrar en una zona de poca eficiencia, para que cuando salga la 7900XT no les pase por encima ...


Consume tanto?

No consume nada comparado con los diseños iniciales, por eso tienen los disipadores tan sobredimensionados hasta 800 watios de disipación... (Y al final se quedaron en un tgp de 550w, mi 3080ti consume 450w... La diferencia es pequeña)

Y amd hace meses ya dijo que sus gráficas 7000 y hasta 2025 lo que saquen, incrementarian el consumo en cada generación, para obtener más rendimiento... Asi que no espereis milagros en esa parte
cristiano.88 escribió:
Kavezacomeback escribió:https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-second-quarter-fiscal-2023#:~:text=NVIDIA%20today%20reported%20revenue%20for,19%25%20from%20the%20previous%20quarter.

Ya veremos el siguiente reporte @hh1


Menudo pedazo de hostia, lo mejor es el apartado Inventarios, donde se ve claramente todas las GPU que se guardan, ahora que se jodan, por cerdos.
Estoy deseando jubilar la 1070ti por una que me de 4K@60fps por no mas de 350€, veremos AMD que hace.

Te vas a hartar de esperar.
Según el de Red Gaming Tech, TDP de entre 350-375-395W para la de referencia, los AIB podrían llegar hasta 450W, según lo que le ha dicho gente que ha acertado bastantes cosas. Sobre los consumos que puso Enermax en su calculadora (sugería 420W para la 7950XT), dice que podrían ser erróneos, aunque también podrían ser erróneos los tres que le han filtrado a él, pero insiste en que quien le ha dicho 375W le ha pasado otra info correcta como los shaders o los 24GB GDDR6 etc...

En rendimiento, según las frecuencias finales será un x3 en FP32 o un poco más, lo que en rendimiento puro se podría traducir en algo más de x2 una 6900XT, siempre que no hayan cuellos internos y la arquitectura escale bien (de hecho podría ser un cacho más de x2 en tal caso). Muestra como ya la 6900XT con un +54% de incremento en eficiencia respecto a la 5700XT, la dobla en potencia sin problemas, siendo menos de x3 en FP32 en ese caso.

Y bueno, estas serían las specs de Navi31 o por lo que apuesta él, 375W la de referencia y hasta 450W los modelos custom de los AIB.

Imagen

neox3 escribió:Consume tanto?

Mira lo que dice un compi en el hilo de las 3000:

"Muy bien, es una tumba, pero todo depende, si como yo vas a limitar el power limit al 70% lo que haga que la gráfica consuma 150 w menos y encima undervoltees a 0.900 con frecuencias de stock, vas a tenerla consumiendo 260w de pico máximo rindiendo solo un 5% menos que con el 100% del power limit, y con los ventiladores al mínimo sin pasar la gráfica de 55°.

Si vas a a subirle el power limit para rascarle un 2% en benchmarks a costa de un 20% más de consumo a 450w entonces se pondrá en modo reactor y a 80°."


Lo normal habria sido sacarla con menos consumo, y dejar que los entusiastas le hagan Overclock.
NicOtE escribió:
BladeRunner escribió:AMD sorprende a NVIDIA: la RX 7900 XT está a la altura de la RTX 4090
https://elchapuzasinformatico.com/2022/ ... -rtx-4090/

Lo gracioso es que el leak viene de Nvidia [carcajad]

Vayamos sacando la carne que la brasa ya está a punto [looco]
Pacorrr escribió:Según el de Red Gaming Tech, TDP de entre 350-375-395W para la de referencia, los AIB podrían llegar hasta 450W, según lo que le ha dicho gente que ha acertado bastantes cosas. Sobre los consumos que puso Enermax en su calculadora (sugería 420W para la 7950XT), dice que podrían ser erróneos, aunque también podrían ser erróneos los tres que le han filtrado a él, pero insiste en que quien le ha dicho 375W le ha pasado otra info correcta como los shaders o los 24GB GDDR6 etc...

En rendimiento, según las frecuencias finales será un x3 en FP32 o un poco más, lo que en rendimiento puro se podría traducir en algo más de x2 una 6900XT, siempre que no hayan cuellos internos y la arquitectura escale bien (de hecho podría ser un cacho más de x2 en tal caso). Muestra como ya la 6900XT con un +54% de incremento en eficiencia respecto a la 5700XT, la dobla en potencia sin problemas, siendo menos de x3 en FP32 en ese caso.

Y bueno, estas serían las specs de Navi31 o por lo que apuesta él, 375W la de referencia y hasta 450W los modelos custom de los AIB.

Imagen



Curioso que hayan reducido la Infinity caché, pero bueno si el.ancho de banda prácticamente lo doblan respecto a Navi 21 no necesitaran mas.

En general pintan bien, a ver si en RT consiguen meterse cerca del rendimiento de ADA.
Pues no sé por qué me da que en potencia bruta , RDNA 3 le va a dar para el palo a Nvidia.
hh1 escribió:Pues no sé por qué me da que en potencia bruta , RDNA 3 le va a dar para el palo a Nvidia.

Ojalá! A más potencia mejor para todos [Ooooo]
Espero que el precio acompañe. Como ofrezcan 4090 a 1.200€ se nos caen los calzoncillos [burla2]
En ese caso el rendimiento en rayos me da igual. Para mi, por mucho que me mole, por ahora es un extra bonito. Pero no decisivo. Y si eso hace subir 400€ el precio pues obvio.

A ver como acaba la cosa. Espero que den la sorpresa. Que falta nos hace.

P.S.
neofonta escribió:
NicOtE escribió:
BladeRunner escribió:AMD sorprende a NVIDIA: la RX 7900 XT está a la altura de la RTX 4090
https://elchapuzasinformatico.com/2022/ ... -rtx-4090/

Lo gracioso es que el leak viene de Nvidia [carcajad]

Vayamos sacando la carne que la brasa ya está a punto [looco]


[looco] [looco] [looco] [beer]
4090 a 1.2k? Seria compra instantanea

Ni tray racing ni LLSD
NicOtE escribió:
hh1 escribió:Pues no sé por qué me da que en potencia bruta , RDNA 3 le va a dar para el palo a Nvidia.

Ojalá! A más potencia mejor para todos [Ooooo]
Espero que el precio acompañe. Como ofrezcan 4090 a 1.200€ se nos caen los calzoncillos [burla2]
En ese caso el rendimiento en rayos me da igual. Para mi, por mucho que me mole, por ahora es un extra bonito. Pero no decisivo. Y si eso hace subir 400€ el precio pues obvio.

A ver como acaba la cosa. Espero que den la sorpresa. Que falta nos hace.

P.S.
neofonta escribió:
NicOtE escribió:Lo gracioso es que el leak viene de Nvidia [carcajad]

Vayamos sacando la carne que la brasa ya está a punto [looco]


[looco] [looco] [looco] [beer]

Como esteis esperando algo mucho más barato, menuda sorpresa os dareis.
NicOtE escribió:
hh1 escribió:Pues no sé por qué me da que en potencia bruta , RDNA 3 le va a dar para el palo a Nvidia.

Ojalá! A más potencia mejor para todos [Ooooo]
Espero que el precio acompañe. Como ofrezcan 4090 a 1.200€ se nos caen los calzoncillos [burla2]
En ese caso el rendimiento en rayos me da igual. Para mi, por mucho que me mole, por ahora es un extra bonito. Pero no decisivo. Y si eso hace subir 400€ el precio pues obvio.
A ver como acaba la cosa. Espero que den la sorpresa. Que falta nos hace.

P.S.
neofonta escribió:
NicOtE escribió:Lo gracioso es que el leak viene de Nvidia [carcajad]

Vayamos sacando la carne que la brasa ya está a punto [looco]


[looco] [looco] [looco] [beer]

El problema es que AMD estando a la altura o por encima ,no va a ser más barata.
Ya sabemos cómo actúan.Los precios serán similares.

@Fleishmann
Y a 1400€ tanbién es compra instantánea la 4090 con lo que rinde la bicha.
Vendiendo la mía no podría dejar de pasar esa ocasión.Yo hasta 1500€ sí los pondría vendiendo mi 3080Ti decentemente.
Pero a 2000€ ya es otro tema.
@hh1

Yo mintiendole a mi mujer podría sin fallo, solo es retocar la factura con photoshop
Esto es lo de siempre. Estamos hablando de precios oficiales.
Luego lo que te encuentras en la tienda es otra cosa. AMD puede poner sus 7900 a 1.200€ y Nvidia sus 4090 a 1.600€

Luego en la tienda todas valdrán 2.000€

El quid de la questión es tener una potra que te mueres y conseguir comprar a través de la tienda oficial a precio oficial. [burla2]
NicOtE escribió:Esto es lo de siempre. Estamos hablando de precios oficiales.
Luego lo que te encuentras en la tienda es otra cosa. AMD puede poner sus 7900 a 1.200€ y Nvidia sus 4090 a 1.600€

Luego en la tienda todas valdrán 2.000€

El quid de la questión es tener una potra que te mueres y conseguir comprar a través de la tienda oficial a precio oficial. [burla2]

El precio oficial de la 4090 son 1950 euros, no 1600.
Te confundes con el precio oficial en eeuu que son 1600 dolares porque no incluye los impuestos.
adriano_99 escribió:
NicOtE escribió:Esto es lo de siempre. Estamos hablando de precios oficiales.
Luego lo que te encuentras en la tienda es otra cosa. AMD puede poner sus 7900 a 1.200€ y Nvidia sus 4090 a 1.600€

Luego en la tienda todas valdrán 2.000€

El quid de la questión es tener una potra que te mueres y conseguir comprar a través de la tienda oficial a precio oficial. [burla2]

El precio oficial de la 4090 son 1950 euros, no 1600.
Te confundes con el precio oficial en eeuu que son 1600 dolares porque no incluye los impuestos.

Aha! Bien visto mi error ;)
Pues nos están estafando menos de lo que pensaba [+risas]
1200€ ? O sea, que serian $999 USD ? No lo veo ... $1200 podría ser.
Un 20% más baratas (que es una diferencia considerable) las amd que sus equivalentes de Nvidia, y la mayoría de gente seguiría comprando las verdes.
Y aunque pudiera tirar los precios por el suelo y esta generación se llevaran el trozo de pastel más grande, no le iba a servir de nada porque es insostenible y a la siguiente gen Nvidia volvería a ser la reina.
No se para qué narices se va a meter amd en una guerra de precios.
Por favor, amd lleva al menos 3 generaciones estando a la altura en rendimiento/precio, y se le ha seguido tirando mierda a base de unos argumentos, que en el caso de Nvidia se han acabado aceptando con normalidad.
5000 respuestas