Las ventas de AMD Radeon caen un 48%

1, 2, 3, 4
PSX22 escribió:claro, os habeis liado con precios cuando amd no vende tras lanzarla, de lanzamiento no salio a 540€ ni de blas, es lo que pasa que salen parecidas de precio , pero a los 2 meses, las bajan 100 o 200€, señal de que no les ve valor la gente. Nvidia no baja porque vende sin parar y esto es porque cumplen lo que venden


No das una… la GRE el día de lanzamiento estaba por 550 ya.

Para una gráfica que tiene un buen precio de salida…
PSX22 escribió:Una 7800 vale como 50euros menos que la 4070 que es menos potente y la nvidia la destroza en rtx en cyberpunk, como va a pagar la gente mas de 500€ y no poder tener RT decente? el DLSS se paga y vale mucho la pena, el FSR no lo activo ni con la fuente del vecino

Sí es cierto. Luego vendra alguien con el RT no vale para nada. Pero todos se fijan en el y lo quieren usar......

Pero Nvidia vende caro porque compramos sus graficas. Sino no las venderia más baratas, eso seguro.

AMD nunca va a dar lo mismo por menos. Eso esta más que comprobado. Paso con las CPUs y si pudieran, pasaria con las GPUs.

Por otro lado, respondiendo a la realidad de cuando lanzo las 7000, no eran tan baratas. Fueron perdiendo fuelle cuando fueron saliendo titulos en donde ya no eran tan buenas. En cierto modo, lo mismo le paso a la 4070 basica. Era mucho más cara, pero perdio fuelle cuando los requisitos subieron, por eso ahora es una grafica de gama media y lo que deberia ser la gama media, las 4060, no alcanzan para jugar excelentemente a esos 4 titulos. Y tambien bajaron de precio.

Luego que para unos u otros sirvan, es otra historia. Hay mucha gente que no juega a lo ultimo. Hay mucha gente que no le tienen porque gustar todos los juegos que salen. Para gustos colores. Yo no me considero jugador de lo ultimo, lo he dicho muchas veces, de hecho me parece que salen muchos juegos que simplemente no me gustan, otros si. Nada anormal.

@darkitu No es por defender a PSX22 ¿pero cuando salio la GRE? nisiquiera estuvo a la venta en PCC el dia que tu crees que fue su lanzamiento porque ya la tenian desde poco déspues de que salio en China y en ese momento, lo más barato fueron 599. Y ahora esta muchisimo más cara.

Lo que se llamo lanzamiento de la GRE, fue en EEUU, Reino Unido y poco más. Aqui ya estaba antes.

¿Y cuanto tiempo déspues de anunciar las 7000? bastante más de un año.........asi que bueno, el razonamiento de AMD vendio barato desde el primer dia.........no tiene logica alguna ni realidad con las 7000, un modelo años déspues......
PSX22 escribió:claro, os habeis liado con precios cuando amd no vende tras lanzarla, de lanzamiento no salio a 540€ ni de blas, es lo que pasa que salen parecidas de precio , pero a los 2 meses, las bajan 100 o 200€, señal de que no les ve valor la gente. Nvidia no baja porque vende sin parar y esto es porque cumplen lo que venden

Estás equivocado, en el lanzamiento sí habían modelos de la GRE por 559€ porque yo los vi, en LDLC recuerdo la Pulse por ejemplo. Luego con los días o semanas las tiendas hacen lo que quieren y suben precios, lo hacen siempre, pero de lanzamiento la GRE se podía comprar por 560€, mucho menos que una 4070 Super. Y en Nvidia también han salido (y saldrán) ofertas, por ejemplo algunos modelos de la 4070 estuvo a ~530€ cuando salió la Super, es un modelo que nunca ha vendido muy bien y salieron multitud de noticias al respecto y se acumulaban en las estanterías porque era muy cara para lo que ofrecía, Nvidia incluso redujo la producción al no venderlas.

Nomada_Firefox escribió:
PSX22 escribió:Una 7800 vale como 50euros menos que la 4070 que es menos potente y la nvidia la destroza en rtx en cyberpunk, como va a pagar la gente mas de 500€ y no poder tener RT decente? el DLSS se paga y vale mucho la pena, el FSR no lo activo ni con la fuente del vecino

Sí es cierto. Luego vendra alguien con el RT no vale para nada. Pero todos se fijan en el y lo quieren usar......

Pero Nvidia vende caro porque compramos sus graficas. Sino no las venderia más baratas, eso seguro.

AMD nunca va a dar lo mismo por menos. Eso esta más que comprobado. Paso con las CPUs y si pudieran, pasaria con las GPUs.

Por otro lado, respondiendo a la realidad de cuando lanzo las 7000, no eran tan baratas. Fueron perdiendo fuelle cuando fueron saliendo titulos en donde ya no eran tan buenas. En cierto modo, lo mismo le paso a la 4070 basica. Era mucho más cara, pero perdio fuelle cuando los requisitos subieron, por eso ahora es una grafica de gama media y lo que deberia ser la gama media, las 4060, no alcanzan para jugar excelentemente a esos 4 titulos. Y tambien bajaron de precio.

Luego que para unos u otros sirvan, es otra historia. Hay mucha gente que no juega a lo ultimo. Hay mucha gente que no le tienen porque gustar todos los juegos que salen. Para gustos colores. Yo no me considero jugador de lo ultimo, lo he dicho muchas veces, de hecho me parece que salen muchos juegos que simplemente no me gustan, otros si. Nada anormal.

@darkitu No es por defender a PSX22 ¿pero cuando salio la GRE? nisiquiera estuvo a la venta en PCC el dia que tu crees que fue su lanzamiento porque ya la tenian desde poco déspues de que salio en China y en ese momento, rondaba lo más barato del unico modelo que habia, fueron 599. Y ahora esta muchisimo más cara.

¿Y cuanto tiempo déspues de anunciar las 7000? bastante más de un año.........asi que bueno, el razonamiento de AMD vendio barato desde el primer dia.........no tiene logica alguna ni realidad con las 7000, un modelo años déspues......


Hombre, eso de que amd no ha dado más que Intel por menos dinero…

Hablo de cuando salieron aquí las GRE, no el lanzamiento en china hace 10 meses. Desde que salieron aquí han estado a menos de 600 euros, puedes repasar Chollometro que está lleno de anuncios de Febrero y Marzo. Que algunas tiendas tuviesen algún modelo de antes… pero en teoría eran sólo mercado chino.

Ya nos ha quedado claro en este y otros post tu animadversión por las Radeon. Puedes dejar de repetir el mismo mantra una y otra vez.

El RT hay muchos a los que no les interesa y menos a costa de perder el 40% de rendimiento. Hay 4 juegos donde merezca la pena y brille de verdad, como por ejemplo CONTROL.

Sobre el dlss y FSR, cierto, dlss es superior pero a 4K tienes que coger una lupa y hacer zoom en pantalla para ver la diferencia a día de hoy cuando ya está pulido.

Y si, las 7900 salieron más caras y aún así las Nvidia eran todavía más caras, y ambas han bajado precios.

Me da igual verde que rojo, compraré lo que más me interesa en cada momento. Y repito, a día de hoy para jugar si te la pela el RT las 7900 son más interesantes que sus equivalentes de Nvidia. Pero lógicamente no solo se vive de eso y amd no tiene gama suficiente ni tiene interés en ello, y aunque así fuese tampoco cambiaría mucho el tema.

Por cierto, no he dicho que amd vendiese barato el 1 día, sino que para una gráfica que sale con buena relación calidad precio (que si, que en china salió hace mil y el resto de 7900 también…).
darkitu escribió:
PSX22 escribió:claro, os habeis liado con precios cuando amd no vende tras lanzarla, de lanzamiento no salio a 540€ ni de blas, es lo que pasa que salen parecidas de precio , pero a los 2 meses, las bajan 100 o 200€, señal de que no les ve valor la gente. Nvidia no baja porque vende sin parar y esto es porque cumplen lo que venden


No das una… la GRE el día de lanzamiento estaba por 550 ya.

Para una gráfica que tiene un buen precio de salida…



venga tu puedes, 549 USD+ tax es el MSRP mundial anunciado de salida, quieres hacer como que sabes, pero no.

que ya cansa tu cantinela de invents

https://elchapuzasinformatico.com/2024/ ... to-global/
Nvidia es mejor, no hay duda.
Pero yo, para igualar la potencia de mi 7900XT, tenía que irme a una 4080 S (o normal) y pagar mas de 300€ de diferencia. Eso para tener RT y DLSS los cuales no uso en ningún juego? Y he tenido la 4070Ti.

Para mi el problema para los usuarios de Nvidia vendrá a futuro, cuando amd ni compita en la gama alta. Y el que quiera nvidia si o si, pues le tocará pagar mas en la gama alta.

PSX22 escribió:
darkitu escribió:
PSX22 escribió:claro, os habeis liado con precios cuando amd no vende tras lanzarla, de lanzamiento no salio a 540€ ni de blas, es lo que pasa que salen parecidas de precio , pero a los 2 meses, las bajan 100 o 200€, señal de que no les ve valor la gente. Nvidia no baja porque vende sin parar y esto es porque cumplen lo que venden


No das una… la GRE el día de lanzamiento estaba por 550 ya.

Para una gráfica que tiene un buen precio de salida…



venga tu puedes, 549 USD+ tax es el MSRP mundial anunciado de salida, quieres hacer como que sabes, pero no.

que ya cansa tu cantinela de invents

https://elchapuzasinformatico.com/2024/ ... to-global/


La GRE salió a 620€.
PSX22 escribió:
darkitu escribió:
PSX22 escribió:claro, os habeis liado con precios cuando amd no vende tras lanzarla, de lanzamiento no salio a 540€ ni de blas, es lo que pasa que salen parecidas de precio , pero a los 2 meses, las bajan 100 o 200€, señal de que no les ve valor la gente. Nvidia no baja porque vende sin parar y esto es porque cumplen lo que venden


No das una… la GRE el día de lanzamiento estaba por 550 ya.

Para una gráfica que tiene un buen precio de salida…



venga tu puedes, 549 USD+ tax es el MSRP mundial anunciado de salida, quieres hacer como que sabes, pero no.

que ya cansa tu cantinela de invents

https://elchapuzasinformatico.com/2024/ ... to-global/


El lanzamiento de la AMD Radeon RX 7900 GRE en España se dará el 27 de febrero, y su precio oscilará entre los 500 y 600 euros

Me da igual el precio anunciado de salida, también el de las Nvidia era una cosa y se fue a las nubes aquí. Yo te estoy diciendo que el día 27 de Febrero se podía comprar por 550 euros.

Aquí la cantinela de invents la has empezado tu hace un rato con los 700 euros.

Por mi parte dejo el tema, me aburre discutir con talibanes. También pasas a ignorados por las formas de niñato en tus respuestas… probablemente cuando yo curraba en Altérnate llevarías pañales.
@Pacorrr
ofertas que hoy dia no veo en PCC no me sirve, posteo hoy, y hoy si voy a PCC a por ella, no me vale 550 iva inc.


@MrKafka
no es que saliera, que salio a mas de 550, son 550 dolares mas impuestos , y luego distribucion en europa, otro tema es que hagan alguna oferta, a dia de hoy vale minimo 600 papeles, y la super parecido 620 ( PCC)

@darkitu

asumelo AMD pagas mas de salida, no tienes DLSS, no hay RT decente, no hay FG decente, consumen mas, y tienen peor estabilidad de drivers.

Hay alguna mentira ? no creo

lo que es verdad es que bajan mucho de precio y por ahi rascan algo de ventas.


claro... un 40% porque amd no funciona bien el RT, ponlo en la 4070super y no te va a bajar un 40% ya te digo , igual por lo que venden casi todo lo que sacan y vuelan y amd las tienen que bajar. Que prueban a sacar una AMD con DLSS propio y RT comparable y volaran, pero no hay.
Ah bueno, que sólo vale PCC para comprar, pues vale allá tú con tu mecanismo, tengo una Nvidia actualmente pero no me ciego XD

Aquí tenéis la prueba de que se pudo comprar una 7900 GRE a 567€ el día del lanzamiento oficial en Europa

https://foro.noticias3d.com/vbulletin/s ... ost5983525

No es bueno cegarse con ninguna marca, ellos sólo miran su beneficio, hay que ser más pragmático.
Pacorrr escribió:Ah bueno, que sólo vale PCC para comprar, pues vale allá tú con tu mecanismo, tengo una Nvidia actualmente pero no me ciego XD

Aquí tenéis la prueba de que se pudo comprar una 7900 GRE a 567€ el día del lanzamiento oficial en Europa

https://foro.noticias3d.com/vbulletin/s ... ost5983525

No es bueno cegarse con ninguna marca, ellos sólo miran su beneficio, hay que ser más pragmático.



no me vale otra cosa que no tenga el nivel de confianza que pido, si te parece voy a wallapop y pago con paypal amigo , que podria salir mal :Ð ratataaaa

tomaos los post como un bar con barra de, si yo mismo casi me compro la 7800 hasta que vi que iba a usar el RTX muy extremo, sino la compra razonable era la 7800XT
Que persona más desagradable este darkitu y cuando pierde los papeles empieza a faltar al respeto..........haciendose pasar por mayor que todos los demas. Como si eso te hiciera más de algo a parte de más viejo.

Por cierto, Alternate españa fue la peor tienda de informatica de este pais. Me hace gracia porque destacaban por el mal trato post venta a sus clientes. [sonrisa] [sonrisa] [sonrisa]

No es bueno cegarse con ninguna marca, ellos sólo miran su beneficio, hay que ser más pragmático.

Exacto. Si lo venden, no lo van a regalar. Pero yo no creo que AMD haya vendido menos, nisiquiera creo que Nvidia haya vendido la leche. Salvo 4060, 3060, 6600, 7600, ahora son las graficas que esta comprando la mayoria de la gente porque estan considerablemente más baratas que el resto y son asequibles.

Y poniendo el ejemplo del foro, es lo más visto estos ultimos 5 meses.

Respecto a PCC. No la considero tienda economica a dia de hoy. Los dias naranjas de este año fueron de hechar a correr. Supongo que los portes gratis y otras cosas acaban por afectar a los precios en general.
Pacorrr escribió:Ah bueno, que sólo vale PCC para comprar, pues vale allá tú con tu mecanismo, tengo una Nvidia actualmente pero no me ciego XD




Si fuera amazon al menos con su garantía, pero pcc que va cada vez a peor, tenerlo de referencia, no es buena idea.
Llámenme loco pero creo que con la escases que pasamos gracias a los mineros, nuestros hábitos de consumo fueron cambiando para adaptarse a la situación y ahí seguimos un poco, aunque veamos ciertos chollos cuesta más que antes decidirse por cambiar lo que tenemos.
Gnoblis escribió:Pues yo estoy muy contento con mi RX 6700 XT de AMD pero no voy a comprar nueva tarjeta todos los años ni cada vez que sale nueva serie.
Me gusta el cacharreo pero no tengo tanto presupuesto si el salto de rendimiento no es tan grande.


y más ahora con fsr3

que con el frame generation te dobla los fps
Es que la estrategia de copiar el precio de nVidia menos 50 € en cada tier de GPU no funciona, porque nVidia tiene mejores tecnologías sobre todo DLSS. También tienen más rendimiento en Ray Tracing, aunque es verdad que AMD ha mejorado y la diferencia ya no es tanta como la gente cree.

Creo que AMD haría bien en dejar la gama más alta (como se rumorea) y centrarse en las gamas media-alta, media, y media-baja optimizando consumos, tecnologías, y precios.

Además ahí es dónde está el dinero porque quién necesita realmente una 4090? Al final la mayoría de gente sigue con sus 1080. Creo que las GPU tope de gama se quedarán para IA ya que para jugar te sobra con una 4070 o 4070 Ti.
MrKafka escribió:Si fuera amazon al menos con su garantía, pero pcc que va cada vez a peor, tenerlo de referencia, no es buena idea.

Pues amazon no veas, a mi me hicieron la del trilero para intentar cobrarme un reemplazo de una 3080
654321 escribió:
MrKafka escribió:Si fuera amazon al menos con su garantía, pero pcc que va cada vez a peor, tenerlo de referencia, no es buena idea.

Pues amazon no veas, a mi me hicieron la del trilero para intentar cobrarme un reemplazo de una 3080

Lo he dicho más de una vez, ninguna tienda va a dejarse palmar dinero y cuando eso sucede, lo normal, son problemas. Da igual que sea Amazon que cualquier otra.
Nomada_Firefox escribió:Lo he dicho más de una vez, ninguna tienda va a dejarse palmar dinero y cuando eso sucede, lo normal, son problemas. Da igual que sea Amazon que cualquier otra.

Palmar dinero? era un problemita de nada de un ventilador, algo facil de arreglar, que si hubiese estado fuera de garantia probablemente lo podria haber arreglado yo ... [+risas]

Pero claro, si puedo aprovechar y hacer una segunda venta, pues mejor.
654321 escribió:
MrKafka escribió:Si fuera amazon al menos con su garantía, pero pcc que va cada vez a peor, tenerlo de referencia, no es buena idea.

Pues amazon no veas, a mi me hicieron la del trilero para intentar cobrarme un reemplazo de una 3080


Ninguna es perfecta, pero dentro de la imperfección, no hay mejor.

Nomada_Firefox escribió:
654321 escribió:
MrKafka escribió:Si fuera amazon al menos con su garantía, pero pcc que va cada vez a peor, tenerlo de referencia, no es buena idea.

Pues amazon no veas, a mi me hicieron la del trilero para intentar cobrarme un reemplazo de una 3080

Lo he dicho más de una vez, ninguna tienda va a dejarse palmar dinero y cuando eso sucede, lo normal, son problemas. Da igual que sea Amazon que cualquier otra.


Amazon ha estado años perdiendo dinero de las devoluciones. Gente robando, dando el cambiazo, etc…y los más descarados, han salido en la tv o en las noticias denunciados. Por eso cada día son más estrictos.
PSX22 escribió:asumelo AMD pagas mas de salida, no tienes DLSS, no hay RT decente, no hay FG decente, consumen mas, y tienen peor estabilidad de drivers.

Hay alguna mentira ? no creo

lo que es verdad es que bajan mucho de precio y por ahi rascan algo de ventas.





Hombre, mentira lo que es mentira quizás no, pero un poco de verdades a medias sí.

"No tienes el DLSS", no, pero lo cierto es que la mayoría de juegos tienen escalados también muy buenos, como el del Unreal Engine (TSR), Intel XeSS y el propio FSR 2 ha dado buenos resultados en general. Especialmente el del UE es casi mejor que el DLSS en algunos juegos.

"No hay RT decente", vamos a ver, que con este tema se exagera mucho; el problema es que en AMD hay más penalización de rendimiento, pero salvo en un par de juegos la mayoría se pueden jugar con RT perfectamente. RT decente sí hay, pero va a penalizar más, y una 7800xt por ejemplo que es superior a una 4070 de golpe se convertiría en una 4060 si activas el RT, pero es viable.

"Consumen más", esta generación (las 7000) es correcto.

"Tiene peor estabilidad de drivers", eso no lo tengo tan claro.



Ahora también te digo que te dejas cosas no menos importantes: más VRAM con similares o inferiores precios y con GPUs más potentes en raster en cuanto a calidad-precio. Y ya hemos visto más de una 3070 frente a su equivalente en AMD (6700XT) se ha llevado el susto por tener 8GB de VRAM, eventualmente eso les pasará a una 4070 Super contra una 7800XT que encima es más barata.


No digo que no tengas parte de razón, pero la historia es mejor al completo.
Cyborg_Ninja escribió:
PSX22 escribió:asumelo AMD pagas mas de salida, no tienes DLSS, no hay RT decente, no hay FG decente, consumen mas, y tienen peor estabilidad de drivers.

Hay alguna mentira ? no creo

lo que es verdad es que bajan mucho de precio y por ahi rascan algo de ventas.





Hombre, mentira lo que es mentira quizás no, pero un poco de verdades a medias sí.

"No tienes el DLSS", no, pero lo cierto es que la mayoría de juegos tienen escalados también muy buenos, como el del Unreal Engine (TSR), Intel XeSS y el propio FSR 2 ha dado buenos resultados en general. Especialmente el del UE es casi mejor que el DLSS en algunos juegos.

"No hay RT decente", vamos a ver, que con este tema se exagera mucho; el problema es que en AMD hay más penalización de rendimiento, pero salvo en un par de juegos la mayoría se pueden jugar con RT perfectamente. RT decente sí hay, pero va a penalizar más, y una 7800xt por ejemplo que es superior a una 4070 de golpe se convertiría en una 4060 si activas el RT, pero es viable.

"Consumen más", esta generación (las 7000) es correcto.

"Tiene peor estabilidad de drivers", eso no lo tengo tan claro.



Ahora también te digo que te dejas cosas no menos importantes: más VRAM con similares o inferiores precios y con GPUs más potentes en raster en cuanto a calidad-precio. Y ya hemos visto más de una 3070 frente a su equivalente en AMD (6700XT) se ha llevado el susto por tener 8GB de VRAM, eventualmente eso les pasará a una 4070 Super contra una 7800XT que encima es más barata.


No digo que no tengas parte de razón, pero la historia es mejor al completo.

No ha mentido, y tu mismo lo has explicado

Hay DLSS? No, no hay reescalado por hardware + IA potenciado por los tensor cores.
Hay una imitacion por software que da el pego, pero que ni funciona igual, ni tiene la misma calidad.

No hay RT decente? Pues no, tu lo has dicho, el RT va por software y se come el rendimiento
En Nvidia el RT se potencia también por Hardware

Consumen mas

En los drivers no me meto, solo hay que haberse paseado por el subforo unos años para ver cuanta gente se ha quejado de los drivers de AMD y de los de NVIDIA.


Lo que se os olvida a muchos es que en NVIDIA hay chips mas allá de la gpu, los tensor cores están petandola en DLSS, RayTracing y IA.

Se compara AMD y NVIDIA sin dlss y sin raytracing y claro, AMD tiene mejor FPS/precio, pero es que en las RTX hay una buena cantidad de silicio en desuso, silicio por el que paga el comprador de NVIDIA y silicio muy bien aprovechado utilizando DLSS y RT.

Por no hablar que todo usuario que quiera que su gpu sirva para trabajar es que AMD ni siquiera es una opcion.

AMD está dando sus primeros pasitos en tensor cores, pero está mas verde que un limon de sudafrica
Ojalá GPUs para los que nos importa 0 trabajar con ellas.

En la vida he editado un vídeo, grabado contenido, etc.

Solo quiero jugar.
[Alex] escribió:Ojalá GPUs para los que nos importa 0 trabajar con ellas.

En la vida he editado un vídeo, grabado contenido, etc.

Solo quiero jugar.

Eso digo yo, ahora resulta que todo el mundo usa las gpus para "trabajar" XD

Yo siempre las he usado para jugar [looco]
@Cyborg_Ninja

la historia es tal cual he dicho y encima he dejado algo importante, las texturas en nvidia se ven mucho mejor. Es una ventaja de hecho, consumen menos VRAM y se ve mejor.

DLSS vs resto ( siempre cogerias DLSS)

RTX vs RT siempre RTX porque penaliza menos, nunca he dicho que se vea peor, sino que es peor su RT.

Pero que no lo digo yo, lo dice la gente con su bolsillo, irse a steam y mirar que % hay de nvidia vs AMD, y canta solo, encima amd es mas barato, a igual precio nvidia venderia 99 de cada 100


Yo no trabajo con la RTX, pero si he renderizado un video en NVENC y es una pasada lo rapido que va, y los streamers elogen todos Nvidia por el AV1 codec

En redes neurales AMD no existe, en after effects....


Porque ensambladoras no quieren montar casi AMD? porque AMD esta pensando en no sacar gama alta este año??

son manias? o que esta fuera del mercado practicamente?
Yo tengo una Nvidia y paso muchísimo del DLSS, si puedo claro, que hay juegos que no tienes más remedio que usarlo porque te va a 30-40 fps como el Alan Wake por ejemplo Oooh

El Ray Tracing penaliza menos en Nvidia pero sigue siendo una burrada lo que penaliza, hasta el punto de que si no lo usas puedes jugar en nativo sin reescalados pero a la que lo activas tienes que pasar sí o sí por el aro del reescalado, ahi se ve lo que penaliza, una burrada, tanto en Nvidia como en AMD (mucho más en la última, pero no es consuelo para la Nvidia tampoco lo que penaliza)

Creo que estáis dramatizando demasiado, si AMD no saca gama entusiasta la próxima gen, es porque su arquitectura de chiplets ha fallado, y para salir del paso irán con el die monolítico más potente que puedan, y según los rumores será del nivel de una 7900 XT más o menos, pero costando mucho menos, luego ya veremos lo que es al final.

Yo siempre voy cambiando de marca, la gen pasada tuve una 6800 XT tal como dije en otro post, la anterior una 2080, la anterior una Vega, ahora una 4090... la próxima gen ya veremos, pero me gustaría cambiar de nuevo, yo no me ato a ninguna marca porque luego pasa lo que pasa, que te la meten doblada y cuando no te das cuenta ya se han creado un monopolio, necesitamos variedad de fabricantes, y ojalá Intel saque algo que merezca la pena también.
PSX22 escribió:Yo no trabajo con la RTX, pero si he renderizado un video en NVENC y es una pasada lo rapido que va, y los streamers elogen todos Nvidia por el AV1 codec

Bueno bueno, no nos dejemos engañar que conviertes video bastante rapido que con una grafica de AMD. Y tambien depende de lo que hagas, yo con la RX hice minimo 1000 videos, eso sin problemas. Con la RTX lo hago igual pero tampoco es realmente una super ganancia de procesamiento.

Para mi el problema era creando ficheros dds, asi de simple. Programas que usan IA, alguno uso, funcionaban tambien con la RX. Una cosa es entrenar una IA, otra bien diferente usar aceleración de GPU para mejorar imagenes o similares.

El Ray Tracing penaliza menos en Nvidia pero sigue siendo una burrada lo que penaliza

Pacorrr tiene toda la razon, sí, el RT funciona mejor pero es increible lo mal que funciona en ambos casos. Unas van mal y otras peor.

Yo tengo una Nvidia y paso muchísimo del DLSS, si puedo claro, que hay juegos que no tienes más remedio que usarlo porque te va a 30-40 fps como el Alan Wake por ejemplo Oooh

Alan Wake 2, yo diria que esta capado a secas con la velocidad de la consola, y sí en PC funciona mejor pero el efecto del capado hace que no mucho mejor. No hay nada en el juego que justifique ese rendimiento penoso. Absolutamente nada y no es en una escena o dos, es que ya desde el principio pasa.

Lo de que AMD no va a sacar graficas top, no lo creo. No he visto una sola prueba al respecto.
PSX22 escribió:@Cyborg_Ninja

la historia es tal cual he dicho y encima he dejado algo importante, las texturas en nvidia se ven mucho mejor. Es una ventaja de hecho, consumen menos VRAM y se ve mejor.

DLSS vs resto ( siempre cogerias DLSS)

RTX vs RT siempre RTX porque penaliza menos, nunca he dicho que se vea peor, sino que es peor su RT.

Pero que no lo digo yo, lo dice la gente con su bolsillo, irse a steam y mirar que % hay de nvidia vs AMD, y canta solo, encima amd es mas barato, a igual precio nvidia venderia 99 de cada 100


Yo no trabajo con la RTX, pero si he renderizado un video en NVENC y es una pasada lo rapido que va, y los streamers elogen todos Nvidia por el AV1 codec

En redes neurales AMD no existe, en after effects....


Porque ensambladoras no quieren montar casi AMD? porque AMD esta pensando en no sacar gama alta este año??

son manias? o que esta fuera del mercado practicamente?


No soy Cyborg Ninja, pero....

Lo de las texturas ni lo se ni me importa, como tampoco me importa que AMD suele tener de serie colores "mas llamativos"

Si quiero calidad de imagen, no usaria ningun reescalado, y si me das a decidir cual prefieres de vista al futuro, seria FSR, lo puede usar cualquier GPU, no como los demas......

RTX no es diferente a RT, no se por que confundes el nombre que Nvidia usa para su familia, con el nombre de la tecnologia en si misma😅

Bueno, eso es como decir que como hay mas Clios que Porsche 911 GT3, el Renault es mejor, es una manera rebuscada de leer los datos, cualquier padre que lleva a su hijo al Carrefour a comprarse un PC, se va a llevar una con Nvidia seguramente, por que los demas seran PC con grafica integrada y si lo que le dicen al dependiente que le atiende es "el niño quiere un ordenador para jugar" no deberian de mostrarle ni uno solo con graficos integrados (aunque despues habra mas de uno que lo hara😅)

Intel con el QuickSync (creo se llamaba asi) tambien van muy bien en esas cosas y sin embargo.....

Ni idea, tampoco es que yo use redes neuronales, ¿Cuantos de aqui las usan?🤣

Que yo sepa casi todas las ensambladoras hacen montaje de Radeon.
Pero si hay un tema interesante, ¿Porque EVGA dejo a Nvidia?

Ni idea y tampoco me interesa, si vuelven a repetir algo como en las RX 5000, que la RX 5700 XT tenia precio de RTX 2070, rindiendo casi como una RTX 2080, mas de uno estaria frito por esa supuesta RX 8700 XT.

Si, en muchos casos son manias, cuantos vienen al foro y lo primero que dicen, quiero una Nvida, AMD no me gusta, les preguntas y te dicen que nunca probaron una AMD, a puñados, lo mismo ni van a usar el codec para stremear, ni editar videos ni nada de eso, "pero quieren una Nvidia, que los driver de AMD fallan"🤣🤣🤣🤣🤣🤣
@ivan95

Tampoco voy a entrar a todo porque veo que si no te interesa la mejor calidad posible , no se que andas haciendo en foros de master race, para empezar RTX y RT no es lo mismo, no todas las funciones RTX son soportadas por RT generico, no, no es un nombre para decir lo mismo. Mismamente el ray reconstruction de DLSS 3.5 bajo RTX no esta soportado por harware en ninguna AMD, simplemente vas a cyberpunk y te sale la opcion gris.

Luego ya preferir usar FSR ( que esta en nvidia tambien) es de traca, el grano y malla que muestra uno y otro esta muy lejos.

Reitero, si te da lo mismo la calidad, respetable es, pero para jugar con cualquier calidad usas una PS5 que tiene un coste bueno para la calidad que ofrece, pero lejos de lo mejor de nvidia.

las marcas que montan gpu que dejan de lado son MSI, evga no es alguien top, y no es que se llevaran mal con nvidia(que asi era) , es que no saben hacer dinero con las GPU y se alejan de las GPUs.

Es irrelevante tema marcas, sino si vienes al PC nvidia te pone al borde de lo ultimo , pagandolo bien claro esta, y AMD esta para gente que porque no , es mas del perfil de consola y esta un escalon abajo en todo los sentidos, incluido el precio y muchos mas en ventas. Van a clientes diferentes diria yo

ponerse nvidia por leer forocoches que las amd fallan los driver es de ignorancia y cuñadez supina, pero esos no somos nosotros, yo quiero hablar con quien ha tenido de las 2. y nunca he dicho que AMD lo haga mal, solo que nvidia le lleva ventaja y clara. Tuve una raedon HD 4000 y me fue perfecta siempre, no me compro nvidia porque las amd vayan mal, sino porque me dan tecnologia que busco activamente, en mi caso particular mis juegos si usan RTX, quien juegue a CS2 solo , pues es tonteria ponerse una GPU menos potente solo por tener DLSS RTX NvENC y AV1, porque no lo va a usar. Pero yo hablo de mi caso , quien sea el caso del CS2, el podra argumentar su caso y lo veria totalmente acertado.
Lei hasta que dijiste que EVGA no es TOP, a partir de eso ya pase del tema🤣🤣🤣🤣

EVGA era el ensamblador TOP de Nvidia, como de AMD es PowerColor..... Si hay que explicar eso, mal vamos.

Lo del RTX, no mezcles, dijiste que "RTX penaliza menos que RT", en resumen, estas hablando de TRAZADO DE RAYOS, no que ahora metiste otras cosas por medio😅

Si, prefiero FSR, esta guerra ya la vimos en el pasado con los monitores, GSync vs FreeSync, todos sabemos quien se comio a quien, esto es lo mismo, cuando mañana te saquen las RTX futura y te recorten algo a las RTX 4000 (habiendo GPU de 2000€ en esa familia) mientras que FSR te de eso que la PROPIA Nvidia no te deja, vendras y me diras cual es mejor, el ejemplo esta en las RTX 2000 y 3000 sin FG, pero con FSR si lo tienen, por lo que en una guerra como la de los monitores en el pasado, a TODOS nos conviene que salga ganador FSR o cualquier tecnologia con tanta compatibilidad como la de AMD y no la propietaria, tambien paso con Physx.......

Lo demas, no lo lei, me quede en lo de EVGA, no es postureo, por lo tanto no puedo decirte si comparto tu opinion o difiero.

De todas formas un saludo😉
PSX22 escribió:@Cyborg_Ninja

la historia es tal cual he dicho y encima he dejado algo importante, las texturas en nvidia se ven mucho mejor. Es una ventaja de hecho, consumen menos VRAM y se ve mejor.


Esto te lo estás inventando directamente. El consumo de VRAM es más o menos el mismo y la calidad de texturas obviamente es cosa de los juegos, no sé de donde has sacado esta barbaridad.



Aquí mismo puedes comprobar que el uso de la vram de la 4070S (12gb) y el de la 7800XT es aproximadamente el mismo en todos los juegos, las discrepancias suelen ser porque cuando tienes más VRAM algunos juegos utilizan más cantidad como caché de texturas, pero el consumo de VRAM es muy similar y lo de "las texturas en Nvidia se ven mucho mejor" es que ya no sé ni como responder a una tontería de ese calibre, de verdad. Las texturas son imágenes a mayor o menor resolución, no pueden variar por una gráfica u otra, varían en función de la calidad que pongas en el juego, no sé de donde te has sacado esto ¬_¬


Lo dicho, las pocas discrepancias que hay (aparte de la aleatoridad de los juegos) es por la cantidad de VRAM, si comparas una 4070s vs 4080 (12gb vs 16), verás resultados similares:

Imagen

Imagen

Imagen

Imagen

Cuando hay más memoria es un comportamiento normal que su consumo sea algo más elevado en la que tiene más cantidad. Igual que con la RAM. No es cosa de majia de Nvidia, aquí no hay mucho misterio, las de AMD tienen más VRAM y punto. Ni se utiliza mejor, ni "las texturas se ven mejor en Nvidia" ni hay diferencias en el consumo de VRAM.


RTX vs RT siempre RTX porque penaliza menos, nunca he dicho que se vea peor, sino que es peor su RT.


Has dicho que "no se puede tener RT DECENTE con AMD", y yo te he dicho que sí se puede, solo que penaliza más. Simplemente si con una 4070Ti juegas a Alan Wake 2 o con una 7900xtx pasaría esto:

Imagen


La 7900XTX estaría rindiendo peor que una 4070Ti (50fps de media a 1440p la 4070Ti y 44fps la 7900xtx), situando el rendimiento de la de AMD a una 3090 aproximadamente. ¿Cual sería la solución? pues bajar un poco más los settings o usar FSR para igualar el rendimiento de una 4070Ti.


Sin RT sin embargo la 7900xtx machaca a la 4070ti por más de 20fps de media:

Imagen



¿Penaliza más? sí. ¿No se puede tener un RT decente con una gráfica AMD, tal y como habías dicho? falso. Y estoy poniendo un ejemplo extremo, el 99,9% de juegos con RT no son tan exigentes como AW2.


Lo dicho, estás contando las cosas a medias o inventándotelas. Tengo curiosidad de donde has sacado la tontería de las texturas.
@Cyborg_Ninja


Informate mejor por favor


No son las mismas texturas ni ocupan lo mismo ni el consumo es el mismo, ya solo obviar el uso de cache L2 deja claro que tienes que revisar datos

No se usa la vram de igual ni rinde igual ni se requiere la misma cantidad, con afterburner de ve en cualquier video, lo mas grave es calidad de texturas y no me refiero al setting del juego que ahi logicamente ambas estarian en ultra
No se si alguien ha dicho que las graficas AMD y Nvidia usan texturas diferentes, si alguien lo ha dicho, no es para nada cierto. Totalmente, ningun juego se hace asi. Sí es cierto que se hacen ajustes graficos ademas de las shaders para configuraciones varias pero..... ¿texturas diferentes? no. Y si habeis visto cosas diferentes, más bien sera por las shaders que son el punto donde se edita el como luce el juego.

Ademas creo que alguien esta ignorando la velocidad de la vram de su grafica para entender porque el consumo de memoria grafica es menor.

Tan facil como jugar con el mismo detalle y resolución a un mismo juego con una grafica de GDDR6 y GDDR6X. Entonces te das cuenta que una gasta igual 11.5GB y otra 9.5GB. Y eso es por la velocidad de la memoria. Cuando llegue la siguiente generación con memoria más rapida, seguro que vemos disminuciones.
Pacorrr escribió:
[Alex] escribió:Ojalá GPUs para los que nos importa 0 trabajar con ellas.

En la vida he editado un vídeo, grabado contenido, etc.

Solo quiero jugar.

Eso digo yo, ahora resulta que todo el mundo usa las gpus para "trabajar" XD

Yo siempre las he usado para jugar [looco]

Las de AMD pueden dar un mejor fps/precio si solo quieres jugar sin reescaladores y sin rt.

Nvidia te da reescalado y rt por hardware.

Los precios de las dos no son tan tan lejanos, el duopolio está bien montado.

Nvidia tendrá algo mas de coste por fps pero te da algo mas de calidad.

Poco mas, que sirvan para trabajar es efecto secundario de su potencia
Se están diciendo muchas burradas, las texturas no se ven mejor en una u otra, se ven exactamente igual, Nvidia tiene un poco mejor compresión y hace que ocupe un poco menos en la VRAM, pero ya está, eso es todo respecto a las texturas, el RT es el mismo en ambas, RTX no es más que un nombre comercial, el RT existe desde antes de que existieran las GPUs para jugar (porque para mí son eso, hardware para jugar por más que se le puedan dar otros usos). Lo que sí es cierto es que las AMD en colorimetría se ven un poco mejor, dependiendo del monitor que se use, y tiene dithering por hardware (para evitar el banding). Pero todo eso lo tiene heredado de la antigua ATi, AMD no ha implementado nada de eso, ya se lo encontró.

Y no, no es que las Nvidia sean más potentes y por eso vayan mejor para "trabajar", es que Cuda está muy arraigado en el software profesional y AMD no tiene nada para rivalizar, primero de todo porque las compañías ni se molestan en implementarlo, al ya existir el monopolio de Cuda, por eso AMD ha sacado su traductor ROCm, ni idea de cómo funcionará porque como digo yo no he usado nunca una gpu para esos menesteres, más allá de probar el benchmark de turno por ver lo que da XD
Se están diciendo muchas burradas, las texturas no se ven mejor en una u otra, se ven exactamente igual

Bueno, ver lo que se dice ver, se ven diferente. Pero no es por cargar texturas diferentes. Es por la gestión de color de cada una. Los colores de AMD son más vivos que los de Nvidia.

Da igual el monitor, tu configuras dos monitores diferentes con unos niveles lo más parecidos posibles y te das cuenta que de serie la grafica de AMD, tiene unos colores un pelin más vivos. Pero es por eso, la gestión de color.

No obstante en Nvidia, con la app de nvidia sobretodo, puedes usar el llamado RTX Dynamic Vibrance para amplificar la intensidad del brillo y la saturación en perfiles de juegos reconocidos a modo individual o en otros con un modo individual pero solo cuando los usas. Asi yo por ejemplo, uso un nivel de brillo para usar el PC muchas horas sin quedarme ciego pero luego a la hora de ver una serie o jugar a algo, aumento el brillo y la saturación de ese modo que es mejor que tener que cambiarlo con los botones del monitor, o bien incluso combino eso con un perfil del monitor cuando juego a algo que me gusta que se vea super vivo o que quiero que tenga más luz porque tiene escenas muy oscuras.

Pero vamos, que de texturas diferentes, nanai de la china. Shaders sí, aunque no necesariamente. Color sí.

Nvidia tiene un poco mejor compresión y hace que ocupe un poco menos en la VRAM

Prueba una grafica con la misma cantidad de memoria en un mismo juego con GDDR6 y otra con GDDR6X. Veras que la de memoria más veloz consume menos.

es que Cuda está muy arraigado en el software profesional

Totalmente cierto. Pero el traductor sirve para limpiarse el ..... porque ellos no dejan de no tener ciertas herramientas para uso profesional.

Y por cierto, el Nvidia Broadcasting, tambien es mucho mejor que el filtro de microfono de AMD. Claro que ninguno hace milagros, un autobus lo filtran pero no filtran una ambulancia. [sonrisa]
Les va a salir caro no saber programar sus drivers.
De todo lo hablado hasta destacaría algunas cosas.

En primer lugar AMD debería poner más esfuerzo en limar drivers, de otro modo nunca estará a la altura por muy bueno que sea el hardware que vende.

Por otro lado, veo bien aparcar la gama entusiasta, no es el verdadero público, las encuestas de Steam dejan claro que el personal juega con gamas medias y bajas. Debería poner toda la carne en el asador de las gamas medias y bajas que es donde realmente ganas el mercado (y si me apuras solo gama media, por lo que explico en el siguiente punto). Ahora mismo la imagen de marca de nVidia es aplastante y no pueden querer competir contra ellos en todos los segmentos.

Y por último, diría que están trabajando mucho en mejorar las APUs. No olvidemos que llevan 2 generaciones colaborando con las consolas y eso quieras que no significa invertir en I+D para el diseño de SoCs. Esa experiencia puedes traerla al mundo del PC y diseñar APUs con un rendimiento gráfico suficientemente solvente como para matar la gama baja de GPUs. De este modo si AMD sigue vendiendo GPUs gama baja sería pensando en equipos antiguos, el que se pille un AMD actual no va a necesitarla.
Recomendaría a cualquiera que esté dudando si comprar una marca u otra, que huya de este hilo. Porque la cantidad de sandeces, fanboyadas y demás tonterías que se pueden leer…en fin.
AxelStone escribió:En primer lugar AMD debería poner más esfuerzo en limar drivers, de otro modo nunca estará a la altura por muy bueno que sea el hardware que vende.

Yo doy gracias todos los dias cuando me levanto a que haya empresas de hardware que lo hacen peor.

Si lo hicieran igual, estariamos viendo los mismos precios que con Nvidia.
PSX22 escribió:@Cyborg_Ninja


Informate mejor por favor


No son las mismas texturas ni ocupan lo mismo ni el consumo es el mismo, ya solo obviar el uso de cache L2 deja claro que tienes que revisar datos

No se usa la vram de igual ni rinde igual ni se requiere la misma cantidad, con afterburner de ve en cualquier video, lo mas grave es calidad de texturas y no me refiero al setting del juego que ahi logicamente ambas estarian en ultra



Creeme, estoy bien informado y no hay apenas diferencias en el uso de VRAM y en la calidad de texturas directamente no hay ninguna diferencia. Nvidia apuesta por una caché L2 generosa y AMD de nuevo por Infinite caché como RDNA 2.


Mira que te puedes obcecar en el DLSS o en el Ray Tracing, pero es que te estás yendo precisamente al único punto a favor de AMD, y es que la generosa VRAM en las gamas medias puede hacer que en una gráfica igual o más potente de Nvidia tengas que rebajar las texturas. A bote pronto, pasó en The Last of Us de lanzamiento (una 3070 rendía igual o mejor que una 6700XT pero tenías que poner las texturas en medio), pasó con RE4R (que como te pasases de frenada los 8GB se llenaban rápido y tenías un stuttering bien rico), ha pasado recientemente con Horizon Forbidden West (aparte de que DF señala en el mismo párrafo que los 8GB han dado problemas en títulos recientes):

Next up, let's talk about graphics cards with 8GB of VRAM - a setup that hobbled many recent PS5 to PC ports on launch. At 1440p, both the RTX 2070 Super and RTX 3070 had no issues with frame-rate drops due to VRAM running out. I also tried bumping up the resolution to 1800p with the RTX 3070 and found that after a cutscene, during a cutscene, or after fast traveling, I could see big frame-rate drops and swings as VRAM was overfilled and the game started paging to system memory.


Con la 3070 a 1800p, un rendimiento viable con esa gráfica ya se encontraron situaciones donde la VRAM se llenaba y el rendimiento se iba a tomar por culo, y digo que es viable a 1800p porque en 1440p con los settings al máximo se puede jugar a 60fps con una 3070:

Imagen


El Horizon ya a 4K peta los 8GB:

Imagen

El Alan Wake 2 a 1440p ya satura los 8GB de VRAM:

Imagen

Y sí, Alan Wake 2 se puede ejecutar a 1440p en una 3070, no es ninguna resolución salvaje.

Avatar más de lo mismo:

Imagen

¿Que ocurre en estos casos? pues que la 3070 muerde almohada más rápido que una 6700XT. No ha habido ninguna magia de Nvidia que solucione la falta de VRAM en muchos títulos. Y con los 12 vs 16 eventualmente pasará lo mismo.


Tampoco hay necesidad de inventar, las GPU RTX 3000/4000 tienen muchas ventajas, pero esta no es una de ellas, más bien al revés.
@Cyborg_Ninja

informacion tienes, pero saberla interpretar tengo mis dudas , veo bastantes incongruencias en tus planteamientos




en PC se aspira a mas que en consola, por tanto los modos 30 y 60 quedan por debajo de nuestro objetivo, por tanto compremos la 4060 70 80 o 90,nuestro objetivo es jugar a mas de 60, que ocurre? que nvidia ya ha calculado esto.


Una GPU de 8 es para 1080, una de 12 es para 1440 y una de 16 o mas es para 4K ( siempre hablando de juegos modernos exigentes).

que pasa que tienes que subir a 1800p la 3070 para tener falta de ram con 8gb, claro, porque estas jugando en malas condiciones, si mi 4070 la pongo a 4K y se muere, hay que usar DLSS 4K ( que es un 1440p que parece 4K si) pero consume VRAM como 1440p. Mucho menos vas a jugar a 1800p a nada moderno con una 3070, porque todo lo que sea bajar de 70-80 fps, automaticamente tengo que bajar graficos o resolucion, porque para jugar peor que en ps5, me voy a ps5.

En resumen, si se usa la GPU de turno para una resolucion en ultra y RT , no te va a consumir mas de lo que tienes. Nvidia ya ha probado esto y no te va a vender nada que no cubra la necesidad para el proposito.

Hay juegos que no lo cumplen? si alan 2 y parte 1 ,pero de salida, lo que significa que estaban mal hechos , porque luego ya no piden eso. Luego en mi caso uso 4K y como no da la GPU uso DLSS proyecto 4K sin apenas perdida pero el coste interon es 1440p. Mi GPU no te mueve cyberpunk en RT ultra path o alan 2 en 4K nativo, me quedaria sin vram si, pero de tenerla iba a jugar a 12-14 fps? No se si te sonara la pelicula de en los 2000 inicios que vendia nvidia ademas GPU con 512MB vram y las de gama alta tenian 256 e iban perfectas... la VRAM sirve.. para vender y ya esta. ( y trabajar por eso esta la 4060 de 12gb).

Por otro lado hay fallos graves en las tablas de interpretacion, pues mirar con la 4090 la VRAM en 4K no indica el uso real en una 4070 de vram, pues cuanto mas tienes mas usa el software( windows con 16ram vs 32ram usa mas ram con 32, pero va perfecto con 16) y no es indicativo de que vaya a rendir mal, Es mas las graficas frametime heterogeneas de DF son humo, pues muchas veces evualuan de mal rendimiento por haber picos de frametime, pero luego jugando no lo percibes. Por tanto es engañoso , al final estamos jugando y no midiendo a la hora de la verdad.

Las texturas ni ocupan igual ni se ven igual en nvidia esto te lo dejo a ti para informarse porque esta facil de localizar, tiene nombre que no recuerdo la compresion de texturas inhouse de nvdia.


en resumen que si compras nvidia una 4070 para jugar a 4k u 8k pues te faltara ram seguro pero esque estas comprando un ferrari para arar el campo.

No digo que tus datos estan incorrectos pero si tu interpretacion. La prueba es yo mismo o cualquiera con nvidia, no me ha faltado vram nunca ( jugando al target que dice nvidia en mi caso 1440p o 4K DLSS Q ( 1440p internos).


AMD te da mas memoria, porque usa mas memoria y ademas se ve peor la textura, es memoria mas lenta y peor ancho de banda por tanto, con lo que es ir en autobus a supermercado, puedes ir.. si. pero no es lo suyo. Es un punto de venta porque es lo unico que puedes montar sin tener que desarrollar tecnologia, meter memoria y bajar precios , no hace nada mas.

la unica grafica con algo de potencia para 4K es la 70ti super, y sorpresa, tiene 16 porque al poderlo mover puedes usarla ( se entiende 60fps o mas) eso en la mia ya dije es inviable , y no voy a necesitarlo. CP77 mismo a 4K low me consume 11GB y ve va a por ej en cierto punto a 25fps, subo a ultra 4K , y me consume 14 , me quedo sin vram cierto, pero si ya me iba a 25 fps... con sobra de ram en 4K low, a cuanto aspiro en ultra 4K, a 13fps? ahora me regala nvidia mas vram y sorpresa... seguiria jugando a 25fps....


creo que he repetido bastante mi razonamineto y el que quiera entender ( y probar por si mismo) podra hacerlo y ver que al final nvidia no nos ha engañado ( salvo en el precio ahi si)



Por otro lado FSR3 y AFMF es muy inferior
PSX22 escribió:@Cyborg_Ninja

informacion tienes, pero saberla interpretar tengo mis dudas , veo bastantes incongruencias en tus planteamientos






No hay ni una sola, y si la hay, muéstrame donde están esas supuestas incongruencias.


en PC se aspira a mas que en consola, por tanto los modos 30 y 60 quedan por debajo de nuestro objetivo, por tanto compremos la 4060 70 80 o 90,nuestro objetivo es jugar a mas de 60, que ocurre? que nvidia ya ha calculado esto


Perdona, pero habla por ti. Yo juego siempre a 60hz incluso en mi OLED o en mi monitor y tengo una 7800XT. Los 60fps y maximizar la resolución son mi objetivo, así que a mí ya de entrada una 3070 se me atragantaría con un Horizon FW a 1800p.

Una GPU de 8 es para 1080, una de 12 es para 1440 y una de 16 o mas es para 4K ( siempre hablando de juegos modernos exigentes).



Una GPU de 8GB es para 1080p POR SU LIMITACIÓN DE VRAM, pero la 3070 podría estar funcionando Avatar perfectamente a 1440p y no lo puede hacer sin stuttering porque la VRAM se satura, dígame, como interpreto erróneamente esta tabla?

Imagen

Satura la VRAM o no? la 6700XT y sus 12GB le ha permitido defenderse mejor que su equivalente en Nvidia a 1440p a juegos actuales, no hay más vuelta de hoja, tiene más VRAM y no hay "mejores texturas en Nvidia" por ninguna magia negra. Es lo que hay.


¿Que en RT AMD es reventada? pues sí, y sin poner paños calientes, pero no vayamos a negar categóricamente lo obvio.


que pasa que tienes que subir a 1800p la 3070 para tener falta de ram con 8gb, claro, porque estas jugando en malas condiciones, si mi 4070 la pongo a 4K y se muere, hay que usar DLSS 4K ( que es un 1440p que parece 4K si) pero consume VRAM como 1440p. Mucho menos vas a jugar a 1800p a nada moderno con una 3070, porque todo lo que sea bajar de 70-80 fps, automaticamente tengo que bajar graficos o resolucion, porque para jugar peor que en ps5, me voy a ps5.



Osea, a ver si te estoy entendiendo bien; si en PC "bajas gráficos o resolución" automáticamente juegas peor que en PS5?

Tú eres consciente de que Alan Wake 2 está todo en bajo en su modo rendimiento y aún así va a 800p?

Eres consciente de que Horizon FW en el modo rendimiento está renderizando 1800p checkerboard rendering? es decir, Horizon Forbidden West está funcionando a 1600x1800 nativo y además está usando resolución dinámica. Hablando en plata: en PS5 juegas bordeando los 1080p, arriba o abajo. Y en muchos juegos actuales sus resoluciones nativas son de 900p.

la VRAM sirve.. para vender y ya esta


Madre mía... qué nivel, Maribel. Ahora la memoria de vídeo que se utiliza para los búffers, para los efectos alpha, para la calidad de texturas no sirve de nada, es todo mentira y todas las compañías es que optimizan mal sus juegos y nos están engañando a todos. Los cientos de ejemplos donde la falta de VRAM ha hecho envejecer terriblemente mal a las gráficas son todos falsos.


Por otro lado hay fallos graves en las tablas de interpretacion, pues mirar con la 4090 la VRAM en 4K no indica el uso real en una 4070 de vram


Gracias por explicarme lo que yo te he explicado a ti aquí, supongo, de mi párrafo anterior:

Aquí mismo puedes comprobar que el uso de la vram de la 4070S (12gb) y el de la 7800XT es aproximadamente el mismo en todos los juegos, las discrepancias suelen ser porque cuando tienes más VRAM algunos juegos utilizan más cantidad



Pero precisamente por eso te digo que en cuando se usa la VRAM en AMD y Nvidia puede haber discrepancias, pero no porque en Nvidia sea mejor, si no porque si tienes una tarjeta de 16GB puede que use más que una de 12. Y eso se extrapola a Nvidia vs Nvidia cuando tiene más VRAM disponible por lo que he comentado más arriba y tú has repetido para "contradecirme" :-?

Las texturas ni ocupan igual ni se ven igual en nvidia esto te lo dejo a ti para informarse.



Claro, me lo dejas a mí básicamente porque te lo has inventado. Las texturas NO se ven mejor con gráficas Nvidia. Fin de la historia, las texturas no cambian en función de la tarjeta gráfica, tienes un deslizador en los juegos que te permiten variar la calidad y fin. No vas a ver ninguna textura mejor por usar una gráfica Nvidia.

AMD te da mas memoria, porque usa mas memoria y ademas se ve peor la textura, es memoria mas lenta y peor ancho de banda por tanto, con lo que es ir en autobus a supermercado, puedes ir.. si. pero no es lo suyo.



¿Pero de donde te sacas que la VRAM de AMD es más lenta y tiene peor ancho de banda?


Comparando una 4070 con una 7800xt, que están en rangos similares de precio:

7800XT:

Imagen


4070:

Imagen



Creo que estás oyendo campanas y no sabes por donde, sinceramente, creo que has leído sobre las mejoras de la GDRR6X (que resumiendo mucho pueden aportar una velocidad más rápida de transmisión de texturas por ejemplo) y te piensas que aplica una especie de magia negra que hace que se vean automáticamente mejor (aunque insisto, AMD compensa esto con frecuencias más altas, más ancho de banda y con la Infinite Caché). Son arquitecturas diferentes pero el resultado final es muy similar, tan similar que lo que queda más relevante es la cantidad de memoria. Creo que estás más perdido que el barco del arroz en cuanto a tecnología y estás haciendo un popurrí de conceptos, algunos reales y otros inventados para inventar una falsa narrativa en que tener más VRAM no beneficia a las GPU AMD porque te has inventado que su memoria es peor y los juegos "se ven peor las texturas".


Es más fácil aceptar que es una ventaja que tiene AMD y ya. Lo ha comentado hasta Digital Foundry y lo he leído en varios medios de benchmark (Techpowerup, dsogaming..), y eso que DF se marca cada publirreportaje con Nvidia cada vez que tienen ocasión. La VRAM desde SIEMPRE ha hecho que envejezcan mejor las gráficas.

Obviamente entre gráficas del mismo rango de potencia o similar. Pero vamos, que esto es como hablar con la pared, te voy a poner mil demostraciones, miles de benchs que me dan la razón y tú no me vas a poner un solo ejemplo de esos juegos que mágicamente por usar una GPU Nvidia tienen mejores texturas, básicamente porque no existen.
Igual tenemos que recordar como ha envejecido la R9 390 de 8GB frente a la 970 de 3,5GB :-|
No hace falta irse tan lejos, la GTX 1650 Super vs la RX 580, la primera es algo mas potente (no mucho) pero la VRam por ejemplo en Forza Horizon 5 solo le permite jugar en medio si no quiere tirones por Vram llena, mientras la RX 580 puede jugar en Alto sin tirones por VRam (tendra algun bajon puntual por falta de potencia🤣)

Por lo que decir que la VRAM es algo sin importancia, es como decir que el deposito de combustible de un coche no tiene importancia, puede correr todo lo que quiera, pero cuando se te acaba el combustible te va a dejar tirado....
Tiene o no tiene importancia dependiendo en que cantidades te muevas, y como estes de cerca de ciertos umbrales.

A corto plazo puede que no se note, pero si quieres mantener la GPU muchos años, seguramente te pase factura si no venia bien sobrada de VRAM.

640K será suficientes [qmparto]
A corto plazo puede que no se note, pero si quieres mantener la GPU muchos años, seguramente te pase factura si no venia bien sobrada de VRAM

Por esa regla de 3, 16GB son insuficientes ya.

Pero esta más que demostrado que se nota antes la falta de chicha. Por más memoria que tengas......
Siempre pienso que los 12gb de la 3060 están desaprovechados para 1080p q es lo q puede mover esta gráfica..

Quizás con los juegos más punteros en un futuro supere el umbral de los 8gb de momento nada...
Mayban36 escribió:Igual tenemos que recordar como ha envejecido la R9 390 de 8GB frente a la 970 de 3,5GB :-|



Pues igual de mal si te pones avatar y tienes pantalla 4K xd



En caso de jugar en CRT de 14 y a 720p con FSR entonces si, los 8GB han envejecido mejor jajaj


@ziu


La 3060 solo usa 8GB si la usas para lo que puede mover a altos FPS


A 1080p y 2K en medio



@Cyborg_Ninja


De toda esa biblia me he leido una linea solo y era una barbaridad de la desinformacion de nuevo


De donde saco que la memoria de nvidia es mas rapida?


No se… quiza de que Gddr6x solo esta en nvidia??


7900xtx 20gbp hasta
4080 rtx 23gbps

Es mucho mas rapida y mas eficiente y no , no es 3gbps mas rapida por si alguien se lo imagina es muchisimo mas por el modo de operacion PAM4


Ahora en la serie 5000 quien va a poner gddr7 alcanzando 1TBs en bus 384?

Nvidia


Amd ni esta ni se la espera, de hecho hay rumores de que no sacaran gama super alta


Pero esto no me lo he inventado es poner GDDR6X en google y entrar en pcc
PSX22 escribió:
Mayban36 escribió:Igual tenemos que recordar como ha envejecido la R9 390 de 8GB frente a la 970 de 3,5GB :-|



Pues igual de mal si te pones avatar y tienes pantalla 4K xd

En caso de jugar en CRT de 14 y a 720p con FSR entonces si, los 8GB han envejecido mejor jajaj


Nos tendremos que reir [sonrisa]
@Mayban36


Era la idea xd


Basta ya de comprar para dentro de 5 años porque lo mas normal es que ya tengas un PC nuevo


Me suena a lo del iphone


Me pillado el 14 pro max 1TB por 1900€ buu me va a durar años con tanta memoria



Al año - me pillado el 15 pro max 256 porque no usaba mas xd
166 respuestas
1, 2, 3, 4