AMD lanza las Radeon RX 6650 XT, 6750 XT y 6950 XT con pequeñas mejoras y precios oficiales más r...

AMD ha actualizado hoy su gama de tarjetas Radeon RX 6000 con el anuncio de tres nuevos modelos dirigidos a equipos para juegos de calibre intermedio y altas prestaciones. En esencia una mejora del hardware ya existente, las Radeon RX 6650 XT, 6750 XT y 6950 XT se benefician de memorias más rápidas y un pequeño apretón en la velocidad de reloj, extrayendo así un aumento de prestaciones de aproximadamente el 5 %.

Al margen del incremento en la velocidad de reloj, que sucede tanto en el funcionamiento base como en Boost (como referencia, la RX 6750 XT tiene una velocidad Boost de 2.600 MHz frente a los 2.581 MHz de la Radeon 6700 XT) estas nuevas tarjetas aprovechan la mayor disponibilidad de chips de memoria GDDR6 de 18 Gbps para aumentar su ancho de banda, saltando así desde los 16 Gbps y desatascando aquellos juegos que exigen una mayor cantidad de VRAM.

Imagen

El número de núcleos permanece inalterado, pero el aumento en MHz por pequeño que pueda ser, hace necesario elevar también el TDP. Concretamente, este valor sube 35 W en el caso de la Radeon RX 6950 XT, a la sazón el modelo más potente, mientras que las RX 6650 XT y RX 6750 XT presentan un TDP 20 W más elevado que los modelos en los que se basan. En cualquier caso, siguen siendo cifras manejables.

Tal vez uno de los detalles más significativos de estas tarjetas es que por primera vez desde que comenzó la crisis de los semiconductores, su PVP es realista. Con esto no queremos decir que sean tarjetas asequibles, sino todo lo contrario: ahora AMD declara un precio ajustado a la realidad del mercado, cuando lo normal hasta era dar tarifas irrisorias en relación a lo que se estaba pagando en las tiendas y encontrarse así con tarjetas de 300 euros vendiéndose por 800 euros.

Imagen

Imagen

Ya en fase de despliegue, los precios quedan de la siguiente forma:

  • Radeon RX 6950 XT 16 GB: 1.099 dólares en EEUU
  • Radeon RX 6750 XT 12 GB: 549 dólares en EEUU
  • Radeon RX 6650 XT 8 GB: 399 dólares en EEUU

Cabe señalar que los modelos RX 6700 XT y RX 6900 XT seguirán fabricándose, lo cual, unido al desplome del cripto, posiblemente implicará una caída importante en los precios de estas tarjetas más antiguas.



Fuente: AMD
todo para ellos hasta su serie 7000 solo es un refrito...
Por mí a esos precios y apunto de salir la serie 7000 se pueden comer sus refritos de gráficas.
Pues ojalá las podamos ver a su precio estás si
Alejo I escribió:
  • Radeon RX 6950 XT 16 GB: 1.099 dólares en EEUU
  • Radeon RX 6650 XT 12 GB: 549 dólares en EEUU
  • Radeon RX 6750 XT 8 GB: 399 dólares en EEUU
Supongo que los números de modelos están intercambiados, no
Gnoblis escribió:Pues ojalá las podamos ver a su precio estás si
Alejo I escribió:
  • Radeon RX 6950 XT 16 GB: 1.099 dólares en EEUU
  • Radeon RX 6650 XT 12 GB: 549 dólares en EEUU
  • Radeon RX 6750 XT 8 GB: 399 dólares en EEUU
Supongo que los números de modelos están intercambiados, no

Las 2 y 3 se patinaron ahí :)
Gnoblis escribió:Pues ojalá las podamos ver a su precio estás si
Alejo I escribió:
  • Radeon RX 6950 XT 16 GB: 1.099 dólares en EEUU
  • Radeon RX 6650 XT 12 GB: 549 dólares en EEUU
  • Radeon RX 6750 XT 8 GB: 399 dólares en EEUU
Supongo que los números de modelos están intercambiados, no


En PCcomponentes ya tienen la 6950 a 1250€, nada mal teniendo en cuenta que rinde como la 3090ti en la mayoría de casos.
A qué equivalen de las series de NVIDIA por rendimiento?
La oferta ya no es tan baja ni la demanda tan alta como para seguir considerando "realistas" estos precios.
@Alejo I

La bajada de precio se debe a que en julio se activa un nuevo grado de dificultad del minado de Ethereum y ya no será rentable salvo que tengas un equipazo y no te importe cobrar la mitad de lo actual.

A eso hay que sumarle que minando la siguiente moneda más rentable supone una pérdida del 30% de ingresos.
A la espera de las nuevas graficas. Si se flipan con el precio seguiremos esperando.No hay prisa. Paso de pagar las ganas
Tengo que compararlas con las de Nvidia porque las referencias de AMD no las conozco.

De todas formas no sé cómo estarán de precio pero si van a salir las nuevas en breve como habrá que ver si merece la pena. Depende al precio que salgan las nuevas.
¿Cuando calculais que empezaran a vender las tarjetas de mineria a cascoporro?
fulgury escribió:¿Cuando calculais que empezaran a vender las tarjetas de mineria a cascoporro?


Espero que pronto y más de uno pierda bastante pasta, yo esto de las gráficas lo veo un embotellamiento, mas pronto que tarde va a reventar y cuando la oferta se dispare ahí estrá servidor para pillar alguna, aunque estarán ultra trilladas, pero igual compensa, lo que no es ni medio normal son estos precios por 4 idiotas minando.
@LINK_deku Esa es mi intención. Si ese uso continuo no perjudica claramente a la tarjeta y la gente se lanza a comprarlas los precios de las nuevas tambien bajaran....Espero.
He visto varios videos de GamerNexus, Hardware Unboxing, etc... vamos, de gente que sabe y dicen bien claro las cosas y segun lo dicho, siguen siendo muy inferiores a la competencia y la mejora con respecto a las anteriores es minima.
Akagami_Shanks escribió:He visto varios videos de GamerNexus, Hardware Unboxing, etc... vamos, de gente que sabe y dicen bien claro las cosas y segun lo dicho, siguen siendo muy inferiores a la competencia y la mejora con respecto a las anteriores es minima.

También son más baratas y necesitan una fuente de alimentación menor.
DJ Deu escribió:@Alejo I

La bajada de precio se debe a que en julio se activa un nuevo grado de dificultad del minado de Ethereum y ya no será rentable salvo que tengas un equipazo y no te importe cobrar la mitad de lo actual.

A eso hay que sumarle que minando la siguiente moneda más rentable supone una pérdida del 30% de ingresos.

Excelente noticia. No puedo con las criptos, y no sólo porque acaparen las gráficas.


Tortuga Ninja escribió:Pues yo estoy largando mi 3080ti, estoy cansado de tanto mamoneo, pillo una consola y un Nuc y se acabó, miedo me da cuando salgan las nuevas cpus y graficas, va haber puñaladas.

Hombre, pero si tienes una 3080ti ya andas servido para muchos años. Ahora el mamoneo está con las consolas, con Series X y PS5 muy complicadas de conseguir y está última sólo a traves de packs de 750-800€.

Con todo, yo tengo Series X y lo jugaría todo en consola si no fuese porque muchos juegos sólo salen en PC.
Mapache Power escribió:Excelente noticia. No puedo con las criptos, y no sólo porque acaparen las gráficas.


Si, siempre es mejor depender del dinero que emiten los mismos que nos están llevando a la quiebra.

Una moneda transparente, de código abierto y que no crea inflación, eso es de pardillos.
Ya las pueden regalar, en cuanto me canse de la Powercolor 5700XT(y sus problemas) voy a volver al lado verde. Sólo hay que esperar un poquito más...
DJ Deu escribió:
Mapache Power escribió:Excelente noticia. No puedo con las criptos, y no sólo porque acaparen las gráficas.


Si, siempre es mejor depender del dinero que emiten los mismos que nos están llevando a la quiebra.

Una moneda transparente, de código abierto y que no crea inflación, eso es de pardillos.

No, si se ve que las criptos son utilísimas: para que cuatro listos se dediquen a especular, para blanquear dinero de negocios ilegales y para que las tarjetas gráficas te cuesten el doble o el triple de lo que te costaban hace unos cuantos años. Ah, y se me olvidaba el derroche energético que suponen. ¡Todo ventajas!
pacopolo escribió:
DJ Deu escribió:
Mapache Power escribió:Excelente noticia. No puedo con las criptos, y no sólo porque acaparen las gráficas.


Si, siempre es mejor depender del dinero que emiten los mismos que nos están llevando a la quiebra.

Una moneda transparente, de código abierto y que no crea inflación, eso es de pardillos.

No, si se ve que las criptos son utilísimas: para que cuatro listos se dediquen a especular, para blanquear dinero de negocios ilegales y para que las tarjetas gráficas te cuesten el doble o el triple de lo que te costaban hace unos cuantos años. ¡Todo ventajas!


Que curioso que siempre se destaque el 1% del uso de esos activos como lo mayoritario.

Y si ha habido escasez es porque Nvidia ha preferido vendérselas a los mineros en vez de a gente como tu, así que ya sabes, corre a comprarles cuando bajen un poco que el vicio va primero.
Ilusos si pensáis que van a bajar los precios, como tú el que espera hay cientos de miles esperando a comprar. La demanda sube por más que suban los precios.
DJ Deu escribió:
pacopolo escribió:
DJ Deu escribió:
Si, siempre es mejor depender del dinero que emiten los mismos que nos están llevando a la quiebra.

Una moneda transparente, de código abierto y que no crea inflación, eso es de pardillos.

No, si se ve que las criptos son utilísimas: para que cuatro listos se dediquen a especular, para blanquear dinero de negocios ilegales y para que las tarjetas gráficas te cuesten el doble o el triple de lo que te costaban hace unos cuantos años. ¡Todo ventajas!


Y si ha habido escasez es porque Nvidia ha preferido vendérselas a los mineros en vez de a gente como tu, así que ya sabes, corre a comprarles cuando bajen un poco que el vicio va primero.

Nvidia las ha vendido a quien se la compre. ¿O es que ahora para comprar un producto la empresa que lo vende te pide referencias y que le expliques el uso que le vas a dar al mismo? Si la oferta de productos es limitada y la demanda de los mismos se dispara hasta el infinito, las tiendas, que no son tontas, suben los precios. Ahora va a resultar que la subida de los precios en las gráficas no es mayoritariamente por culpa de la minería de criptodivisas.

DJ Deu escribió:Que curioso que siempre se destaque el 1% del uso de esos activos como lo mayoritario.

¡Por favor, ilústranos en ese 99% de uso de las criptomonedas que ha revolucionado el mundo y la vida tal y como la conocíamos! Desde el descubrimiento de América o la invención del Jes Extender no habíamos sufrido un cambio tan abismal de paradigma como sociedad y como especie...
Como no sigan bajando a su pvp real.. me parece que se las van a comer
albertoooooooooo escribió:En PCcomponentes ya tienen la 6950 a 1250€, nada mal teniendo en cuenta que rinde como la 3090ti en la mayoría de casos.
Interesante eso que dices, llevo tiempo planteándome cambio de gráfica (actualmente tengo una GTX 1080 desde 2017) sobre todo por el tema de los juegos en RV y meterles supersampling para suplir la compresión en las Quest 2 pero no me molaba pagar los precios que pedían por las gráficas.

¿Podrías poner algún enlace donde se vea ese rendimiento similar al de una 3090ti? ¿Puede ser que te hayan bailado los números y fuese una 3080ti?
dunkam82 escribió:
albertoooooooooo escribió:En PCcomponentes ya tienen la 6950 a 1250€, nada mal teniendo en cuenta que rinde como la 3090ti en la mayoría de casos.
Interesante eso que dices, llevo tiempo planteándome cambio de gráfica (actualmente tengo una GTX 1080 desde 2017) sobre todo por el tema de los juegos en RV y meterles supersampling para suplir la compresión en las Quest 2 pero no me molaba pagar los precios que pedían por las gráficas.

¿Podrías poner algún enlace donde se vea ese rendimiento similar al de una 3090ti? ¿Puede ser que te hayan bailado los números y fuese una 3080ti?


https://www.profesionalreview.com/2022/ ... oc-review/

https://www.techpowerup.com/review/sapp ... re/10.html

https://www.guru3d.com/articles_pages/s ... ew,16.html

No me han bailado, la 6950 compite contra la 3090ti, costando un tercio. En algunos juegos gana, en otros pierde. Pero el rendimiento es muy similar. En test sintéticos también queda por delante de la 3090ti en muchos.
albertoooooooooo escribió:
dunkam82 escribió:
albertoooooooooo escribió:En PCcomponentes ya tienen la 6950 a 1250€, nada mal teniendo en cuenta que rinde como la 3090ti en la mayoría de casos.
Interesante eso que dices, llevo tiempo planteándome cambio de gráfica (actualmente tengo una GTX 1080 desde 2017) sobre todo por el tema de los juegos en RV y meterles supersampling para suplir la compresión en las Quest 2 pero no me molaba pagar los precios que pedían por las gráficas.

¿Podrías poner algún enlace donde se vea ese rendimiento similar al de una 3090ti? ¿Puede ser que te hayan bailado los números y fuese una 3080ti?


https://www.profesionalreview.com/2022/ ... oc-review/

https://www.techpowerup.com/review/sapp ... re/10.html

https://www.guru3d.com/articles_pages/s ... ew,16.html

No me han bailado, la 6950 compite contra la 3090ti, costando un tercio. En algunos juegos gana, en otros pierde. Pero el rendimiento es muy similar. En test sintéticos también queda por delante de la 3090ti en muchos.

Sí, con algunos gana y otros pierde, pero con Ray Tracing el rendimiento es bastante deficiente en general.

Podías haber puesto también estos enlaces (o la introducción) y no solamente un test donde gana (en techpowerup y guru3d):
https://www.techpowerup.com/review/sapp ... re/33.html
https://www.guru3d.com/articles_pages/s ... ew,17.html

En guru3d se puede ver claro como de 9 juegos analizados en 6 funciona peor que una 3080, en 1 de ellos iguala a la 3080 y en 2 gana a la 3080.

Quizás a ti no te importa el Ray Tracing, pero a quien le importe tienen otras alternativas con mejor calidad/precio.
Rvilla87 escribió:
albertoooooooooo escribió:
dunkam82 escribió:Interesante eso que dices, llevo tiempo planteándome cambio de gráfica (actualmente tengo una GTX 1080 desde 2017) sobre todo por el tema de los juegos en RV y meterles supersampling para suplir la compresión en las Quest 2 pero no me molaba pagar los precios que pedían por las gráficas.

¿Podrías poner algún enlace donde se vea ese rendimiento similar al de una 3090ti? ¿Puede ser que te hayan bailado los números y fuese una 3080ti?


https://www.profesionalreview.com/2022/ ... oc-review/

https://www.techpowerup.com/review/sapp ... re/10.html

https://www.guru3d.com/articles_pages/s ... ew,16.html

No me han bailado, la 6950 compite contra la 3090ti, costando un tercio. En algunos juegos gana, en otros pierde. Pero el rendimiento es muy similar. En test sintéticos también queda por delante de la 3090ti en muchos.

Sí, con algunos gana y otros pierde, pero con Ray Tracing el rendimiento es bastante deficiente en general.

Podías haber puesto también estos enlaces (o la introducción) y no solamente un test donde gana (en techpowerup y guru3d):
https://www.techpowerup.com/review/sapp ... re/33.html
https://www.guru3d.com/articles_pages/s ... ew,17.html

En guru3d se puede ver claro como de 9 juegos analizados en 6 funciona peor que una 3080, en 1 de ellos iguala a la 3080 y en 2 gana a la 3080.

Quizás a ti no te importa el Ray Tracing, pero a quien le importe tienen otras alternativas con mejor calidad/precio.


Creo que lo del RTX es de sobra conocido. Aun así, a mi por ejemplo me importa 0, veo más importante el DLSS. Y como he dicho, en unas gana y en otras pierde, he puesto varios ejemplos ya que el usuario me preguntaba especificamente si no me había columpiado poniendo la 3090ti. Y aunque rindiera como una 3080 (que no es el caso, ya que en los test sintéticos, se la pasa por la piedra), sigue saliendo más barata.

PD: Decirme que con RTX el rendimiento es pobre, es como si en su día me hubieras dicho que la GTX 680 tenía mejor rendimiento en PhysX que una HD7970. Es lógico por los nucleos dedicados y por la tecnología propietaria. Aun así, el Raytracing ahora mismo no es aprovechable por la cantidad de recursos que se come, tengas una marca u otra (te lo dice alguien con una 2080ti, he activado el raytracing 2 veces, en control y en cyberpunk, y ha durado 2 segundos activado).
Estoy muy desconectado de gráficas, para lo que no son juegos, edición de vídeo, rendering, diseño gráfico... el nivel de AMD y Nvidia cómo es comparativamente entre ellas?
AL final la 6750 que parecía buena opción para jugar a tope a 1440p sin preocupaciones a nivel 3070 se queda en 650.... 100€ más de lo que anunciarion en dolares... siguen siendo precios muy inflados comparado con lo que costaban las graficas de nivel similar hace unos años
@albertoooooooooo a mi el ray tracing sí que me importa, pero también me parece mas importante el DLSS (y de nuevo, aquí gana Nvidia en comparación con el FSR de AMD).

En todo caso lo del ray tracing (y se me olvidó el DLSS) lo comentaba por decir todo lo bueno y todo lo malo de la comparación, ya que que aunque para unos sea evidente no todo el mundo tiene por qué saberlo.

Y por otra parte bajo mi punto de vista creo que si te gastas una pasta en estas gráficas (no hablamos de gama media o baja), ya que estás que puedas jugar "a tope", no? Pero vamos, eso es un tema personal y cada uno debería elegir lo mas adecuado para él.
Rvilla87 escribió:@albertoooooooooo a mi el ray tracing sí que me importa, pero también me parece mas importante el DLSS (y de nuevo, aquí gana Nvidia en comparación con el FSR de AMD).

En todo caso lo del ray tracing (y se me olvidó el DLSS) lo comentaba por decir todo lo bueno y todo lo malo de la comparación, ya que que aunque para unos sea evidente no todo el mundo tiene por qué saberlo.

Y por otra parte bajo mi punto de vista creo que si te gastas una pasta en estas gráficas (no hablamos de gama media o baja), ya que estás que puedas jugar "a tope", no? Pero vamos, eso es un tema personal y cada uno debería elegir lo mas adecuado para él.


Es que yo juego "a tope" y no necesito el RTX para nada. En muchos casos lo único que parece es que las superficies sean espejos, cuando en realidad no lo son (aún recuerdo los suelos mega-pulidos del Battlefield en plena guerra mundial, sin nada de polvo, solo para hacer los reflejos) ¿Que aporta más realismo? Si. ¿Que se necesita para disfrutar a tope de un juego? Para nada. Por no hablar del rendimiento que se come. Para mi, jugar a tope es jugar a 60 fps mínimo por ejemplo en calidad ultra. Si por poner RTX tengo que bajar a 30 fps y que la diferencia sea inapreciable, paso. Te pongo el mismo ejemplo del PhysX de Nvidia. Mucha física, muchos movimientos.... pero el juego requería de más capacidad. ¿Donde está hoy en día? Pues eso... Yo pienso que el RTX si que es necesario para acercarnos al fotorealismo, pero todavía faltan varias generaciones para poder aplicarlo como dios manda.
@albertoooooooooo @Rvilla87 Ya que se os ve puestos ¿hay estimación en % de las nuevas gamas 40xx de nVIDIA y 7xxx de AMD en cuanto a mejoras respecto a la generación actual de gráficas?

¿Será una 4070 equivalente a una actual 3080 pero a menor precio? :-?
dunkam82 escribió:@albertoooooooooo @Rvilla87 Ya que se os ve puestos ¿hay estimación en % de las nuevas gamas 40xx de nVIDIA y 7xxx de AMD en cuanto a mejoras respecto a la generación actual de gráficas?

¿Será una 4070 equivalente a una actual 3080 pero a menor precio? :-?


Se supone que este año iba a haber un gran salto de rendimiento, acompañado también de un gran salto en consumo. Pero bueno, esos rumores suelen salir cada año y luego queda en humo. Por lo general la comparación que has hecho solía ser así, aunque este año la 3080 era la que equivalía a una 2080ti si no recuerdo mal, que era el tope de gama. De tosas maneras, si de verdad viene ese aumento de rendimiento, vendrá acompañado de un aumento de precios, que en eso tampoco se cortan ultimamente.
El precio será el jurado de esta resalida.

Saludos eolianos.
@albertoooooooooo pues pienso muy similar a ti en lo del ray tracing. Bueno, de hecho en tu último post diría que estoy de acuerdo al 100%. Claro que si puedes elegir entre 60fps sin RT o 30fps con RT seguramente los 2 prefiramos 60fps sin RT, pero yo pensaba también en otros casos de mas fps. Por ejemplo, entre 90fps sin RT y 60fps con RT es posible que elija los 60fps con RT (de hecho este ejemplo es el del Metro Exodus según puedes ver en guru3d que pusiste).

Estos números verlo ahora con el Cyberpunk parece ciencia ficción (al menos sin escalado) pero veremos como es la nueva generación.

@dunkam82 yo personalmente paso de todo el tema rumores, creo que lían mas que otra cosa. Cuando salgan las especificaciones finales ya se verá, y los análisis ayudarán a decidirse por unas u otras tarjetas. Se han dicho muchas cosas que parecen burradas (sobretodo en tema de consumos) que pueden hacerte pensar en comprar un nuevo PC o mejorar la fuente de alimentación a un monstruo y quizás no es para tanto, ya se verá.

Sobre lo de que las xx70 de nueva generación y xx80 de actual generación, creo que por regla general se suele decir que son mas o menos equivalentes pero tampoco lo tengo en cuenta. Mas que nada porque de qué me sirve que eso sea así si el precio de la nueva xx70 lo suben a la de la actual xx80 :Ð
36 respuestas