AMD recupera el pulso a Nvidia con las nuevas tarjetas Radeon RX 6000, rivales directas de las Ge...

Darkshait escribió:Con aceleradores de rayos!!!!!!!


Y DE PROTONES!!! [qmparto] [qmparto]
He tenido gráficas de ambas marcas. En realidad AMD me suele gustar por su relación calidad/precio y su excelente soporte en GNU/Linux.

Dependiendo del costo y de la facilidad para conseguir una en México es probable que vuelva a AMD
A ver si se traduce en bajada de precios.
elperrodelcura escribió:Mañana nvidia presenta las 3000 ti [+risas]

Ya tendría guasa, que sin haber stock de las "normales", ahora nos vengan con las Ti... [+risas]
Nodens escribió:Está bien que haya competencia, pero después te acuerdas de los drivers de AMD y te da el bajón...

Imagen


Se sabe que lo de los drivers, hasta Linus Tech Tips lo dijo: Tuvimos que buscar defectos en los drivers y no lo encontramos. Eso fue un rumor que Nvidia hace mucho tiempo saco para desprestigiar a la entonces ATi. Lo que si es cierto es que la primera horneada de ellos no esta pulida, igual como a Nvidia le ha tocado tambien su racion de ello.
Las gráficas son sin duda un gran salto para AMD... por eso NVIDIA sacó la 3080 a 700 $... ahora debería tocar una guerra de precios en navidad y bajar ese margen que tienen ambas, que por una vez nos podamos beneficiar los consumidores... VIVA LA VUELTA DE AMD y LA BAJADA DE PRECIOS!!!!
Arceles escribió:
Nodens escribió:Está bien que haya competencia, pero después te acuerdas de los drivers de AMD y te da el bajón...

Imagen


Se sabe que lo de los drivers, hasta Linus Tech Tips lo dijo: Tuvimos que buscar defectos en los drivers y no lo encontramos. Eso fue un rumor que Nvidia hace mucho tiempo saco para desprestigiar a la entonces ATi. Lo que si es cierto es que la primera horneada de ellos no esta pulida, igual como a Nvidia le ha tocado tambien su racion de ello.

Está Nvidia ahora mismo como para hablar de drivers chungos [hallow]
-Dyne- escribió:Nadie apostaba un duro y, si no es humo, han mostrado una alternativa real a NVIDIA. En las generaciones anteriores AMD mostraba algo que "igualaba" a NVIDIA, hoy según ellos han mostrado algo que la supera en aspectos claves.

    - La 6900XT 500$ más barata (que se dice rápido) que la RTX3090, pero igual de potente y menor consumo [ok]
    - La 6800XT 50$ más barata, consume menos, más memoria y un poco más potente que la RTX3080 [ok]
    - La 6800 50$ más cara, pero claramente más potente, más memoria y mejor consumo con que la RTX3070 [ok]
    - No hay mención de su rendimiento en RT [nop]
    - No han anunciado tecnologías tipo DLSS [nop]

Con todo esto no es de extrañar que NVIDIA ya tenga preparadas las versiones TI ni que sea para curarse con salud, la cosa se pone interesante.


Ojo, que los precios que AMD nos da son antes de impuestos, falta sumarle como mínimo el 21% de IVA, y luego ver si no deciden subir precios en Europa por tema de portes y demás.
Pero en principio como mínimo hay que sumar el IVA. La 6900XT me parece que sigue teniendo una buena relación calidad precio, superior a la 3090.
En las otras ya va a ser más discutible la relación rendimiento/precio.
Er_Garry escribió:Pues la verdad es que a mí me han parecido unas GPUs de lo más interesante.

Si no se pasan con el precio en € y hay stock, creo que ya tengo candidata para jubilar mi 1080Ti XD


Salu2


pues si a verdad es que si porque yo tengo un 1080 y la quiero jubilar. La 6900XT esa es tope pero cuando salen?
Ya lo dije en el hilo de las RX 6000, la mayoría parece que solo celebran que nVidia se vea "forzada" a bajar precios...

Si vuestra idea de competencia es NO comprar AMD solo esperar a que los verdes bajen precios, rico monopolio nos vamos a comer, ya pueden salir Bench y productos atractivos, que si luego viene el tito Jensen y mira las ventas y se que el 99% van para nvidia, va a rebajar precios la frutera....

A ver si hay suerte y el mercado empieza a mejorar un poquitín con unos números más igualados.

saludos

p.d: Lo del Rage Mode en la notícia original pone que debes tener una CPU de la serie 5000 y si no me equivoco eso era solamente para el smart access, no para el rage mode, ese es independiente de la CPU que tengas o eso es lo que entendí.
Ahora entiendo los precios de NVIDIA se lo veian venir asi que dispararon primero. Habrá que esperar que salgan al mercado y los beta texters las pongan a prueba, a mi rx590 ya csi 2 años le quedan como minimo 2 mas para pensar en cambiarla.
juanpedro79 escribió:Siempre hay que esperar benchmarks, pero así de primeras la 6900xt acaba de enterrar la 3090.

Por lo pronto, los benchmarks de AMD ya son falsos:
https://www.eurogamer.net/articles/digi ... iew?page=2

Mira las tasas de las de Nvidia al máximo en los mismos juegos y verás que están por encima de lo que dice AMD en sus benchmarks. Por ejemplo, Doom Eternal en Ultra Nightmare a 4K va a 142fps en una 2080Ti y AMD dice que va a unos 105fps según su gráfica, por debajo de los 118fps de su RX 6800.
chomper1990 escribió:
Er_Garry escribió:Pues la verdad es que a mí me han parecido unas GPUs de lo más interesante.

Si no se pasan con el precio en € y hay stock, creo que ya tengo candidata para jubilar mi 1080Ti XD


Salu2


pues si a verdad es que si porque yo tengo un 1080 y la quiero jubilar. La 6900XT esa es tope pero cuando salen?


La 6900XT salen a principios de diciembre, y las 6800/XT salen a mediados de noviembre, aunque aún no se conocen los modelos Custom ni los precios en € (que recordemos que en $ es siempre sin impuestos).


Salu2
konosoke escribió:
juanpedro79 escribió:Siempre hay que esperar benchmarks, pero así de primeras la 6900xt acaba de enterrar la 3090.

Por lo pronto, los benchmarks de AMD ya son falsos:
https://www.eurogamer.net/articles/digi ... iew?page=2

Mira las tasas de las de Nvidia al máximo en los mismos juegos y verás que están por encima de lo que dice AMD en sus benchmarks. Por ejemplo, Doom Eternal en Ultra Nightmare a 4K va a 142fps en una 2080Ti y AMD dice que va a unos 105fps según su gráfica, por debajo de los 118fps de su RX 6800.


Yo tengo una 2080ti y cuando presentó NVIDIA su gama 3000 fue un palo. No grande porque mi gráfica tiene dos años y la sigo disfrutando. Pero luego salieron los benchmarks reales, y si es mejor que mi gráfica, pero no lo suficiente para que me animé a cambiar por una 3080. En todo caso sería por una 3090, pero también la descarto por precio y porque su rendimiento comparado con la 3080 no justifica su precio desde el punto de vista del gaming. La cosa es que ahora mismo la única que tengo en mente es la 6900xt, porque la diferencia de precio con la 3090 es elevada, pero con pies de plomo que todos conocemos a AMD y hasta que no vea yo un rendimiento real no compro nada.
Alejo I escribió:
juanpedro79 escribió:Siempre hay que esperar benchmarks, pero así de primeras la 6900xt acaba de enterrar la 3090.

Bueno, ahí creo que AMD está siendo un poco viva. GeForce tiene la baza de DLSS, que prefieren pasar por alto, y el rendimiento más burro siempre se va a obtener en un equipo Ryzen. Eso sí, como la diferencia general y real sea poca, a ese precio la barre.

A ver esos benchs con ray tracing, que los quiero ver yo.

He visto ya algunos benchmark (No sé hasta que punto puedo tomarlos por válidos) y al igual que el caso de la 1060 y 580 depende mucho del juego. En la mayoría de casos la 3090 está por delante de la 6900XT y en muy pocos casos es al revés pero con una diferencia notable. Alguna excepción donde la 3080 va por igual a la 6900 o al revés la 6800 iguala la 3090.

En lo que respecta el RayTracing no hay nada que hacer contra Nvidia, la 6900XT se queda por los pelos de igualar a la 2080Ti.
Yo aquí con una 980ti.... [toctoc]

>Gente con ojos biónicos que cambian de GPU cuando los juegos ya no les da 120fps estables o no consigue los 100fps con todo al máximo o la que usan antilalising TAA o msaa x8 en 4k.


Yo pasaré a la Nvidia 4xxx de "5nm" (8nm Samsung) porque los 6 gb en 2k ya se quedaran cortos en los próximos 4 años... (También por apps que tiran de cuda.

@mmiiqquueell

No se comento que la 3090 no aporta nada con respecto a 3080 porque es como una gtx690 es decir, los juegos no son capaces de usar bien todos sus nucleos cuda, como para un threadripper en adobe premiere que apartir de los 12 núcleos ya le cuesta escalar en el reparto tareas.

Esta vez creo que la clave es en la comunicación de las caches que llenarla de núcleos. Ya que hasta que punto software será compilado para que se use bien todo su potencial de hardware... Casi parece una Quadro con instrucciones bloqueadas..

//Opinion de barra de bar
Nodens escribió:Está bien que haya competencia, pero después te acuerdas de los drivers de AMD y te da el bajón...

Imagen


Eso iba a preguntar, que llevo años sin tocar una AMD porque estoy atado a CUDA por motivos laborales.

Los drivers siguen dando tanto asco como hace años?
Felicidades Betatesters
CUando salga la version full de estas graficas ya vere si compro Nvidia o AMD. ja ja ja
No me mola nada que me obliguen a tener una CPU AMD para obtener el máximo rendimiento.
Ryzen 1000 dio un puñetazo a Intel por primera vez en años desde los míticos Athlon 64.
Ryzen 2000 dio la primera paliza a Intel y la mandó al hospital haciendo que el mercado se diera la espalda a Intel.
Ryzen 3000 para sobremesa y Ryzen 4000 para portátiles, han apalizado y humillado a AMD hasta el punto que el mercado se empieza a dar la vuelta y cada vez más gente no quiere ver un intel cuando compran un equipo.
Por último, Ryzen 5000 seguramente supondrá un serio dolor de huevos para Intel.

En gráficas estamos como al principio con Ryzen 1000, tanto las Radeon 5000 como estas nuevas 6000 están demostrando que pueden meterle caña a Nvidia en algún momento.

Pienso que con Radeon RX 6000 más o menos se han igualado las cosas en la parte alta de la tabla, normalmente para configuraciones inferiores, siempre es más rentable comprar AMD, porque una GTX 1660 es mucho más cara que una radeon RX 590 y para 1080p te sobra con la gráfica de AMD, así que cuando salgan las especificaciones de RX 6500 y RX 6600, probablemente, AMD se haga con la gama media y baja u obligará a Nvidia a bajarse del burro con las RTX 3500 y RTX 3600, por eso ambas compañías guardan silencio para la gama media y baja.

Lo que sí está claro es que NVIDIA se la ha pegado con la arquitectura Turing, y con Ampere lo va a tener complicado. En cuanto AMD lance más adelante su serie Radeon RX 7000, veremos a ver si machaca o no a las futuras Nvdia RTX 4000, porque visto lo visto, AMD va para arriba y tanto Intel como Nvidia en sus correspondientes segmentos, van para abajo.

Un saludo,
BY DERHYUS.[chulito]
Interesante el combo CPU + GPU AMD. Cuando me decida a renovar de aquí un tiempo, es lo que haré si tan bueno parece.

Monté un Ryzen 1200 de 90e en 2017 para cuando saliesen los 2600 y 3600, y aquí sigue, porque no uso una mierda el PC para jugar, y cuando lo hago es a juegos en los que me sobra CPU y GPU por todos lados (Black Mesa, KotOR... [+risas])
uchi23a escribió:No se comento que la 3090 no aporta nada con respecto a 3080 porque es como una gtx690 es decir, los juegos no son capaces de usar bien todos sus nucleos cuda, como para un threadripper en adobe premiere que apartir de los 12 núcleos ya le cuesta escalar en el reparto tareas.

Esta vez creo que la clave es en la comunicación de las caches que llenarla de núcleos. Ya que hasta que punto software será compilado para que se use bien todo su potencial de hardware... Casi parece una Quadro con instrucciones bloqueadas..

//Opinion de barra de bar


No estoy al tanto de todo ese tinglado, solo sé que algunas 3080/90 han salido defectuosas y dejan de funcionar al superar cierta frecuencia de core pero eso de que no aprovechan los cores... suena a excusa de fanboy (no por tu parte sino de los que lo digan) he visto comparaciones y en dichas comparaciones entre la 3080 y 3090 la diferencia en los juegos es de un 10 a 15%, que son palabras de Nvidia.

La 690 es doble GPU así que es normal que los juegos no saquen partido si no son compatibles con SLi. Vi un vídeo hace poco pero no recuerdo si era Linus, YT Viejuner o a saber que canal...

@DERHYUS Vi hace un mes o así (de una supuesta filtración) que Intel tenia preparados sus nuevos procesadores de sobremesa de 11ºGen 10nm (2021) cuales superarían en rendimiento a los "actuales" Ryzen 3000, la noticia es anterior a la presentación de los 4000/5000 de AMD. Veremos si Intel despierta y se pone las pilas, pero supongo que es bueno que una empresa se tope con un muro, eso decide si cierran o logran superar el muro.
mmiiqquueell escribió:
@DERHYUS Vi hace un mes o así (de una supuesta filtración) que Intel tenia preparados sus nuevos procesadores de sobremesa de 11ºGen 10nm (2021) cuales superarían en rendimiento a los "actuales" Ryzen 3000, la noticia es anterior a la presentación de los 4000/5000 de AMD. Veremos si Intel despierta y se pone las pilas, pero supongo que es bueno que una empresa se tope con un muro, eso decide si cierran o logran superar el muro.


Sí es cierto, pero también leí a Linus Torvals decir que Intel se había inventado las instrucciones AVX512 solo para dar mejor en los test, ya que no tienen ninguna utilidad real.

Veremos a ver si van por ahí los tiros y si la Gen 11 de Intel consigue o no superar a los Ryzen 3000 sin usar esas instrucciones AVX512.

Personalmente, hasta que Intel no saque CPU con el mismo proceso de fabricación de AMD (actualmente en 7nm y a punto de migrar a los 5nm en Ryzen 6000 y Radeon rx 7000 futuras), no tiene nada que hacer, pues Intel sigue estancada en los 10 nm y no son muy buenos frente a sus 14nm+++ (pero muy antiguos), no es por nada, es que el proceso de fabricación determinada el número de transistores de un dispositivo y por tanto, si puedes meter más cosas en la misma cantidad de silicio, pues funciona mejor. De hecho, con los Ryzen 5000 AMD va a empezar a meter cachés L3 de 70MB (yo tengo 32MB en mi Ryzen 3700X de caché L3) y además, con los Ryzen 5000 implementan una cuarta caché que hasta ahora no existía, para facilitarle las cosas a las tarjetas gráficas de la serie Radeon 6000 en adelante.

Intel sigue sin espacio en sus chips, unos chips que por cierto, lleva revendiendo con distintos nombres de la 5ª o 6ª generación de manera descarada. Es decir, no ha invertido nada en investigación y desarrollo y ahora se ve empequeñecida frente a AMD, que tiene unas hojas de ruta muy definidas y si bien están a punto de lanzar la arquitectura ZEN 3, hace años que ya mostraron lo que esperaban de la ZEN 4 y probablemente, ya estén investigando otras arquitecturas para cuando ZEN 3 (que ni siquiera ha salido), ya no de más de sí y tengan que comercializar ZEN 4.

Intel ahora no puede acelerar el tiempo y recuperar todo el que ha perdido mientras se ha rascado los cojones subiendo inexplicablemente sus precios desde 5ª y 6ª generación cuando en realidad solo han estado ofreciendo un refrito de lo mismo.

Eso sí, con las tiendas fuertes y fabricantes llegaba a acuerdos del tipo: "no montes equipos con procesadores AMD o no te beneficiaras de suculentos descuentos que sí van a tener esta y esta otra tienda". Es decir, han jugado a ser matones para acabar (y casi lo consiguen) con AMD, en vez de jugar a ser los mejores ingenieros.

Un saludo,
BY DERHYUS.[chulito]
72 respuestas
1, 2