[HO] Radeon RX 6000 Family

Blackpo92 escribió:Es algo inminente, las consolas ya lo traen y son las que marcan el camino.


Eso está por ver.

A fin de cuentas las consolas son AMD y utilizarán la solución RT que esta les pueda ofrecer.

Por otra parte, DirectML va implementado en DirectX. Si AMD y Microsoft van de la mano para implementarlo a nivel software... Nvidia se puede quedar fuera de la pelea.
@hh1 ¿Como? Casi cualquier juego de PS5/Xbox Series tiene ya RT más los juegos que ya existen en PC. A mí me parece que es más que inminente.

Otra cosa es que no te guste el RT y lo quites entonces ahí las gráficas si que son mejores que las de Nvidia. De todas maneras quiero esperar a las reviews, con el RT activado para ver si merece la pena o no.

Saludos.
Buenas noticias sobre el SAM.
Temía que se notara más aún.

Gwyn escribió:Buenas noticias sobre el SAM.
Temía que se notara más aún.




la cuestion en eso.. afectara el oc a la memos/IF? a mi este añadido me parece genial

no dieron muchos datos de como iba el hard en las pruebas.
Yo tenía pensado montar (que me monten, más bien) un PC desde cero con un presupuesto de unos 2.400 €.

La idea era ponerle una Nvidia 3080 y lo que le corresponda alrededor, pero visto lo visto y teniendo en cuenta que parto desde cero (por el tema del procesador y tal), casi mejor espero un poco para ver algunas reviews, ¿no?

Así de primeras, parece que una 6900 XT daría mejores resultados por un precio similar, ¿no?
6800 (pone que es la normal, no la XT) en Shadow of the Tomb Raider con RT activado



Aquí comparan el resultado con una 2080Ti



También hay resultado del Time Spy (sigue siendo una 6800)

Imagen

Imagen
Joder pues esta bastante bien, con lo que se venía comentando estos días no esperaba que una 6800 rindiese algo más que la 2080Ti activando Raytracing.
DaNi_0389 escribió:Joder pues esta bastante bien, con lo que se venía comentando estos días no esperaba que una 6800 rindiese algo más que la 2080Ti activando Raytracing.

la 6800 es la que tengo fichada... me largo de NVIDIA [+risas]
https://www.gigabyte.com/Graphics-Card/GV-R68-16GC-B#kf
https://twitter.com/VideoCardz/status/1322480552969121797?s=20

VideoCardz también se hace eco de la información y le da bastante fiabilidad.
Merece la pena la diferencia de la 6800 vs la 6800XT? Mi idea es para jugar a 1440p
"El rendimiento no es excelente, pero esto se debe al hecho de que Ray Traced Shadows Quality se estableció en High". lol .. si es cierto, en realidad está cerca de la 3080 con RTX encendido y es la 6800!!! Y con un ryzen 5 3500...no me voy a hyper... No me voy a hypear... No me voy a hypear.. :)
Eilex_D escribió:Merece la pena la diferencia de la 6800 vs la 6800XT? Mi idea es para jugar a 1440p


Son sólo 80€ y tienes un 20% más de shaders. Si tu monitor es 1440p de alto refresco, yo diría que sí, si es de 60, la 6800.
Comparemos resultados con 1440p



RTX 3070 1440p (Highest Quality)
RT+DLSS = 85 FPS
RT = 71 FPS

RTX 3080 1440p (Highest Quality)
RT+DLSS = 111
RT = 96

RX 6800 80fps RT

Vamos iguala resultados a una 3070 con DLSS+ RT
kalanndrakas escribió:"El rendimiento no es excelente, pero esto se debe al hecho de que Ray Traced Shadows Quality se estableció en High". lol .. si es cierto, en realidad está cerca de la 3080 con RTX encendido y es la 6800!!! Y con un ryzen 5 3500...no me voy a hyper... No me voy a hypear... No me voy a hypear.. :)


Lo que no entiendo es, como han activado el raytracing en tomb raider, si solo tiene compatibilidad para RTX porque el DXR ha salido mucho mas tarde...
Antoniopua está baneado por "saltarse el ban con un clon"
NicOtE escribió:
willygermo escribió:
Pacorrr escribió:El G-Sync lo pierdes al ser tecnología privativa y cerrada, hasta que algún día a Nvidia le dé por abrirla cosa que dudo mucho que haga.


No habia pensado yo en eso, otro con un monitor con g-sync por aqui. Ufff, pues ya no tengo tan clara mi elección...

Y he aquí el por qué de los ecosistemas cerrados estilo Apple que son los expertos en esta mierda.
Pero a lo que quería contestar realmente. No existe la opción de Gsync Compatible o eso solo funciona con grafica NVIDIA y monitor Freesync? Y no con grafica Radeon y monitor GSync?

Si tu monitor es compatible con Freesync, aunque sea GSync funcionará bien según tengo entendido. Pero debe ser compatible... si en los datos técnicos te pone "Freesync: no" no se activará... Yo tengo un Dell Alienware 34", y funciona perfecto con AMD aunque sea G-Sync.
AzagraMac escribió:
DaNi_0389 escribió:Joder pues esta bastante bien, con lo que se venía comentando estos días no esperaba que una 6800 rindiese algo más que la 2080Ti activando Raytracing.

la 6800 es la que tengo fichada... me largo de NVIDIA [+risas]
https://www.gigabyte.com/Graphics-Card/GV-R68-16GC-B#kf

Joer, yo estoy muy indeciso con el tema, ya que para Blender y programas de diseño 3d las Nvidia ganan de calle, pero también se que dentro de nada van a optimizar los programas para las AMD que dan mas potencia bruta, pero son solo promesas...
neox3 escribió:
kalanndrakas escribió:"El rendimiento no es excelente, pero esto se debe al hecho de que Ray Traced Shadows Quality se estableció en High". lol .. si es cierto, en realidad está cerca de la 3080 con RTX encendido y es la 6800!!! Y con un ryzen 5 3500...no me voy a hyper... No me voy a hypear... No me voy a hypear.. :)


Lo que no entiendo es, como han activado el raytracing en tomb raider, si solo tiene compatibilidad para RTX porque el DXR ha salido mucho mas tarde...

Shadow of the Tomb Raider es DXR desde hace bastante tiempo.
Tengo una rog strixx 570 con una 1080ti y un ryzen 3700x,tengo pensado saltar a un 5800x y una 6800xt,mi duda es si merece la pena saltar al 5800x por lo que dijeron en la conferencia de que las nuevas gráficas ganarían en rendimiento con ryzen 5000,o eso me pareció entender,si entendí bien,porque las nuevas gráficas van a rendir mejor con ryzen 5000?
Saludos.
Pacorrr escribió:
neox3 escribió:
kalanndrakas escribió:"El rendimiento no es excelente, pero esto se debe al hecho de que Ray Traced Shadows Quality se estableció en High". lol .. si es cierto, en realidad está cerca de la 3080 con RTX encendido y es la 6800!!! Y con un ryzen 5 3500...no me voy a hyper... No me voy a hypear... No me voy a hypear.. :)


Lo que no entiendo es, como han activado el raytracing en tomb raider, si solo tiene compatibilidad para RTX porque el DXR ha salido mucho mas tarde...

Shadow of the Tomb Raider es DXR desde hace bastante tiempo.


vaya, gracias por el apunte. Como me lo acabe ya hace su tiempo, pues ni me habia enterado que le metieron ese añadido a posteriori...
Pacorrr escribió:6800 (pone que es la normal, no la XT) en Shadow of the Tomb Raider con RT activado



Aquí comparan el resultado con una 2080Ti



También hay resultado del Time Spy (sigue siendo una 6800)

Imagen

Imagen


Eso con que Ti?¿ Que configuracion?

Imagen

Porque nada mas ver la cifra ya se yo que es falsa...O a ver como la sacan.

No os creais todo lo que se publique estos dias, y menos lo que venga de China, que esto es como los dias previos a las reviews autenticas de las Ampere, que se vió DE TODO y luego mas de la mitad era falso hasta la medula.

Yo estoy como algunos por aqui, dudando todavia, porque voy muy bien armado y no tengo prisa en el cambio, pero cuando lo haga posiblemente sea apuntando a lo maximo, asi que dudo del verdadero potencial de estas 6000, ya que la unica que me parece realmente interesando es la 6900XT frente a las Ampere, pero está bastante claro que su rendimiento en RT va a ser bastante inferior. El hecho de que la propia AMD lo oculte es un buen indicativo.

Ya va a depender de cada uno si valoramos mas los x frames de mas que nos de la 6900XT frente a una 3080 o una 3090 incluso, o el hecho de no tener que vernos habiendo gastado 1000+ en una gpu de futuro, y tener que estar renunciando a RT en juegos como Legion, por ejemplo, donde ya el impacto visual es mas que notable entre usarlo y no usarlo (y no se basa en "reflejitos en charchos y cristales"), o bajando resoluciones para poder usarlo con soltura...

Por ahora es todo muy confuso, pero desde mi punto de vista, y conociendo todo lo que hay alrededor, y el tema de los zen3, que suponen plataforma desde cero para tener procesadores que no se van a explotar, porque con los actuales vamos sobradisimos para todo lo que queda de gen, es la 6900XT o ninguna.
Para los preocupados por la ausencia DLSS, acabo de ver una comparativa en directo de Michael Quesada utilizando Death Stranding. Voy a resumir lo visto:
Compara el DLSS con el FidelityFX CAS a 1080,1440, y 4K.
1080p: el DLSS es objetivamente mejor que el CAS
1440 y 4K: no hay diferencias apreciables entre DLSS y CAS, salvo que con CAS obtienes algunos fps más.

En todos los casos que se emplea el DLSS es en modo calidad, pues en modo desempeño se ve mucho peor y curiosamente los fps son exactamente los mismos que en el modo calidad :-?

Hay que recordar que son dos tecnologías diferentes y que en el FidelityFX CAS no interviene el deep learning, y aún así perfectamente comparables a 1440 y 4k.

Recordad que el equivalente al DLSS de AMD está por llegar, el Direct ML.

Conclusión, yo no estaría nada preocupado por este tema en las nuevas Radeon, al igual que tampoco lo estoy por el Ray Tracing.
Y no olvidemos que la 6800 sale listada por 580 dólares, con el cambio, impuestos y los modelos custom igual se pone en 630-650, son 100 euros más que la 3070, esperando al rendimiento dudo que merezca la pena en el dinero-frame.
Saludos
battman80 escribió:
Pacorrr escribió:6800 (pone que es la normal, no la XT) en Shadow of the Tomb Raider con RT activado



Aquí comparan el resultado con una 2080Ti



También hay resultado del Time Spy (sigue siendo una 6800)

Imagen

Imagen


Eso con que Ti?¿ Que configuracion?

Imagen

Porque nada mas ver la cifra ya se yo que es falsa...O a ver como la sacan.

No os creais todo lo que se publique estos dias, y menos lo que venga de China, que esto es como los dias previos a las reviews autenticas de las Ampere, que se vió DE TODO y luego mas de la mitad era falso hasta la medula.

Yo estoy como algunos por aqui, dudando todavia, porque voy muy bien armado y no tengo prisa en el cambio, pero cuando lo haga posiblemente sea apuntando a lo maximo, asi que dudo del verdadero potencial de estas 6000, ya que la unica que me parece realmente interesando es la 6900XT frente a las Ampere, pero está bastante claro que su rendimiento en RT va a ser bastante inferior. El hecho de que la propia AMD lo oculte es un buen indicativo.

Ya va a depender de cada uno si valoramos mas los x frames de mas que nos de la 6900XT frente a una 3080 o una 3090 incluso, o el hecho de no tener que vernos habiendo gastado 1000+ en una gpu de futuro, y tener que estar renunciando a RT en juegos como Legion, por ejemplo, donde ya el impacto visual es mas que notable entre usarlo y no usarlo (y no se basa en "reflejitos en charchos y cristales"), o bajando resoluciones para poder usarlo con soltura...

Por ahora es todo muy confuso, pero desde mi punto de vista, y conociendo todo lo que hay alrededor, y el tema de los zen3, que suponen plataforma desde cero para tener procesadores que no se van a explotar, porque con los actuales vamos sobradisimos para todo lo que queda de gen, es la 6900XT o ninguna.

Es en preset ultra con RT en high, en tu captura hay cosas en medio, el ambient occlusion en btao etc... Lo digo porque de comparar, hay que hacerlo en las mismas condiciones. Yo no digo que sea cierto o falso eso, no tengo ni idea, pero el de videocardz dice que es un leaker fiable.

Yo creo que ahora más que nunca la decisión de cambiar por un modelo u otro está condicionada por factores que normalmente no importan, poniendo en cuarentena el rendimiento que esta por ver, el stock va a ser decisivo, si AMD tiene problemas de stock (que tiene toda la pinta viendo las consolas que montan AMD, viendo que sacan los 5000 también en breve...) al final te quedarás con la que consigas enganchar o toca esperar y esperando puedes estar muuucho tiempo. También depende de dónde se venga, si vienes de una gráfica rollo 1060, 2060 o 2060 super que son las que más se venden y utiliza la gente (hay están los datos de Steam) conseguir una 3070 ahora es una triunfada, es un salto brutal a un precio increíble, si vienes de un 2070 super o por encima si que creo que se podría esperar a ver las AMD.
Saludos
@Pacorrr gracias, es lo que queria saber, que presets tenia, porque el anisotropico mismo lo tienen a 8x y yo a 16x. Vamos a ver con el preset ultra.

@pmol yo vengo de una RX 580 DE 8GBS, una 2070s y ahora la Ti. El CAS y DLSS NO TIENEN NADA QUE VER. Y eso de que "no se nota la diferencia en la calidad" es absolutamente falso. El Cas viene a ser lo mimo que haces con una gpu Nvidia activando desde el panel de control (o ingame) el reescalado por GPU y lo ellos llaman "enfocar o nitidez" junto al degraining. El resultado NO TIENE QUE VER. Tu pones MK11 con el CAS cpm 580 y rescalando de 1080 a los 4k de mi panel actual y se ve borroso que te cagas. El DLSS no es que se vea mejor que el cas, esque MEJORA LA CALIDAD DE IMAGEN con respecto del 4k normal. Estos dias a salido WD Legion, es otro ejemplo claro de esto. Es poner el DLSS, en rendimiento, ni siquiera es necesario calidad, y la imagen gana una definicion que flipas.

Por supuesto, SINO PUEDES COMPARAR, mal no se ve, pero cuando ves la diferencia, no puedes vivir engañandote, sino en la comunidad de PC vamos a terminar como en la de consolas, creyendonos los cuentos que nos interesen para justificar nuestras compras. No se puede comprar CAS con DLSS por mucho que el movimiento de marketing de AMD lo haya puesto ahora a la vista como para hacer ver que algo tienen comprable, porque no tiene nada que ver, pero ni remotamente, ni los resultados son comparables en absoluto, siendo honestos y realistas, y sin excusas y condicionantes.

Otra cosa es esperar a esa tech que tiene AMD que dice que implementará mas adelante via update, pero esque cuando empezamos con esas promesas, la validez que le doy es la misma que a Nvidia con aquello que dijo de los ssd y sus Ampere. Es la tipica cosa que va pasando el tiempo y se pierde en el olvido, porque de tenerlo, no tendrian listo ya, que las gpus no empezaron a desarrollarlas el mes pasado, llevan años preparando estas gpus.

Sabemos cuando van a liberar reviews??? Cuando van a enviar gpus a los tipicos de youtube para que nos digan realmente que hay? Tengo poco tiempo ultimamente con el trabajo y no he tenido tiempo de ojear canales a ver si los youtubers han dado fechas.

Voy a testear lo del Tomb [beer]
battman80 escribió:@Pacorrr gracias, es lo que queria saber, que presets tenia, porque el anisotropico mismo lo tienen a 8x y yo a 16x. Vamos a ver con el preset ultra.

@pmol yo vengo de una RX 580 DE 8GBS, una 2070s y ahora la Ti. El CAS y DLSS NO TIENEN NADA QUE VER. Y eso de que "no se nota la diferencia en la calidad" es absolutamente falso. El Cas viene a ser lo mimo que haces con una gpu Nvidia activando desde el panel de control (o ingame) el reescalado por GPU y lo ellos llaman "enfocar o nitidez" junto al degraining. El resultado NO TIENE QUE VER. Tu pones MK11 con el CAS cpm 580 y rescalando de 1080 a los 4k de mi panel actual y se ve borroso que te cagas. El DLSS no es que se vea mejor que el cas, esque MEJORA LA CALIDAD DE IMAGEN con respecto del 4k normal. Estos dias a salido WD Legion, es otro ejemplo claro de esto. Es poner el DLSS, en rendimiento, ni siquiera es necesario calidad, y la imagen gana una definicion que flipas.

Por supuesto, SINO PUEDES COMPARAR, mal no se ve, pero cuando ves la diferencia, no puedes vivir engañandote, sino en la comunidad de PC vamos a terminar como en la de consolas, creyendonos los cuentos que nos interesen para justificar nuestras compras. No se puede comprar CAS con DLSS por mucho que el movimiento de marketing de AMD lo haya puesto ahora a la vista como para hacer ver que algo tienen comprable, porque no tiene nada que ver, pero ni remotamente, ni los resultados son comparables en absoluto, siendo honestos y realistas, y sin excusas y condicionantes.

Otra cosa es esperar a esa tech que tiene AMD que dice que implementará mas adelante via update, pero esque cuando empezamos con esas promesas, la validez que le doy es la misma que a Nvidia con aquello que dijo de los ssd y sus Ampere. Es la tipica cosa que va pasando el tiempo y se pierde en el olvido, porque de tenerlo, no tendrian listo ya, que las gpus no empezaron a desarrollarlas el mes pasado, llevan años preparando estas gpus.

Sabemos cuando van a liberar reviews??? Cuando van a enviar gpus a los tipicos de youtube para que nos digan realmente que hay? Tengo poco tiempo ultimamente con el trabajo y no he tenido tiempo de ojear canales a ver si los youtubers han dado fechas.

Voy a testear lo del Tomb [beer]

Yo creo que he dejado bastante claro que son tecnologías diferentes. Y explico lo visto y analizado por Michael Quesada. A mi lo de las consolas me importa cero, no tengo ni tendré.
Por desgracia no puedo comparar in situ. Y no, no estoy mintiendo en nada, transcribo lo visto. Si quieres buscas el video y lo ves.
Parece que te lo tomas como algo personal. A mi AMD y Nvidia me importan tanto como Repsol y Cepsa. Me dan exactamente igual las multinacionales.
Repito, describo lo visto en el último vídeo de Michael Quesada, sin más.
@Pacorrr pues con todo a tope

Imagen

Ya te digo que esa cifra era muy baja.

@pmol perdona, que igual las mayusculas te han hecho malinterpretar el tono, las pongo para destacar, no para exaltar :) , no me lo tomo como nada personal hombre ni he dicho que mientas ni nada de lo que comentas. Solo explico, porque entiendo y veo que muchos no conocen la diferencia, que "fidelyty cas" NO ES NADA. Es una chuminada campera que se invento AMD (el nombre) porque lleva en su software desde hace eones, antes de todo este rollo del 4k, el rtx y todo lo demas. Siempre ha estado ahi. Es un simple "reescalado de la imagen" con un filtro de nitidez, como el que tiene cualquier tele vamos, para que me entiendas. En un movimiento de MARKETING AMD le puso nombre, y en algun juego asociado, como MK11 por ejemplo y no se si el 10, aparecia como opcion a activar, que ademas, y lo mas bonito, te deja activar aunque no tengas una gpu AMD... Y ya te digo que el resultado es nulo, no notas nada, o no mas de lo que se nota con cualquier filtro de nitidez que apliques mediante injectores tipo rehsade, o a traves del soft de la propia gpu en Nvidia o AMD. Simplemente es eso compañero, y lo explico para que lo sepan quienes no lo saben, porque es obvia la intencion de videos como el del tipo ese que comentas, cuando de primeras no explica esto.

Por comparar, se puede comprar el CAS con el escalado de GPU y Nitidez de Nvidia (que no tiene nombre, como no tenia el de amd, pero mañana Nvidia podria llamarle CHUFLIX PTR y parecería mas de lo que es), pero con el DLSS no tiene nada que hacer, es Krilin contra Gogeta SSB. Lo que hace el cas (o la nitidez de Nvidia) es perfilar las imagenes "estiradas" cuando las vemos en un panel de mayor resolución desde una resolucion menor, para que no se vea tan borroso, o para paliar ese efecto borroso. Ese efecto borroso que parece que nadie conoce fuera del mundo del PC, que un servidor personalmente, no soporta.

Respecto de la supuesta tecnologia de AMD que SÍ funcionaría de algun modo de manera parecida a lo que hace el DLSS, pero groseramente, pues no hay IA de por medio, hay que ver en que queda, y ya hablando de promesas, recordar que de DLSS 1.0 al 2.0 el cambio ya ha sido muy notable, y que Nvidia tiene prometido que el 3.0 funcionara sin necesidad de apollo del desarrollador, en cualquier juego con TAA, que vienen a ser todos... Si eso se hace realidad, entonces se van a marcar grandes diferencias. Pero como digo, todo eso está por ver, y tenemos que jugar con lo que es realidad actualmente.

Tampoco ninguno tenemos un ZEN3 con su respectiva placa para poder esperar los resultados que ha conseguido AMD en sus benchs sobre esos juegos. Necesitamos reviews libres y confiables para poder situarnos. De todos modos aun quedan meses por delante para decidirse. A mi tambien me parece extraño que Nvidia haya cancelado las versiones "super" de sus ampere, cuando ya estaban hasta filtradas por ensambladoras, porque, aparentemente, tampoco va tan sobrada sobre AMD, salvo que Nvidia sepa algo que nosotros no sabemos...
battman80 escribió:@Pacorrr pues con todo a tope

Imagen

Ya te digo que esa cifra era muy baja.


Tendrás el DLSS activado imagino.

Los de wccftech han hecho pruebas y les da lo mismo que a ti, con DLSS activado https://wccftech.com/amd-radeon-rx-6800 ... -leak-out/
También comentan que según fuentes fiables parece que van a tener problemas con el stock iguales a los de la serie 3000 de Nvidia:
https://wccftech.com/amd-radeon-rx-6900 ... at-launch/
Saludos
Blackpo92 escribió:También comentan que según fuentes fiables parece que van a tener problemas con el stock iguales a los de la serie 3000 de Nvidia:
https://wccftech.com/amd-radeon-rx-6900 ... at-launch/
Saludos

Una tienda de informática Polaca es una fuente fiable? Por favor vamos a contrastar antes de colgar cualquier cosa
Imagen
VanSouls escribió:
Blackpo92 escribió:También comentan que según fuentes fiables parece que van a tener problemas con el stock iguales a los de la serie 3000 de Nvidia:
https://wccftech.com/amd-radeon-rx-6900 ... at-launch/
Saludos

Una tienda de informática Polaca es una fuente fiable? Por favor vamos a contrastar antes de colgar cualquier cosa
Imagen

Los Benchmarks chinos éstos son mucho más fiables no?
Yo he dicho lo que pone en el artículo de la página que ha pasado el compañero, que si la ha pasado supongo que será una pagina fiable, llámame confiado.
Son 2 leakers los que lo comentan, lo mismo que el chino de los Benchmark.
@Blackpo92 Que Benchmarks chinos hablas?? si yo ni he posteado, ni comparado, ni comentado ni nada sobre ellos, si no respondo es por que no me fio nada de eso y no me gusta perder el tiempo
Imagen
Pacorrr escribió:
battman80 escribió:@Pacorrr pues con todo a tope

Imagen

Ya te digo que esa cifra era muy baja.


Tendrás el DLSS activado imagino.

Los de wccftech han hecho pruebas y les da lo mismo que a ti, con DLSS activado https://wccftech.com/amd-radeon-rx-6800 ... -leak-out/


Hombre, CLARO, de eso va la cosa, de lo que pagas cuando pagas cada gpu y lo que te da. Es como poder activar, que se yo, la oclusion ambiental, y no hacerlo... Repito que el DLSS no solo nos hace ganar frames, esque, MEJORA LA IMAGEN.

Por eso digo que hay que tener todo en cuenta, y por eso en mi caso, sigo esperando, y no pico con las Ampere, hasta ver bien todo, pero lo de AMD me parece muy cogido con pinzas por ahora.

[beer]

@VanSouls las mismas fuentes son las que avisaron con semanas de antelacion que no habrian Amperes ni para el cura del pueblo, y mira si era cierto. Los partners, las tiendas, son las que van a filtrar y saben este tipo de cosas, y cuanto mas pequeña la tienda, mas fiable, porque son las que no tienen nada que perder. Las que no te lo van a decir son las que quieren cobrar 500 pedidos los primeros 30 minutos, teniendo solo 20 gpus, porque ya tienen tu dinero y ya veran si te consiguen una gpu mas adelante o que, pero ya te han enganchado.

Todo lo que sea hardware,va a tener problemas de Stock, porque muchos componentes provienen de las mismas fuentes, y estan muy mal de produccion con el tema Covid. Lo mismo para las consolas, el Oculus, etc etc
VanSouls escribió:@Blackpo92 Que Benchmarks chinos hablas?? si yo ni he posteado, ni comparado, ni comentado ni nada sobre ellos, si no respondo es por que no me fio nada de eso y no me gusta perder el tiempo
Imagen

Todo esto viene al hilo de filtraciones que han salido que estamos viendo y valorando, de ahí comparar la veracidad de todos, Yo no he dicho que hayas posteado ni comparado nada, digo que la página ésta dice que son leakers fiables, y todo lo que vemos éstos días son eso, filtraciones.
hades0505 escribió:
hh1 escribió:
AlterNathan escribió:@hh1 Es que el RT no es una tecnología de Nvidia, como el physx, que lo trae 4 juegos mal contados. Es algo que se va a utilizar sí o sí, además el RT, bien utilizado es espectacular.

De que me sirve a mí, que sin uno de los efectos gráficos me de más fps, si luego rinde, según rumores, como una 2080ti. Ni siquiera el precio la acompaña porque AMD se ha subido a la parra

Ahora mismo, a falta de los análisis, la única ventaja son los 16gb de VRAM.

Saludos.


@Blackpo92
Hay tantas cosas inminentes que luego se queda en nada o tardan la tira de años,que yo no lo tengo tan claro como vosotros.

Sí es cierto que AMD podía haber dado un puñetazo sobre la mesa con mejores precios.Pero si hace eso,no sería AMD.
Ahora,con precios tan similares excepto.enla 6900xt,te crea la duda.
Lo tendría tan sencillo como sacar la 6800XT a 599€.
Se cepillan a la 3070 y a la 3080 del tirón...
Pero es AMD....Yo no sé quién planea ahí las estrategias....
Y luego,me vez de sacra una 6800 al precio de la 3070 sabiendo que es más potente,la ponen más cara para que lo mismo no te compense el sobrecoste.Quién paga lo que vale la 6800 cundo por poco más tienes la xt?????
En fin...AMD [facepalm]


¿The has parado a pensar que de hacer eso, tal vez, venderían a pérdidas o, como mucho, harían break-even?




Miguemi escribió:Un poquito de humor.....



Tuve que quitarle el sonido para poder concentrarme en los subtítulos [+risas] Bruno Ganz es genio en este papel

Dudo mucho que su margen sea de 50€.
battman80 escribió:
Pacorrr escribió:
battman80 escribió:@Pacorrr pues con todo a tope

Imagen

Ya te digo que esa cifra era muy baja.


Tendrás el DLSS activado imagino.

Los de wccftech han hecho pruebas y les da lo mismo que a ti, con DLSS activado https://wccftech.com/amd-radeon-rx-6800 ... -leak-out/


Hombre, CLARO, de eso va la cosa, de lo que pagas cuando pagas cada gpu y lo que te da. Es como poder activar, que se yo, la oclusion ambiental, y no hacerlo... Repito que el DLSS no solo nos hace ganar frames, esque, MEJORA LA IMAGEN.

Por eso digo que hay que tener todo en cuenta, y por eso en mi caso, sigo esperando, y no pico con las Ampere, hasta ver bien todo, pero lo de AMD me parece muy cogido con pinzas por ahora.

[beer]

A mi el DLSS me parece una tecnología que al final vende gráficas y el ejemplo es el Cyberpunk.
Igual que hay gente que se compra una consola para jugar a su exclusivo favorito, hay gente que se comprará una Nvidia para jugar con el RT a tope y DLSS y gozar el juego.
Saludos
@hh1 Toda la razón, la 6800 en mi opinión para que rentara tendría que valer lo mismo que la 3070 o rendir cómo la XT, al final se queda en un terreno muy extraño, seguramente algo por encima de la 3070 pero con un RT en el mejor de los casos igual (esto lo cojo con pinzas) pero sin el DLSS y siendo más cara y repito, la conversión no son 579-579, la 6800 va a salir cómo poco por 600-620 pavos la más barata, si te vas a una custom decente se te pone en 650 y con seguramente problemas de stock.
Respecto de lo que estamos hablando, no se si viesteis este gráfico que dejé ayer en el otro hilo, pero ya que estamos comentando filtraciones y primeros benchs y tal, este daría una idea del rendimiento en RT de estas 6000, que no hay que olvidar, son la primera experiencia de AMD con el RT. Se trataría, como es lógico, de la mejor de la gama, la 6900XT:


Imagen


Y parecería bastante logico y creible, porque con ese dato ya se justifica las diferencias de precio y tanto AMD como Nvidia quedan "consecuentes" con lo que cobran por sus GPUS.

PD: me refiero en lo de justificar precio, a eso junto con las demas diferencias, en cantidades, tipos y velocidades de memoria, prestaciones asociadas, y demas.
battman80 escribió:
Pacorrr escribió:
battman80 escribió:@Pacorrr pues con todo a tope

Imagen

Ya te digo que esa cifra era muy baja.


Tendrás el DLSS activado imagino.

Los de wccftech han hecho pruebas y les da lo mismo que a ti, con DLSS activado https://wccftech.com/amd-radeon-rx-6800 ... -leak-out/


Hombre, CLARO, de eso va la cosa, de lo que pagas cuando pagas cada gpu y lo que te da. Es como poder activar, que se yo, la oclusion ambiental, y no hacerlo... Repito que el DLSS no solo nos hace ganar frames, esque, MEJORA LA IMAGEN.

Por eso digo que hay que tener todo en cuenta, y por eso en mi caso, sigo esperando, y no pico con las Ampere, hasta ver bien todo, pero lo de AMD me parece muy cogido con pinzas por ahora.

[beer]

@VanSouls las mismas fuentes son las que avisaron con semanas de antelacion que no habrian Amperes ni para el cura del pueblo, y mira si era cierto. Los partners, las tiendas, son las que van a filtrar y saben este tipo de cosas, y cuanto mas pequeña la tienda, mas fiable, porque son las que no tienen nada que perder. Las que no te lo van a decir son las que quieren cobrar 500 pedidos los primeros 30 minutos, teniendo solo 20 gpus, porque ya tienen tu dinero y ya veran si te consiguen una gpu mas adelante o que, pero ya te han enganchado.

Todo lo que sea hardware,va a tener problemas de Stock, porque muchos componentes provienen de las mismas fuentes, y estan muy mal de produccion con el tema Covid. Lo mismo para las consolas, el Oculus, etc etc

Y me parece muy bien que lo actives, sólo puntualizo que ese no es el rendmiento puro en RT, entra en la ecuación un reescalado. En rendimiento puro RT, si ese leak es cierto, la 6800 estaría por delante de la 2080Ti y la 3070.
Pacorrr escribió:Y me parece muy bien que lo actives, sólo puntualizo que ese no es el rendmiento puro en RT, entra en la ecuación un reescalado. En rendimiento puro RT, si ese leak es cierto, la 6800 estaría por delante de la 2080Ti y la 3070.

Y de precio.
@Pacorrr lo mas raro de esa filtracion, y recuerdo la de las Ampere chinas de los dias previos, es que no hay ninguna necesidad de ocultar la gpu... En el caso de las Ampere por ejemplo, no recuerdo nada asi donde no se viese que la GPU era la que se decía que era. No sabemos quien esta detras de las fotos y cual es su intencion orientacion, pero fijate, que si sumamos el gráfico que ayer publicaron varias webs de hardware, el que puesto yo, y esas fotos, con lo que coincidiria eso, es con el rendimiento de la 6900xt, por encima de la 2080Ti bastante, y un poco por encima de la 3070... Coincide perfectamente. Y si me tapas que gpu estas usando, para decirme que es la menor de las 6000 ...Y AMD con esos resultados, no lo dice a bombo y platillo en la presentación...pues joer...tampoco hay que ser Sherlock Holmes.

[+risas] Ya veremos, nos esperan dias de muchas filtraciones en una y otra dirección, hasta que liberen reviews. Con las Ampere mira lo que pasó, ni las malas eran tan malas, ni las buenas eran tan buenas, al final resultó ser lo que el sentido comun indicaba que serían, hasta con la 3090.



PD: y ten en cuenta que el DLSS va a estar presente en todos los juegos con RT, asi que sacarlo de la ecuación es un ejercicio inutil.
battman80 escribió:@Pacorrr pues con todo a tope

Imagen

Ya te digo que esa cifra era muy baja.

@pmol perdona, que igual las mayusculas te han hecho malinterpretar el tono, las pongo para destacar, no para exaltar :) , no me lo tomo como nada personal hombre ni he dicho que mientas ni nada de lo que comentas. Solo explico, porque entiendo y veo que muchos no conocen la diferencia, que "fidelyty cas" NO ES NADA. Es una chuminada campera que se invento AMD (el nombre) porque lleva en su software desde hace eones, antes de todo este rollo del 4k, el rtx y todo lo demas. Siempre ha estado ahi. Es un simple "reescalado de la imagen" con un filtro de nitidez, como el que tiene cualquier tele vamos, para que me entiendas. En un movimiento de MARKETING AMD le puso nombre, y en algun juego asociado, como MK11 por ejemplo y no se si el 10, aparecia como opcion a activar, que ademas, y lo mas bonito, te deja activar aunque no tengas una gpu AMD... Y ya te digo que el resultado es nulo, no notas nada, o no mas de lo que se nota con cualquier filtro de nitidez que apliques mediante injectores tipo rehsade, o a traves del soft de la propia gpu en Nvidia o AMD. Simplemente es eso compañero, y lo explico para que lo sepan quienes no lo saben, porque es obvia la intencion de videos como el del tipo ese que comentas, cuando de primeras no explica esto.

Por comparar, se puede comprar el CAS con el escalado de GPU y Nitidez de Nvidia (que no tiene nombre, como no tenia el de amd, pero mañana Nvidia podria llamarle CHUFLIX PTR y parecería mas de lo que es), pero con el DLSS no tiene nada que hacer, es Krilin contra Gogeta SSB. Lo que hace el cas (o la nitidez de Nvidia) es perfilar las imagenes "estiradas" cuando las vemos en un panel de mayor resolución desde una resolucion menor, para que no se vea tan borroso, o para paliar ese efecto borroso. Ese efecto borroso que parece que nadie conoce fuera del mundo del PC, que un servidor personalmente, no soporta.

Respecto de la supuesta tecnologia de AMD que SÍ funcionaría de algun modo de manera parecida a lo que hace el DLSS, pero groseramente, pues no hay IA de por medio, hay que ver en que queda, y ya hablando de promesas, recordar que de DLSS 1.0 al 2.0 el cambio ya ha sido muy notable, y que Nvidia tiene prometido que el 3.0 funcionara sin necesidad de apollo del desarrollador, en cualquier juego con TAA, que vienen a ser todos... Si eso se hace realidad, entonces se van a marcar grandes diferencias. Pero como digo, todo eso está por ver, y tenemos que jugar con lo que es realidad actualmente.

Tampoco ninguno tenemos un ZEN3 con su respectiva placa para poder esperar los resultados que ha conseguido AMD en sus benchs sobre esos juegos. Necesitamos reviews libres y confiables para poder situarnos. De todos modos aun quedan meses por delante para decidirse. A mi tambien me parece extraño que Nvidia haya cancelado las versiones "super" de sus ampere, cuando ya estaban hasta filtradas por ensambladoras, porque, aparentemente, tampoco va tan sobrada sobre AMD, salvo que Nvidia sepa algo que nosotros no sabemos...

Qué tal? Quizás las mayúsculas dieron a tu respuesta un tono que no tenía.
No tengo nada que añadir a lo que dices, comparto absolutamente todo. Ahora bien, en el ejemplo del que hablo te aseguro que a 4k y 1440 no podrías distinguir una tecnología de otra a no ser que te pares minuciosamente a buscar las diferencias. Otra cosa, sé que el FidelityFX CAS está disponible para todas las gráficas, en el caso del que hablo está haciendo la comparativa en directo con una RTX 3080, y a lo mejor me equivoco, pero no creo que Michael Quesada sea un fanboy de AMD ni mucho menos. Y añado, ni yo lo soy. Es más, si mañana Nvidia saca una RTX 3080 con 16VRAM a un precio razonable, la preferiría a la Radeon, pero me temo que llegaría a los 1000€ y de nuevo estaría la RX 6900XT para plantear dudas. Lo único que en estos momentos no me hace decantarme por una RTX 3080 es su VRAM y su falta de stock, obviamente.
Te dejo el vídeo por si quieres echar un ojo. Minuto 2:07:00 aproximadamente
http://www.twitch.tv/michaelquesadapcma ... =a&t=7642s
Antoniopua está baneado por "saltarse el ban con un clon"
battman80 escribió:@Pacorrr pues con todo a tope

Imagen

Ya te digo que esa cifra era muy baja.


Qué barbaridad... y dependiendo de hacia qué "marca" apunte el canal o sitio web, tacharán a todo lo demás de inferior o a saber...
elcapoprods escribió:
Pacorrr escribió:Y me parece muy bien que lo actives, sólo puntualizo que ese no es el rendmiento puro en RT, entra en la ecuación un reescalado. En rendimiento puro RT, si ese leak es cierto, la 6800 estaría por delante de la 2080Ti y la 3070.

Y de precio.

80-100 pavos nada menos.
@Antoniopua Es normal, nos esperan días de mentiras, medias verdades, mierda entre unas y otras y alguna verdad.
Saludos
battman80 escribió:@Pacorrr lo mas raro de esa filtracion, y recuerdo la de las Ampere chinas de los dias previos, es que no hay ninguna necesidad de ocultar la gpu... En el caso de las Ampere por ejemplo, no recuerdo nada asi donde no se viese que la GPU era la que se decía que era. No sabemos quien esta detras de las fotos y cual es su intencion orientacion, pero fijate, que si sumamos el gráfico que ayer publicaron varias webs de hardware, el que puesto yo, y esas fotos, con lo que coincidiria eso, es con el rendimiento de la 6900xt, por encima de la 2080Ti bastante, y un poco por encima de la 3070... Coincide perfectamente. Y si me tapas que gpu estas usando, para decirme que es la menor de las 6000 ...Y AMD con esos resultados, no lo dice a bombo y platillo en la presentación...pues joer...tampoco hay que ser Sherlock Holmes.

[+risas] Ya veremos, nos esperan dias de muchas filtraciones en una y otra dirección, hasta que liberen reviews. Con las Ampere mira lo que pasó, ni las malas eran tan malas, ni las buenas eran tan buenas, al final resultó ser lo que el sentido comun indicaba que serían, hasta con la 3090.



PD: y ten en cuenta que el DLSS va a estar presente en todos los juegos con RT, asi que sacarlo de la ecuación es un ejercicio inutil.


No tiene por qué estar el DLSS en todos los juegos RT a partir de ahora, imagina un juego patrocinado por AMD, crees que van a meter DLSS? Cada marca tendrá sus juegos patrocinados, como siempre ha sucedido. Sobre el leak, pues se verá qué tiene de cierto o no, como siempre con todos los leaks, hay que cogerlos con pinzas.

@elcapoprods sí la 6800 será 80€ más cara que la 3070, pero también apunta a ser un 15% más rápida y con el doble de VRAM.
@Pacorrr el DLSS va a estar siempre que esté presente el RT, te lo aseguro. Incluso en casos donde no hay RT, y detras hay alguien a quien "no le interesaría" el DLSS, como es el caso del Horizon de SONY, está...Porque tu lo que quieres es vender juegos, a todo el mundo, y te da igual si van mejor a los que tienen una gpu u otra. Lo que quieres es que en los analisis ,videos y trailers, se vea tu juego espectacular con RT y a tantos frames como puedas, y si para eso necesitas apollarte en DLSS, lo haces.

Lo que a estas horas de hoy parece de consenso, porque no hay reveldia en contra y si parece que asunción, es que en RT las 6000 no están a la altura de las Ampere, y eso es lo que tenemos que asumir a la hora de apostar por unas u otras. Va a ser dificil y depender mucho de cada usuario, poner todo en la balanza, precios, tecnologias, software y prestaciones asociadas, tasas de frames, tipo de monitor que vamos a usar (quien juege en una tele 4k 60hz, todo lo que sea pasar de los 60 frames, ya le vale, y hay que mirar en otras cosas, porque igual te dan 90 frames que 80).

YA vermos! Pero estos dias previos de debate y charla son de lo mejor que nos dan las gpus [qmparto] [fumando] [beer]
battman80 escribió:@Pacorrr el DLSS va a estar siempre que esté presente el RT, te lo aseguro. Incluso en casos donde no hay RT, y detras hay alguien a quien "no le interesaría" el DLSS, como es el caso del Horizon de SONY, está...Porque tu lo que quieres es vender juegos, a todo el mundo, y te da igual si van mejor a los que tienen una gpu u otra. Lo que quieres es que en los analisis ,videos y trailers, se vea tu juego espectacular con RT y a tantos frames como puedas, y si para eso necesitas apollarte en DLSS, lo haces.

Lo que a estas horas de hoy parece de consenso, porque no hay reveldia en contra y si parece que asunción, es que en RT las 6000 no están a la altura de las Ampere, y eso es lo que tenemos que asumir a la hora de apostar por unas u otras. Va a ser dificil y depender mucho de cada usuario, poner todo en la balanza, precios, tecnologias, software y prestaciones asociadas, tasas de frames, tipo de monitor que vamos a usar (quien juege en una tele 4k 60hz, todo lo que sea pasar de los 60 frames, ya le vale, y hay que mirar en otras cosas, porque igual te dan 90 frames que 80).

YA vermos! Pero estos dias previos de debate y charla son de lo mejor que nos dan las gpus [qmparto] [fumando] [beer]

No tiene ningún sentido que en un juego patrocinado por AMD, aparezca tecnología de la competencia, de igual modo que en un juego patrocinado por Nvidia, no tiene sentido que aparezca tecnología de la competencia. Y más teniendo en cuenta la cantidad de juegos que se desarrollan en consola y luego se portean a PC, sabiendo que éstas tendrán tecnologías similares o idénticas a las tarjetas de AMD para PC.
@Pacorrr entonces, tu teoría es que a partir de ahora, los juegos con RT no van a usar DLSS para no dejar en mal lugar a las AMD (y las consolas) y perjudicar a Nvidia, No? Pues no creo que seas nuevo en el mundo del PC, pero sientate a esperar...

Hay mucha gente que tiene una grave confusion mental, y no lo digo por ti, con AMD, SONY, MICROSOFT, NVIDIA y la realidad de las cosas. AMD no tiene "nada que ver" con Sony ni con MS, tienen sus tratos profesionales y fin, porque por una regla de tres, AMD no sacaría GPUS que dejan en ridiculo a las consolas que van a salir...

MS tiene tanto trato y apollo con AMD como con Nvidia, de hecho, tiene mucho mas con Nvidia. Colaboran desde siempre y estan juntos en el desarrollo de tecnologias, algunas de las que nos estan por llegar, como es el caso de DX12 ultimate etc etc etc.

Incluso, Nvidia, ha prestado soporte a AMD para "ayudarla" a ponerse al dia en el uso de recursos que ellos les interesan que se estandaricen, pasa hoy, pasó ayer, y pasará siempre.

No vas a ver un juego con RT donde no se uso DLSS porque AMD lo haya pedido. Igual vemos algunos donde no les ha dado la gana usarlo, porque si dios quiere, el RT se va a estandarizar, pero no porque AMD lo pida, del mismo modo que Nvidia nunca te va a pedir que no usas una tecnología suya en un juego porque en el logo de entrada salga AMD...Esto es asi, y no va a cambiar.

Puedo equivocarme, pero con la experiencia que tenemos, lo dudo muchisimo. El deep learning es el futuro, no solo en el gaming, el hecho de que, por ahora, AMD llegue tarde, como en otros casos, no es un motivo para darle la espalda.
A ver pero si es de perogrullo, un juego patrocinado por una marca, significa que han metido dinero en ese juego (caso por ejemplo del Cyberpunk y Nvidia). Una marca no va a meter dinero en patrocinar un juego para que metan tecnología de la competencia, es que es de sentido común, y es lo que siempre ha sucedido. Si AMD saca un reescalado propio, ten por seguro que no lo vas a ver tampoco en juegos patrocinados por Nvidia (a menos que sea una tecnlogía que no haga falta meter en el motor del juego, como sucede con el DLSS). Hasta ahora, todos los juegos con RT tienen DLSS porque todos esos juegos han sido patrocinados por Nvidia.
8701 respuestas