[HO] Radeon RX 6000 Family

Yo estoy casi convencido de ir a por una 6800 pero como monto ITX estoy a la espera de ver temperaturas y de si algún fabricante saca una de doble ventilador más pequeña que la de referencia, si no habrá que irse a la Zotac 3070.
Asus ha anunciado la 3070 3080 y 3090 con bloques ekwb.

Yo no iba a comprar gráfica pero visto lo visto si Asus saca la 6800 xt con bloque ekwb creo que voy a caer.
Pero los valores de las nvidia que ponen en la comparativa son más o menos reales? Imagino que debería dar algún fps más que con una config intel equivalente al tener el 5900x más potencia por núcleo.

La verdad que ya sabiendo que pueden tener algo parecido al dlss, si no es que sacan bastantes más fps la nvidia creo que lo tendré claro.
Al parecer se acaban de filtrar los primeros bench con RT activo, superando la 6800 a la 3070 en fuerza bruta.

DLSS y demás trucos off

Lo de los 12gb de vram suena a "jodete nvidia, te quedaste sin godfall" [qmparto]
pmol escribió:


Me juego un sugus a que no hay DLSS en ese juego XD
Pacorrr escribió:
pmol escribió:


Me juego un sugus a que no hay DLSS en ese juego XD

Yo me juego 2 a que nace muerto con esos requisitos jaja
Daylon87 escribió:
Pacorrr escribió:
pmol escribió:


Me juego un sugus a que no hay DLSS en ese juego XD

Yo me juego 2 a que nace muerto con esos requisitos jaja

Pues el juego se ve bastante guapo. El que no pueda poner las texturas al máximo por falta de VRAM, pues las bajará a high y listo.
Pacorrr escribió:
Daylon87 escribió: Yo me juego 2 a que nace muerto con esos requisitos jaja

Pues el juego se ve bastante guapo. El que no pueda poner las texturas al máximo por falta de VRAM, pues las bajará a high y listo.


Pero es un poco triste que no puedas poner las texturas en Ultra en una gráfica prácticamente tope de gama que acaba de salir.
xecollons escribió:
Pacorrr escribió:
Daylon87 escribió: Yo me juego 2 a que nace muerto con esos requisitos jaja

Pues el juego se ve bastante guapo. El que no pueda poner las texturas al máximo por falta de VRAM, pues las bajará a high y listo.


Pero es un poco triste que no puedas poner las texturas en Ultra en una gráfica prácticamente tope de gama que acaba de salir.

Además de que claramente las han inflado de modo artificial para hacer quedar peor a las gráficas Nvidia.
O me vais a decir que este juego necesita más vram que el the cyberpunk 2077...
xecollons escribió:
Pacorrr escribió:
Daylon87 escribió: Yo me juego 2 a que nace muerto con esos requisitos jaja

Pues el juego se ve bastante guapo. El que no pueda poner las texturas al máximo por falta de VRAM, pues las bajará a high y listo.


Pero es un poco triste que no puedas poner las texturas en Ultra en una gráfica prácticamente tope de gama que acaba de salir.


Tienes el BFV que en 4K y con RT al máximo chupa más de 10GB de VRAM, y es un juego que salió hace cerca de 2 años ya ;)

En mi 2080 a 1440p con RT, iba a tirones :o
@adriano_99 El tema para mi es que las consolas tienen 16gB que pueden utilizar asi que no veo porque no van a gastar 12 o 13 gb de ram en texturas
PepeC12 escribió:@adriano_99 El tema para mi es que las consolas tienen 16gB que pueden utilizar asi que no veo porque no van a gastar 12 o 13 gb de ram en texturas

Las consolas tienen 16 GB EN TOTAL, tu pc tiene otros 16 o 32GB de ram a los que dar uso.
Las consolas no pueden dedicar 12GB sólo a texturas.
Y las consolas no van en ultra y a veces no usan 4k nativos
Con un 5600X y una RX 6800 tengo más que suficiente. Toca ahorrar.
Mi caja es una Fractal Design Meshify C USB 3.0, que no es muy grande, solo me entra una gráfica de 31.5 cm, por lo que muchas 3080 no me entraban. Como está el tema de la 6800xt? creo que son mas pequeñas, no tendré problemas con ninguna?
roberto28live escribió:Con un 5600X y una RX 6800 tengo más que suficiente. Toca ahorrar.

Mas que suficiente, tienes el combo perfecto para sacar el máximo partido a todas las cualidades de Radeon
@willygermo Todas las RX 6000 de referencia miden 267 mm de largo.
Pacorrr escribió:Pues el juego se ve bastante guapo. El que no pueda poner las texturas al máximo por falta de VRAM, pues las bajará a high y listo.

Te dejas una pasta en una GPU que ha salido hace pocas semanas, para no poder poner el juego en ULTRA.... casi que me quedo con la basura que tengo de 1660 Super para eso y me ahorro el coste de la GPU.

Es mas, me estoy planteando pillar una RX 5700 XT por 300€, modelo referencia. ein? sin estrenar a un compañero de trabajo, no es que juegue y con una 5700 voy sobrado un par de años, porque la 6800, dudo que baje de los 600€...
Vaya subida de precio. Las Vegas estaban por 300. Tanta diferencia hay?
Ya se que no es el hilo, pero sabeis si las 5700xt tendran soporte para ray tracing en un futuro? Porque ya que estas tarjetas no tienen cores de ia dedicada a rtx, digo yo que seria lo suyo no?


Lo pregunto por curiosidad mas que nada, mi idea es pillar una 6800xt por el tema de que el año que viene actualizare a un 5600x probablemente ( tengo un 2600 ahora), pero no dejo de pensar a veces que quizas sea un poco overkill teniendo en cuenta que jugare a 1080 xddddd
@Miguemi la serie 6000 si que tiene su propio RT Core, el Ray Accelerator Unit, y hay uno por cada Compute Unit. Su trabajo es el mismo que el del RT Core de las NVIDIA RTX e incluso se encuentra en la misma posición dentro de la GPU que las NVIDIA RTX.

En la anterior generación no, por lo tanto en principio no creo que pueda haber, aunque cabe recalcar que no son necesarias estas unidades para que ejecutemos los cálculos y nos muestre el raytracing en su explendor, de hecho nvidia lo permitió en las gtx de la serie 1000. Pero cabe decir que si de por si con hardware dedicado exclusivamente a ello va como el ojete de lo que consume, imaginate sin el, pues eso un desproposito en toda regla. Por lo tanto dudo que amd ni siquiera se le pase por la cabeza y aunque lo hiciese créeme no querrás usarlo porque es absurdo de lo mal que va.
AzagraMac escribió:
Pacorrr escribió:Pues el juego se ve bastante guapo. El que no pueda poner las texturas al máximo por falta de VRAM, pues las bajará a high y listo.

Te dejas una pasta en una GPU que ha salido hace pocas semanas, para no poder poner el juego en ULTRA.... casi que me quedo con la basura que tengo de 1660 Super para eso y me ahorro el coste de la GPU.

Es mas, me estoy planteando pillar una RX 5700 XT por 300€, modelo referencia. ein? sin estrenar a un compañero de trabajo, no es que juegue y con una 5700 voy sobrado un par de años, porque la 6800, dudo que baje de los 600€...


Repito, pasó exactamente lo mismo con la 2080 y el Battlefield V, no se podía poner al máximo con RT ni siquiera a 1440p por falta de VRAM... Nvidia siempre ha racaneado mucho con la cantidad de VRAM. Con las RX 6800/6900 no habrá problema, llevan 16GB.
Pacorrr escribió:
AzagraMac escribió:
Pacorrr escribió:Pues el juego se ve bastante guapo. El que no pueda poner las texturas al máximo por falta de VRAM, pues las bajará a high y listo.

Te dejas una pasta en una GPU que ha salido hace pocas semanas, para no poder poner el juego en ULTRA.... casi que me quedo con la basura que tengo de 1660 Super para eso y me ahorro el coste de la GPU.

Es mas, me estoy planteando pillar una RX 5700 XT por 300€, modelo referencia. ein? sin estrenar a un compañero de trabajo, no es que juegue y con una 5700 voy sobrado un par de años, porque la 6800, dudo que baje de los 600€...


Repito, pasó exactamente lo mismo con la 2080 y el Battlefield V, no se podía poner al máximo con RT ni siquiera a 1440p por falta de VRAM... Nvidia siempre ha racaneado mucho con la cantidad de VRAM. Con las RX 6800/6900 no habrá problema, llevan 16GB.

Aqui AMD ha tenido un buen golpe contra NVIDIA... toda la gama 6x00 con 16Gb, se acabaron las historias, aun asi, con 8Gb se puede jugar perfectamente a la gran mayoria de titulos actuales.

A no ser que busques el extremo, a 1080p que es lo que juego y no creo que lo cambie este año ni el que viene... me sobra con los 8Gb que me da la 5700 XT
Habrá que ver cómo rinden las Radeon en el Cyberpunk no? sin DLSS y con RT.
Entre jugar regular el Godfall y jugar regular el Cyberpunk yo creo que todos lo tenemos claro.
Y voy más allá, que un juego cómo Cyberpunk chupara 12 gb de vram lo podría llegar incluso a entender, pero Godfall? de verdad?
Por otro lado, poner el Battlefield V cómo ejemplo me parece una broma, está bastante mal optimizado, y el DLSS funciona fatal en ese juego.
Estoy casi seguro que la 6800 va a rendir más que la 3070, sólo faltaría costando 80-100 pavos más.
Saludos
Blackpo92 escribió:Habrá que ver cómo rinden las Radeon en el Cyberpunk no? sin DLSS y con RT.
Entre jugar regular el Godfall y jugar regular el Cyberpunk yo creo que todos lo tenemos claro.
Y voy más allá, que un juego cómo Cyberpunk chupara 12 gb de vram lo podría llegar incluso a entender, pero Godfall? de verdad?
Por otro lado, poner el Battlefield V cómo ejemplo me parece una broma, está bastante mal optimizado, y el DLSS funciona fatal en ese juego.
Estoy casi seguro que la 6800 va a rendir más que la 3070, sólo faltaría costando 80-100 pavos más.
Saludos


El Cyberpunk 2077 no tendrá soporte RT para otras tarjetas que no sean Nvidia al menos los primeros meses, suena a exclusiva temporal (es un juego patrocinado por Nvidia). Y en general, los efectos RT chupan más VRAM que si no los usas, si se juntan con texturas ultra mega HD pues cóctel explosivo.
Pacorrr escribió:
Blackpo92 escribió:Habrá que ver cómo rinden las Radeon en el Cyberpunk no? sin DLSS y con RT.
Entre jugar regular el Godfall y jugar regular el Cyberpunk yo creo que todos lo tenemos claro.
Y voy más allá, que un juego cómo Cyberpunk chupara 12 gb de vram lo podría llegar incluso a entender, pero Godfall? de verdad?
Por otro lado, poner el Battlefield V cómo ejemplo me parece una broma, está bastante mal optimizado, y el DLSS funciona fatal en ese juego.
Estoy casi seguro que la 6800 va a rendir más que la 3070, sólo faltaría costando 80-100 pavos más.
Saludos


El Cyberpunk 2077 no tendrá soporte RT para otras tarjetas que no sean Nvidia al menos los primeros meses, suena a exclusiva temporal (es un juego patrocinado por Nvidia). Y en general, los efectos RT chupan más VRAM que si no los usas, si se juntan con texturas ultra mega HD pues cóctel explosivo.

Y digo yo, crees que no se va a poder jugar al Cyberpunk a la perfección con la 3070 y la 3080 a 2k y 4k respectivamente a tope siendo un juego cómo comentas patrocinado por Nvidia? Sería pegarse un tiro en el pie.
La verdad es que no sabía de la exclusividad del RT en Cyberpunk (vaya putada si tienes o vas a comprar una 6000)
Blackpo92 escribió:
Pacorrr escribió:
Blackpo92 escribió:Habrá que ver cómo rinden las Radeon en el Cyberpunk no? sin DLSS y con RT.
Entre jugar regular el Godfall y jugar regular el Cyberpunk yo creo que todos lo tenemos claro.
Y voy más allá, que un juego cómo Cyberpunk chupara 12 gb de vram lo podría llegar incluso a entender, pero Godfall? de verdad?
Por otro lado, poner el Battlefield V cómo ejemplo me parece una broma, está bastante mal optimizado, y el DLSS funciona fatal en ese juego.
Estoy casi seguro que la 6800 va a rendir más que la 3070, sólo faltaría costando 80-100 pavos más.
Saludos


El Cyberpunk 2077 no tendrá soporte RT para otras tarjetas que no sean Nvidia al menos los primeros meses, suena a exclusiva temporal (es un juego patrocinado por Nvidia). Y en general, los efectos RT chupan más VRAM que si no los usas, si se juntan con texturas ultra mega HD pues cóctel explosivo.

Y digo yo, crees que no se va a poder jugar al Cyberpunk a la perfección con la 3070 y la 3080 a 2k y 4k respectivamente a tope siendo un juego cómo comentas patrocinado por Nvidia? Sería pegarse un tiro en el pie.
La verdad es que no sabía de la exclusividad del RT en Cyberpunk (vaya putada si tienes o vas a comprar una 6000)


Siendo un juego en el que Nvidia ha metido tanto dinero, no tengo duda de que irá bien en esas tarjetas.
Blackpo92 escribió:Y digo yo, crees que no se va a poder jugar al Cyberpunk a la perfección con la 3070 y la 3080 a 2k y 4k respectivamente a tope siendo un juego cómo comentas patrocinado por Nvidia? Sería pegarse un tiro en el pie.
La verdad es que no sabía de la exclusividad del RT en Cyberpunk (vaya putada si tienes o vas a comprar una 6000)


El WD Legión también es un juego patrocinado por Nvidia (lo regalan con las 3000), y no puedes jugar en 4K@60 con RT ni con una 3090, así que ... :-|

La cosa es que anuncien de una vez los precios finales en €, y así ver si compensa ir a por una 6800/3070 o 6800XT/3080 XD


Salu2
Er_Garry escribió:
Blackpo92 escribió:Y digo yo, crees que no se va a poder jugar al Cyberpunk a la perfección con la 3070 y la 3080 a 2k y 4k respectivamente a tope siendo un juego cómo comentas patrocinado por Nvidia? Sería pegarse un tiro en el pie.
La verdad es que no sabía de la exclusividad del RT en Cyberpunk (vaya putada si tienes o vas a comprar una 6000)


El WD Legión también es un juego patrocinado por Nvidia (lo regalan con las 3000), y no puedes jugar en 4K@60 con RT ni con una 3090, así que ... :-|

La cosa es que anuncien de una vez los precios finales en €, y así ver si compensa ir a por una 6800/3070 o 6800XT/3080 XD

Salu2

Por favor, no comparemos a CD Project con Bugisoft, por favor. Y no es lo mismo patrocinado por Nvidia, presumiento del RT en él y enseñando vídeos de cómo funciona el juego en la serie 3000 y un acuerdo comercial para regalar el Watch Dogs, hay que diferenciar.
Saludos
@Blackpo92 pues nose yo... con el watch dogs va lamentable hasta regalado con las tarjetas de nvidia.

Puede ser culpa de ubisoft, pero un juego que regala nvidia, un juego que incluye raytracing y dlss es un juego que llamalo como quieras "promocionado" "patrocinado" lo que sea pero hace quedar como el culo, para eso es mejor ni que aparezca el logo de nvidia al comienzo del juego.

El caso opuesto es el assasins juego promocionado o patrocinado o como quieras llamarlo por amd con nada de las tecnologías anteriores.

Yo aún tengo esperanzas de que saquen una 3080 vitaminada con más vram. Para mi eso será un...
Imagen
Pacorrr escribió:
Blackpo92 escribió:Habrá que ver cómo rinden las Radeon en el Cyberpunk no? sin DLSS y con RT.
Entre jugar regular el Godfall y jugar regular el Cyberpunk yo creo que todos lo tenemos claro.
Y voy más allá, que un juego cómo Cyberpunk chupara 12 gb de vram lo podría llegar incluso a entender, pero Godfall? de verdad?
Por otro lado, poner el Battlefield V cómo ejemplo me parece una broma, está bastante mal optimizado, y el DLSS funciona fatal en ese juego.
Estoy casi seguro que la 6800 va a rendir más que la 3070, sólo faltaría costando 80-100 pavos más.
Saludos


El Cyberpunk 2077 no tendrá soporte RT para otras tarjetas que no sean Nvidia al menos los primeros meses, suena a exclusiva temporal (es un juego patrocinado por Nvidia). Y en general, los efectos RT chupan más VRAM que si no los usas, si se juntan con texturas ultra mega HD pues cóctel explosivo.


paremos la moto un momento, primero que todo para tener Raytracing necesitamos un APi que lo soporte y para el caso Windows 10 versión 1903 (actualización de mayo de 2019, número de compilación 18362 que es la que habilita en DirectX 12 el Raytracing, otra API como es VULKAN también lo soporta hasta donde se pero de momento no hay implementaciones, la cosa es que hasta donde me entero NVIDIA con su RTX hace es una aceleración por hardware dedicado para DXR, de la misma forma que permite también hacerlo en graficas sin hardware dedicado con rendimiento inferior, incluso si nos vamos a la especificación de DXR de Microsoft por alla en 2018 que hizo el anuncio

https://devblogs.microsoft.com/directx/ ... aytracing/

en la cual vemos que uso de DXR no esta amarrado a ningún hardware y que habilitar el uso depende que este se implemente por los drivers de la grafica, a ver si nos ponemos serios con el asunto, yo entiendo que en las especificaciones/requerimientos de todos los juegos próximos a salir no halla ninguna mención al Raytracing con graficas AMD por sencillamente estas graficas no habían sido anunciadas que es una explicación mas plausible a decir que no se dara soporte a graficas que no sean NVIDIA cuando es la propia API DiretX 12 a travez de su complemento DXR la que permite tener Raytracing
JagerCrow escribió:
Pacorrr escribió:
Blackpo92 escribió:Habrá que ver cómo rinden las Radeon en el Cyberpunk no? sin DLSS y con RT.
Entre jugar regular el Godfall y jugar regular el Cyberpunk yo creo que todos lo tenemos claro.
Y voy más allá, que un juego cómo Cyberpunk chupara 12 gb de vram lo podría llegar incluso a entender, pero Godfall? de verdad?
Por otro lado, poner el Battlefield V cómo ejemplo me parece una broma, está bastante mal optimizado, y el DLSS funciona fatal en ese juego.
Estoy casi seguro que la 6800 va a rendir más que la 3070, sólo faltaría costando 80-100 pavos más.
Saludos


El Cyberpunk 2077 no tendrá soporte RT para otras tarjetas que no sean Nvidia al menos los primeros meses, suena a exclusiva temporal (es un juego patrocinado por Nvidia). Y en general, los efectos RT chupan más VRAM que si no los usas, si se juntan con texturas ultra mega HD pues cóctel explosivo.


paremos la moto un momento, primero que todo para tener Raytracing necesitamos un APi que lo soporte y para el caso Windows 10 versión 1903 (actualización de mayo de 2019, número de compilación 18362 que es la que habilita en DirectX 12 el Raytracing, otra API como es VULKAN también lo soporta hasta donde se pero de momento no hay implementaciones, la cosa es que hasta donde me entero NVIDIA con su RTX hace es una aceleración por hardware dedicado para DXR, de la misma forma que permite también hacerlo en graficas sin hardware dedicado con rendimiento inferior, incluso si nos vamos a la especificación de DXR de Microsoft por alla en 2018 que hizo el anuncio

https://devblogs.microsoft.com/directx/ ... aytracing/

en la cual vemos que uso de DXR no esta amarrado a ningún hardware y que habilitar el uso depende que este se implemente por los drivers de la grafica, a ver si nos ponemos serios con el asunto, yo entiendo que en las especificaciones/requerimientos de todos los juegos próximos a salir no halla ninguna mención al Raytracing con graficas AMD por sencillamente estas graficas no habían sido anunciadas que es una explicación mas plausible a decir que no se dara soporte a graficas que no sean NVIDIA cuando es la propia API DiretX 12 a travez de su complemento DXR la que permite tener Raytracing


Es cosa de cd projekt (seguramente tenga un suculento acuerdo con Nvidia), hasta 2021 no sacará un parche para habilitar DXR en tarjetas que no sean Nvidia [+risas]

Lo dijo uno de los desarrolladores en una entrevista en pc gamer.
Pacorrr escribió: Es cosa de cd projekt (seguramente tenga un suculento acuerdo con Nvidia), hasta 2021 no sacará un parche para habilitar DXR en tarjetas que no sean Nvidia [+risas]

Lo dijo uno de los desarrolladores en una entrevista en pc gamer.


primero que Todo aca la entrevista y dejo link para el que quiera revisar por si mismo

https://www.pcgameshardware.de/Cyberpun ... J5EI1rfJyw


y aca los extractos de lo que dijo Jakub Knapik (director de arte de iluminación y efectos) y Marcin Gollent (programador principal de gráficos) de CD Projekt Red. traducción Cortesia de Google Traslator

PCGH: ha optado por utilizar Direct X 12 Ultimate. ¿Habrá una alternativa para que los jugadores que todavía están ejecutando Win 7 / 8.x también puedan jugar? ¿Hubo una decisión entre las API de nivel inferior DirectX 12 y Vulkan y, de ser así, por qué eligió DX12?

Marcin Gollent: Gracias a la introducción del soporte DX12 para Windows 7 SP1 que Microsoft presentó el año pasado, el juego se ejecutará en este sistema. Hacemos, y continuaremos, probando Cyberpunk 2077 en Windows 7 en un intento de resolver los casos extremos que puedan surgir. Desafortunadamente, Windows 8 no recibió su variante de bibliotecas DX12.

Con respecto a DX12 Ultimate, Cyberpunk 2077 funcionará absolutamente bien con todas las GPU compatibles con DX12. Lo que hace el conjunto de características "Ultimate" es que nos permite hacer más si el hardware lo permite. Optamos por DX12 por dos razones principales. En primer lugar, es la API estándar para las plataformas Xbox y, dado que el juego también llegará a Xbox One, naturalmente queríamos implementarlo lo antes posible. En segundo lugar, es el lugar de nacimiento de DXR, y dado que teníamos planes de invertir en DXR desde el principio, eso hizo que la elección de ir con DX12 fuera bastante sencilla.


y dime de la entrevista en que parte hablo de forma clara y explícita diciendo que le soporte solo será para tarjetas NVIDIA??, donde pone que hasta 2021???, donde dice lo de la exclusiva temporal???, lo único que se menciona es el uso de DirectX 12 ultimate y la cual de la propia pagina de Microsoft menciona esto y dejo link

https://devblogs.microsoft.com/directx/ ... iday-2020/

- DirectX Raytracing
- Variable Rate Shading
- Sampler Feedback
- Mesh Shaders

y pongo el apunte que esta al final de la publicación y donde efectivamente se pone como ejemplo Cyberpunk 2077 por lo mostrado por NVIDIA

Tenga en cuenta que todos estos juegos que utilizan las funciones de DX12 Ultimate funcionarán bien en todo el hardware compatible con DirectX 12 Ultimate. Y cada mes, más juegos actuales y futuros se unen a esta lista en constante crecimiento.


en ninguna parte habla de que AMD o Consolas no vayan a funcionar con directX Ultimate que en ultimas es la extensión que habilita el DXR para que las graficas lo puedan usar
JagerCrow escribió:
Pacorrr escribió: Es cosa de cd projekt (seguramente tenga un suculento acuerdo con Nvidia), hasta 2021 no sacará un parche para habilitar DXR en tarjetas que no sean Nvidia [+risas]

Lo dijo uno de los desarrolladores en una entrevista en pc gamer.


primero que Todo aca la entrevista y dejo link para el que quiera revisar por si mismo

https://www.pcgameshardware.de/Cyberpun ... J5EI1rfJyw


y aca los extractos de lo que dijo Jakub Knapik (director de arte de iluminación y efectos) y Marcin Gollent (programador principal de gráficos) de CD Projekt Red. traducción Cortesia de Google Traslator

PCGH: ha optado por utilizar Direct X 12 Ultimate. ¿Habrá una alternativa para que los jugadores que todavía están ejecutando Win 7 / 8.x también puedan jugar? ¿Hubo una decisión entre las API de nivel inferior DirectX 12 y Vulkan y, de ser así, por qué eligió DX12?

Marcin Gollent: Gracias a la introducción del soporte DX12 para Windows 7 SP1 que Microsoft presentó el año pasado, el juego se ejecutará en este sistema. Hacemos, y continuaremos, probando Cyberpunk 2077 en Windows 7 en un intento de resolver los casos extremos que puedan surgir. Desafortunadamente, Windows 8 no recibió su variante de bibliotecas DX12.

Con respecto a DX12 Ultimate, Cyberpunk 2077 funcionará absolutamente bien con todas las GPU compatibles con DX12. Lo que hace el conjunto de características "Ultimate" es que nos permite hacer más si el hardware lo permite. Optamos por DX12 por dos razones principales. En primer lugar, es la API estándar para las plataformas Xbox y, dado que el juego también llegará a Xbox One, naturalmente queríamos implementarlo lo antes posible. En segundo lugar, es el lugar de nacimiento de DXR, y dado que teníamos planes de invertir en DXR desde el principio, eso hizo que la elección de ir con DX12 fuera bastante sencilla.


y dime de la entrevista en que parte hablo de forma clara y explícita diciendo que le soporte solo será para tarjetas NVIDIA??, donde pone que hasta 2021???, donde dice lo de la exclusiva temporal???, lo único que se menciona es el uso de DirectX 12 ultimate y la cual de la propia pagina de Microsoft menciona esto y dejo link

https://devblogs.microsoft.com/directx/ ... iday-2020/

- DirectX Raytracing
- Variable Rate Shading
- Sampler Feedback
- Mesh Shaders

y pongo el apunte que esta al final de la publicación y donde efectivamente se pone como ejemplo Cyberpunk 2077 por lo mostrado por NVIDIA

Tenga en cuenta que todos estos juegos que utilizan las funciones de DX12 Ultimate funcionarán bien en todo el hardware compatible con DirectX 12 Ultimate. Y cada mes, más juegos actuales y futuros se unen a esta lista en constante crecimiento.


en ninguna parte habla de que AMD o Consolas no vayan a funcionar con directX Ultimate que en ultimas es la extensión que habilita el DXR para que las graficas lo puedan usar


Lo vi aquí https://wccftech.com/cdpr-talks-gi-vs-r ... animation/

Ray tracing will only be available on PCs with GeForce graphics cards or via GeForce NOW at launch, though we expect that it'll be eventually compatible with AMD's new Navi graphics cards as well as being featured on PlayStation 5 and Xbox Series X once the proper enhancement updates drop for the next-gen consoles in 2021.


Es una entrevista que saldrá en el número de diciembre de PC Gamer, según dicen. La entrevista que tú pones, es antigua.
@Pacorrr primero ese apunte es una interpretación de wccftech a la información dada por NVIDIA y CD PROJEKT RED al expresar que Cyberpunk 2077 estaría disponible desde el día 1 con todas sus características en PC con una grafica NVIDIA y Geforce NOW

de la publicación que hablas de de PC Gamer UK en la preview de las paginas 4-5 se lee

"to better make us of brand new graphics hardware built for DX12"

"para hacernos mejor con hardware de gráficos completamente nuevo construido para DX12"

dejo link

https://www.magazinesdirect.com/az-sing ... 323b2406bc

sin ninguna mención de exclusividad por ningún lado, siempre se habla de que el juego será exclusivo de Windows 10 y directX 12 y que para el soporte completo se necesita directx 12 Ultimate, no mas... ya miramos el 10 a ver que pasa y con que es compatible y con que no
JagerCrow escribió:@Pacorrr primero ese apunte es una interpretación de wccftech a la información dada por NVIDIA y CD PROJEKT RED al expresar que Cyberpunk 2077 estaría disponible desde el día 1 con todas sus características en PC con una grafica NVIDIA y Geforce NOW

de la publicación que hablas de de PC Gamer UK en la preview de las paginas 4-5 se lee

"to better make us of brand new graphics hardware built for DX12"

"para hacernos mejor con hardware de gráficos completamente nuevo construido para DX12"

dejo link

https://www.magazinesdirect.com/az-sing ... 323b2406bc

sin ninguna mención de exclusividad por ningún lado, siempre se habla de que el juego será exclusivo de Windows 10 y directX 12 y que para el soporte completo se necesita directx 12 Ultimate, no mas... ya miramos el 10 a ver que pasa y con que es compatible y con que no

A ver, el soporte para RT en tarjetas que no sean Nvidia (incluidas las consolas), va a salir más tarde, a partir de 2021, eso lo dicen en la entrevista (en el enlace que pones, justo se corta cuando hablan del ray tracing y no sale la página 36). Se excusan de que lo hacen para que el soporte en otras tarjetas sea mejor, pero para mí no cuela. Si lees mis mensajes anteriores, verás que soy yo el que cree que es una exclusiva temporal, porque no se puede negar que Nvidia ha metido mucho dinero en este juego.

Que es algo que hacen todas las marcas, AMD ahora patrocina el Godfall y hay gente que cree que el hecho de que necesiten 12GB de VRAM a 4K y texturas a tope, sea una jugada de AMD (podría serlo).
Yo estoy esperando a ver si sacan unas 6700 xt o 6600xt porque no tengo intención de gastarme tanto, esperamos que bajen de precio
@JagerCrow puede tener razón totalmente @Pacorrr , puesto que ya AMD ya ha comunicado oficialmente que esta serie de radeons ejecutarán RayTracing siempre y cuando el juego no que no use APIs propietarias.

En pocas palabras podrá con la API Microsoft DXR y la API Vulkan RayTracing, pero no podrá lógicamente con Nvidia DirectX RTX o Nvidia Vulkan RTX.

Ahora bien, esto no significa nada oficial, ni mucho menos, ni que los juegos que estén en el mercado usen exclusivamente la de nvidia, la mayoria usan DirectX Raytracing, por lo que funcionaran 100% sin problemas con amd sin necesidad de parche. Creo que no hay juego alguno con la propietaria de nvidia, igual este es al que se refiere el articulo.

Pero vamos al final lo que está claro esque si utiliza la api dxr va a ir 100% con amd el dia de lanzamiento, en caso contrario tienen que haberlo hecho con la api propietaria de nvidia para luego sacarla con dxr, eso es mucho curre y mucha pasta de por medio pero oye el dinero manda.

Ya puestos:
https://videocardz.com/newz/amd-radeon- ... acing-apis

Y de paso, amd tambien ha presentado su compentencia contra el dlss de nvidia, en colaboración con microsoft.
DirectML Super Resolution

Muestran una imagen de como la ia es capaz de reescalar una imagen de 1080p a 4k. (brutal) de ser cierto puede dejar en pañales al actual dlss pero queda por ver, ya que aún no hay fecha de lanzamiento. (Se entiende que no será dentro de mucho tiempo, porque tanto la nueva generación de consolas como estas tarjetas están ya al salir al mercado)

De ser cierto y lo bueno es que esto no es exclusivo de AMD, quiere decir que se podrá usar sobre tarjetas de nvidia. Que logicamente lo que imagino que ocurrirá es que igual que muchas tecnologías de nvidia pasarán al cajón del olvido.

Imagen
Imagen
sergiokarra escribió:Yo estoy esperando a ver si sacan unas 6700 xt o 6600xt porque no tengo intención de gastarme tanto, esperamos que bajen de precio


Dudo mucho que se vaya a poder comprar nada, tiene pinta de que llegarán las justas
metalgear escribió:...
Y de paso, amd tambien ha presentado su compentencia contra el dlss de nvidia, en colaboración con microsoft.
DirectML Super Resolution

Muestran una imagen de como la ia es capaz de reescalar una imagen de 1080p a 4k. (brutal) de ser cierto puede dejar en pañales al actual dlss pero queda por ver, ya que aún no hay fecha de lanzamiento. (Se entiende que no será dentro de mucho tiempo, porque tanto la nueva generación de consolas como estas tarjetas están ya al salir al mercado)

De ser cierto y lo bueno es que esto no es exclusivo de AMD, quiere decir que se podrá usar sobre tarjetas de nvidia. Que logicamente lo que imagino que ocurrirá es que igual que muchas tecnologías de nvidia pasarán al cajón del olvido.

Imagen
Imagen


Que el DirectML lo lleven las Xbox me hace pensar que la batalla sobre número de títulos compatibles adheridos VS DLSS tiene AMD las de ganar finalmente. Otra cosa que estaría por ver es cual tecnología de re-escalado sería más eficaz/eficiente.

Y sinceramente yo creo que como usuarios salimos ganando que pueda triunfar el DirectML, el cual es opensource y cualquier GPU puede usarlo, no sólo las de una compañía concreta por ser tecnología propietaria.
A mí esto me recuerda un poco al G-Sync vs FreeSync. [reojillo]
sergiokarra escribió:Yo estoy esperando a ver si sacan unas 6700 xt o 6600xt porque no tengo intención de gastarme tanto, esperamos que bajen de precio


Estoy igual, o la 3060...es q se pasan, ya estoy hasta meditando si veo a 300 o menos una 5700 xt comprarla y darle un par de años y lueho cambiar a otra de 300 del momento, q no ir ahora a una de 600 pa esos 4-5 años (q no se si duraría)
Si yo tengo el monitor omen x35, que se supone que no tiene freesync, y compro 6800xt, no podré usar el freesync, no? Es que leí algo de que habían sacado una actualización para hacer monitores compatibles con el freesync, pero he buscado del mio, y no he encontrado nada.
Creéis que es un factor diferencial a la hora de elegir tarjeta gráfica? De momento, creo que no voy a comprar ninguna, me esperaría a una actualización de las 3800 por parte de nvidia, con mas vram. Pero es para ver si veis sensato, lo de decantarme por una u otra por el tema del g-sync.

https://www.pccomponentes.com/hp-omen-x ... 1395028632
@willygermo yo tanto con Nvidia como con Amd tiraria por el freesync.

Al final hacen lo mismo y Freesync esta estandarizado en las ultimas versiones de hdmi y displayport.

Gastarte más dinero en un monitor gsync lo veo un poco absurdo la verdad, cuando lo puedes usar tanto con Nvidia como con Amd.
eykhon escribió:
sergiokarra escribió:Yo estoy esperando a ver si sacan unas 6700 xt o 6600xt porque no tengo intención de gastarme tanto, esperamos que bajen de precio


Estoy igual, o la 3060...es q se pasan, ya estoy hasta meditando si veo a 300 o menos una 5700 xt comprarla y darle un par de años y lueho cambiar a otra de 300 del momento, q no ir ahora a una de 600 pa esos 4-5 años (q no se si duraría)


Yo es que ahora mismo tengo una 1060 de 3gb que me va perfecta y sinceramente no me apetece gastarme tanto dinero tengo un ryzen 2600 y estoy contentisimo con el
8701 respuestas