Nuevos detalles sobre RTX: los juegos compatibles no tienen por qué soportar raytracing

Doctorwho escribió:¿Y AMD qué está haciendo? ¿Ha abandonado la lucha en la gama alta?


No puede estar luchado entodos los frentes al mismo tiempo...

Apus para consolas, ryzen, epyc y software para servidores....

Era normal que saliera mal el proyecto Vaga 64 con solo 20% de plantilla.
jose1024 escribió:@Darkshait Con dos cojones, para que divagar si hay ganas y dinero.


Tu lo has dicho, amigo :)
Si la tabla de la actualizacion es un 30 o 50% mas a 4k que una gtx 1080 y con DLSS aumenta mucho mas es muy posible que esta tecnica aplique un reescalado desde una resolucion inferior a 4k.
jose1024 escribió:
GodOfKratos escribió:
jose1024 escribió:Una joya esto que esta presentando Nvidia, son dos tecnologias nuevas, una va a encargarse de hacer un escalado utlizando los tensor cores que al parecer va a ser brutal, juegos renderizados a solo 1080 que luego van a estar con un 4k muy convincente, su checkboard por lo que se bastante mejor y por otra parte el Raytracing que haciendo uso de los RX y de los TC va a conseguir efectos de iluminacion fotorealistas en tiempo real con una porcion del trazado de rayos necesarios, es verdad que esta verde y carisima pero pinta bastante bien de cara a futuro, luego estan las mil trampas comerciales y lo desvergonzado de estas.

El DLSS sustituiría al AA sin afectar al rendimiento, no de renderizar a menos resolución y reescalar.


Yo tengo entendido que el DLSS va a servir para con fotogramas nativos a 1080 y el uso de los tensor cores conseguir subir la imagen a 4k sin que esto sea distinguible de una imagen nativa a esa resolucion, como post procesado y sin apenas impacto en el rendimiento.

Es lo que la industria demanda abaratar el coste de los desarrollos que se les estaban disparando con el requierimiento de los 4k, que mejor manera de conseguirlo que haciendo uso de unos tensor cores que rellenan los pixeles que son necesarios para 4k de una forma "inteligente", no deja de ser un up-scaling pero sujeto a mas variables y en definitiva mas preciso.

El DLSS usa los tensor cores para sustituir el anti aliasing convencional, mejorando el rendimiento. Puede que el sitio donde leyeras eso estuviera mezclando los 1080p a los que enseñaron los juegos con raytracing (y aun así no alcanzaban 60fps estables) con el DLSS. Habrá juegos que sólo soporten DLSS y no raytracing.
mmiiqquueell escribió:Lo que buscan es sobrecargar las gráficas para seguir vendiendo y eso no me gusta.


Efectivamente, esta es la conclusion real.

Es decir, el RT en tiempo real no es en absoluto necesario. Es cierto que para determinadas escenas, puede aportar cosas muy interesantes, pero es una tecnica increible para realizar renders con CAD o con programas de muestra de edificios, etc.

Pero para un videojuego, es ridiculo, basicamente prque la base grafica es tan "simple" que agregarle una rutina que resta tanto rendimiento, es un problema mas que un beneficio. Es como cuando se le aplicaba antialiasing a un juego con una resolucion enorme ... es cierto que ganaba, pero al final restaba tanto rendimiento, que mas valia bajar resolucion, y aumentar los efectos si compensaba a nivel grafico.

AHora ves muchos brillitos que no aportan NADA ... pero que restan muchisimo rendimiento. Por eso que en estos casos, es ridiculo esto teniendo en cuenta los juegos en los que se podria aplicar con cierta calidad.
Por ahí he leído a algún forero decir que hay mucho desconocimiento del tema. Pues nada, alúmbranos con hechos objetivos de porqué pagar ese aumento de diferencia de Euros por algo que no queda claro en su presentación y es bastante fácil de analizar si comparas con generación anterior.
Cof, cof, cof... Joder, cuánto humo!
Y yo tan feliz con mi Gigabyte G1 Gaming Geforce GTX 1060 de 6Gb [sonrisa].

¡Un saludo!
Hola
Na esto de raytracing es un timo de nvidia, las 2xxx en realidad son las 1xxx con mas cuda cores, memorias nuevas y luego le pegan con cinta el raytracing y ala clavada doble.
El raytracing recuerdo ya existia en 3DStudio 3.0 o el povray en Pc y eso son como poco 25 años y ahora nos intentan vender la moto en los juegos, eso ya deberia estar funcionando hace años pero como son unos sacacuartos pues asi estamos pero yo no voy a pasar por el aro, caera una consola de la siguiente gen y de estas graficas pasando olimpicamente como de las CPUs con agueros de seguridad como quesos.

Saludos
@GodOfKratos

La tabla de rendimientos que han metido en la actualizacion de esta noticia, puedes verlo, dice que con DLSS mejora la tasa de cuadros, el antialiasing como mucho cuesta poco rendimiento pero no lo mejora, el DLSS puede o no trabajar junto con RT, son independientes, como digo hace un upscaling "inteligente" lo que casa mejor con una mejora de rendimiento especialmente si se hace como si de un postprocesado se tratase.
defensivepepe escribió:@Reakl está claro que hay tecnologías que aportan más y hay que menos eso está claro Pero a lo que me refiero es que al final el desarrollador no quiere realizar el esfuerzo por implantarlas.

En mi opinión PhysX era la mejor tecnología que añadió NVidia y una opción muy interesante con claros efectos a la vista que mejoraban mucho la experiencia. Además se podía aprovechar una GPU bastante antigua para acceder a dichas mejoras por lo que el consumo de recursos no era muy excesivo. Aún así acabo mal pues eran 4 juegos los que añadían estos efectos (los batman y el mafia 2 destacan especialmente) y que yo sepa desde hace años está en desuso.

Veremos que pasa, espero que los desarrolladores tengan las herramientas necesarias y la gpu realice todo de lo contrario acabara en el olvido antes de salir las tarjetas.

El punto es que no hay que hacer nada para implementarla. Es un pipeline de renderizado diferente, algo que hace la máquina, no el desarrollador.

Obviamente hay que pulir, pero no hablamos de algo que multiplique el trabajo con respecto a su complejidad, sino que la complejidad la añade la máquina.
jose1024 escribió:@GodOfKratos

La tabla de rendimientos que han metido en la actualizacion de esta noticia, puedes verlo, dice que con DLSS mejora la tasa de cuadros, el antialiasing como mucho cuesta poco rendimiento pero no lo mejora, el DLSS puede o no trabajar junto con RT, son independientes, como digo hace un upscaling "inteligente" lo que casa mejor con una mejora de rendimiento especialmente si se hace como si de un postprocesado se tratase.

En la presentación hicieron esta comparativa
Imagen
Es un escalado buenisimo, me parece normal que tambien mejore el antialiasing.

De todos modos, dentro de unas semanas veremos que hay detras de todo esto, de momento hay mucho secretismo, basta con ver que cuando le han criticado la falta de datos "convencionales" han dado una tabla donde se ve mejora de rendimiento pero todo de un modo bastante obtuso.
Darkcaptain escribió:
La 2070 no estará muy lejos de una 1080TI , si no tiempo al tiempo. Lo mismo que una 1060 supera a una 970 y se acerca a una 980.

Imagen

Eso es de una 2080.

Yo tampoco quiero mas gráficos, pero tienen que "vender" algo y esta vez va a ser el RT y el 4k, en mi caso aguantaré con la 1080 lo máximo que pueda jugando en QHD.



Esa imagen muestra los test con una RTX 2080 y por ejemplo la GTX 1080Ti el FarCry 5 logra 64FPs en ULTRA 4K (Máximo) una media de 50FPs y esta supuesta 2080 saca 70FPs, el F1 2017 la 1080Ti saca 75FPs (de media) y la imagen pone 72, eso no es bueno, la imagen pertenece a una noticia que dice

[En la segunda diapositiva vemos las cifras de rendimiento en FPS de algunos juegos ejecutados en 4K HDR a 60 Hz, superando o igualando todos ellos los 60 FPS. Sin embargo, la compañía no detalla qué calidad gráfica usan, aunque cabría esperar que sean todos los juegos al máximo de calidad.]

Así cualquiera, pero suponiendo que sea ultra eso de que la 2070 se acerca a una 1080Ti va a ser que no, dependiendo del juego y viendo videos en youtube la GTX 1080Ti saca mejores o peores resultados que la supuesta imagen de Nvidia con un +/- 15FPs como mucho. Eso no es el "DOBLE" que dice Nvidia ni de coña.

Edy escribió:Efectivamente, esta es la conclusion real.

Es decir, el RT en tiempo real no es en absoluto necesario. Es cierto que para determinadas escenas, puede aportar cosas muy interesantes, pero es una tecnica increible para realizar renders con CAD o con programas de muestra de edificios, etc.

Pero para un videojuego, es ridiculo, basicamente prque la base grafica es tan "simple" que agregarle una rutina que resta tanto rendimiento, es un problema mas que un beneficio. Es como cuando se le aplicaba antialiasing a un juego con una resolucion enorme ... es cierto que ganaba, pero al final restaba tanto rendimiento, que mas valia bajar resolucion, y aumentar los efectos si compensaba a nivel grafico.

AHora ves muchos brillitos que no aportan NADA ... pero que restan muchisimo rendimiento. Por eso que en estos casos, es ridiculo esto teniendo en cuenta los juegos en los que se podria aplicar con cierta calidad.



Como dice Edy se han inventado una nueva forma de frenar las gráficas actuales y así seguir vendiendo churros que no hacen falta. Eso pasa desde siempre, Cuando salio la PS3 el nivel gráfico era increíble y X360 no se quedo corta, luego apareció Crysis y otros juegos más que nos dejaron con la boca abierta, pienso que en ese momento ya no hubiera hecho falta seguir aumentando la calidad gráfica y centrarse más en la historia y detalles pequeños, pero no, eso no interesa, la idea era seguir metiendo más mierda en los juegos para consumir hardware y seguir vendiendo, Nvidia es de soltar pasta a las desarrolladoras para vender sus gráficas. Así normal que el PC siempre sea "Master Race" si es que fuerzan a que sea así por cojones.

El ejemplo más descarado que he visto hasta la fecha es el Crash Remake, muchos se han quejado del capado a 1080 o 1440P y 30 FPs en la versión de consolas, sin contar la de Switch, en PC una 1080Ti apenas llega a 60FPs en ULTRA 4K. Pero luego ves videos como el OFF CAMERA y ves la cantidad de testeos y basura que ha dejado Activision en los niveles, por no decir que un mapa pueden ser hasta 4 niveles a la vez, eso sobrecarga de forma innecesaria la gráfica y procesador para pintar todo eso ademas de aumentar los tiempos de carga, estoy seguro que si quitaran eso por lo menos tendrían 60 FPs asegurados y la versión de PS4 PRO podría llegar incluso al 4K real. Tal y como se ve el juego parece intencionado.

Pienso que para cinemáticas in game como las de Metal Gear si, le daría ese toque más cinemático pero tal y como están ahora los motores gráficos creo que no es necesario esto, lo que han logrado con los motores gráficos en cuanto a luces, sombres y reflejos es una bestial rayada de optimización y años de trabajo, seria una putada que ahora Nvidia por presentar eso mandara a la mierda todos esos años de desarrollo de optimización solo para vender unas cutres gráficas que no son lo que dicen ser. Pero así funciona el mundo y no hay nada que hacer contra el dinero. Es que puedes buscar renders de RayTracing vs UDK o Unity y no ves diferencia, con eevee si porque aun está verde pero no está lejos de estar por igual.

Mira intel, ahora ha salido que por favor la gente no ponga comparativas de rendimiento entre antes y después de aplicar el parche, claro, por que si se muestra la realidad la gente dejara de comprar intel y comprara AMD, si si, lo llevas claro Intel, Anda y sigue con el VLC a mentir a la gente, la gente no es tan tonta, yo ya metí el parche del Meltdown y spectre y si, se nota una perdida, con el nuevo parche la perdida es mucho mayor así que ya ni actualizare.

En fin. A mi solo me falta ver como trabajan estas gráficas con motores de diseño 3D, que aunque me compre una GTX 1060 y rinde mucho mejor que la GTX 660 que tenia antes, aun me tira bastante lento para renders, claro que no la comprare de primeras, solo para hacerme a la idea de si pueden subir más de velocidad aunque viendo el panorama no espero gran cosa. No es la primera vez que Nvidia hace algo así y no es la única AMD también se sube por las paredes con el HYPE como cuando mostró las RX400 diciendo que 2 RX480 eran superiores a la GTX 1080Ti y luego resulto que la demostración ejecutaba el juego en calidad media mientras la 1080Ti era ULTRA y ademas al venderse se demostró que estaba cerca de la 1070 las 2 RX480.

Espera que ahora llega intel con sus nuevo intento de gráficas dedicadas a ver que perla nos suelta.

Me pone de los nervios estas cosas.
(mensaje borrado)
rubencbr escribió:No se yo si esto cuajará...
He visto el vídeo del RES2 Remake y no he apreciado nada, igual soy yo que estoy medio cegato ya.
Espero que se hayan preocupado en sacar más rendimiento porque si el aumento de precio es sólo por la nueva tecnología mal vamos.

Eso es porque a fecha de hoy se ha conseguido crear efectos de luces y sombras a base de "truquitos inteligentes" muy convincentes con el metodo tradicional de rasterización.
Ahora nvidia quiere hacerlo a la fuerza bruta con raytracing... pues vale. Ya tengo claro que por algo hay que empezar aunque tarden varias generaciones de tarjetas en tener la potencia suficiente para que sea worthy. El precio puede ser por varios factores. El que no tenga competencia en el mercado grafico y que al ser los únicos en desarrollar la nueva tecnologia hayan desembolsado ingentes cantidades de dinero en pozo sin fondo y quieran tener beneficios al final del año.
Habrá que esperar a ver pruebas reales con especificaciones de los equipos.....
sergio-hbk escribió:Cuanto desconocimiento hay por aquí XD

Por ahora el raytracing no se usa para una iluminación completa (porque aún se requiere una potencia mucho mayor), solo se usa para cosas muy concretas y se nota la diferencia, bastante (aunque Nvidia la exagero)

Por ahora no merece la pena comprarlas pero raytracing es totalmente necesario para llegar al hiperealismo

Creo recordar que en la propia conferencia comentaron la forma de adaptar el RT en eestas nuevas envidia,que era imposible hacerlo de forma full asi que los hacia parcialmente y luego lo estrapolaban...eso entendi en el directo.

Por otro lado toda la razon, por ahora prescindible y quien sabe si en un futuro seguiran con esta tecnologia o queda por el camino...Un saludo [bye]
¿Modo foto con raytracing en la next gen?
Tengo una titan hybrid para trabajar y jugar. Mientras sigan sacando porquerías, de mi parte no van a ver un $.
A ver que me quede claro, lo unico que hace es llenar de aceite lubricante todo el juego para que brille por todos sitios y ya esta ? :-? Igual que con los mods del GTA V que salieron, todo brillante, reflejoso, mojado... Eso es la siguiente generacion?
hynix escribió:A ver que me quede claro, lo unico que hace es llenar de aceite lubricante todo el juego para que brille por todos sitios y ya esta ? :-? Igual que con los mods del GTA V que salieron, todo brillante, reflejoso, mojado... Eso es la siguiente generacion?

Nvidia se ha cagado, han visto como los usuarios se han dado cuenta del timo e intentan taparlo como sea. La serie 2000 es un timo, si la 2080ti a 1080p con rtx no es capaz de mover un juego a 60fps estables pues apaga y vamonos, ahora añadimos a rtx nvidia gameworks y con mucha suerte vas a tener 24fps "cinematograficos" [sati] .
Ojala se vendan una mierda las 2000 asi nvidia aprende un poco de humildad.
Saludos
71 respuestas
1, 2