NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

@Stealwilliam
si de 1080 a 4k de verdad no se nota nada debería de poder hacerse de como minimo 720p notandose un poquito o en el peor de los casos hacer dos interpretaciones una de 480 a 1080 y luego de ahí al 4k.
El salto de resolucion del 1080p al 4k es mucho pero mucho mayor que del 480 al 1080.
Como va a ser el primero imperceptible y el segundo imposible?
Veo puro marqueting y una cortina de humo innecesaria.
Ese es el tema, supongo que acabrá notándose, y no sólo eso, si no que aqui dependemos del trabajo que haya hecho Nvidia en el título con respecto al analisis y procesado de datos de éste en determinada resolución para luego meterla en el juego, y doy por hecho que el objetivo principal será 1080p-->4k.

Podeis investigar, pero yo todo lo que he leído es que el resultado es una maravilla, es más, la imagen que puse antes es una imagen que ha pasado de un 1080p a un 8k reescalado, y esta con un zoom brutal para apreciar que no hay ningún tipo de pixelación ni artefactos, lo dicho, todo lo que he leído sobre el DLSS ha sido bueno, igual que digo que el tema de raytracing aun está en entredicho.
Vamos a ver... Que creo que nadie me esta leyendo. Si actualmente el DSR y el VSR permite emular el 4k Decidme ¿donde esta la novedad? ¿ Es lo mismo pero evolucionado? Por que...NO LO ESTOY PILLANDO ! [facepalm]
Pues a ver que termina pasando pero de momento me siento super super decepcionado y penando en olvidarme de comprar la 1070.
Ojalá este completamente equivocado, ojalá....
adriano_99 escribió:
KnightSparda escribió:Pues no es lo que yo he estado leyendo este par de días, al parecer toda la gente que ha podido ver el DLSS en acción dicen que es una maldita locura, y teniendo un monitor 4k al lado para comparar dicen que la imagen era literalmente igual, que era imposible diferenciar, vamos no se tu pero si ahora se centran en usar potencia para mejorar los juegos en complejidad gráfica ya que el tema rendimiento va a quedar solucionado con la AI para emular de manera brutal una resolución mayor, para mi es la panacea a ésta guerra absurda de resoluciones y framerates, se queda todo solucionado.

Es más, me atrevo a decir que ésto ya esta pasando, las consolas precisamente es lo que han hecho, han conseguido mejorar en sobremanera su complejidad gráfica hasta puntos que con su baja potencia eran impensables gracias a que precisamente el tema de la resolución ha quedado paliado por los chekerboards.

El único tema que queda en el aire, es ver hasta que punto los juegos que vayan saliendo soporten éste sistema que requiere de el apoyo de nvidia para poder sacar su jugo.

Lo que hacen las consolas me parece una verdadera chapuza para simular que tienen mas potencia y engañar a la gente y por mas que esto sea mejor no me parece muy distintos.
Y vuelvo a decir, si de verdad no notas nada la diferencia, porque pararse en el 1080p?
Porque no reducir todavía mas la resolucion original?
720p tampoco debería de notarse casi nada y 480 p igual se nota un poco pero tendriamos """"""""""4k"""""""""" a 200 o 300 fps.
No me lo creo, y ver que nos llega la guarrada de las consolas me hierve la sangre.

¿Guarradas de las consolas? Juzgas muy a la ligera. God of War en Ps4 Pro, Gears 4 en Xbox One X.................estos juegos lo hacen gente con años de experiencia en el más alto nivel. Todas las técnicas de renderizado que salgan de sus mentes serán un gran avance para los gráficos en tiempo real.

Yo te aconsejaría verlo por ti mismo para juzgar como malo el DLSS.


@TheBalaks el DSR lo aplican los Shaders y el DLSS los Tensor Cores mediante algoritmos de Deep Learning. El Tensor no "restaría" tiempo al frame-time si fuera completamente independiente.
TheBalaks escribió:¿Tiene que ver con el actual DSR de nvidia o EL VSR de AMD ? Tengo entendido que la técnica actual permite emular los 4k.( al menos es lo que promocionan ellos) aparentemente si da pequeñas mejoras. En alguna ocasión
cuando conecte un monitor o tv de gran tamaño a mi pc me saltaba el VSR lo de que tiene muchas pulgadas el y que puedes activarlo para mejorar la imagen. Me paso en casa de un amigo que tenía tenía 1080p en monitor de 28 pulgadas.



Dsr y Vsr lo que hacen es renderizar a una resolucion mayor para luego reducirla , con esto se consigue eliminar los dientes de sierra pero es una tecnica muy costosa en rendimiento.
Aquí es justo al reves, el monitor 4k pide a la gráfica que renderice en 1080p y que mediante IA lo reescale a 4k, de manera que le cueste mucho menos renderizar, y que la tarea de crear mediante IA el reescaldo con una calidad tremenda lo hagan los tensor cores, que para eso los llevan las RTX, de ésta manera la resolución reultante sería un 4k o prácticamente igual, con un framerate muy superior ya que la gráfica sólo tiene que renderizar a 1080p.

Se supone que en términos de calidad está por encima que cualquier cosa que hayamos tenido hasta la fecha, de ahí la gracia del asunto, lo que yo decía, es que para que ésto tenga éxito, nvidia tiene que trabajar para que la mayoría de juegos posibles tengan una base de datos para el DLSS.
@Xlooser Lo siento pero con la resolución soy inmovoble.
Resolución real sea la que sea.
Prefiero 720p reales que un sucio reescalado.
Siempre.
Los reescalados son malos siempre, producen una borrosidad increíble, donde esté la nativa que se quite todo.

Lo que creo que se está comentando que al llevar digamos el chip partido, una parte que es la de siempre se dedicará solo al tema de fps y la otra al tema del AA este famoso, así le quita trabajo al de los frames y por eso no se nota.

Es más o menos así ?
KnightSparda escribió:Me respondo a mi mismo, con este post de reddit explicandolo, básicamente es lo que yo he dicho, la gente que tenga monitores o TVs 4k, van a seleccionar activar el DLSS y lo que hará la gráfica en el juego será renderizar a 1080p y reescalar a 4k la imagen, de manera que a efectos del ojo tu vas a ver la imagen completada con la AI como si fuese 4k aun que tu gráfica sólo este renderizando a 1080p y reescalandola.

Como dice el chaval del post, no es un método de AA, si no que es un reescalado en toda regla, algo similar a lo que hacen las consolas nuevas, pero de manera más eficiente en temas de potencia, y con resultados superiores en términos de calidad.

Ésta tecnologia es una puta pasada, y es la clave para que se pueda combinar con el rayotracing para poder jugar a 4k reescalados y 60 fps.

Aquí el enlace en cuestión de la explicación:

https://www.reddit.com/r/nvidia/comment ... i/e4r3lj6/

Justamente lo que yo decía, y por esto que yo decía, el gurú informatico @adriano_99 que todo lo sabe y según el eol está últimamente lleno de cuñados informáticos desinformando a todo el mundo me mandó a sus listas de ignorados [plas] se que no me va a leer o eso supongo, pero si me lees te digo esto [poraki] has quedado retratado
terriblePICHON escribió:Los reescalados son malos siempre, producen una borrosidad increíble, donde esté la nativa que se quite todo.

Lo que creo que se está comentando que al llevar digamos el chip partido, una parte que es la de siempre se dedicará solo al tema de fps y la otra al tema del AA este famoso, así le quita trabajo al de los frames y por eso no se nota.

Es más o menos así ?


Hombre hay reescalados y reescalados, y estamos hablando precisamente de un método nuevo que usa el deep learning, que teóricamente produce resultados increíblemente buenos, ya te d igo que en reddit habían varios post comentándolo, que había una comparativa de 2 monitores uno al lado del otro, un 4k real y otro reescalado con el SSDL, y por lo que decían incluso acercando la vista a lametón del monitor, era imperceptible la diferencia.

Por esto digo que éste sistema puede ser un verdadero "gamechanger" si nvidia lo soporta de manera adecuada en la mayoría de juegos posibles.

https://www.youtube.com/watch?v=x-mVK3mj_xk

Aqui está el video en cuestión.
TheBalaks escribió:Vamos a ver... Que creo que nadie me esta leyendo. Si actualmente el DSR y el VSR permite emular el 4k Decidme ¿donde esta la novedad? ¿ Es lo mismo pero evolucionado? Por que...NO LO ESTOY PILLANDO ! [facepalm]


El DSR es todo lo contrario, renderiza a una resolución mayor y luego adapta la imagen a la resolución de tu monitor, lo que se conoce como supersampling. El DLSS, por lo que parece, hace lo contrario: renderiza a una resolución menor y luego la reescala a la resolución del monitor.
adriano_99 escribió:@Xlooser Lo siento pero con la resolución soy inmovoble.
Resolución real sea la que sea.
Prefiero 720p reales que un sucio reescalado.
Siempre.

El tema que no es un reescalado que estira la imagen interpolando píxeles, es una reconstrucción a partir de varias imágenes anteriores que sí introduce detalles en la imagen. Por eso yo quiero verlo antes de emitir un veredicto.

Pero seguramente sea positivo, ya que prefiero 1080p con la mayor carga gráfica posible que el 4K, y si es verdad que la super-resolución ofrece una imagen similar a la nativa consumiendo la mitad, bienvenida sea esta técnica.
Metalhead escribió:
TheBalaks escribió:Vamos a ver... Que creo que nadie me esta leyendo. Si actualmente el DSR y el VSR permite emular el 4k Decidme ¿donde esta la novedad? ¿ Es lo mismo pero evolucionado? Por que...NO LO ESTOY PILLANDO ! [facepalm]


El DSR es todo lo contrario, renderiza a una resolución mayor y luego adapta la imagen a la resolución de tu monitor, lo que se conoce como supersampling. El DLSS, por lo que parece, hace lo contrario: renderiza a una resolución menor y luego la reescala a la resolución del monitor.

Lo que lleva haciendo la Xbox one y PS4 Desde que salieron vaya, reescalar de 720 a 1080 con la consiguiente pérdida de nitidez, esto ya lo hacen muchos juegos, que tienen resolución interna y luego lanza la imagen a 4k, por ejemplo el último que utilicé fue el final fantasy 15
Edito: también lo hacen de manera nativa los TV 4k, coger la imagen a 1080 y reescalar a 4k
Imagen

No he podido contenerme xD
Lo siento pero ahora mismo no puedo sentir mas que rechazo hacia esto.
De verdad que ojalá me equivoque y sea algo bueno pero por ahora se me acaban de quitar todas las ganas que tenia por turing.
Se supone que tanto la PS4PRO como XBOX X, no hacen un reeescalado simple como tal, sino que usán checkerboard que es otro algoritmo de "rellenado", con peores resultados que los que se supone que va a dar el DLSS, pero incluso siendo peores, por lo que he podido comprobar, los resultados son bastante buenos, de ahí que digan que el DLSS va a ser mejor todavía, me hacer creer perfectamente que la diferencia del 4K nativo al DLSS sea nimia, y si esto trae consigo una mayor carga y complejidad gráfica, o simplemente una mejora de fps, bienvenido sea.

Prefiero un 4k virtual con una fidelidad del 90% y el doble de FPS que un nativo que me rule a 40 fps.
KnightSparda escribió:Se supone que tanto la PS4PRO como XBOX X, no hacen un reeescalado simple como tal, sino que usán checkerboard que es otro algoritmo de "rellenado", con peores resultados que los que se supone que va a dar el DLSS, pero incluso siendo peores, por lo que he podido comprobar, los resultados son bastante buenos, de ahí que digan que el DLSS va a ser mejor todavía, me hacer creer perfectamente que la diferencia del 4K nativo al DLSS sea nimia, y si esto trae consigo una mayor carga y complejidad gráfica, o simplemente una mejora de fps, bienvenido sea.

Prefiero un 4k virtual con una fidelidad del 90% y el doble de FPS que un nativo que me rule a 40 fps.

Yo he tenido la PS4 pro y ni de coña se ve igual de nítido que el pc a 4k además que parte de que muchos de sus juegos parten de 1440p con lo que la resolución es mucho mayor, así que...
Un reescalado es un reescalado
KnightSparda escribió:Se supone que tanto la PS4PRO como XBOX X, no hacen un reeescalado simple como tal, sino que usán checkerboard que es otro algoritmo de "rellenado", con peores resultados que los que se supone que va a dar el DLSS, pero incluso siendo peores, por lo que he podido comprobar, los resultados son bastante buenos, de ahí que digan que el DLSS va a ser mejor todavía, me hacer creer perfectamente que la diferencia del 4K nativo al DLSS sea nimia, y si esto trae consigo una mayor carga y complejidad gráfica, o simplemente una mejora de fps, bienvenido sea.

Prefiero un 4k virtual con una fidelidad del 90% y el doble de FPS que un nativo que me rule a 40 fps.

He visto ambas consolas en funcionamiento y la diferencia entre un juego 4k real con su reescalado me parece abismal.
Sobretodo en la one x que si que tiene algunos juegos a 4k nativos.
O la cosa está varios ordenes de magnitd por encima o me niego a aceptarlo.
Sencilla y llanamente me niego.
Y si la mayoría de la gente no piensa como yo y se acaba implantando me quedaré toda mi vida jugando a 1080p.
Xlooser escribió: @mondillo el precio es alto debido a una suma de factores: el chip es grande, los Tensor Cores son caros también, y sobre todo, Nvidia domina el mercado.

Un último inciso, el Raytracing es un gran paso adelante en la renderización en tiempo real, es el futuro indudablemente, y espero que cercano.


En lo subrayado y negrita esta la clave. Los monopolios no son buenos para el usuario.


A mi todo esto del Ray Tracing y el DSLL me sigue pareciendo a:

Imagen

Imagen

Imagen


Yo como futuro cercano espero que se tengan que comer todas y cada una de las graficas que van a sacar. Me espero a la comparativa del Metro PC vs Consolas. A ver si va a resultar como el Batman en su dia donde parecia que las consolas llellaban una grafica escondida para las fisicas.
El tema es que las físicas a día de hoy van implementadas en el motor, pero yo pude experiemnentar de primera mano juegos como Mafia 2 con el physx activo, que la diferencia era una locura.

Ésto es para los que hablan de que el RT es el nuevo physx, y que physx fue un fiasco..xDD

http://www.codercorner.com/blog/?p=2013

De todas formas no me aclaro, dice Adriano entonces que prefiere un 1080p a un 1080p reescalado a 4k? xD
KnightSparda escribió:El tema es que las físicas a día de hoy van implementadas en el motor, pero yo pude experiemnentar de primera mano juegos como Mafia 2 con el physx activo, que la diferencia era una locura.

De todas formas no me aclaro, dice Adriano entonces que prefiere un 1080p a un 1080p reescalado a 4k? xD

Mira, prefiero un 1080p real acompañado de un constante fisting anal que 1080 reescalados a 4k xDDD
mondillo escribió:
Xlooser escribió: @mondillo el precio es alto debido a una suma de factores: el chip es grande, los Tensor Cores son caros también, y sobre todo, Nvidia domina el mercado.

Un último inciso, el Raytracing es un gran paso adelante en la renderización en tiempo real, es el futuro indudablemente, y espero que cercano.


En lo subrayado y negrita esta la clave. Los monopolios no son buenos para el usuario.


A mi todo esto del Ray Tracing y el DSLL me sigue pareciendo a:

Imagen

Imagen

Imagen


Yo como futuro cercano espero que se tengan que comer todas y cada una de las graficas que van a sacar.

La mayor diferencia está en que el raytracing no es una tecnología propietaria, en un modelo de renderizado que lleva usándose décadas en el CGI. RTX sólo es una implementación (que parte del Direct X Raytracing).

La calidad gráfica, si sólo nos basamos en resoluciones y las técnicas de rasterización, ha llegado a un punto tan alto que la mejora gráfica será prácticamente imperceptible aun cuando la capacidad de cómputo se multiplique. La iluminación en tiempo real es el paso lógico para mejorar significativamente los gráficos. Fuera de ellos, la IA y las físicas.

En cuanto al DLSS a mi me despierta mucha curiosidad y tengo confianza en que mejore la calidad de imagen con un consumo de recursos moderado.
adriano_99 escribió:
KnightSparda escribió:El tema es que las físicas a día de hoy van implementadas en el motor, pero yo pude experiemnentar de primera mano juegos como Mafia 2 con el physx activo, que la diferencia era una locura.

De todas formas no me aclaro, dice Adriano entonces que prefiere un 1080p a un 1080p reescalado a 4k? xD

Mira, prefiero un 1080p real acompañado de un constante fisting anal que 1080 reescalados a 4k xDDD


XDD

Leeros el enlace que he puesto en el que un ingeniero habla sobre el tema del bulo que está corriendo estos días de que el RTX le va a pasar como a Physx y que es un fiasco, os aclarará como Physx sigue activo a diario en todos los juegos que jugamos.
adriano_99 escribió:He visto ambas consolas en funcionamiento y la diferencia entre un juego 4k real con su reescalado me parece abismal.
Sobretodo en la one x que si que tiene algunos juegos a 4k nativos.
O la cosa está varios ordenes de magnitd por encima o me niego a aceptarlo.
Sencilla y llanamente me niego.
Y si la mayoría de la gente no piensa como yo y se acaba implantando me quedaré toda mi vida jugando a 1080p.

Puedes seguir jugando en 4K con el DLSS desactivado, a menos FPS y sin todo a Ultra, pero con una representación más exacta de los píxeles.
Y el DLSS déjalo para los que no lo noten o no les importe sacrificar esa representación por mejor calidad.
Sin el DLSS la 2080 es supuestamente un 50% superior a la 1080.
Y quizás el DLSS ayuda a estandarizar el 4K y los monitores bajan de precio.
Todo puede tener un lado positivo y si no se lo ves es tan fácil como no comprar esta generación o la siguiente o ver lo que saca AMD.
John_Doe escribió:
adriano_99 escribió:He visto ambas consolas en funcionamiento y la diferencia entre un juego 4k real con su reescalado me parece abismal.
Sobretodo en la one x que si que tiene algunos juegos a 4k nativos.
O la cosa está varios ordenes de magnitd por encima o me niego a aceptarlo.
Sencilla y llanamente me niego.
Y si la mayoría de la gente no piensa como yo y se acaba implantando me quedaré toda mi vida jugando a 1080p.

Puedes seguir jugando en 4K con el DLSS desactivado, a menos FPS y sin todo a Ultra, pero con una representación más exacta de los píxeles.
Y el DLSS déjalo para los que no lo noten o no les importe sacrificar esa representación por mejor calidad.
Sin el DLSS la 2080 es supuestamente un 50% superior a la 1080.
Y quizás el DLSS ayuda a estandarizar el 4K y los monitores bajan de precio.
Todo puede tener un lado positivo y si no se lo ves es tan fácil como no comprar esta generación o la siguiente o ver lo que saca AMD.

Obviamente.
@John_Doe muy optimista te veo que es un 50% mas potente la 2080 con la 1080, cuando se ha estado hablando que la de la 2080ti con la 1080ti es de aproximadamente un 20%
kikomanco escribió:@John_Doe muy optimista te veo que es un 50% mas potente la 2080 con la 1080, cuando se ha estado hablando que la de la 2080ti con la 1080ti es de aproximadamente un 20%

En la grafica sacada por Nvidia que a día de hoy es el único dato que tenemos, se ve claramente que es un 50% más potente de media en los titulos que marcan en 4k, y en las declaraciones de NVidia que ha dicho que los Shaders Turing son un 50% más rápidos que los Pascal también.
No se de donde sale ese 20% de potencia de la 1080ti a la 2080ti pero es poco probable ya que teniendo en cuenta que la diferencia de cuda cores es mayor entre las 2 Ti que entre las 2 xx80 si extrapolamos, sale que la diferencia entre las 2 TI, va a ser de al menos un 50% o más, todo de manera teórica claro y en 4k, habrá que ver, pero vamos Hardwarecannucks ya dijo que nos íbamos a llevar una sorpresa con el rendimiento y que algunos se tragarian sus palabras.
Oye cuanta mayor la mejora, mejor para nosotros, no?
adriano_99 escribió:
KnightSparda escribió:Se supone que tanto la PS4PRO como XBOX X, no hacen un reeescalado simple como tal, sino que usán checkerboard que es otro algoritmo de "rellenado", con peores resultados que los que se supone que va a dar el DLSS, pero incluso siendo peores, por lo que he podido comprobar, los resultados son bastante buenos, de ahí que digan que el DLSS va a ser mejor todavía, me hacer creer perfectamente que la diferencia del 4K nativo al DLSS sea nimia, y si esto trae consigo una mayor carga y complejidad gráfica, o simplemente una mejora de fps, bienvenido sea.

Prefiero un 4k virtual con una fidelidad del 90% y el doble de FPS que un nativo que me rule a 40 fps.

He visto ambas consolas en funcionamiento y la diferencia entre un juego 4k real con su reescalado me parece abismal.
Sobretodo en la one x que si que tiene algunos juegos a 4k nativos.
O la cosa está varios ordenes de magnitd por encima o me niego a aceptarlo.
Sencilla y llanamente me niego.
Y si la mayoría de la gente no piensa como yo y se acaba implantando me quedaré toda mi vida jugando a 1080p.


¿Pero no te das cuenta de que esa imagen reconstruida en 4K va a ser sí o sí más nítida que el 1080 nativo? XD
Stealwilliam escribió:
adriano_99 escribió:
KnightSparda escribió:Se supone que tanto la PS4PRO como XBOX X, no hacen un reeescalado simple como tal, sino que usán checkerboard que es otro algoritmo de "rellenado", con peores resultados que los que se supone que va a dar el DLSS, pero incluso siendo peores, por lo que he podido comprobar, los resultados son bastante buenos, de ahí que digan que el DLSS va a ser mejor todavía, me hacer creer perfectamente que la diferencia del 4K nativo al DLSS sea nimia, y si esto trae consigo una mayor carga y complejidad gráfica, o simplemente una mejora de fps, bienvenido sea.

Prefiero un 4k virtual con una fidelidad del 90% y el doble de FPS que un nativo que me rule a 40 fps.

He visto ambas consolas en funcionamiento y la diferencia entre un juego 4k real con su reescalado me parece abismal.
Sobretodo en la one x que si que tiene algunos juegos a 4k nativos.
O la cosa está varios ordenes de magnitd por encima o me niego a aceptarlo.
Sencilla y llanamente me niego.
Y si la mayoría de la gente no piensa como yo y se acaba implantando me quedaré toda mi vida jugando a 1080p.


¿Pero no te das cuenta de que esa imagen reconstruida en 4K va a ser sí o sí más nítida que el 1080 nativo? XD

No estoy de acuerdo, siempre quedan rastros de los pixeles inventados
No sé cómo explicar lo que pensado viendo la gráfica de Nvidia , a ver si me explico bien...

Supuestamente en la tabla de Nvidia pone que la 2080 es 50% más potente que la 1080 y cuando activas el dlss la dobla, todo esto a 4k pone en la esquina inferior derecha... Pero claro comparan la 2080 sin filtros activados, tendrían que poner la 1080 sin filtros también, porque la 2080 no tiene activado ningún AA salvo el suyo, pero en la comparativa de la 1080 estará con el txaa y no es justo, lo suyo sería las dos sin filtros....se lo que quiero decir pero no sé si me explicado bien... Porque claro así normal que sea un 100% más potente, están como engañando la tabla...
adriano_99 escribió:
Stealwilliam escribió:
adriano_99 escribió:He visto ambas consolas en funcionamiento y la diferencia entre un juego 4k real con su reescalado me parece abismal.
Sobretodo en la one x que si que tiene algunos juegos a 4k nativos.
O la cosa está varios ordenes de magnitd por encima o me niego a aceptarlo.
Sencilla y llanamente me niego.
Y si la mayoría de la gente no piensa como yo y se acaba implantando me quedaré toda mi vida jugando a 1080p.


¿Pero no te das cuenta de que esa imagen reconstruida en 4K va a ser sí o sí más nítida que el 1080 nativo? XD

No estoy de acuerdo, siempre quedan rastros de los pixeles inventados


Dudo que puedas apreciarlos si lo comparas con una imagen a 1080p. Siempre va a verse mejor. Otra cosa es 4K real. De todos modos, con lo que han mostrado, supuestamente es inapreciable.
El tema es que esos pixeles inventados siempre estarán ahí, obviamente, pero la cosa es que tu ojo sea capaz de apreciarlo y más jugando a determinada distancia del monitor, la idea no es que no estén, la idea es que tu no seas capaz de verlos a la hora de jugar, lo que es a la práctica inapreciable por tanto similar al 4k nativo.

En la tabla se puede ver un 50% de media superior en ambos casos brutos, el otro 50% adicional es metiendo el DLSS en la ecuación, se supone que la 2080 será de manera limpia un 50% superior a la 1080, al menos en 4k, ya que la comparativa es en teoría en ambas tarjetas con las mismas opciones activadas.
Claro, con los mismos ajustes puestos, pero cuando mete el dlss le quitan los otros, y dejan a la 2080 sin ellos y a la 1080 con ellos, lo suyo sería quitarle los filtros a la 1080 que diera el rendimiento bruto, y dejar a la 2080 con el dlss, así sabes exactamente cuánto rinde.... Porque al final a la 2080 sin el AA la están quitando trabajo, normal que llegue al doble.... No sé si me explico bien, es un poco lío....
Entiendo lo que quieres decir, de todas formas por lo que yo sé, el TAA tiene un consumo de recursos la mayoría de las veces negligente, y aún así, estás tu perfectamente seguro de que en ésa tabla de nvidia la 1080 tiene el TAA activado?
No digo que sea txaa, digo que lo pondrán con lo que tenga el juego, el mejor AA posible que puedas poner, vamos a ultra setting...
Voy a entrar en la segunda provocacion, y perdonad al resto las formas.

KnightSparda escribió:XDD

Leeros el enlace que he puesto en el que un ingeniero habla sobre el tema del bulo que está corriendo estos días de que el RTX le va a pasar como a Physx y que es un fiasco, os aclarará como Physx sigue activo a diario en todos los juegos que jugamos.


Yo trabajo en una pasteleria, y te digo que mis pasteles estan para chuparte los dedos hasta el nudillo.

Nadie dice que Physx desapareciera. Hasta hay una lista de juegos compatibles con Physx en la pagina de nvidia. Physx es una tecnologia a la que se le dio tanto bombo, tanto marketing... como esta RTX, y despues hasta el ladrillo menos pintado movia los juegos sin tener que usar esa GPU dedicada demostrandose que el rendimiento no merecia la pena (malditas consolas).

Hablando de desaparecer, todo un puntazo lo del cambio de tecnologia en el SLI. Tus conectores en los que en su dia te gastaste minimo 50 eurillos a la basurilla si decides dar el salto, tendras que cambiarlos por los nuevos VLINK de 90 pavazos el mas simplon. Hasta en el multiGPU van a doblar los precios.

Son unos genios.

---------

Sobre el debate del reescalado, mejor el 4k nativo antes que reescalar una imagen 1080p, por muchas tecnicas de consola que se utilicen para mejorar la imagen.
terriblePICHON escribió:Claro, con los mismos ajustes puestos, pero cuando mete el dlss le quitan los otros, y dejan a la 2080 sin ellos y a la 1080 con ellos, lo suyo sería quitarle los filtros a la 1080 que diera el rendimiento bruto, y dejar a la 2080 con el dlss, así sabes exactamente cuánto rinde.... Porque al final a la 2080 sin el AA la están quitando trabajo, normal que llegue al doble.... No sé si me explico bien, es un poco lío....


En la gráfica tienes la barra partida en dos partes: La que muestra la diferencia de rendimiento "bruto" (entiendo que los juegos están ambos a ultra y con el mismo antialiasing), y la barra que muestra el "extra" de sustituir el AA tradicional por el DLSS.
hi-ban escribió:
terriblePICHON escribió:Claro, con los mismos ajustes puestos, pero cuando mete el dlss le quitan los otros, y dejan a la 2080 sin ellos y a la 1080 con ellos, lo suyo sería quitarle los filtros a la 1080 que diera el rendimiento bruto, y dejar a la 2080 con el dlss, así sabes exactamente cuánto rinde.... Porque al final a la 2080 sin el AA la están quitando trabajo, normal que llegue al doble.... No sé si me explico bien, es un poco lío....


En la gráfica tienes la barra partida en dos partes: La que muestra la diferencia de rendimiento "bruto" (entiendo que los juegos están ambos a ultra y con el mismo antialiasing), y la barra que muestra el "extra" de sustituir el AA tradicional por el DLSS.

No me entiendes, ya se que lo que muestra la barra, pero piensa que la 1080 siempre está con el AA puesto, pero la 2080 no, la barra verde clara los tiene quitados, solo tiene el dlss, al no consumir recursos, pero los AA normales los quitan , dejando a la 1080 con ellos puestos y penalizandola.

Edito= imagínate que llevan txaa los juegos....

1080vs 2080 con txaa puesto resultado 50% más la 2080

1080 con txaa vs 2080 sin txaa resultado 100% más la 2080.

No sé si me explico bien...
Como bien dice el tío en el artículo, la lista de juegos con Physx está desactualizado, y en esa lista no te incluyen los juegos que usan como motor unity y unreal que llevan el Physx integrado, no lo sigo yo, lo dice el ingeniero en cuestión.
En cuanto al tema de la grafica, hasta que no salgan los b3nchmarks no saldremos de dudas, pero me parece algo rebuscado pensar que la 1080 tiene el filtro más demandante posible y la 2080 nada, y más teniendo en cuenta que no indican nada que haga pensar esto.

Por cierto, volvemos a lo de antes, cuando decís que preferís un nativo a un reescalado, dependerá del reescalado , estáis usando como baremo los reescalado actuales, si ahora sacan uno que es imperceptible para la vista, entonces cambia el asunto, y según dicen es el caso.
terriblePICHON escribió:
hi-ban escribió:
terriblePICHON escribió:Claro, con los mismos ajustes puestos, pero cuando mete el dlss le quitan los otros, y dejan a la 2080 sin ellos y a la 1080 con ellos, lo suyo sería quitarle los filtros a la 1080 que diera el rendimiento bruto, y dejar a la 2080 con el dlss, así sabes exactamente cuánto rinde.... Porque al final a la 2080 sin el AA la están quitando trabajo, normal que llegue al doble.... No sé si me explico bien, es un poco lío....


En la gráfica tienes la barra partida en dos partes: La que muestra la diferencia de rendimiento "bruto" (entiendo que los juegos están ambos a ultra y con el mismo antialiasing), y la barra que muestra el "extra" de sustituir el AA tradicional por el DLSS.

No me entiendes, ya se que lo que muestra la barra, pero piensa que la 1080 siempre está con el AA puesto, pero la 2080 no, la barra verde clara los tiene quitados, solo tiene el dlss, al no consumir recursos, pero los AA normales los quitan , dejando a la 1080 con ellos puestos y penalizandola.

Edito= imagínate que llevan txaa los juegos....

1080vs 2080 con txaa puesto resultado 50% más la 2080

1080 con txaa vs 2080 sin txaa resultado 100% más la 2080.

No sé si me explico bien...

Una imagen con DLSS no necesita otro AA, sería redundante. Sería como meter un MSAA a un supersampling, innecesario.
Preferir nativo o reescalado [facepalm]

Es mucha mejor opción jugar a 1080p con reescalado a 4k que jugar a 1440p, porque el 4k salvo configuraciones exorbitadas no se puede mover decentemente.
terriblePICHON escribió:No sé cómo explicar lo que pensado viendo la gráfica de Nvidia , a ver si me explico bien...

Supuestamente en la tabla de Nvidia pone que la 2080 es 50% más potente que la 1080 y cuando activas el dlss la dobla, todo esto a 4k pone en la esquina inferior derecha... Pero claro comparan la 2080 sin filtros activados, tendrían que poner la 1080 sin filtros también, porque la 2080 no tiene activado ningún AA salvo el suyo, pero en la comparativa de la 1080 estará con el txaa y no es justo, lo suyo sería las dos sin filtros....se lo que quiero decir pero no sé si me explicado bien... Porque claro así normal que sea un 100% más potente, están como engañando la tabla...



Ademas si te fijas en la grafica muchos juegos son HDR, y es sabido que la 1080 pierde rendimiento al activarlo, entorno al 10%.

Luego seguramente los juegos estaran escogidos para que la 2080 destaque.
terriblePICHON escribió:
hi-ban escribió:
terriblePICHON escribió:Claro, con los mismos ajustes puestos, pero cuando mete el dlss le quitan los otros, y dejan a la 2080 sin ellos y a la 1080 con ellos, lo suyo sería quitarle los filtros a la 1080 que diera el rendimiento bruto, y dejar a la 2080 con el dlss, así sabes exactamente cuánto rinde.... Porque al final a la 2080 sin el AA la están quitando trabajo, normal que llegue al doble.... No sé si me explico bien, es un poco lío....


En la gráfica tienes la barra partida en dos partes: La que muestra la diferencia de rendimiento "bruto" (entiendo que los juegos están ambos a ultra y con el mismo antialiasing), y la barra que muestra el "extra" de sustituir el AA tradicional por el DLSS.

No me entiendes, ya se que lo que muestra la barra, pero piensa que la 1080 siempre está con el AA puesto, pero la 2080 no, la barra verde clara los tiene quitados, solo tiene el dlss, al no consumir recursos, pero los AA normales los quitan , dejando a la 1080 con ellos puestos y penalizandola.

Edito= imagínate que llevan txaa los juegos....

1080vs 2080 con txaa puesto resultado 50% más la 2080

1080 con txaa vs 2080 sin txaa resultado 100% más la 2080.

No sé si me explico bien...


Si, claro. Esa es la "ventaja" del DLSS. Que en la práctica viene a ser algo así como "un antialiasing que no consume recursos".
DaNi_0389 escribió:
terriblePICHON escribió:No sé cómo explicar lo que pensado viendo la gráfica de Nvidia , a ver si me explico bien...

Supuestamente en la tabla de Nvidia pone que la 2080 es 50% más potente que la 1080 y cuando activas el dlss la dobla, todo esto a 4k pone en la esquina inferior derecha... Pero claro comparan la 2080 sin filtros activados, tendrían que poner la 1080 sin filtros también, porque la 2080 no tiene activado ningún AA salvo el suyo, pero en la comparativa de la 1080 estará con el txaa y no es justo, lo suyo sería las dos sin filtros....se lo que quiero decir pero no sé si me explicado bien... Porque claro así normal que sea un 100% más potente, están como engañando la tabla...



Ademas si te fijas en la grafica muchos juegos son HDR, y es sabido que la 1080 pierde rendimiento al activarlo, entorno al 10%.

Luego seguramente los juegos estaran escogidos para que la 2080 destaque.

Precisamente antes he estado viendo un vídeo acerca de eso y también es en cierto modo un bulo, si bien es cierto que hay casos de juegos que con hdr pierden más, en general las pérdidas son de un 3-5%, es en combinación con gsync donde la pérdida es más acentuada, y también en casos concretos, en general se ha ido solucionando con drivers para cada juego, posteriores a su salida.
Vamos a ver los test de rendimiento cuando estas estén en el mercado. Gasto una 770, no sería mala evolución migrar a la 2060, incluso a la 70 si tuviera un precio razonable, que no creo que lo vaya a tener.
Yo esque soy muy raro, porque con mi PC (i7 4790k + GTX 1080) juego a los Tomb Raider y a los Andromeda en ultra/alto a 4k-50fps (Vsync) y con AA activado.

Pero que se yo, sera mejor jugar haciendo checkboard made in nvidia para meter una mejor iluminacion.

Como digo, la next gen de consolas se encargara de poner todo esto en su sitio. Mientras tanto dejo una imagen que me ha hecho gracia sobre Quantum Break y como Remedy promocionaba sus tecnicas de iluminacion.

Imagen


Me voy a volver muy fan de Remedy. xDDD
KnightSparda escribió:El tema es que las físicas a día de hoy van implementadas en el motor, pero yo pude experiemnentar de primera mano juegos como Mafia 2 con el physx activo, que la diferencia era una locura.

Ésto es para los que hablan de que el RT es el nuevo physx, y que physx fue un fiasco..xDD

http://www.codercorner.com/blog/?p=2013

De todas formas no me aclaro, dice Adriano entonces que prefiere un 1080p a un 1080p reescalado a 4k? xD


Todos los "entendidos" comentando por aquí deberían leer lo que un entendido de verdad dice del tema.

Artículo de lectura muy recomendable.
No hay que ser cuadriculado, la tecnología tiende a evolucionar y cuando algo no es práctico o útil, simplemente se deshecha.
Hay que ser más abierto y no desarrollar un odio visceral hacia los reescalados, ya que si estos llegan a ser suficientemente buenos, son perfectamente válidos como si de una resolución nativa se tratase.
No todo el mundo busca poder activar la iluminación, simplemente es tan empezando a salir monitores con refrescos altos en 4k.
Irónicamente y sin ir más lejos, ese Quantum Break para alcanzar buenas cotas de fotorealismo, lo que hacía era ir adaptando la resolución a un supersampling brutal cuando el framerate te lo permitía y en secuencias cinemáticas para mejorar la calidad visual, un portento gráfico de juego.

Como resumen, no hay que odiar los reescalados ya que la IA es el futuro, y si la usamos para enseñar a una tarjeta a inventarse pixeles de manera ultra eficiente y efectiva, podemos alcanzar un rendimiento unido a una calidad visual sin precedentes.
Stealwilliam escribió:
KnightSparda escribió:El tema es que las físicas a día de hoy van implementadas en el motor, pero yo pude experiemnentar de primera mano juegos como Mafia 2 con el physx activo, que la diferencia era una locura.

Ésto es para los que hablan de que el RT es el nuevo physx, y que physx fue un fiasco..xDD

http://www.codercorner.com/blog/?p=2013

De todas formas no me aclaro, dice Adriano entonces que prefiere un 1080p a un 1080p reescalado a 4k? xD


Todos los "entendidos" comentando por aquí deberían leer lo que un entendido de verdad dice del tema.

Artículo de lectura muy recomendable.

Leído, es interesante y clarificador.
Stealwilliam escribió:
KnightSparda escribió:El tema es que las físicas a día de hoy van implementadas en el motor, pero yo pude experiemnentar de primera mano juegos como Mafia 2 con el physx activo, que la diferencia era una locura.

Ésto es para los que hablan de que el RT es el nuevo physx, y que physx fue un fiasco..xDD

http://www.codercorner.com/blog/?p=2013

De todas formas no me aclaro, dice Adriano entonces que prefiere un 1080p a un 1080p reescalado a 4k? xD


Todos los "entendidos" comentando por aquí deberían leer lo que un entendido de verdad dice del tema.

Artículo de lectura muy recomendable.


Leído, aun estando acuerdo en muchos puntos en otros parece un niño llorando por Physx.

¿Es necesario que el usuario medio pague un sobreprecio por una tecnología que esta verde?
11796 respuestas