NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

Yo ya piqué con la preorder de la Titan Xp, me arrepentí por las temperaturas que pillaba, la pude vender a buen precio y compra mi actual gráfica. Tocará esperar la versión rl y muchos bench antes de comprarla.... sin prisa voy.
Tecmok escribió:
kikomanco escribió:
Cullen escribió:No se si lo indicasteis ya pero acabo de entrar en la web de nvidia y las 2080ti founders están agotadas.

De momento para ellos todas, no pago más de 900€ por una gama premiun, ni siquiera una founder, por una founder cómo mucho 750€ y por una premium 850€ cómo me valió la actual 1080ti que me compré de salida


a que te refieres con premium? perdona mi ignorancia


Se refiere a una versión de algún ensamblador con mejores características que el modelo de referencia de Nvidia.
Tecmok escribió:
kikomanco escribió:
Cullen escribió:No se si lo indicasteis ya pero acabo de entrar en la web de nvidia y las 2080ti founders están agotadas.

De momento para ellos todas, no pago más de 900€ por una gama premiun, ni siquiera una founder, por una founder cómo mucho 750€ y por una premium 850€ cómo me valió la actual 1080ti que me compré de salida


a que te refieres con premium? perdona mi ignorancia


Supongo que se refiere a los modelos topes de gama de las marcas, como STRIXX que es el modelo premium de ASUS.
Esto de las pre-order sin tener todavía aún benchmarks de terceros y mayor perspectiva..... no lo pillo mucho.

Por otro lado el hecho de que aún y con estos precios nVidia ya tenga prácticamente la primera tirada de Stock colocada... es una carta blanca para que la próxima generación pongan el tope de gama a 2000€ y la gente haga muchos pucheritos pero suelte la pasta.

No vengo a juzgar la gente que se las compre, eso me da igual, pero estaría de puta madre dar un margen de "aviso" a estas empresas y al menos no sacarles de las manos sus productos antes siquiera de saber que tal rinden en realidad.

saludos
Es alucinante que con esos precios y aun sin saber benchs ni nada ya esten agotadas! No hay nada que hacer, si en lugar de 1300 fueran 2300 tambien se agotarian, hay paises donde hay mucha pasta
@frikidaguel
A lo mejor no te tienes que ir a otro pais y en España mismo hay miles de personas comprandolas....
Que aqui tambien nos puede el consumismo jajaja
kikomanco escribió:
terriblePICHON escribió:
kikomanco escribió:El oc en Pascal es nulo, yo me compré la aorus 1080ti y solo le pude subir 50 MHz en el core y 400 en memorias, de cómo venía de serie, (que ya viene con oc aplicado) la tengo por curva, que es donde más estable es el oc, por que por barra de MHz cada salto de temperatura va disminuyendo la velocidad del core, en Pascal la temperatura influye mucho el el Boost 2.0 con la que funciona la gráfica

Si lo haces por curva no te baja los MHz a razón de la temperatura?
Porque yo desde el primer día cuando supera los 53 grados me baja 13 MHz, luego a los 57 otra bajada y la última a los 62, que es lo máximo que la he visto subir de temperatura... Al final se queda estable en 2050 si está por debajo de los 61 grados y sino a 2037....
Lo raro que si pasó un 3dmark con los ventiladores a tope y no me pasa de 52 grados me mantiene los 2076 sin problema , con las memos a 6000...

Si te baja, pero menos y es más estable, pero aún así tu gráfica ha salido muy muy buena, que te mantenga 2050 en el core y 6000 en memorias es una pata negra, yo la tengo por curva y aplicado undervolt, la tengo a 0.980v y 1976 MHz, y es raro ver que alcance los 60 grados con curva 1:1 a que voltaje la tienes tú?
@stealwilliams hombre, tiene que ser más silenciosa que el modelo turbina, pero no creo que sea más silenciosa que los modelos custom de la serie Pascal por que el TDP de las turing es más elevado, eso es lo que quise decir en mi anterior Post

Efectivamente, me pasa igual, la tengo con undervolt, pero se me queda en 2000 el core, de ahí no pasa, salen artefactos, y con curva de voltaje personalizada y todo pero no pasa de ahí, y a 60° jugando.
Pues cada vez me plantea más dudas el asunto, y como dije las Founders se han agotado...
Sigo sin entender como se venden entonces varios modelos custom de las mismas marcas, con mismo disipador y unos un poco más caros que otros si no llevan OC de serie ninguno.
@kikomanco
Con undervolt a 1.000 se mantiene en 2012 con las memos a 5600 sino se cuelga,

Y en estado normal digamos a 1.050 no toco el voltaje...y yo pensando que me salió lenta... La 1070 me hacía los 2150 sin despeinarse, ya se que no son la misma pero me parecía poco para una TI.
terriblePICHON escribió:@kikomanco
Con undervolt a 1.000 se mantiene en 2012 con las memos a 5600 sino se cuelga,

Y en estado normal digamos a 1.050 no toco el voltaje...y yo pensando que me salió lenta... La 1070 me hacía los 2150 sin despeinarse, ya se que no son la misma pero me parecía poco para una TI.

que dices loco, todo lo que sea por encima de los 2.000 mhz en una ti y completamente estable es ya una pata negra, tienes que entender que a mas cudas core mas calor generado y menos freecuencia va a alcanzar el nucleo de la grafica.
por ende tengo entedido, que las 1070 las pata negra hacen 2.200/2250 mhz sin despeinarse, las 1080 llegan sin problemas hasta los 2100/2150 y las 1080ti las muy buenas hacen los 2050 mhz estables,la mia por barra de mhz y aplicandole sobre voltaje hacia 1.080v me hace unos 2040 y 6000 en memorias pero conforme sube la temperatura va cayendo la frecuencia y se queda estable alrededor de los 2010 mhz y para ganar 40 mhz solamente y tener la grafica mas calentita la he dejado sobre los 1975 mhz y 0.980v y voy sobrado, eso puede ser como mucho 2 frames menos de diferencia con la tuya en 4k
Si la risa es que todas suben hasta los 1950+ y las que llegan a 2k+ son patanegra, osea que al final son todas iguales, las diferencias de rendimiento son de 1fps a lo sumo..xDD
Por eso digo, que gastarse 200€ más en un modelo premium dudo seriamente de que sea útil, salvo por estética o gusto propio, y lo dice alguien que suele tirar a modelos premium...

De ahí que me plantee seriamente la founders...xDD

Por cierto, no se si sois plenamente conscientes del tema rendimiento de la Ti, pero ya confirmaron ayer que los Shaders Turing van a rendir un 50% que los Pascal, y si le añadimos que la Ti lleva un 30% más de cores, la mejora puede ser espectacular.
Hombre, si en esta gen las founders son realmente más frescas y realmente tan silenciosas a maximo rendimiento como se ha dicho la verdad que a mí no me importaría tener una founders, ya que tanto su diseño, como materiales y demás me llama mucho la atención.... y que sea directamente fabricada por Nvidia me gusta mucho, me da tranquilidad y fiabilidad....salu2
Totalmente de acuerdo, a eso me refiero, encima vienen con 3 años de garantia que es un gran plus.
Los monitores de gran tamaño que queria lanzar nvidia retrasados hasta el primer trimestre de 2019

https://videocardz.com/newz/nvidia-big-format-gaming-displays-are-delayed-and-expensive

Imagen


Eso si, id ahorrando que cuestan entre 4000 y 5000€
Cuando lo he visto he pensado, muy amante del gaming y sobrado de pasta tienes que estar para gastarte ese dinero en un monitor, que ni siquiera es OLED...xD
@DaNi_0389 Venga que empiece la fiesta!! Pongame un par de 2080ti mas un flamante monitor de esos...Tendre que jugar el euromillones. XD
No si lo que te digo, te pillas una 2080ti y un monitor de esos de 5000 pavos, llegas a casa lo instalas, y dices: ahora sí joder, así si se puede.
Enciendes el pc, te metes a jugar, saltas del avión en yasnaya, caes y empieza el baile de frames y estás tabuleando pidiendo reembolso en Amazon, como si lo viese....
Yo prefiero monitor de 27" antes que esos monstruos, menudos mareos pillaria jugando a shooters, sobre el precio no me extraña, grandes diagonales, 4k, gsync y a 120 hz, supongo que con hdr, es hasta normal ese precio, normal comparandolo con el asus 4k 144hz de 2600 euros, me refiero. Como dice alguien por ahi, ojala pronto salga todo eso en oled y tengamos negros de verdad, la imagen y el color mejoraria mucho en los juegos. Se que iba a salir un monitor oled pero sin gsync y a 60 hz, no se si al final salió o lo cancelaron, quizas hay problemas de quemados, aunque a mi no me importaria tener que hacer sesiones cortas o quitar los marcadores estaticos en juegos, con tal de tener un monitor oled 4k gsync 120 hz hdr, mi sueño humedo! [tadoramo]
Seamos claros. A los monitores 4k para ser verdaderamente gaming le queda aún una buena tirada. Si ni los juegos aún son capaces de tirar el 4k 60fps con verdadera fluidez (como si tienes 1080p y pones una 1080 por ejemplo) para que tener un 4k potente de un montón de euros?.

Mi opinión es que mínimo hasta finales del 2019 o principios del 2020 no empezará a haber una gama buena de 4k 144hz a buen precio y buenos colores.
frikidaguel escribió:Yo prefiero monitor de 27" antes que esos monstruos, menudos mareos pillaria jugando a shooters, sobre el precio no me extraña, grandes diagonales, 4k, gsync y a 120 hz, supongo que con hdr, es hasta normal ese precio, normal comparandolo con el asus 4k 144hz de 2600 euros, me refiero. Como dice alguien por ahi, ojala pronto salga todo eso en oled y tengamos negros de verdad, la imagen y el color mejoraria mucho en los juegos. Se que iba a salir un monitor oled pero sin gsync y a 60 hz, no se si al final salió o lo cancelaron, quizas hay problemas de quemados, aunque a mi no me importaria tener que hacer sesiones cortas o quitar los marcadores estaticos en juegos, con tal de tener un monitor oled 4k gsync 120 hz hdr, mi sueño humedo! [tadoramo]

yo juego en una oled 4k (mi firma) y tranquilo no se queman, ya tienen proteccion dentro del panel para que la imagen estatica no lo sea (internamente) hace como una especie de barrido, asi que tranquilo por eso, y si juego a shoter en ella y es una pasada, no me quiero imaginar como debde ser en un buen monitor oled gaming
Cullen, yo sólo te quiero sugerir a modo de off-topic que has entrado en el subforo de pc con muchísimos aires de prepotencia, algunos de tus mensajes son algo agresivos y encasillas a todo un colectivo por no pensar y comprar lo mismo que tu, te recuerdo que no eres nuevo aquí, eres clon de un usuario con un buen baneo a tus espaldas por "acumulación de infracciones", a parte que ya tuviste con otro usuario hace pocos dias una guerra de reportes entre los dos (que el mod acabaria de vosotros hasta los mimos) jejejejeje.
y te lo digo de buenas y sin malas intenciones, no vayas por ese camino porque seguro acabarás BAN total de todo EOL, hazme caso e ignora + report.

fíjate tu que me has hecho recordar un pelín la época del ciclito XD, pero repito no es personal, es sólo un consejo y que antes de escribir leas y pienses las cosas(lo digo por tachar a los que poseen una 1080ti, que tienen hard obsoleto y no sirve de nada), aquí somos muchísimos que estamos metidos en esto mas de 20 años y sabemos que rinde X y que vale Y y si X + Y está equilibrado para lo que ofrece

Un saludo y felicidades por esa 2080Ti [oki]
Stealwilliam escribió:En la conferencia se dijo que la Founders, con el máximo OC, sonaba una quinta parte de lo que sonaba una 1080Ti (se entiende, por el contexto, que también con el OC a tope). A falta de comprobarlo, es lo único confirmado hasta ahora.

Lo mejor es que a algunos os dicen que una persona que estuvo presente ha dicho que no sonaban apenas y salís a decir que eso es imposible y a montaros la película en base a nada, porque ni habéis estado allí ni parece que hayáis escuchado lo que se dijo en la conferencia.

Bienvenido a eol, aquí a mucha gente no le importa la verdad y no el importa informarse sólo están aquí para quejarse sin fundamento.
Por cierto la 2070 founders es bastante mas pequeña que la 2080 y 2080ti, que estas dos son casi iguales.
En las fotos que da nvidia no se nota mucho porque han recortado el espacio entre ventiladores y hace el efecto de ser iguales.
Es la que menos consume así que tiene sentido que sea la que menos radiador necesite.
kikomanco escribió:
frikidaguel escribió:Yo prefiero monitor de 27" antes que esos monstruos, menudos mareos pillaria jugando a shooters, sobre el precio no me extraña, grandes diagonales, 4k, gsync y a 120 hz, supongo que con hdr, es hasta normal ese precio, normal comparandolo con el asus 4k 144hz de 2600 euros, me refiero. Como dice alguien por ahi, ojala pronto salga todo eso en oled y tengamos negros de verdad, la imagen y el color mejoraria mucho en los juegos. Se que iba a salir un monitor oled pero sin gsync y a 60 hz, no se si al final salió o lo cancelaron, quizas hay problemas de quemados, aunque a mi no me importaria tener que hacer sesiones cortas o quitar los marcadores estaticos en juegos, con tal de tener un monitor oled 4k gsync 120 hz hdr, mi sueño humedo! [tadoramo]

yo juego en una oled 4k (mi firma) y tranquilo no se queman, ya tienen proteccion dentro del panel para que la imagen estatica no lo sea (internamente) hace como una especie de barrido, asi que tranquilo por eso, y si juego a shoter en ella y es una pasada, no me quiero imaginar como debde ser en un buen monitor oled gaming


Yo tengo desde hace medio año un tv oled y ni siquiera la he probado con el pc, sobretodo por no mover el pc que lo tengo con rl externa ( una abominacion jaja ) y porque ni el tamaño ni sobretodo el imputlag me convencen ni para probarlo. Se que las oleds no se queman viendo la tv normalmente, pero quizas con el windows... No se.. Es la explicacion que le doy a que no salgan monitores oled, igual la causa es que si salieran serian tan perfectos que nadie seguiria comprando jaja
Yo tengo una duda de como funcionará el DLSS, tendremos que seleccionar 1080p en la resolución de renderizado del juego y luego activar el DLSS para tener la misma definición de por ejemplo un 4k, o simplemente dejamos la resolución del monitor nativa por defecto, y al activar el DLSS ya se encarga directamente el sistema de renderizar en 1080p y luego reescalarlo a 4k para que funcione como si fuese un 4k pero con menor consumo?
KnightSparda escribió:Yo tengo una duda de como funcionará el DLSS, tendremos que seleccionar 1080p en la resolución de renderizado del juego y luego activar el DLSS para tener la misma definición de por ejemplo un 4k, o simplemente dejamos la resolución del monitor nativa por defecto, y al activar el DLSS ya se encarga directamente el sistema de renderizar en 1080p y luego reescalarlo a 4k para que funcione como si fuese un 4k pero con menor consumo?

El DLSS no ha venido a substituir el selector de resolución sino a los AA.
Soy consciente de ello, pero entonces como funcionará, tendremos que seleccionar nosotros una resolución más baja y luego activar el dlss? O será como una opción de resolución de renderizado tipo slider?
@KnightSparda Es lo que te dice el compañero, es una opción de antialiasing, igual que cuando eliges MSAA o TXAA aquí podrás elegir DLSS.

De hecho es la comparación que Nvidia hace en uno de sus vídeos, 4K con TXAA y 4K con DLSS.
a ver cuando os enterais que a 4k el Antialias no es necesario, madre mia que manera de vender la moto estos de Nvidia [facepalm]
KnightSparda escribió:Soy consciente de ello, pero entonces como funcionará, tendremos que seleccionar nosotros una resolución más baja y luego activar el dlss? O será como una opción de resolución de renderizado tipo slider?

No me estas entendiendo.
Ya existen opciones de AA que hacen super sampling eh?
Esto lo que hace es un super sampling con mejor calidad visual y con cero perdida de rendimiento porque lo hacen los tensor cores.
Pero no deja de ser una opción de AA totalmente independiente a la resolución del juego.
adriano_99 escribió:
KnightSparda escribió:Soy consciente de ello, pero entonces como funcionará, tendremos que seleccionar nosotros una resolución más baja y luego activar el dlss? O será como una opción de resolución de renderizado tipo slider?

No me estas entendiendo.
Ya existen opciones de AA que hacen super sampling eh?
Esto lo que hace es un super sampling con mejor calidad visual y con cero perdida de rendimiento porque lo hacen los tensor cores.
Pero no deja de ser una opción de AA totalmente independiente a la resolución del juego.


Suena demasiado bien.
Prototiper escribió:
adriano_99 escribió:
KnightSparda escribió:Soy consciente de ello, pero entonces como funcionará, tendremos que seleccionar nosotros una resolución más baja y luego activar el dlss? O será como una opción de resolución de renderizado tipo slider?

No me estas entendiendo.
Ya existen opciones de AA que hacen super sampling eh?
Esto lo que hace es un super sampling con mejor calidad visual y con cero perdida de rendimiento porque lo hacen los tensor cores.
Pero no deja de ser una opción de AA totalmente independiente a la resolución del juego.


Suena demasiado bien.

Se han visto comparativas a tiempo real donde se demuestra que eso es cierto con dos monitores y dos contadores de fps.
Es así.
kikomanco escribió:a ver cuando os enterais que a 4k el Antialias no es necesario, madre mia que manera de vender la moto estos de Nvidia [facepalm]


Como siempre, depende del tamaño de la pantalla, no solo de la resolución. La tendencia son pantallas cada vez más grandes e incluso pantallas "de cine" virtuales.

Aparte hay objetos en ciertos juegos que son muy propensos a los bordes de sierra: los cables y las vallas. Y en mundos abiertos con gran profundidad de campo el borde de sierra siempre va a estar ahí porque no hay infinitos píxeles.
O sea que la idea es seleccionar 1080p de resolución y activar este AA para que la calidad quede cercana al 4k, no?
Doy mi opinion al respecto del AA y los juegos a 4k - 60fps. Tengo una TV Oled 4k de 55 pulgadas puesta al PC.

El AA lo activo en segun que juegos. Los juegos con un punto de vision en primera persona es casi obligatorio meter algun tipo de AA si el juego lo demanda, punto de vision en tercera es regulable a la baja (se puede hasta quitar en segun que juego) si el juego lo demanda, puntos de vision lejanos se puede apagar si el juego lo demanda.

En titulos actuales regulo para jugar a Ultra o cercano a 4k - 50fps (ME Andromeda lo he jugado a 4k-50fps rondando el ultra). En titulos de generaciones pasadas o pocos exigentes a Ultra para el 4k - 60fps (los Metro los estoy jugando a tope incluso metiendole AA, y los juegos deportivos mas de lo mismo, me permiten poner todo a tope).


Sobre la tecnologia que anda presentando nvidia.

La inclusion de esta tecnologia en los videojuegos no lo decidira nvidia, lo decidiran la proxima generacion de consolas. Por ahora esto del RTX me esta pareciendo lo mismito que en su dia el tema del Physx.

Esta tecnologia no justifica la subida de precio que les han metido a todas las graficas, lo mismo que la generacion pasada Pascal no justificaba la subida de precio que le metieron a toda la gama 10xx.

Me maravilla pensar que en apenas 5 años hemos pasado de una GTX 970 a 350€, a unas RTX 2070 a 650€. Y la gente se centre en debatir sobre la "tecnologia" para justificar este desproposito.

En mi opinion llevan metiendonosla hasta el fondo desde la generacion 900, pero claro, es solo mi opinion.
KnightSparda escribió:O sea que la idea es seleccionar 1080p de resolución y activar este AA para que la calidad quede cercana al 4k, no?

Eso es lo que yo entiendo como super-resolución; que reconstruye una imagen de baja resolución en una de alta resolución. En este caso, 1080p a 4K, me gustaría ver el resultado, confío en que la calidad sea muy buena.


@mondillo el precio es alto debido a una suma de factores: el chip es grande, los Tensor Cores son caros también, y sobre todo, Nvidia domina el mercado.

Un último inciso, el Raytracing es un gran paso adelante en la renderización en tiempo real, es el futuro indudablemente, y espero que cercano.
KnightSparda escribió:O sea que la idea es seleccionar 1080p de resolución y activar este AA para que la calidad quede cercana al 4k, no?


Xlooser escribió:Eso es lo que yo entiendo como super-resolución; que reconstruye una imagen de baja resolución en una de alta resolución. En este caso, 1080p a 4K, me gustaría ver el resultado, confío en que la calidad sea muy buena.


@mondillo el precio es alto debido a una suma de factores: el chip es grande, los Tensor Cores son caros también, y sobre todo, Nvidia domina el mercado.


Que noooooooooo.
https://www.softzone.es/2016/08/26/anti ... aa-y-msaa/
Lo que hace ya existe en varios métodos y todos son antialiasing que no tienen nada pero nada nada que ver con tu resolucion.
Esto aplica ese mismo antialiasing por supersampling utilizando los tensor cores en vez de los cuda cores por lo que no se pierde rendimiento.
Lo que hará es lo que ha hecho siempre el AA y es que si tu imagen por lo que sea tiene dientes de sierra los va a eliminar.
Pero si seleccionas 1080p vas a ver todo a 1080p y con calidad de 1080p
Pero sin dientes de sierra.
adriano_99 escribió:
KnightSparda escribió:O sea que la idea es seleccionar 1080p de resolución y activar este AA para que la calidad quede cercana al 4k, no?


Xlooser escribió:Eso es lo que yo entiendo como super-resolución; que reconstruye una imagen de baja resolución en una de alta resolución. En este caso, 1080p a 4K, me gustaría ver el resultado, confío en que la calidad sea muy buena.


@mondillo el precio es alto debido a una suma de factores: el chip es grande, los Tensor Cores son caros también, y sobre todo, Nvidia domina el mercado.


Que noooooooooo.
https://www.softzone.es/2016/08/26/anti ... aa-y-msaa/
Lo que hace ya existe en varios métodos y todos son antialiasing que no tienen nada pero nada nada que ver con tu resolucion.
Esto aplica ese mismo antialiasing por supersampling utilizando los tensor cores en vez de los cuda cores por lo que no se pierde rendimiento.
Lo que hará es lo que ha hecho siempre el AA y es que si tu imagen por lo que sea tiene dientes de sierra los va a eliminar.
Pero si seleccionas 1080p vas a ver todo a 1080p y con calidad de 1080p
Pero sin dientes de sierra.

¿Entonces por qué Nvidia habla de super-resolución si la super-resolución no está implementada?


Edito: la super-resolución de Nvidia es el DSR y pensaba que utilizarían los Tensor Cores para ello, pero nunca se ha publicitado como convertir 1080p en 4K en un monitor 4K. Será una malinterpretación mía.
Xlooser escribió:
adriano_99 escribió:
KnightSparda escribió:O sea que la idea es seleccionar 1080p de resolución y activar este AA para que la calidad quede cercana al 4k, no?


Xlooser escribió:Eso es lo que yo entiendo como super-resolución; que reconstruye una imagen de baja resolución en una de alta resolución. En este caso, 1080p a 4K, me gustaría ver el resultado, confío en que la calidad sea muy buena.


@mondillo el precio es alto debido a una suma de factores: el chip es grande, los Tensor Cores son caros también, y sobre todo, Nvidia domina el mercado.


Que noooooooooo.
https://www.softzone.es/2016/08/26/anti ... aa-y-msaa/
Lo que hace ya existe en varios métodos y todos son antialiasing que no tienen nada pero nada nada que ver con tu resolucion.
Esto aplica ese mismo antialiasing por supersampling utilizando los tensor cores en vez de los cuda cores por lo que no se pierde rendimiento.
Lo que hará es lo que ha hecho siempre el AA y es que si tu imagen por lo que sea tiene dientes de sierra los va a eliminar.
Pero si seleccionas 1080p vas a ver todo a 1080p y con calidad de 1080p
Pero sin dientes de sierra.

¿Entonces por qué Nvidia habla de super-resolución si la super-resolución no está implementada?

Porque es lo que se utiliza para cargarse los dientes de sierra e imperfecciones pero eso no es nada nuevo, el super sampling lleva años utilizándose.
Lo que ha hecho Nvidia ahora es que el rendimiento no se vaya a la puta cuando lo usas.
Efectivamente, lo que se lleva leyendo todos estos días es que el sistema nuevo es una especie de reescalado o checkerboard como hacen las consolas, básicamente el PC renderiza a 1080p y luego el AA añade definición, es más, la imagen ésta que lleva todo el dia rodando, demuestra que la misma imagen en 1080p con el DLSS para simular el 8k da un resultado espectacular, por lo que yo he entendido es así como funciona, si no no sería revolucionario ni tendría sentido, que sentido tiene un método de AA que por muy poco que chupe lo tengas que activar en 4k, si en 4k el rendimiento ya va a ser malo.
De ahí que nvidia use las gráficas ya expuestas comparando las pascal en 4k y las turing con DLSS, ellos consideran el 1080p reescalado a 4k con DLSS como 4k, de ahí que el rendimiento se doble.

EDITO, añado la imagen.

Imagen
adriano_99 escribió:
Xlooser escribió:
adriano_99 escribió:


Que noooooooooo.
https://www.softzone.es/2016/08/26/anti ... aa-y-msaa/
Lo que hace ya existe en varios métodos y todos son antialiasing que no tienen nada pero nada nada que ver con tu resolucion.
Esto aplica ese mismo antialiasing por supersampling utilizando los tensor cores en vez de los cuda cores por lo que no se pierde rendimiento.
Lo que hará es lo que ha hecho siempre el AA y es que si tu imagen por lo que sea tiene dientes de sierra los va a eliminar.
Pero si seleccionas 1080p vas a ver todo a 1080p y con calidad de 1080p
Pero sin dientes de sierra.

¿Entonces por qué Nvidia habla de super-resolución si la super-resolución no está implementada?

Porque es lo que se utiliza para cargarse los dientes de sierra e imperfecciones pero eso no es nada nuevo, el super sampling lleva años utilizándose.
Lo que ha hecho Nvidia ahora es que el rendimiento no se vaya a la puta cuando lo usas.

Con super-resolución no me refiero a eso. Lo que quiero decir es convertir 1080p en 4K con otros algoritmos diferentes a los del escalado tradicional (gausiano, lanczos, tricúbico....). Esa técnica ya se usa en medicina, por ejemplo, y añade detalles a la imagen. Aplicado a videojuegos, sería como subir la resolución de las texturas.


Edito: me pierdo. ¿Entonces la super-resolución sí es el DLSS? Gracias por aclarármelo. Tiene todo el sentido del mundo aplicar el Raytracing sobre 1080p en vez de sobre 4K.
KnightSparda escribió:Efectivamente, lo que se lleva leyendo todos estos días es que el sistema nuevo es una especie de reescalado o checkerboard como hacen las consolas, básicamente el PC renderiza a 1080p y luego el AA añade definición, es más, la imagen ésta que lleva todo el dia rodando, demuestra que la misma imagen en 1080p con el DLSS para simular el 8k da un resultado espectacular, por lo que yo he entendido es así como funciona, si no no sería revolucionario ni tendría sentido, que sentido tiene un método de AA que por muy poco que chupe lo tengas que activar en 4k, si en 4k el rendimiento ya va a ser malo.
De ahí que nvidia use las gráficas ya expuestas comparando las pascal en 4k y las turing con DLSS, ellos consideran el 1080p reescalado a 4k con DLSS como 4k, de ahí que el rendimiento se doble.

EDITO, añado la imagen.

Imagen

Pues no es lo que yo había entendido pero me estáis haciendo dudar.
Desde luego si es lo que tu dices me parece una mierda como un piano de grande.

@Xlooser
Pues lo dicho, acabo de perder absolutamente todo el interés en esto.
Me respondo a mi mismo, con este post de reddit explicandolo, básicamente es lo que yo he dicho, la gente que tenga monitores o TVs 4k, van a seleccionar activar el DLSS y lo que hará la gráfica en el juego será renderizar a 1080p y reescalar a 4k la imagen, de manera que a efectos del ojo tu vas a ver la imagen completada con la AI como si fuese 4k aun que tu gráfica sólo este renderizando a 1080p y reescalandola.

Como dice el chaval del post, no es un método de AA, si no que es un reescalado en toda regla, algo similar a lo que hacen las consolas nuevas, pero de manera más eficiente en temas de potencia, y con resultados superiores en términos de calidad.

Ésta tecnologia es una puta pasada, y es la clave para que se pueda combinar con el rayotracing para poder jugar a 4k reescalados y 60 fps.

Aquí el enlace en cuestión de la explicación:

https://www.reddit.com/r/nvidia/comment ... i/e4r3lj6/
KnightSparda escribió:Me respondo a mi mismo, con este post de reddit explicandolo, básicamente es lo que yo he dicho, la gente que tenga monitores o TVs 4k, van a seleccionar activar el DLSS y lo que hará la gráfica en el juego será renderizar a 1080p y reescalar a 4k la imagen, de manera que a efectos del ojo tu vas a ver la imagen completada con la AI como si fuese 4k aun que tu gráfica sólo este renderizando a 1080p y reescalandola.

Como dice el chaval del post, no es un método de AA, si no que es un reescalado en toda regla, algo similar a lo que hacen las consolas nuevas, pero de manera más eficiente en temas de potencia, y con resultados superiores en términos de calidad.

Ésta tecnologia es una puta pasada, y es la clave para que se pueda combinar con el rayotracing para poder jugar a 4k reescalados y 60 fps.

Aquí el enlace en cuestión de la explicación:

https://www.reddit.com/r/nvidia/comment ... i/e4r3lj6/

Pues a mi me parece una absoluta perdida de tiempo para intentar contentar a todos los que no paraban de llorar porque iban a tener que bajar la resolución.
Da igual lo que digan un reescalado por mucha IA que haya nunca va a ser tan bueno como una resolución nativa.
Y si me equivoco porque reescalar desde 1080p? Porque no desde 720p? 480p?
Me parece un lavado de cara hasta que se pueda con el ray tracing a 4k.
Pues no es lo que yo he estado leyendo este par de días, al parecer toda la gente que ha podido ver el DLSS en acción dicen que es una maldita locura, y teniendo un monitor 4k al lado para comparar dicen que la imagen era literalmente igual, que era imposible diferenciar, vamos no se tu pero si ahora se centran en usar potencia para mejorar los juegos en complejidad gráfica ya que el tema rendimiento va a quedar solucionado con la AI para emular de manera brutal una resolución mayor, para mi es la panacea a ésta guerra absurda de resoluciones y framerates, se queda todo solucionado.

Es más, me atrevo a decir que ésto ya esta pasando, las consolas precisamente es lo que han hecho, han conseguido mejorar en sobremanera su complejidad gráfica hasta puntos que con su baja potencia eran impensables gracias a que precisamente el tema de la resolución ha quedado paliado por los chekerboards.

El único tema que queda en el aire, es ver hasta que punto los juegos que vayan saliendo soporten éste sistema que requiere de el apoyo de nvidia para poder sacar su jugo.
adriano_99 escribió:
KnightSparda escribió:Me respondo a mi mismo, con este post de reddit explicandolo, básicamente es lo que yo he dicho, la gente que tenga monitores o TVs 4k, van a seleccionar activar el DLSS y lo que hará la gráfica en el juego será renderizar a 1080p y reescalar a 4k la imagen, de manera que a efectos del ojo tu vas a ver la imagen completada con la AI como si fuese 4k aun que tu gráfica sólo este renderizando a 1080p y reescalandola.

Como dice el chaval del post, no es un método de AA, si no que es un reescalado en toda regla, algo similar a lo que hacen las consolas nuevas, pero de manera más eficiente en temas de potencia, y con resultados superiores en términos de calidad.

Ésta tecnologia es una puta pasada, y es la clave para que se pueda combinar con el rayotracing para poder jugar a 4k reescalados y 60 fps.

Aquí el enlace en cuestión de la explicación:

https://www.reddit.com/r/nvidia/comment ... i/e4r3lj6/

Pues a mi me parece una absoluta perdida de tiempo para intentar contentar a todos los que no paraban de llorar porque iban a tener que bajar la resolución.
Da igual lo que digan un reescalado por mucha IA que haya nunca va a ser tan bueno como una resolución nativa.
Y si me equivoco porque reescalar desde 1080p? Porque no desde 720p? 480p?
Me parece un lavado de cara hasta que se pueda con el ray tracing a 4k.

Supongo que este "escalado" tendrá un límite para que la imagen siga siendo nítida. Entre 1080p y 4K el escalado tradicional es mejor que con otras resoluciones, supongo que con DLSS el resultado será mejor, al menos lo suficientemente bueno para la mayoría de usuarios.

Antes de llegar a una conclusión, a mi me gustaría ver una imagen 4K nativa y otra escalada mediante DLSS, si es en una prueba ciega mejor. Me parece la mejor opción actual, ya que aplicar raytracing a 4K nativo quedarán muchos años, quizá más de una década.
KnightSparda escribió:Pues no es lo que yo he estado leyendo este par de días, al parecer toda la gente que ha podido ver el DLSS en acción dicen que es una maldita locura, y teniendo un monitor 4k al lado para comparar dicen que la imagen era literalmente igual, que era imposible diferenciar, vamos no se tu pero si ahora se centran en usar potencia para mejorar los juegos en complejidad gráfica ya que el tema rendimiento va a quedar solucionado con la AI para emular de manera brutal una resolución mayor, para mi es la panacea a ésta guerra absurda de resoluciones y framerates, se queda todo solucionado.

Es más, me atrevo a decir que ésto ya esta pasando, las consolas precisamente es lo que han hecho, han conseguido mejorar en sobremanera su complejidad gráfica hasta puntos que con su baja potencia eran impensables gracias a que precisamente el tema de la resolución ha quedado paliado por los chekerboards.

El único tema que queda en el aire, es ver hasta que punto los juegos que vayan saliendo soporten éste sistema que requiere de el apoyo de nvidia para poder sacar su jugo.

Lo que hacen las consolas me parece una verdadera chapuza para simular que tienen mas potencia y engañar a la gente y por mas que esto sea mejor no me parece muy distintos.
Y vuelvo a decir, si de verdad no notas nada la diferencia, porque pararse en el 1080p?
Porque no reducir todavía mas la resolucion original?
720p tampoco debería de notarse casi nada y 480 p igual se nota un poco pero tendriamos """"""""""4k"""""""""" a 200 o 300 fps.
No me lo creo, y ver que nos llega la guarrada de las consolas me hierve la sangre.
¿Tiene que ver con el actual DSR de nvidia o EL VSR de AMD ? Tengo entendido que la técnica actual permite emular los 4k.( al menos es lo que promocionan ellos) aparentemente si da pequeñas mejoras. En alguna ocasión
cuando conecte un monitor o tv de gran tamaño a mi pc me saltaba el VSR lo de que tiene muchas pulgadas el y que puedes activarlo para mejorar la imagen. Me paso en casa de un amigo que tenía tenía 1080p en monitor de 28 pulgadas.
Todo esto para los que jugamos en TV 1080p realmente nos es indiferente verdad? No lo malinterpreteis.
adriano_99 escribió:
KnightSparda escribió:Pues no es lo que yo he estado leyendo este par de días, al parecer toda la gente que ha podido ver el DLSS en acción dicen que es una maldita locura, y teniendo un monitor 4k al lado para comparar dicen que la imagen era literalmente igual, que era imposible diferenciar, vamos no se tu pero si ahora se centran en usar potencia para mejorar los juegos en complejidad gráfica ya que el tema rendimiento va a quedar solucionado con la AI para emular de manera brutal una resolución mayor, para mi es la panacea a ésta guerra absurda de resoluciones y framerates, se queda todo solucionado.

Es más, me atrevo a decir que ésto ya esta pasando, las consolas precisamente es lo que han hecho, han conseguido mejorar en sobremanera su complejidad gráfica hasta puntos que con su baja potencia eran impensables gracias a que precisamente el tema de la resolución ha quedado paliado por los chekerboards.

El único tema que queda en el aire, es ver hasta que punto los juegos que vayan saliendo soporten éste sistema que requiere de el apoyo de nvidia para poder sacar su jugo.

Lo que hacen las consolas me parece una verdadera chapuza para simular que tienen mas potencia y engañar a la gente y por mas que esto sea mejor no me parece muy distintos.
Y vuelvo a decir, si de verdad no notas nada la diferencia, porque pararse en el 1080p?
Porque no reducir todavía mas la resolucion original?
720p tampoco debería de notarse casi nada y 480 p igual se nota un poco pero tendriamos """"""""""4k"""""""""" a 200 o 300 fps.
No me lo creo, y ver que nos llega la guarrada de las consolas me hierve la sangre.


Tranquilízate, que has pasado de un extremo a otro en una página. ¿Cómo no va a notarse un reescalado de 480p a 4K? ¿En serio? Jajaja. Cuanto mayor sea la densidad de píxeles de la imagen de la que partes mejor reescalado vas a hacer, pues partes de una muestra con mayor información.
11796 respuestas