NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

KailKatarn escribió:Y yo que pensé que esto era un hilo para hablar de las tarjetas y sus tecnologías y me encuentro un repertorio de lecciones morales sobre lo que debemos hacer los demás con nuestro dinero. Además dadas por una mayoría aplastante que convirtió a Nvidia en lo que es dándole su dinero tarjeta tras tarjeta ignorando a la competencia, y claro, ahora que están ellos solos en la gama alta pues que malvados se han vuelto.

Vivir para ver ... [facepalm] [facepalm] [facepalm]



Que aquí a nadie le importa 3 pepinos en que se gasten el dinero hombre, que lo que no nos parece es que los 4 personajes que han monopolizado este hilo estén desinformando a la peña, eso se discute nada mas, por mi como si se lo gastan todo al negro, para eso es el dinero, pero no engañes a la gente, que eso si esta mal.
VictorM escribió:
kikomanco escribió:
VictorM escribió:Al final yo acabare baneado mientras esta gente MIENTE en este hilo.
aquí se ve que tú tienes la verdad absoluta, los demás mentimos no?


La diferencia entre tu y yo, es que si no opinas igual, yo no te reporto. Hasta luego , volvere en unas semanas a ver que chorradas os hebeis inventado esta vez.

La diferencia entre tú y yo se llama educación y respeto, cosa que se ve que tú no has aprendido o no te han enseñado tus padres ;)
aquí ando, con mis palomitas leyendo barrabasadas, hasta el 27, que los que tendremos las nuevas gráficas estaremos jugando y el resto se meterá a meter mierda XD
calloudiano escribió:Que aquí a nadie le importa 3 pepinos en que se gasten el dinero hombre, que lo que no nos parece es que los 4 personajes que han monopolizado este hilo estén desinformando a la peña, eso se discute nada mas, por mi como si se lo gastan todo al negro, para eso es el dinero, pero no engañes a la gente, que eso si esta mal.



Para empezar no hables por ti por lo que se puede leer generalmente. Que tú no hayas hablado de ello no significa que no haya ya 50000000 páginas de gente dejando claro que son un timo y que la gente que se las compra es poco más que subnormal. Luego, por otro lado, yo desconozco si hay gente que monopoliza el hilo o no, si está a sueldo de Nvidia o no, si directamente mienten descaradamente o no, lo que si sé es que un hilo está para hablar del producto en cuestión.

Las opiniones de son caras, son un timo, a Nvidia se le va la pinza, etc ... quedaron claras hace mucho, pero eso sí, parece ser que muchos no se cansan y parece que tienen que repetir su opinión cada cierto tiempo no vaya a ser que no haya quedado claro que a muchos les parecen caras.

Finalmente, me hace mucha gracia que haya gente aquí catalogando cosas de verdades o mentiras cuando la inmensa mayoría aún ni hemos olido la tarjeta, pero bueno, parece ser que aquí hay mucha bola de cristal en todas las direcciones, según la posición que nos interese, claro. Las bolas de cristal que no nos interesan no las vemos, pero las que si las vemos muy muy rápido y somos capaces de señalar quienes engañan.
albertoooooooooo escribió:
adriano_99 escribió:
albertoooooooooo escribió:Pero si Turing tampoco puede con RTX...

Y cuando pensaba que se había llegado al limite del absurdo respecto a las mentiras llegas y te superas.
Enhorabuena.

Que una tarjeta de 1300€ se arrastre a 1080@45fps para mi es no poder con RTX. Imagínate una 2070, a 720p@30fps...

Te recuerdo que entonces Pascal también podía con rtx pues con 3 1080ti se movía la demo de star wars

Cuantas veces vamos a tener que repetir lo mismo?
-Juegos o características en fase beta o incluso alpha
-Los desarrolladores no habían tenido las targetas graficas hasta 2 semanas antes de mostrarlo ni mucho menos los drivers para moverlas
-Ningun juego mostrado hasta ahora tiene opciones graficas para el ray tracing ni este ha sido optimizado


Incluso en el último vídeo mostrado del metro se menciona que los desarrolladores se están acostumbrando a como utilizar el ray tracing, COÑO NI SI QUIERA SE HAN PUESTO DE ACUERDO EN SI USAR O NO LOS TENSORES PARA ESO.
Desarrolladores y medios especializados que han hablado con ellos han repetido hasta la saciedad que todo lo que hay hasta ahora son meras pruebas y que los rendimientos mostrados no sirven de nada porque estan aprendiendo a usar el hardware y no tienen los drivers y optimizaciones que necesitan.
por que te crees que el tomb raider ha salido sin su soporte?

Pero nada, seguid utilizando unos números que SABÉIS que no sirven de nada ni representan nada que lo mas importante es extender mentiras para tener razón.
Y esta es la última vez que pierdo tiempo explicando esto esto, los que quieran seguir mintiendo para sentirse mejor a ignorados y listo.
KailKatarn escribió:
calloudiano escribió:Que aquí a nadie le importa 3 pepinos en que se gasten el dinero hombre, que lo que no nos parece es que los 4 personajes que han monopolizado este hilo estén desinformando a la peña, eso se discute nada mas, por mi como si se lo gastan todo al negro, para eso es el dinero, pero no engañes a la gente, que eso si esta mal.



Para empezar no hables por ti por lo que se puede leer generalmente. Que tú no hayas hablado de ello no significa que no haya ya 50000000 páginas de gente dejando claro que son un timo y que la gente que se las compra es poco más que subnormal. Luego, por otro lado, yo desconozco si hay gente que monopoliza el hilo o no, si está a sueldo de Nvidia o no, si directamente mienten descaradamente o no, lo que si sé es que un hilo está para hablar del producto en cuestión.

Las opiniones de son caras, son un timo, a Nvidia se le va la pinza, etc ... quedaron claras hace mucho, pero eso sí, parece ser que muchos no se cansan y parece que tienen que repetir su opinión cada cierto tiempo no vaya a ser que no haya quedado claro que a muchos les parecen caras.

Finalmente, me hace mucha gracia que haya gente aquí catalogando cosas de verdades o mentiras cuando la inmensa mayoría aún ni hemos olido la tarjeta, pero bueno, parece ser que aquí hay mucha bola de cristal en todas las direcciones, según la posición que nos interese, y claro, las bolas de cristal que no nos interesan no las vemos, pero las que si las vemos muy muy rápido y somos capaces de señalar quienes engañan.

+1111211111111111111111³
@ikki1988 Totalmente de acuerdo, si me llega el 27 no me van ver el pelo por aquí, les vamos a dejar el hilo para ellos solitos para que sigan echando bilis a Nvidia
albertoooooooooo escribió:
adriano_99 escribió:
albertoooooooooo escribió:Pero si Turing tampoco puede con RTX...

Y cuando pensaba que se había llegado al limite del absurdo respecto a las mentiras llegas y te superas.
Enhorabuena.

Que una tarjeta de 1300€ se arrastre a 1080@45fps para mi es no poder con RTX. Imagínate una 2070, a 720p@30fps...

Te recuerdo que entonces Pascal también podía con rtx pues con 3 1080ti se movía la demo de star wars


https://www.pcgamesn.com/epic-star-wars ... raytracing
¨DGX Station mini server box, packed with four discrete Tesla V100 graphics cards, to render the entire demo in real time. It’s running at 1080p and at a cinematic 24fps, and is barely distinguishable from a live action scene.¨

https://www.xataka.com/videojuegos/este ... 00-dolares
¨cuatro GPUs NVIDIA Volta V100¨
https://www.roadtovr.com/gdc-2018-watch ... -stunning/
¨Nvidia DGX Station running four Volta GPUs connected with NVLink¨
Sinceramente yo veo que cuanto se intenta de manera educada exponer una opinión, y explicar el porqué determinada tecnología puede ser superior a lo anteriormente visto a pesar de ser un 4k nativo, se me ataca gratuitamente incluso con insultos personales, se me quitan las ganas de seguir comentando en el hilo, me limitaré a responder las dudas de las personas que me citen personalmente y poco más, no tengo ningun interés en discutir gratuitamente con gente que lo merece.
Joder, me salí del hilo en el momento oportuno

Pero no me puedo resisitir a flamear un poco ;p

Los 4 tios de siempre, repitiendo una y otra vez lo mismo mientras acusan a los otros 4 tios de siempre, de repetir lo mismo una y otra vez mientras acusan a los otros 4 tios de siempre, repitiendo una y otra vez lo mismo mientras acusan a los otros 4 tios de siempre, de repetir lo mismo una y otra vez mientras acusan a los otros 4 tios de siempre, repitiendo una y otra vez lo mismo mientras acusan a los otros 4 tios de siempre, de repetir lo mismo una y otra vez mientras acusan a los otros 4 tios de siempre, repitiendo una y otra vez lo mismo mientras acusan a los otros 4 tios de siempre, de repetir lo mismo una y otra vez mientras acusan a los otros 4 tios de siempre, repitiendo una y otra vez lo mismo mientras acusan a los otros 4 tios de siempre, de repetir lo mismo una y otra vez mientras acusan a los otros 4 tios de siempre, etc...

Nota a parte para alguno que puso a parir las 1xxx porque tenía una 980ti (comrpandose finalmente una 1080ti), para acabar criticando a los que tienen una 1080ti y echan pestes de las 2xxx

Lo que ha comentado @KailKatarn, clavada con la generación 1xxx, todos pasando por el aro (alguno escudándose en que si la pillo en oferta o la compró de segunda mano, como si eso no fuera participar también del circo) y ahora me pongo a criticar la nueva generación.



Este puto hilo es surrealista, y lo dice uno que ha participado y criticado los precios de estas 2xxx, "peleándose" por el camino.

Larga vida a Ubú!
hit está baneado por "Troll"
¿Como va a ser mejor un checkboard que una imagen en una resolución nativa? por mucho que el checkboard se haga en una red neuronal es imposible que se vea mejor que algo nativo

Una cosa es gastarse el dinero en lo que uno crea conveniente pero contar mentiras para desinformar y asi justificar el dinero que os vais a gastar no,el 4k nativo siempre sera mil veces mejor que un checkboard por la simple razón que es nativo y fin
Ahora una compresión de imagen (que por DEFINICIÓN es perder información de píxeles SÍ o SÍ) se ve mejor que una resolución nativa. XDDD

Esto ya es como defender la existencia de Dios: pura cuestión de fe. Fe en Nvidia.
lo vuelvo a poner una vez mas pero va a ser la ultima
con TAA
Imagen

sin AA
Imagen

con DLSS
Imagen

se ve muchisimo mejor el juego con DLSS que con TAA y mejora muchisimo el rendimiento
Pues si Nvidia nos pone imágenes del único juego en el que se puede ver el DLSS, pues nos las tragamos y que le den por culo a las leyes físicas básicas de la informática.
Más no siempre es mejor, tener más pixeles puede generar un efecto serrado, que el DLSS puede suavizar de cara a una imagen sin zoom y que quede mucho mejor al final que un nativo serrado.
Beta Reverse escribió:Pues si Nvidia nos pone imágenes del único juego en el que se puede ver el DLSS, pues nos las tragamos y que le den por culo a las leyes físicas básicas de la informática.


Tus leyes de la informática básica se cumplirían si no estuvieses metiendo un SuperSampling x64 a resolución nativa en DLSS x2 y poco menos de la resolución nativa en DLSS normal. Cuando metes un supersampling tan salvaje sí que puedes llegar a ofrecer una calidad de imagen mejor que la nativa a la hora de aplicarla filtros, porque recuerda que muchos AA e implementaciones de motores ya de por sí aplican borrosidad.

Cuantas veces has leído en los últimos años que la gente ve más borroso los juegos a pesar de jugar a resolución nativa y ser títulos nuevos? pues entre otras muchas cosas porque muchos a parte del AA seleccionable además te meten un FXAA medio o alto que ya de por sí mata los colores, los lava completamente. El resto de AA no es mágia, cuando coges una imagen y le aplicas filtros para reducir los dientes de sierra también están modificando información de la misma y por lo tanto en las partes profundas del alisado pierdes información porque hay mucha superpuesta para corregir esos dientes (véase las hojas de un árbol a media distancia, que son muchas y muy cerca).

Así que el tema está en la imagen que eres capaz de enviar final contando con filtros y que a la vez elimines los dientes de sierra. A ver, Nvidia tiene ingenieros dándole mil vueltas a los temas de como conseguir una calidad de imagen mejor, igual que AMD, gastando los menos recursos posibles, y aunque el DSLL es difícil de entender si que puede ofrecer muy pero que muy buena calidad de imagen y hasta mejorar el rendimiento.
Pero poner las otras también, las que se ve borroso que te cagas .... Como siempre poniendo las que os interesa... No cambia la tendencia...
hit está baneado por "Troll"
Vamos a ver,esto es como dice el compañero,es compresión de imagen y si o si se va a perder calidad,mucha,poca no lo se pero es que es definición,esto es como el bitrate de los mp3,si,puede ser alto y puede dar el pego pero el mp3 es compresión y por mucho que te bajes un archivo con un bitatre alto el nativo(es decir el del cd) se va a escuchar mejor

Que para jugar a 4k sin perder rendimiento puede dar el pego,no lo dudo pero lo nativo SIEMPRE VA A SER MEJOR es lógica pura y aplastante
hit escribió:Que para jugar a 4k sin perder rendimiento puede dar el pego,no lo dudo pero lo nativo SIEMPRE VA A SER MEJOR es lógica pura y aplastante


Te equivocas, en el momento que aplicas cualquier filtro de imagen (llámalo AA, AF, etc ...) eso que comentas no es verdad. O mejor dicho, no se ajusta a la verdad.
Beta Reverse escribió:Pues si Nvidia nos pone imágenes del único juego en el que se puede ver el DLSS, pues nos las tragamos y que le den por culo a las leyes físicas básicas de la informática.

sabes exactamente lo que significa DLSS? pues es aprendizaje profundo de super muestreo
quieres saber lo que significa super sampling?
https://www.3djuegos.com/noticias-ver/178177/supersampling-que-es-y-porque-mi-juego-se-ve-mejor/
pues basicamente eso es lo que hace el DLSS pero se apoya en la red neuronal de Nvidia para aprender los patrones y mediantes los Tensor cores rellenar los pixeles que hacen falta para hacer un super muestreo y conseguir una imagen nitida y sin bordes de sierra minimizando el impacto que eso supone en el rendimiento si lo haces mediante la tecnica TAA
A esto me refería yo, la calidad del nativo es relativa, ya que siempre llevan filtros internos aplicados determinados motores, y el DLSS toma samples de un 64x, pero vamos que es igual lo que se explique de buenas maneras.
hit está baneado por "Troll"
KailKatarn escribió:
hit escribió:Que para jugar a 4k sin perder rendimiento puede dar el pego,no lo dudo pero lo nativo SIEMPRE VA A SER MEJOR es lógica pura y aplastante


Te equivocas, en el momento que aplicas cualquier filtro de imagen (llámalo AA, AF, etc ...) eso que comentas no es verdad. O mejor dicho, no se ajusta a la verdad.


Fijate que te tengo en alta estima por como nos lo pasamos en el mitico hilo de Polaris y el club del fitness xdxd pero es que no lo veo,algo nativo siempre va a ser mejor que algo con checkboard por muchos filtros que pongas, a igualdad de filtros en una imagen y otra el nativo bajo mi punto de vista va a ser siempre mejor el nativo
hit escribió:Fijate que te tengo en alta estima por como nos lo pasamos en el mitico hilo de Polaris y el club del fitness xdxd pero es que no lo veo,algo nativo siempre va a ser mejor que algo con checkboard por muchos filtros que pongas, a igualdad de filtros en una imagen y otra el nativo bajo mi punto de vista va a ser siempre mejor



En el post anterior me he explicado lo mejor posible, piensa en el ejemplo del árbol y úsalo en cualquier juego con cualquier tarjeta y ve aplicado todo tipos de AA, AF, etc ... y te darás cuenta de que por mucha resolución nativa que estés, donde más alisado necesitas más información se ha "borrado" para corregir bordes y al final lo que acabas viendo es un matojo verde en vez de hojas de un árbol. Por cada filtro pierdes información para sustituirla por otra y además muchos no puedes ni elegirlos en los juegos modernos.
terriblePICHON escribió:Pero poner las otras también, las que se ve borroso que te cagas .... Como siempre poniendo las que os interesa... No cambia la tendencia...

yo las otras no las pongo por que lo primero, no son mias, y lo segundo no se de donde proceden, quien me dice a mi que esas imagenes que supuestamente se ven mas borrosas, o estan manipuladas, (puede que si, puede que no) o estan a menor resolucion de la de al lado (1440p vs 2160p) por lo menos las que yo he colgado estan contrastadas que estan sacadas de la demo del FF15 de la pagina web que tiene la marca de agua en la imagen [fiu]
KnightSparda escribió:Más no siempre es mejor, tener más pixeles puede generar un efecto serrado, que el DLSS puede suavizar de cara a una imagen sin zoom y que quede mucho mejor al final que un nativo serrado.



[facepalm]

Madre del amor hermoso

Creo que al final el tonto soy yo, tenemos ante nosotros a un troll pura sangre, el es realmente el listo y nosotros los tontos, por picar tan fácil [carcajad]
Una vez más es fake, misma cantinela de siempre , lo mismito de las últimas 200 páginas , esa imagen no es buena pero la tuya si.

Pero no puede ser que esa imagen de Nvidia esté preparada para tal cosa , eso no, pero las de los usuarios si, jajajajajajajaja

Poneros la demo del dlss que corre por hay, y decirme si en vivo se ve mejor, ya no mejor sino que se vea igual ...
Se ve bastante peor en tema de borrosidad , los reflejos están como a menor resolución....pero eso no vale ...

edito:
calloudiano escribió:
KnightSparda escribió:Más no siempre es mejor, tener más pixeles puede generar un efecto serrado, que el DLSS puede suavizar de cara a una imagen sin zoom y que quede mucho mejor al final que un nativo serrado.



[facepalm]

Madre del amor hermoso

Creo que al final el tonto soy yo, tenemos ante nosotros a un troll pura sangre, el es realmente el listo y nosotros los tontos, por picar tan fácil [carcajad]


Si si, jajajajajajaja no lo había leído, no veas que nivel, tener más píxeles puede generar un efecto serrado jajajajajajajajaja esto si que es épico, legendario .

Todos sabemos que los pixeles del 4k producen un efecto serrado al tener más que por ejemplo un 1080p que al tener menos pixel no produce el efecto sierra...

Con este comentario ya queda todo demostrado ....
terriblePICHON escribió:Una vez más es fake, misma cantinela de siempre , lo mismito de las últimas 200 páginas , esa imagen no es buena pero la tuya si.

Pero no puede ser que esa imagen de Nvidia esté preparada para tal cosa , eso no, pero las de los usuarios si, jajajajajajajaja

Poneros la demo del dlss que corre por hay, y decirme si en vivo se ve mejor, ya no mejor sino que se vea igual ...
Se ve bastante peor en tema de borrosidad , los reflejos están como a menor resolución....pero eso no vale ....

el jueves lo hare yo mismo en mi casa, y sacare conclusiones, mientras vosotros seguireis aqui diciendo lo que os de la gana, pero tranquilo que los resultados no los voy a compartir por aqui, ya paso de discutir con personas que no hacen nada mas que patalear por que lo que decimos los demas no le convienen a ellos
@kikomanco

Perdona que te diga , no es lo que no nos conviene, es la sarta de mentiras que ponen, sino léete el del más píxeles crean un efecto sierra, a ver cómo defendeis eso.....
hit está baneado por "Troll"
"Hago pruebas pero me las guardo para mi"

Pocas pruebas se van a poder hacer y si se hacen van a salir mal ya que el "preset"( llamesmolo asi) te lo manda Nvidia desde su red neuronal y todas y cada una de las reviews remarcan que esa característica todavía no esta implementada pero aunque estuviera implementada si uno se las guarda para si mismo pues no se que pensar,bueno si,pero no lo voy a decir por no caldear mas el hilo

Edit: En fin confiemos en medios imparciales y gente de reddit,siempre lo diré,el nivel y la educación de medios y foros de habla inglesa nos lleva años de ventaja por cosas como las que entrecomillo arriba
@terriblePICHON

Ya ves, un amigo ingeniero que recién se ha comprado un monitor 5k para editar foto y vídeo, le voy a decir que lo venda macho, que con el $$$ se compre una Turing y le meta DSSL HASTA LAS TRANCAS jajaja para que se vea todo mas nítido y menos pixeleado, 5k para que hombre, un 1080p panel TN y le hacemos combo con una rtx, el futuro ha llegado...
Porque esta costando tanto que se implante dx12?. Yo esperaba que en 2017 todos los juegos fueran desarrollados en dx12, y ni el 2%. Seguimos anclados en el dx11, cuando con el 12 aprovecharíamos mejor los procesadores modernos con varios núcleos e hilos y todas las bondades que se publicaron sobre multi gpus, no solo sli con mejor escalada, si no, poder combinar gpus diferentes e incluso nvidia y amd. A ver si por lo menos esta nueva generación de graficas ayuda a que se implante de una vez el DX12. Si así fuera y realmente se empezara a aprovechar el sli, una buena opción para los que tenemos la 1080ti, seria montar un sli.
Espero que todos los comerciales infiltrados, que trabajan para nvidia, empiecen a hacerlo mejor, creo que no convencéis a nadie, la realidad se impone, las nuevas graficas no han dado la talla, han decepcionado, crear muchas expectativas es lo que tiene, que luego desilusionas. Sabéis quienes son esos infiltrados, no?, fácil, los que contesten a mi ultima parte del mensaje, poniéndolo a parir.
hit está baneado por "Troll"
Silicio14mm escribió:Porque esta costando tanto que se implante dx12?. Yo esperaba que en 2017 todos los juegos fueran desarrollados en dx12, y ni el 2%. Seguimos anclados en el dx11, cuando con el 12 aprovecharíamos mejor los procesadores modernos con varios núcleos e hilos y todas las bondades que se publicaron sobre multi gpus, no solo sli con mejor escalada, si no, poder combinar gpus diferentes e incluso nvidia y amd. A ver si por lo menos esta nueva generación de graficas ayuda a que se implante de una vez el DX12. Si así fuera y realmente se empezara a aprovechar el sli, una buena opción para los que tenemos la 1080ti, seria montar un sli.
Espero que todos los comerciales infiltrados, que trabajan para nvidia, empiecen a hacerlo mejor, creo que no convencéis a nadie, la realidad se impone, las nuevas graficas no han dado la talla, han decepcionado, crear muchas expectativas es lo que tiene, que luego desilusionas. Sabéis quienes son esos infiltrados, no?, fácil, los que contesten a mi ultima parte del mensaje, poniéndolo a parir.


Migrar los motores gráficos a dx12 es caro y mas cuando tienes desarollos largos,por ejemplo el último tomb raider llevaria en desarrollo pongamos ¿3 años? antes o despues se ira imponiendo pero migrar todo a dx12 es costoso y muchos que dicen que son dx12 estan "parcheados de aquella manera" dx12 nativos pocos,los de micro y alguno mas
La verdad que en este hilo he leído muchas cosas surrealistas. Es tan sencillo como que nos venden una 2070 renombrada a 2080 y una 2080 renombrada a 2080Ti. No hay más... Bueno si, un incremento BESTIAL en precios que ha conseguido que un servidor que no se ha perdido una gen en muchos años PASE de esta. Dinerito que me ahorro GRACIAS NVidia!!! supone otro pasito más adelante y deseando ver en acción las futuras GTX 3080 ya sin rayitos.
joserm escribió:La verdad que en este hilo he leído muchas cosas surrealistas. Es tan sencillo como que nos venden una 2070 renombrada a 2080 y una 2080 renombrada a 2080Ti. No hay más... Bueno si, un incremento BESTIAL en precios que ha conseguido que un servidor que no se ha perdido una gen en muchos años PASE de esta. Dinerito que me ahorro GRACIAS NVidia!!! supone otro pasito más adelante y deseando ver en acción las futuras GTX 3080 ya sin rayitos.

+1. Todo este tema del DLSS y Raytracing apesta a mucho márketing y poca ingeniería.

Veremos si en la próxima generación hay un salto de potencia real que justifique el precio.
Venga, para los iluminados de este hilo, os voy a poner como función el DLSS y por qué es cierto que las imágenes tratadas con DLSS se ven mejor que con TAA
PD; de nada [fumando]
Deep Learning Super Sampling (DLSS)

Unos párrafos más arriba hemos citado el uso de los Tensor Cores con el Deep Learning Super Sampling, pero ¿qué es realmente el DLSS?

Actualmente en los juegos modernos, los fotogramas renderizados no se muestran directamente, sino que pasan por un paso de mejora de la imagen posterior al procesamiento que combina la entrada de múltiples fotogramas renderizados, tratando de eliminar artefactos visuales como alias mientras preserva los detalles. Por ejemplo, el Anti-Aliasing temporal (TAA), un algoritmo basado en sombreado que combina dos cuadros utilizando vectores de movimiento para determinar dónde muestrear el fotograma anterior, es uno de los algoritmos de mejora de imagen más comunes actualmente en uso. Sin embargo, este proceso de mejora de la imagen es fundamentalmente muy difícil de hacer bien.
Estos son los juegos confirmados que soportarán NVIDIA RTX y NVIDIA DLSS
Estos son los juegos confirmados que soportarán NVIDIA RTX y NVIDIA DLSS

Los investigadores de NVIDIA reconocieron que este tipo de problema, un problema de análisis y optimización de imágenes sin una solución algorítmica limpia, sería una aplicación perfecta para la inteligencia artificial sin duda.

La red neuronal profunda (DNN) que se desarrolló para resolver este desafío se llama Supermuestreo de aprendizaje profundo (DLSS por sus siglas en inglés). DLSS produce un resultado de calidad mucho mayor que TAA a partir de un conjunto determinado de muestras de entrada, y aprovechando esta capacidad para mejorar el rendimiento general.

Mientras que TAA renderiza en la resolución final del objetivo y luego combina cuadros, restando detalles, DLSS permite un procesamiento más rápido con un conteo de muestras de entrada más bajo, y luego infiere un resultado que a la resolución del objetivo es similar al resultado del TAA, pero con la mitad del trabajo de sombreado.

La clave de este resultado es el proceso de capacitación para DLSS, donde se obtiene la oportunidad de aprender a producir el resultado deseado en base a un gran número de ejemplos de súper alta calidad. Para entrenar a la red (NVIDIA lo llama directamente así, network), se recopilan miles de imágenes de referencia “en el terreno” procesadas con el método estándar para una calidad de imagen perfecta con supermuestreo 64x (64xSS). El supermuestreo 64x significa que en lugar de sombrear cada píxel una vez, se sombrean 64 desplazamientos diferentes dentro del píxel, y luego se combinan las salidas, produciendo una imagen resultante con un detalle ideal y una calidad anti-aliasing. También se capturan las imágenes de entrada sin procesar que se representan normalmente. A continuación, se capacita a la red DLSS para que coincida con los marcos de salida 64xSS, revisando cada entrada, solicitando a DLSS que produzca una salida, midiendo la diferencia entre su salida y el objetivo 64xSS.

Esto es fantástico sin duda, es una tecnología totalmente nueva, que mejora muchísimo a TAA a un coste menor.

Ya explicadas ambas tecnologías queda centrarnos en lo realmente importante de este artículo.

Fuente, aqui
https://hardzone.es/2018/09/22/ray-trac ... ficas-amd/
Uno se vuelve mayor y no se acuerda de las cosas si no echa la vista atrás para que vendían con otras series. No tuvo repercusión alguna por que en aquel momento lo importante era el teselado que era lo que acababa de implementar Microsoft, pero también hablaban de Raytracing [carcajad]

Realtime Raytracing
Considered by many as the holy grail of graphics, ray tracing produces images with perfect reflections and refractions, accurate shadows, and photorealistic lighting. It is the rendering technique of choice for graphics professionals, but up until now, it has been limited to non-realtime applications. Thanks to Fermi’s advanced compute architecture, GeForce GTX 400/500 GPUs are able to perform raytracing in realtime, at up to 15 frames per second. For even higher visual realism, the GPU can also perform pathtracing for true global illumination. The results are images so refined that they are indistinguishable from scenes in computer generated films.


https://www.geforce.com/hardware/deskto ... 0/features


El caso es que he bajado la demo y no chuta, solo por curiosidad me habría gustado pero el jodio abre y se cierra automáticamente.

https://www.geforce.com/games-applicati ... /downloads
terriblePICHON escribió:Pero si han puesto una imagen atrás que se veía todo borroso y sabéis que habéis puesto?
Que estaba trucada jajajajajajajajajajaja sino leerlo más atrás corre, que no tenéis ni coherencia...

Cuando os puse los vídeos del rendimiento decías que eran vídeos fake, que el canal no tenía subscriptores y que si le dábamos veracidad a cualquier cosa, y que pasó luego, que salieron los resultados y tenían razón los vídeos fake , y os pasa lo mismo con el dlss que como se dice por aquí que estáis defendiendo de que un reescalado se ve mejor que la nativa, pero vosotros os leéis de verdad ?

Edito: que yo sepa en ningún momento he dicho lo que tengas que hacer con tu dinero, ponme un comentario mío diciéndolo... Búscalo y dime si lo encuentras...Que lo que trato de decir es lo que defendeis sin sentido, con datos encima de la mesa , y el remate lo del dx12 que es para que se lo mire bien, que ya se lo dije más atrás que mirase vídeos donde el dx12 va mejor en Pascal que en la serie nueva, pero te sacará wolfestein, que se agarra a eso.

Y miramos el vídeo último que colgue ,no sé que coño defendeis... Que será fake como siempre....

Estás luchando contra los elementos. Jamás te darán la razón porque les duele reconocerla.

No trates de razonar con ellos porque es imposible, para ellos el precio es hasta barato para lo brutales que son estas tarjetas de Nvidia. Las mejores tarjetas de la historia y las más baratas.

El reescalado de Nvidia es perfecto.Las cámaras profesionales a 4k son absurdas porque se ve mejor un reescalado de Nvidia desde 1080.

La potencia no son 15 fps respecto a una 1080ti, son 40 fps porque hay un juego que llega a esa cifra, ojo... Ojo.

El ray-tracing es lo mejor del mundo y tendré que vender mi monitor 4k y pillar uno 1080p para disfrutarlo como se merece.

Voy a vender mi 1080ti por 500€ y añadiendo otros 400€ tendré una 2080 que será igual de potente con 3 menos de VRAM pero tendra rayitos-tracing a 1080p 30 fps. Y cuando pase un año a 720p 30fps. Mira qué bonito se le ve la sombra del sobaco a Lara Croft...

El ray-tracing será el futuro porque los programadores a parte de desarrollar el juego en consolas, nos harán una versión para nosotros con ray-tracing porque somos un 0,005% de jugadores elitistas los que hemos comprado estas gráficas, para el resto el juego no tendrá sombras ni reflejos o directamente no les funcionará.

Las 1080ti están obsoletas, les queda meses de vida como mucho. Todo el mundo se gastará un mínimo de 600€ en una RTX para jugar, si no tendrán que abandonar el pc-gamer y pasarse a consolas.
paco_man escribió:
terriblePICHON escribió:Pero si han puesto una imagen atrás que se veía todo borroso y sabéis que habéis puesto?
Que estaba trucada jajajajajajajajajajaja sino leerlo más atrás corre, que no tenéis ni coherencia...

Cuando os puse los vídeos del rendimiento decías que eran vídeos fake, que el canal no tenía subscriptores y que si le dábamos veracidad a cualquier cosa, y que pasó luego, que salieron los resultados y tenían razón los vídeos fake , y os pasa lo mismo con el dlss que como se dice por aquí que estáis defendiendo de que un reescalado se ve mejor que la nativa, pero vosotros os leéis de verdad ?

Edito: que yo sepa en ningún momento he dicho lo que tengas que hacer con tu dinero, ponme un comentario mío diciéndolo... Búscalo y dime si lo encuentras...Que lo que trato de decir es lo que defendeis sin sentido, con datos encima de la mesa , y el remate lo del dx12 que es para que se lo mire bien, que ya se lo dije más atrás que mirase vídeos donde el dx12 va mejor en Pascal que en la serie nueva, pero te sacará wolfestein, que se agarra a eso.

Y miramos el vídeo último que colgue ,no sé que coño defendeis... Que será fake como siempre....

Estás luchando contra los elementos. Jamás te darán la razón porque les duele reconocerla.

No trates de razonar con ellos porque es imposible, para ellos el precio es hasta barato para lo brutales que son estas tarjetas de Nvidia. Las mejores tarjetas de la historia y las más baratas.

El reescalado de Nvidia es perfecto.Las cámaras profesionales a 4k son absurdas porque se ve mejor un reescalado de Nvidia desde 1080.

La potencia no son 15 fps respecto a una 1080ti, son 40 fps porque hay un juego que llega a esa cifra, ojo... Ojo.

El ray-tracing es lo mejor del mundo y tendré que vender mi monitor 4k y pillar uno 1080p para disfrutarlo como se merece.

Voy a vender mi 1080ti por 500€ y añadiendo otros 400€ tendré una 2080 que será igual de potente con 3 menos de VRAM pero tendra rayitos-tracing a 1080p 30 fps. Y cuando pase un año a 720p 30fps. Mira qué bonito se le ve la sombra del sobaco a Lara Croft...

El ray-tracing será el futuro porque los programadores a parte de desarrollar el juego en consolas, nos harán una versión para nosotros con ray-tracing porque somos un 0,005% de jugadores elitistas los que hemos comprado estas gráficas, para el resto el juego no tendrá sombras ni reflejos o directamente no les funcionará.

Las 1080ti están obsoletas, les queda meses de vida como mucho. Todo el mundo se gastará un mínimo de 600€ en una RTX para jugar, si no tendrán que abandonar el pc-gamer y pasarse a consolas.

antes de decir tantas cosas absurdas por que no te lees lo que he puesto un par de post mas arriba?
viewtopic.php?p=1746536156
el movimiento se demuestra andando ;)
Después de lo que pones y leerlo, lo único que pone en claro que el dlss mejora al taa, pero donde pone que esta tecnología se vea mejor que la nativa? O una de dos o no está puesto, y solo repito SOLO se centra en decir que el dlss es mejor que el taa , o se le a olvidado ponerlo en el copy paste.....

Y ahora me dices que se te a olvidado ponerlo, te cojes un Word y lo editas....
terriblePICHON escribió:Después de lo que pones y leerlo, lo único que pone en claro que el dlss mejora al taa, pero donde pone que esta tecnología se vea mejor que la nativa? O una de dos o no está puesto, y solo repito SOLO se centra en decir que el dlss es mejor que el taa , o se le a olvidado ponerlo en el copy paste.....

Y ahora me dices que se te a olvidado ponerlo, te cojes un Word y lo editas....

de comprension de lectura poco o nada verdad?
Mientras que TAA renderiza en la resolución final del objetivo y luego combina cuadros, restando detalles, DLSS permite un procesamiento más rápido con un conteo de muestras de entrada más bajo, y luego infiere un resultado que a la resolución del objetivo es similar al resultado del TAA, pero con la mitad del trabajo de sombreado.

[rtfm] [rtfm] [rtfm] [facepalm]
pero nada que las imagenes que puse mas atras del FF15 que se veian mejor con DLSS que conTAA eran por que a mi me favorecian y las otras que se veian mas borrosas segun tu no eran falsas [facepalm] has quedado retratado como todos los llorones que entran aqui a decir falacias
Jajajajajajajaja y encima quedas peor ahora que antes,muchacho que no pone eso que sea mejor que la nativa, o es que la compresión lectora tuya debe de ser de párvulos...

Pone SIMILAR o no lees, y similar no es mejor, jajajajajajaja vaya tela,

Ahora ponte unas cartas de esas que te gustan tanto, y encima me pones que quedó retratado? Jajajajajajaja.....

Si quieres te pongo sinónimos de similar, lo mismo suena la flauta y pone que es equivalente a mejor....
terriblePICHON escribió:Jajajajajajajaja y encima quedas peor ahora que antes,muchacho que no pone eso que sea mejor que la nativa, o es que la compresión lectora tuya debe de ser de párvulos...

Pone SIMILAR o no lees, y similar no es mejor, jajajajajajaja vaya tela,

DLSS permite un procesamiento más rápido con un conteo de muestras de entrada más bajo, y luego infiere un resultado que a la resolución del objetivo es similar al resultado del TAA,

mas explicito quieres que te lo ponga? te lo masco a ver si lo entiendes ahora? [qmparto]
luego continua
Esto es fantástico sin duda, es una tecnología totalmente nueva, que mejora muchísimo a TAA a un coste menor.
esto no lo pongo yo lo dicen aqui
https://hardzone.es/2018/09/22/ray-tracing-dlss-nvidia-rtx-2080-ti-a-graficas-amd/
pero nada seguro que tu sabes mas que el redactor de ese articulo, y de ser asi que coño haces perdiendo el tiempo aqui y no te dedicas a redactar noticias de tecnologia? [jaja]
Si si , se lee claramente que pone mejor jajajajajajaja anda buscar otro parrafete....y me lo pones en negrita encima....

Leerlo como cuando empiezan los nenes a leer, sílaba por sílaba para que lo entendáis...

Edito: pero sois cortitos ya o como va esto, que pone lo último que has puesto, que mejora al taa, donde coño pone a la resolución nativa, pero en serio me venís con eso?

Esto ya es increíble....
terriblePICHON escribió:Si si , se lee claramente que pone mejor jajajajajajaja anda buscar otro parrafete....y me lo pones en negrita encima....

Leerlo como cuando empiezan los nenes a leer, sílaba por sílaba para que lo entendáis...

lo dicho has quedado retratado [plas]
venga otra vez que se ve que no te enteras [facepalm]
Esto es fantástico sin duda, es una tecnología totalmente nueva, que mejora muchísimo a TAA a un coste menor.

lo dicen aqui, pero se ve que estas ciego
https://hardzone.es/2018/09/22/ray-trac ... ficas-amd/
@kikomanco

Jajajajajajaja me parece que no , sigo sin ver dónde pone mejor que la resolución nativa, solo pone mejor que el AA TAA , o tu tampoco lo lees....
terriblePICHON escribió:@kikomanco

Jajajajajajaja me parece que no , sigo sin ver dónde pone mejor que la resolución nativa, solo pone mejor que el AA TAA , o tu tampoco lo lees....

ya te lo he puesto mas arriba, pareces tolai o que?
@kikomanco

Donde? Ponerlo en negrita porque en el artículo sigue sin ponerlo... Y eso de tolai no se yo....
terriblePICHON escribió:@kikomanco

Donde? Ponme lo en negrita porque en el artículo sigue sin ponerlo... Y eso de tolai no se yo....

Mientras que TAA renderiza en la resolución final del objetivo y luego combina cuadros, restando detalles, DLSS permite un procesamiento más rápido con un conteo de muestras de entrada más bajo, y luego infiere un resultado que a la resolución del objetivo es similar al resultado del TAA, pero con la mitad del trabajo de sombreado.

si ya no lo quieres ver no es problema mio
Pero tío deja ya de decir gilipolleces , y ponerme lo mismo todo el rato, ya te explicado que pone que mejora el AA no la resolución nativa, punto.


Sino que te lo explique otro.

Edito: no mejora pone que es similar...
Mendrolo escribió:Joder, me salí del hilo en el momento oportuno

Pero no me puedo resisitir a flamear un poco ;p

Los 4 tios de siempre, repitiendo una y otra vez lo mismo mientras acusan a los otros 4 tios de siempre, de repetir lo mismo una y otra vez mientras acusan a los otros 4 tios de siempre, repitiendo una y otra vez lo mismo mientras acusan a los otros 4 tios de siempre, de repetir lo mismo una y otra vez mientras acusan a los otros 4 tios de siempre, repitiendo una y otra vez lo mismo mientras acusan a los otros 4 tios de siempre, de repetir lo mismo una y otra vez mientras acusan a los otros 4 tios de siempre, repitiendo una y otra vez lo mismo mientras acusan a los otros 4 tios de siempre, de repetir lo mismo una y otra vez mientras acusan a los otros 4 tios de siempre, repitiendo una y otra vez lo mismo mientras acusan a los otros 4 tios de siempre, de repetir lo mismo una y otra vez mientras acusan a los otros 4 tios de siempre, etc...

Nota a parte para alguno que puso a parir las 1xxx porque tenía una 980ti (comrpandose finalmente una 1080ti), para acabar criticando a los que tienen una 1080ti y echan pestes de las 2xxx

Lo que ha comentado @KailKatarn, clavada con la generación 1xxx, todos pasando por el aro (alguno escudándose en que si la pillo en oferta o la compró de segunda mano, como si eso no fuera participar también del circo) y ahora me pongo a criticar la nueva generación.



Este puto hilo es surrealista, y lo dice uno que ha participado y criticado los precios de estas 2xxx, "peleándose" por el camino.

Larga vida a Ubú!

Claro que sí... La 1080 ti fue lanzada en plena minería, y aún así la 2080ti son 500€ más... Que se dice pronto. Ahora por ese precio te dan una 2080 y seguís aplaudiendo con las orejas.
También tiene todo esto un poco de trampa ya que TAA no es el mejor filtro que se diga, con movimientos rápidos se ve borroso.
11796 respuestas