Nvidia actualiza sus drivers con importantes mejoras de rendimiento e integer scaling

Podría pensarse que las novedades de Nvidia para la Gamescom se han centrado en el anuncio del soporte de trazado de rayos en un buen puñado de juegos visualmente punteros. Y no sería una mala impresión, salvo porque el fabricante de tarjetas gráficas también ha aprovechado la feria alemana para lanzar los controladores Gamescom Game Ready (436.02 WHQL), que vienen con mejoras bastante interesantes.

Si bien una simple actualización de drivers no es un hecho noticioso en sí mismo, el último paquete de Nvidia destaca por aumentar el rendimiento de la familia RTX Super de forma notable. Concretamente, Nvidia afirma que la mejora en la tasa de FPS en Apex Legends a 1080p alcanza el 23 % dependiendo de la tarjeta empleada, mientras que Forza 4 se beneficia de un aumento de más del 15 % a 1440p usando una RTX 2060 Super.

Imagen

Los interesados en los benchmarks oficiales pueden encontrar un buen número de tablas con distintas resoluciones y tarjetas en este enlace.

Las mejoras en materia de velocidad no son en cualquier caso la única novedad destacable. El paquete Gamescom Game Ready llega también con el modo de latencia ultrarreducida para DX9 y DX11, que según la descripción oficial permite iniciar el renderizado de cada fotograma en menos tiempo para lograr reducciones de hasta el 33 %. Esta opción no es necesaria bajo DX12 ni Vulkan, puesto que según indica Nvidia cada juego gestiona los fotogramas de forma independiente.

Imagen

Por otro lado, los jugadores que no estén interesados en las 3D ni las tasas de FPS recibirán con los brazos abiertos la llegada del Integer Scaling, una función largamente reclamada. Este método de escalado resulta ideal para los títulos 2D con pixel art dada su capacidad para conservar todo el detalle de los sprites aunque se aumente la resolución.

Este nuevo parámetro se introducirá como un componente programable en todas las tarjetas GTX 16xx y RTX. Para acceder al mismo basta con abrir el menú de control de pantalla y seleccionarlo manualmente. Por ahora es exclusivo de Turing, sin que haya noticias acerca de su soporte en otras tarjetas.

Finalmente, otras novedades menores incluyen la certificación G-Sync Compatible para los monitores Asus VG27A, Acer CP3271 y Acer XB273K GP, el soporte para color de 30 bits, nuevos parámetros "óptimos" preseleccionados y un filtro de nitidez adicional Freestyle.

Fuente: Nvidia
Es decir, que como AMD aprieta se ponen las pilas y mejoran el rendimiento..... buena noticia, se va a poner la cosa interesante.
huesi escribió:Es decir, que como AMD aprieta se ponen las pilas y mejoran el rendimiento..... buena noticia, se va a poner la cosa interesante.

En el caso del escalado me da en la nariz que ha sido Intel la que les ha metido presión al anunciar que lo ofrecerían desde el primer momento.

No han estado más rápidos en su vida.
Alejo I escribió:
huesi escribió:Es decir, que como AMD aprieta se ponen las pilas y mejoran el rendimiento..... buena noticia, se va a poner la cosa interesante.

En el caso del escalado me da en la nariz que ha sido Intel la que les ha metido presión al anunciar que lo ofrecerían desde el primer momento.

No han estado más rápidos en su vida.


Pues Han sido los mas rapidos en T&L y Raytracing ;)
Los juegos que han optimizado son los que más han cantado a favor de AMD en las reviews de las Navi, sobre todo el FH4 que era escandaloso. Con esto equilibran la balanza hacia las rtx. Bien jugado pero algo tarde, ahora a ver si sacan la chequera y se rehacen algunas reviews, me huelo que puede suceder.
AlbertX escribió:
Alejo I escribió:
huesi escribió:Es decir, que como AMD aprieta se ponen las pilas y mejoran el rendimiento..... buena noticia, se va a poner la cosa interesante.

En el caso del escalado me da en la nariz que ha sido Intel la que les ha metido presión al anunciar que lo ofrecerían desde el primer momento.

No han estado más rápidos en su vida.


Pues Han sido los mas rapidos en T&L y Raytracing ;)

A responder a las súplicas, quiero decir.

El integer scaling es una petición más vieja que el hilo negro y solo ahora mueven el trasero, diciendo además "os hemos escuchado".

Que oye, por mí perfecto. No tengo lealtades.
lo que no me hace gracia es que te instala el programa Geforce Experience aunque tu selecciones la opción de no instalarlo, de hecho si vas a instalación avanzada y no te deja deseleccionarlo.
@Alejo I Ah en eso si tienes razon.

Pero una cosa curiosa fue que encontre un Bug de reproduccion de archivox x265 en las turing y me puse en contacto con un tio que trabaja en el desarrollo de los driver y le pase unos archivos de video, reprodujo el error y en 2 meses habia un parche corrigiendo el asunto.

Pero si, llevamos siglos pidiendo un cambio del menu y alli sigue de la epoca de windows 95
Y las rtx normales, la 2060 a secas?
cheito escribió:Y las rtx normales, la 2060 a secas?


Tambien y las 16xx tambien y algunas cosas incluso a tarjetas que no son turing.
Vamos, que las mejoras son solo para las RTX.
BlitzMary escribió:lo que no me hace gracia es que te instala el programa Geforce Experience aunque tu selecciones la opción de no instalarlo, de hecho si vas a instalación avanzada y no te deja deseleccionarlo.



Cierto, iba a instalarlo y he cancelado la instalación hasta que no lo arreglen.
¿Y mejoras en las GTX 1xxx?
lo del modo de latencia ultrareducida, tambien son también para la series gtx 1000?
Rubéns escribió:lo del modo de latencia ultrareducida, tambien son también para la series gtx 1000?


Me da que no. Llevo ya una hora o así con ellos, y lo noto todo exactamente igual.
influye eso en mi 1050 ti ?¿ o salgo del hilo sin hacer ruido .... XD [+risas]
BlitzMary escribió:lo que no me hace gracia es que te instala el programa Geforce Experience aunque tu selecciones la opción de no instalarlo, de hecho si vas a instalación avanzada y no te deja deseleccionarlo.


NVSlimmer_v0.7 y NVCleanstall 0.3

Si lo quieres hecho, dentro de unos días miras, repack_NVIDIAGeforceGraphicsDriver by alanfox2000 ;)
no me deja descargar los drivers desde la pagina oficial de Nvidia
edito: desde el Gforce Experience si deja descargar
Parece ser que han quitado la descarga desde la página oficial porque se les ha olvidado poner lo de la GDPR y seguramente para que GeForce Experience sea algo opcional a instalar en vez de forzado.
para las gtx 1xxx nada?
Los que tengáis una RTX enhorabuena, que son números muy buenos de mejora. Tan buenos que las gracias habría que dárselas a AMD.

¿Por qué? Una mejora de un 2, 4 y hasta 7% me las puedo creer. Lo que vienen a decir estos drivers es que las RTX habían salido al mercado capadas.

Y eso... es una vergüenza
@Mhagasal de momento me he vuelto a la 431.68 que ya manda huevers
donde esta la opcion del integer scalling que no lo veo por ningun lado?

edito: ya lo he visto, esta en la opcion de ajustar el tamaño y la posicion del escritorio
Pero las cpu actuales no pueden hacer integer scaling ... no se pero en emuladores siempre se pudo. Yo es que flipo se venda esto como una novedad xD. Y mediante cuda deberia poderse... En fin xD
Eien escribió:Los que tengáis una RTX enhorabuena, que son números muy buenos de mejora. Tan buenos que las gracias habría que dárselas a AMD.

¿Por qué? Una mejora de un 2, 4 y hasta 7% me las puedo creer. Lo que vienen a decir estos drivers es que las RTX habían salido al mercado capadas.

Y eso... es una vergüenza

eso yo ya lo dije el año pasado en el hilo de las Turing y todo el mundo se reia de mi, ahora el tiempo me da la razon [fumando]
404 - Not Found. que raro...
EmilioGT escribió:404 - Not Found. que raro...

descargalo a traves del Gforce experience
@kikomanco no lo tengo,solo instalo los drivers. [borracho]
tampoco me corre prisa.
Eso venía a decir, no va la descarga. Habrá que esperar.
Nvidia a retirado el driver por que habia un bug que te instalaba el Gforce experience si o si ,no tardaran en ponerlo de nuevo ya corregido , por otra parte estos drivers mejoran el rendimento en todas las GPU's desde la serie 600 otra cosa es que el porcentaje de mejora varie de un modelo a otro.. pero nvidia solo a mostrado lo que mejora en las super y la 2080 Ti , por otra parte la ultra baja latencia tambien se puede activar en gpu's que no sean de la familia RTX , lo unico exclusivo de las Turing en este driver es el integer scalin , para juegos retro emuladores y juegos basados en pixels..

salu2
Ummmmm, el link esta caido? Vaya tela ...
Pues espero que lo metan en las series 10xx que jode bastante con juegos retro no tener de forma nativa interger scaling cuando no puedes tirar de wrappers.
sanamarcar escribió:Pero las cpu actuales no pueden hacer integer scaling ... no se pero en emuladores siempre se pudo. Yo es que flipo se venda esto como una novedad xD. Y mediante cuda deberia poderse... En fin xD


No pueden porque, según Nvidia, el escalado de Turing está implementado a nivel de hardware, y todos sabemos que se necesita la potencia de cómputo de un superordenador, IA y uranio-235 para calcular que debemos multiplicar un pixel por cuatro (2x), nueve (3x) o dieciséis (4x) pixeles si queremos un escalado 1:1 o pixel perfect. De risa.

También puede ser es que no se trate de Integer Scaling como tal y hablemos de una técnica tipo nearest neighbor, donde sí hay que "inventar" pixeles. Pero vamos, eso, como dices, lo hacen emuladores como ScummVM (utilizando OpenGL) desde hace años. De hecho un simple filtrado bilineal ya es más complejo que todo esto; otra cosa es que no siempre sea el más adecuado...

Utilizo Nvidia desde hace años. Serán muy buenos en según qué cosas, pero vamos, a veces tienen la cara más dura que el cemento. No sólo por implementarlo a estas alturas sino también por limitarlo a Turing, cuando hablamos de algo que ni es complejo, ni es novedoso, simplemente ocurre que hasta ahora nadie lo había implementado en sus controladores.
No pillo, lo del input lag ya se podía hacer desactivando el triple buffering y poniendo maximo numero de fotogramas prerenderizados en 1... Aun así, yo creo que la mayoría de la gente no nota el input lag.

El integer scaling otra movida extraña, ya me diras tu cuantos juegos no tienen resolución nativa 1080p, para emuladores ya existía eso, y el 23% de mejora de rendimiento he mirado y solo es con la 2080ti en 1 juego, en el resto es como 5% de mejora nada mas...

Eso si, lo de sacar algunas de estas super prestaciones solo para las apestosas RTX, si así pretenden vender tarjetas, conmigo no cuela.
Titán_Salvaje_ escribió:[...] estos drivers mejoran el rendimento en todas las GPU's desde la serie 600 [...]

En otra parte me estoy peleando con otro usuario porque yo siempre pierdo rendimiento tras actualizar el driver, de hecho ahora me exige pruebas de vídeos y capturas para demostrarle pero creo que no servirá. Ojala sea verdad y mejore el rendimiento de la gráfica porque manda huevos que cada vez que actualizo el driver voy a menos.

Voy con una 1060 y es como si fuera una 1050 actualmente, cuando la compre sacaba todo el jugo pero es que ahora parece que la he cambiado por una inferior. Por supuesto no afecta a todos los juegos esta perdida de rendimiento pero no son juegos actuales sino de hace unos años.


maxpower91 escribió:
sanamarcar escribió:Pero las cpu actuales no pueden hacer integer scaling ... no se pero en emuladores siempre se pudo. Yo es que flipo se venda esto como una novedad xD. Y mediante cuda deberia poderse... En fin xD


No pueden porque, según Nvidia, el escalado de Turing está implementado a nivel de hardware, y todos sabemos que se necesita la potencia de cómputo de un superordenador, IA y uranio-235 para calcular que debemos multiplicar un pixel por cuatro (2x), nueve (3x) o dieciséis (4x) pixeles si queremos un escalado 1:1 o pixel perfect. De risa.


Y digo yo... ¿no seria más fácil desactivar cualquier filtrado de escalado y que se muestren los sprites tal cual el original? es que no entiendo esta gilipollada del escalado. Estoy "intentando" hacer el Sonic en JavaScript (el de la master system que es ultra básico en funciones) y el navegador hace ese filtrado pero con solo decirle por CSS que no haga el filtrado ademas de ahorrar uso de RAM y CPU puedo escalar tanto como quiera la imagen y se ve pixel perfecto. ¿No seria eso más fácil y simple? No estoy al loro así que normal que lo comente.
Dos detalles....

A) Comparar Interpolación lineal con entera es un poco de perogrullo que la entera para ver la definición de pixeles es más clara si o sí. En este caso de imagen, para colmo los bordes están muy bien definidos, así que meterle una interpolación lineal conlleva hacer que se vuelva borrosa. https://matplotlib.org/3.1.0/_images/sphx_glr_interpolation_methods_001.png

B) Otra cosa que me intriga es que aparezcan colores con mayor luminosidad donde no los había en la interpolación lineal (líneas mas claras en los colores). Tiene toda la pinta de haberlo pasado por algún compresor jpg o similar lo que se entendería como una interpolación senoidal y se vería así. O igual es que al meter la interpolación lineal en un jpg, la comprime peor que la entera.

Tengo que hacer un hueco y echarle un vistazo, pero lo ideal para saber cúanto se ahorra, sería comparar una interpolación lineal hecha con el driver a una echa como siempre... Pero igual ese dato no es tan llamativo o bueno como comparar dos imágenes que te dan la razón (aún antes de saberlo).

Edito.-

@mmiiqquueell es fácil de entender... imagina un juego en el emulador de gameboy. La pantalla original de la gameboy es de 160x144 pixeles... Ahora arranca eso en tu flamante PC con una pantalla digamos de 24 pulgadas Full HD (por ejemplo) y un pixel de tamaño 0.24975mm .... tu emulador de gameboy ocuparía la friolera de 39,96 x 35,7 mm.... y tu dices... una mierda no me compro un monitor de medio metro para ver esta cosa que no llega a 4 cm...

Y estiras la pantalla hasta que ocupa lo que quieres... incluso Full HD.... Pues ahí entra en escalado entero, lo único que hay que hacer es replicar el mismo pixel tantas veces en X e Y como lo quieras escalar... Siempre se ha hecho con un bucle que pilla CPU, como lo tienes que hacer por fotograma, a más fotogramas, más necesidad de CPU.

Esta gente ahora da la posibilidad de emplear la GPU "de forma óptima" (pues usas su driver) para aligerar la CPU de esta tontería que chupa y chupa CPU.

Edito2.-
@sanamarcar las CPU actuales son muy validas y perfectas para hacer escalado entero. Con Cuda se puede hacer escalado, te lo confirmo, pero no es óptimo. Aún se hace con la CPU mucho mejor.

@maxpower91, es un problema de arquitectura. Las GPU son paralelas, pero para aprovechar el paralelismo, los datos han de estar correctamente ordenados. Y muchas veces la ordenación de los datos es más costosa que lo que ahorras en el paralelismo.

Una aclaración, los pixeles escalados no se los inventa/calcula en el escalado entero como hace por ejemplo en una interpolación lineal, simplemente se clonan, ejemplo obvio:

Escalado x1 = 1234
Escalado x2 = 11223344
Escalado x4 = 1111222233334444

Luego si conoces a la perfección la arquitectura y modificas algún parámetro ligeramente, puedes hacer esta cosa en paralelo que en términos de CPU serían "un porrón" (término muy técnico) de accesos a memoria y por tanto perdida de tiempo.

PD.- Conozco a un profe que si me pilla comparando una interpolación lineal con un escalado, me suspendería su asignatura de tratamiento digital de señal por mezclar peras con manzanas.
Y yo aun con mi viejuna 980ti g1... Que funciona aun de perlas sin ser muy exigente xd
Son muy listos estos mamones, osea que habilitan el trazado de rayos para las series 10xx (por software claro está), para joder el rendimiento de esta al incauto que se le ocurra activarlo y no son capaces de meter el interger scaling, una opción que llevamos muchos usuarios pidiendo a gritos en el mismo foro de nvidia y que pasaban de nosotros como de la mierda.

Una pregunta, los controladores de AMD tienen soporte interger scaling?, lo digo porque a lo mejor para quienes emulamos y jugamos a juegos de 1998-2004 nos viene de perlas dicha opción.

Un ejemplo es el Commandos 1, que da mucho por saco con las resoluciones, el poder utilizar el interger scaling eliminaría muchos problemas como parpadeos indeseados y fogonazos de cambio de resolución entre videos y el juego en si.
Alguién lo ha probado en una 970gtx?
mmiiqquueell escribió:
maxpower91 escribió:
sanamarcar escribió:Pero las cpu actuales no pueden hacer integer scaling ... no se pero en emuladores siempre se pudo. Yo es que flipo se venda esto como una novedad xD. Y mediante cuda deberia poderse... En fin xD


No pueden porque, según Nvidia, el escalado de Turing está implementado a nivel de hardware, y todos sabemos que se necesita la potencia de cómputo de un superordenador, IA y uranio-235 para calcular que debemos multiplicar un pixel por cuatro (2x), nueve (3x) o dieciséis (4x) pixeles si queremos un escalado 1:1 o pixel perfect. De risa.


Y digo yo... ¿no seria más fácil desactivar cualquier filtrado de escalado y que se muestren los sprites tal cual el original? es que no entiendo esta gilipollada del escalado. Estoy "intentando" hacer el Sonic en JavaScript (el de la master system que es ultra básico en funciones) y el navegador hace ese filtrado pero con solo decirle por CSS que no haga el filtrado ademas de ahorrar uso de RAM y CPU puedo escalar tanto como quiera la imagen y se ve pixel perfecto. ¿No seria eso más fácil y simple? No estoy al loro así que normal que lo comente.


Claro, es que el Integer Scaling no es un filtrado, sino un escalado. Simplemente multiplica/clona un pixel en cuatro, por ejemplo, y los coloca en pantalla formando un cuadrado, de manera que, aunque sean cuatro pixeles, parezcan uno muy grande. Así amplias las imágenes sin deformarlas de ninguna manera. Aquí te dejo una imagen que, además de explicarlo, supongo que ilustra bastante lo que estás haciendo tú cuando utilizas el escalado de CSS:

Imagen

El filtrado solo tiene sentido cuando no puedes hacer escalados de forma exacta. Por ejemplo, tenemos un monitor de 8x4 pixeles de resolución y una imagen de 4x2 pixeles de color rojo. Si mostramos la imagen a tamaño real, centrada en pantalla, la veremos perfecta, con un marco negro de 1 pixel por arriba y abajo y de 2 pixeles en cada lateral, pero respetando su proporción rectangular 2:1. Si amplias la imagen al doble de su tamaño (8x2) verás que el ejemplo de la imagen anterior se cumple a la perfección, ya que clonamos cada pixel en vertical y horizontal, y cuando lo mostramos a tamaño real sigue respetando la proporción 2:1 y el color rojo, sólo que ahora ya no tenemos bordes negros porque el nuevo tamaño de la imagen se corresponde con la resolución del monitor. Sin embargo, si aumentamos la imagen a 5x3 pixeles y luego la mostramos a tamaño real, centrada, tenemos un problema, ya que para ampliar a ese tamaño tenemos que multiplicar cada pixel por uno y medio. El software lo hará, porque aquí hablamos de matemática pura, el problema es que el software no ha tenido en cuenta que nuestro monitor de 8x4 no puede iluminar un pixel sólo a la mitad de su superficie (no puede mostrarse rojo y negro a la vez), de modo que da igual si lo dejamos en rojo o en negro, la proporción 2:1 de la imagen se va a deformar cuando la mostremos centrada en pantalla, porque tendrá que "añadir" o "quitar" pixeles de la imagen (lo pongo entre comillas porque ni quita, ni pone, pero es lo que ves cuando miras al monitor). Ahí es donde entran los filtrados por interpolación para decidir qué hacer en estos casos, lo cual variará en función del tipo de filtrado que utilicemos. Los filtrados parten de la base de que la imagen está deformada, pero quizá podamos "disimularlo un poco". ¿Cómo?, pues llevando la decisión de si dejar el pixel en rojo o negro un paso más allá: lo que hacen estos filtrados es coger una muestra del color (por eso se llaman filtrados) de los pixeles contiguos a aquel que queremos iluminar (en este caso rojo y negro) y decide utilizar un color que ni es negro, ni es rojo, es un color intermedio (por eso hablamos de interpolación). Esto puede sonar ridículo cuando hablamos de estas resoluciones, pero cuando tenemos millones de pixeles de muy pequeño tamaño y muchos más colores pues bueno, si que ayuda a disimular, pero muchas veces nos dará la sensación de que la imagen ampliada se ve borrosa.

El problema de los videojuegos clásicos o algunos "pixel art" modernos es que nuestros monitores tendrán millones de pixeles, pero el juego no, por lo tanto respetar que cada pixel original siga siendo cuadrado después de un escalado es más difícil de lo que parece (no siempre es posible que cada pixel original esté formado por cuatro o nueve cuando escalamos, hablamos de muchos pixeles y a veces nos faltarán o sobrarán, dependiendo de la resolución del monitor, y al final volvemos a los odiados decimales con los que estos no pueden trabajar). El caso es que no todos los filtrados trabajan igual y a veces se pueden hacer cosas como esta:

Imagen

Esto es lo que me refería antes cuando hablaba de técnicas nearest neighbor que no son escalados completos (Integer Scaling) pero cuyo resultado no es borroso como el de otros filtrados. El mayor problema del Integer Scaling es que solo puedes multiplicar por números enteros, lo que casi siempre se traduce en bordes negros por la diferencia de proporción (o ratio) si quieres pixel perfect. Esto que se ve en la imagen es un filtro que trabaja de manera similar a otros, sólo que aquí no metemos colores que no había en la imagen original, sino que el color "nuevo" siempre será igual al de uno de los pixeles adyacentes. El problema es que, como vemos, el pixel no es cuadrado, pero si no queremos bordes negros o en según qué casos puede dar resultados bastante decentes (entre más se parezca la proporción original del juego a la del monitor, aunque no sea exacta, mejor).



pirtugan escribió:@maxpower91, es un problema de arquitectura. Las GPU son paralelas, pero para aprovechar el paralelismo, los datos han de estar correctamente ordenados. Y muchas veces la ordenación de los datos es más costosa que lo que ahorras en el paralelismo.

Una aclaración, los pixeles escalados no se los inventa/calcula en el escalado entero como hace por ejemplo en una interpolación lineal, simplemente se clonan, ejemplo obvio:

Escalado x1 = 1234
Escalado x2 = 11223344
Escalado x4 = 1111222233334444

Luego si conoces a la perfección la arquitectura y modificas algún parámetro ligeramente, puedes hacer esta cosa en paralelo que en términos de CPU serían "un porrón" (término muy técnico) de accesos a memoria y por tanto perdida de tiempo.

PD.- Conozco a un profe que si me pilla comparando una interpolación lineal con un escalado, me suspendería su asignatura de tratamiento digital de señal por mezclar peras con manzanas.


Gracias por la aclaración. Es que a nivel de hardware reconozco que no tengo ni idea (todo lo que sé de escalados es por ser fotógrafo aficionado, no por informática), pero bueno, sigo pensando que un escalado entero siempre será más sencillo que un filtrado, pues no hay que interpolar, y los filtrados es algo que vemos en multitud de ocasiones (sobretodo en emuladores). De hecho la ampliación de Windows para accesibilidad, si mal no recuerdo, era o es un escalado perfecto, por ejemplo. Entiendo que no sea sencillo de implementar por hardware para arquitecturas anteriores a Turing, pero al menos podían buscar la manera de hacerlo por software, como se ha hecho hasta ahora, aunque sea a costa de penalizar rendimiento y que la implementación por hardware se la guarden como exclusiva para Turing (algo similar a lo que han hecho con el ray-tracing).

Sí, se qué en un escalado con número enteros no se inventan pixeles, pero me refería a que quizá Nvidia estaba hablando de otra técnica similar a la que muestro al compañero. Sé que no tendría sentido, porque si hablamos de Integer Scaling no habría que interpolar, pero bueno, es que no me explico por qué Nvidia ha vendido esto a bombo y platillo cuando es algo bastante sencillo, al menos en su funcionamiento. Pero bueno, por lo que he visto hablamos de Integer Scaling puro y duro.
Ayer mismo actualicé mi 1050 ti, pero poco mejorable tendrá ya, está mas que exprimida, hay ganas de pillar la 2060 [+risas]
Lo del escalado integro falta detallar más.
¿Será poner un juego a 1080p y verse en monitor 4k sin emborronar? Que sería lo suyo dar la opción.

Porque lo de
Estirar (emborronando)
Aspect ratio (estira hasta no haber franjas horizontales, emborrona en parte)
Integro 1:1 (franjas según tamaño)

Eso lo tiene Ati catalyst en la gama 4XXX
vieja...
El apaño de resolución baja es tirar de la lupa xd
@pirtugan Eso es una parte que ya pille con la noticia...., @maxpower91 ahora con su explicación si entiendo lo que no entendia. Claro, con emuladores el escalado siempre lo hago proporcional a la resolución porque los pixeles son perfectos, si es 320x240 pues escalo proporcional siempre 640x480, 960x720, etc... de forma que no se deforman. Caso del emulador de PS2 lo juego en pantalla completa 1080P y uso nativo x4 (normalmente) lo cual no tasa y se ve un poco borroso los bordes por esa deformación pero al ser una resolución tan alta apenas se ve. Por el contrario pasa lo mismo con resoluciones superiores a la de la pantalla, a veces he metido una peli 4K en una 1080P, aunque la pantalla tiene para filtrar y escalar del 4K con supersampling (así no toca el HW del PC y evitar perdida de rendimiento). Si que por ejemplo si hay una linea de 1 px en vertical u horizontal y se posiciona entre dos filas de pixels, se ve una linea borrosa y no totalmente solida en color, es una mezcla de dos colores en dos pixels. A veces se hace molesto este efecto.

Esto me pasa más cuando escalo una imagen que aun siendo 1:1 se deforma por no ser un x2 exacto sino 1.6 o 1.35, etc... lo cual me toca editar la imagen a mano con Gimp para que se vea bien, si es icono reconstruyo lo que puedo y si es foto pues recorto

Suponiendo que lo he entendido bien entonces ahora si entiendo el problema y la solución.

Gracias :D.
estos de nvidia siempre sacando algo exclusivo para vender gpu, y pues como consumista que uno es le es dificil no caer en estas tentaciones, que sacaran para las 3000 que me haga comerme las uñas para dejar mi 2080ti de lado.

Recuerdo cuando sacaron el MFAA y el DSR para las 900 (que a la final el dsr ahora vale para todas), el fast sync para las 1000 que este asi mismo hiba ser exclusivo de estas porque asi mismo segun usuarios no se podia en otras que no sean las 1000 hasta que se descubrio el flag en el nvidia inspector y asi ellos tuvieron que seder y sacar para otras, y no que otras cosas para vr que eran exclusivas de la 1000.

Ni me imagino que sacarán despues para las 3000 para vender gpu.
Estoy yo de mala hostia con mi 1070 que me costo poco mas de 300 euros.... como para comprar una 2080ti por mas de 1000euros y ver como se olvidan de ella el año que viene con la salida de las 3000 :O :O
Menudos hijosdeputa!!!!!!!!!!!!!
46 respuestas