¿sabéis si ya hay en camino emuladores que aprovechen el DLSS?

Estaba viendo este vídeo y...:



se me pasó por la cabeza que sería genial aplicarlo al tema de la emulación (sobretodo de 32 bits para acá).
Pues sí alguno lo utilizará en un futuro seria seguramente el frontend retroarch.
Están siempre añadiendo funciones nuevas.
Pero quién sabe.
Imposible en la actualidad.
Para usar DLSS en un juego primero hay que entrenar una IA en los supercomputadores de Nvidia, y tras eso los resultados mascados ya se pueden utilizar en tiempo real.
En un futuro, todavía muy lejano, podría ser viable.
@Ragnastrife Pos no [beer] , eso era con dlss 1.0, con el 2.0 no hace falta, aunque sigue siendo tecnologia privativa de nvidia, habra que esperar a algo mas abierto, quiza el fidelity de amd pa final de año???
Elolvidado escribió:@Ragnastrife Pos no [beer] , eso era con dlss 1.0, con el 2.0 no hace falta, aunque sigue siendo tecnologia privativa de nvidia, habra que esperar a algo mas abierto, quiza el fidelity de amd pa final de año???

DLSS 2.0: detalles técnicos

Nuestro marco de gráficos neuronales, NGX, entrena una red neuronal profunda frente a decenas de miles de bonitas imágenes de alta resolución, renderizadas sin conexión en un superordenador a velocidades de fotogramas muy bajas y 64 muestras por píxel. Basándose en el conocimiento de innumerables horas de entrenamiento, la red puede tomar imágenes de menor resolución como entrada y construir hermosas imágenes de alta resolución.

DLSS 2.0 tiene dos entradas principales que alimentan la red de IA:

Imágenes con alias de baja resolución renderizadas por el motor del juego.
Baja resolución, vectores de movimiento de las mismas imágenes, también generados por el motor del juego.

Los vectores de movimiento nos dicen qué objetos de dirección de la escena se mueven de un fotograma a otro, y podemos aplicar estos vectores a la última salida de fotogramas de alta resolución de la red para calcular cómo se verá el siguiente fotograma.
The NVIDIA DLSS 2.0 Architecture

Imagen


Arriba: arquitectura DLSS 2.0

Un tipo especial de red de IA, llamado autocodificador convolucional, toma el fotograma actual de baja resolución y el último fotograma de alta resolución para determinar, píxel a píxel, cómo generar un fotograma actual de mayor calidad.

Durante el entrenamiento de la red de IA, la imagen de salida se compara con una imagen de referencia renderizada nativa de 16K de calidad ultra alta, y la diferencia se comunica de nuevo en la red para que pueda seguir aprendiendo y mejorando sus resultados.

No te hagas ilusiones con la solución de AMD (puede hacer el apaño, pero sigue siendo muy inferior), al menos por ahora.
Chi,pero con el 2.0 ya no necesitas enviar tu juego a nvidia para que haga los entrenos de la IA,eso era con el 1.0. Unreal engine ya lo lleva implementado para todo el mundo.

Ya supongo que el de amd,sobretodo en primera instancia, sera peor que el actual dlss de nvidia,pero se supone que sera mas abierto y funcionara con cualquier grafica,es posible que para entonces veamos las primeras implementaciones en emuladores, aunque con no muy buenos resultados XD, pero bueno, es el futuro, mas pronto que tarde se utilizara en todos los lados.
No veo yo claro que vayan a implementarlo a corto/medio plazo, sobre todo si tenemos en cuenta que aun la gran mayoría de emuladores ni siquiera usan la gpu y tiran solo de cpu...
No se implementará nunca el DLSS a menos que se hagan cambios profundos en los emuladores.
La IA del DLSS 2.0 necesita el frame generado en ese momento (a 240p, por ejemplo), el frame reescalado anterior (por eso la calidad de imagen se resiente en los cambios de plano) y el vector de movimiento del frame actual.
Este vector de movimiento lo generan los Tensor Core al generar la escena en 3D y son una parte fundamental para el escalado por IA.
Para aprovechar eso, los emuladores deberían trabajar más en 3D que en 2D y con los Tensor Core.
Y habría que ver el resultado final, porque los gráficos 2D antiguos estan hechos a manos con una interpretación subjetiva del artista, no se fundamentan en la realidad como los gráficos 3D actuales. Es decir, el concepto artístico de origen del retro 2D es distinto del concepto base en el que trabaja la IA y por tanto los resultados pueden ser una chufa.
EMaDeLoC escribió:No se implementará nunca el DLSS a menos que se hagan cambios profundos en los emuladores.
La IA del DLSS 2.0 necesita el frame generado en ese momento (a 240p, por ejemplo), el frame reescalado anterior (por eso la calidad de imagen se resiente en los cambios de plano) y el vector de movimiento del frame actual.
Este vector de movimiento lo generan los Tensor Core al generar la escena en 3D y son una parte fundamental para el escalado por IA.
Para aprovechar eso, los emuladores deberían trabajar más en 3D que en 2D y con los Tensor Core.
Y habría que ver el resultado final, porque los gráficos 2D antiguos estan hechos a manos con una interpretación subjetiva del artista, no se fundamentan en la realidad como los gráficos 3D actuales. Es decir, el concepto artístico de origen del retro 2D es distinto del concepto base en el que trabaja la IA y por tanto los resultados pueden ser una chufa.


Ya digo en el primer post que me refiero a juegos de 32 bits en adelante... que son mayoría 3D
@cegador El DLSS reescala, no mejora la calidad de modelos 3D o texturas que, al igual que el 2D, se hicieron al principio con otra visión artística que la que espera encontrar la IA. Yo no esperaría mejores resultados en un Sega Rally, Ocarina of Time o Silent Hill con el DLSS que simplemente aumentando la resolución del emulador.
Es más, por la paleta de colores y el modelado general que hay en 32bits, me espero un resultado parecido a ese filtro suavizado raro que se puede poner en gráficos 2D.
Quizá, puede, que aquellos modelados que se encuentren alejados de la cámara si se vean beneficiados, pero precisamente en 32bits no es frecuente.
Quisas con la alternativa de AMD al DLSS el AMD FidelityFX Super Resolution que se dice que sera abierta y funcional en consolas y GPUs de la competencia se pueda.
No le veo sentido meter DLSS a emuladores de 32 o 128 bits que ya están mas que emulados y pueden moverlo cafeteras, si le podría ver quizá un poco de sentido en emuladores que necesiten de mucha fuerza brutal del tipo Xenia o Rpcs3
_revan_ escribió:No le veo sentido meter DLSS a emuladores de 32 o 128 bits que ya están mas que emulados y pueden moverlo cafeteras, si le podría ver quizá un poco de sentido en emuladores que necesiten de mucha fuerza brutal del tipo Xenia o Rpcs3


¿qué sentido tiene? Ver los juegos de 32-64-128 bits con un subidón gráfico e incluso a más fps de lo que soportaban el hardware original. [360º]
El DLSS se creó para dar un empujón de potencia a equipos más modestos, no le veo ningún sentido usar eso cuando reescalando y poniendo filtros logras los mismos resultados.

Que aporta esto que no se pueda hacer ya reescalando de toda la vida? Si precisamente la emulación apenas va mermada por la falta de potencia en 3D.
@DJ Deu DLSS no es lo mismo que "reescalar y poner filtros"
cegador escribió:@DJ Deu DLSS no es lo mismo que "reescalar y poner filtros"


Que lo haga una IA, no deja de ser lo mismo.

Que aporta la ventaja de gastar menos recursos de aceleración 3d a la emulación?

Salvo CEMU que es el emulador que es más dependiente de la GPU, dime que otro emulador saldría beneficiado de eso?
DJ Deu escribió:
cegador escribió:@DJ Deu DLSS no es lo mismo que "reescalar y poner filtros"


1.-Que lo haga una IA, no deja de ser lo mismo.

2.-Que aporta la ventaja de gastar menos recursos de aceleración 3d a la emulación?

3.-Salvo CEMU que es el emulador que es más dependiente de la GPU, dime que otro emulador saldría beneficiado de eso?


1.-Si simplemente reescalas esta imagen x4 y le metes filtros vas a tener una puta mierda con 4x más resolución:
Imagen

En cambio una IA te puede llegar a hacer esto:

Imagen

2.-no es sólo gastar menos recursos, es mejorarte la calidad de imagen, mejorar la tasa de frames, disminución de los dientes de sierra...

3.-Los emuladores actuales tengo entendido que la mayoría se basan en el uso de CPU, así que imagino qe deberían hacer emuladores desde cero especializados en DLSS.
cegador escribió:
DJ Deu escribió:
cegador escribió:@DJ Deu DLSS no es lo mismo que "reescalar y poner filtros"


1.-Que lo haga una IA, no deja de ser lo mismo.

2.-Que aporta la ventaja de gastar menos recursos de aceleración 3d a la emulación?

3.-Salvo CEMU que es el emulador que es más dependiente de la GPU, dime que otro emulador saldría beneficiado de eso?


1.-Si simplemente reescalas esta imagen x4 y le metes filtros vas a tener una puta mierda con 4x más resolución:
Imagen

En cambio una IA te puede llegar a hacer esto:

Imagen

2.-no es sólo gastar menos recursos, es mejorarte la calidad de imagen, mejorar la tasa de frames, disminución de los dientes de sierra...

3.-Los emuladores actuales tengo entendido que la mayoría se basan en el uso de CPU, así que imagino qe deberían hacer emuladores desde cero especializados en DLSS.


Creo que confundes el DLSS con el ERSGAN, el DLSS no te transforma píxeles y te los redibuja en una cara, el DLSS es para upscalear polígonos 3d en baja resolución.

No es lo mismo.
cegador escribió:
_revan_ escribió:No le veo sentido meter DLSS a emuladores de 32 o 128 bits que ya están mas que emulados y pueden moverlo cafeteras, si le podría ver quizá un poco de sentido en emuladores que necesiten de mucha fuerza brutal del tipo Xenia o Rpcs3


¿qué sentido tiene? Ver los juegos de 32-64-128 bits con un subidón gráfico e incluso a más fps de lo que soportaban el hardware original. [360º]


Pero si eso es algo que yo llevo haciendo hace eones, pudiendo jugar de PSX, n64 o Gamecube en 4k, con texturas en HD y demases, sin necesidad de tener DLSS por una razón bien sencilla : Son sistemas que están más que emulados y que cualquier equipo los puede mover sobradamente
_revan_ escribió:
cegador escribió:
_revan_ escribió:No le veo sentido meter DLSS a emuladores de 32 o 128 bits que ya están mas que emulados y pueden moverlo cafeteras, si le podría ver quizá un poco de sentido en emuladores que necesiten de mucha fuerza brutal del tipo Xenia o Rpcs3


¿qué sentido tiene? Ver los juegos de 32-64-128 bits con un subidón gráfico e incluso a más fps de lo que soportaban el hardware original. [360º]


Pero si eso es algo que yo llevo haciendo hace eones, pudiendo jugar de PSX, n64 o Gamecube en 4k, con texturas en HD y demases, sin necesidad de tener DLSS por una razón bien sencilla : Son sistemas que están más que emulados y que cualquier equipo los puede mover sobradamente


No porque lo que tú haces es escalar con un algoritmo de mierda como el bicubic que crea artefactos visuales llamados aliasing. Estos aparecen con frecuencia como bordes irregulares y patrones brillantes. Esto se debe al renderizado de un juego a una resolución demasiado baja para capturar suficientes detalles. El suavizado intenta eliminar estos artefactos pero termina haciendo un pastiche. El DLSS NO ES ESO.

N64 aún no se ha podido emular al 100% así que no digas "cualquier equipo los puede mover sobradamente" porque no es verdad, Saturn todavía da bastantes problemas y así podría seguir con mogollón de sistemas...

Y si encima tú hablas de jugar a a 4K con texturas HD... tengo un portátil que es un i5 de octava generación (de 2018) y como ponga el Dolphin a 1080p ya se empieza a arrastrar así que no tienes razón. Otra cosa es que necesitas a un equipo de personas que se pongan a trabajar durante semanas/meses, por amor al arte, en un pack de texturas (un juego puede tener 4000 texturas fácil, mientras que el DLSS te podrá mostrar una mejora radical en tiempo real.

@DJ Deu: "el DLSS no te transforma píxeles y te los redibuja en una cara, el DLSS es para upscalear polígonos 3d en baja resolución."

Yo añadiría delante de tu frase un "todavía", espérate al 3.0 porque está clarinete que el salto va a ser por ahí.
Espero antes que los emuladores empiecen a usar más núcleos que lo más habitual (1 o 2)
Será difícil hacerlos, pero es un desperdicio enorme de Cpu y hay que irse a Cpus con bastante rendimiento por núcleo.
(Como los Intel de serie 11, dicen que suben el rendimiento bastante respecto a la serie 10)
@cegador

Compi me imagino que ese i5 será un 4/8 con 2000 de IPC en pasmark...mas que sobrado para dolphin en 1080p

Usas la gráfica integrada en el micro?? Aquí es donde vas a tener el problema que has comentado porque con una GPU aparte me extraña mucho esto
cegador escribió:
_revan_ escribió:
cegador escribió:
¿qué sentido tiene? Ver los juegos de 32-64-128 bits con un subidón gráfico e incluso a más fps de lo que soportaban el hardware original. [360º]


Pero si eso es algo que yo llevo haciendo hace eones, pudiendo jugar de PSX, n64 o Gamecube en 4k, con texturas en HD y demases, sin necesidad de tener DLSS por una razón bien sencilla : Son sistemas que están más que emulados y que cualquier equipo los puede mover sobradamente


No porque lo que tú haces es escalar con un algoritmo de mierda como el bicubic que crea artefactos visuales llamados aliasing. Estos aparecen con frecuencia como bordes irregulares y patrones brillantes. Esto se debe al renderizado de un juego a una resolución demasiado baja para capturar suficientes detalles. El suavizado intenta eliminar estos artefactos pero termina haciendo un pastiche. El DLSS NO ES ESO.

N64 aún no se ha podido emular al 100% así que no digas "cualquier equipo los puede mover sobradamente" porque no es verdad, Saturn todavía da bastantes problemas y así podría seguir con mogollón de sistemas...

Y si encima tú hablas de jugar a a 4K con texturas HD... tengo un portátil que es un i5 de octava generación (de 2018) y como ponga el Dolphin a 1080p ya se empieza a arrastrar así que no tienes razón. Otra cosa es que necesitas a un equipo de personas que se pongan a trabajar durante semanas/meses, por amor al arte, en un pack de texturas (un juego puede tener 4000 texturas fácil, mientras que el DLSS te podrá mostrar una mejora radical en tiempo real.

@DJ Deu: "el DLSS no te transforma píxeles y te los redibuja en una cara, el DLSS es para upscalear polígonos 3d en baja resolución."

Yo añadiría delante de tu frase un "todavía", espérate al 3.0 porque está clarinete que el salto va a ser por ahí.


Yo me baso en la actualidad y en la actualidad esa tecnología es inútil para emulación.

De todas formas, un procesado de objetos en 3D no tiene nada que ver con uno que procesa imágenes 2D.
cegador escribió:
_revan_ escribió:
cegador escribió:
¿qué sentido tiene? Ver los juegos de 32-64-128 bits con un subidón gráfico e incluso a más fps de lo que soportaban el hardware original. [360º]


Pero si eso es algo que yo llevo haciendo hace eones, pudiendo jugar de PSX, n64 o Gamecube en 4k, con texturas en HD y demases, sin necesidad de tener DLSS por una razón bien sencilla : Son sistemas que están más que emulados y que cualquier equipo los puede mover sobradamente


No porque lo que tú haces es escalar con un algoritmo de mierda como el bicubic que crea artefactos visuales llamados aliasing. Estos aparecen con frecuencia como bordes irregulares y patrones brillantes. Esto se debe al renderizado de un juego a una resolución demasiado baja para capturar suficientes detalles. El suavizado intenta eliminar estos artefactos pero termina haciendo un pastiche. El DLSS NO ES ESO.

N64 aún no se ha podido emular al 100% así que no digas "cualquier equipo los puede mover sobradamente" porque no es verdad, Saturn todavía da bastantes problemas y así podría seguir con mogollón de sistemas...

Y si encima tú hablas de jugar a a 4K con texturas HD... tengo un portátil que es un i5 de octava generación (de 2018) y como ponga el Dolphin a 1080p ya se empieza a arrastrar así que no tienes razón. Otra cosa es que necesitas a un equipo de personas que se pongan a trabajar durante semanas/meses, por amor al arte, en un pack de texturas (un juego puede tener 4000 texturas fácil, mientras que el DLSS te podrá mostrar una mejora radical en tiempo real.

@DJ Deu: "el DLSS no te transforma píxeles y te los redibuja en una cara, el DLSS es para upscalear polígonos 3d en baja resolución."

Yo añadiría delante de tu frase un "todavía", espérate al 3.0 porque está clarinete que el salto va a ser por ahí.


No se que hablas de filtros bicubic, lo que yo hago es subir la resolución interna de los juegos, llevo haciendolo años y sin ningún problema, de hecho y como curiosidad, hace poco en el emulador de 360 implementaron por fin dicha opción













N64 aún no se ha podido emular al 100% así que no digas "cualquier equipo los puede mover sobradamente" porque no es verdad, Saturn todavía da bastantes problemas y así podría seguir con mogollón de sistemas


Pues yo llevo años emulando n64 y bastante bien (incluso con el movil) lo mismo con saturn, en ningún momento he dicho que los sistemas están emulados al 100%,

en mi caso, emulando n64 o PSX, desde los tiempos de Emurayden/conntectix vgs, saturn si demoro bastante mas años en emularse según recuerdo

Y si encima tú hablas de jugar a a 4K con texturas HD... tengo un portátil que es un i5 de octava generación (de 2018) y como ponga el Dolphin a 1080p ya se empieza a arrastrar así que no tienes razón


Bueno, si tu PC es una chusta el problema es tuyo, obviamente no cualquier equipo va a mover holgadamente un juego emulado en 4k, con mi equipo yo al menos si puedo hacerlo y como dije en mi punto anterior, años emulando N64, PSX, PS2 y en menor medida Dreamcast con equipos infinitamente menos potentes de los que tengo ahora

Otra cosa es que necesitas a un equipo de personas que se pongan a trabajar durante semanas/meses, por amor al arte, en un pack de texturas (un juego puede tener 4000 texturas fácil, mientras que el DLSS te podrá mostrar una mejora radical en tiempo real


Pero el DLSS no te va a mejorar la calidad de los modelados o las texturas por la cara, estas confundiendo el DLSS con ERSGAN, ya te lo explicaron mas arriba [qmparto] [qmparto] [qmparto] [qmparto]

23 respuestas