REMASTERIZACIÓN 4K y 8K CINE | Machine Learning A.I. | Gigapixel AI - ESRGAN

@SweetPotato ¿Por qué? La imagen del último post tampoco es correcta, si te fijas desaparecen detalles y el pelo se camufla con esa especie como de barro, hay aberraciones.

¿Lo estás viendo desde una pantalla 8K o 4K?

Aquí una restauración de CASABLANCA en 8K

CASABLANCA 8K
Blanco y negro

En color



TRAINING DAY EN 8K

katatsumuri escribió:@SweetPotato ¿Por qué? La imagen del último post tampoco es correcta, si te fijas desaparecen detalles y el pelo se camufla con esa especie como de barro, hay aberraciones.

¿Lo estás viendo desde una pantalla 8K o 4K?


No hace falta pantalla 8K o 4K, con hacer zoom vale para ver como se ha eliminado detalle, color, texturas... es horrible la verdad, la ultima imagen, no es correcta, se inventan muchas cosas pero en ese caso si que mejora a la mierda que hicieron en su momento. pero no es lo mismo que un escalado horrible de esos.
@SweetPotato Bueno, es que nadie ha dicho que sea mejor que un 4K/8K nativo, pero ya de por si el efecto visual es más agradable que un 1080p en una pantalla 4K/8K, hay una mejora bastante perceptible, con sus limitaciones, obviamente.

Imagen
Imagen
Lo será para ti la verdad, por que a mi, viendo como ha eliminado información, texturas y colores, me parece una aberración
@SweetPotato pero que dices, si la ha añadido, si la imagen de origen es borrosa, lo que ha hecho la IA es añadir información, otra cosa es que no sea tan precisa como una exportación nativa a esa misma resolución, pero estás muy equivocado, no ha borrado información, ha añadido nueva a donde no la había, porque por eso se veía blurry y ahora si se ve con nitidez.

Imagen
Imagen
Yo sin tener ni idea técnica, y sin haber leído prácticamente nada del hilo, me parece que del último post con vídeos, se ve mejor el de abajo.

No se que versión es, pero por dar mi versión imparcial 😂

Edit: del anterior, de el de Training Day
katatsumuri escribió:@SweetPotato pero que dices, si la ha añadido, si la imagen de origen es borrosa, lo que ha hecho la IA es añadir información, otra cosa es que no sea tan precisa como una exportación nativa a esa misma resolución, pero estás muy equivocado, no ha borrado información, ha añadido nueva a donde no la había, porque por eso se veía blurry y ahora si se ve con nitidez.



Pero que me estas contando, si en esta ultima imagen mismo, se ve al actor con la cara totalmente plana sin ningun tipo de textura.
@SweetPotato quizás no te has fijado en lo poros de la mejilla izquierda, hasta le añade patas de gallo xd

https://imgur.com/a/tsxDyEF

ORIGINAL - UPSCALEADA
Imagen
katatsumuri escribió:@SweetPotato quizás no te has fijado en lo poros de la mejilla izquierda, hasta le añade patas de gallo xd

https://imgur.com/a/tsxDyEF

Imagen

Hablo de la imagen de Ethan Hawke
@SweetPotato porque esta última supongo que no te vale xd
katatsumuri escribió:@SweetPotato porque esta última supongo que no te vale xd

Si me vale, y sigue perdiendo detalles de textura, no digo los poros que se ha inventado, si no, luces, sombras, colores.... Las sombras son mucho menos marcadas por ejemplo.
@SweetPotato en cuanto a lo que dices de que se ve la piel lisa, es cierto, eso tiende a ocurrir con objetos lejanos, a veces no tan lejanos, depende de como apliques la IA, pero en imágenes tan alejadas no vas haciendo zoom con la lupa, como ya se ha dicho, el upscaling por IA aún no es mejor que el nativo, bueno, ahora salen cositas interesantes.

UPSCALEADA - ORIGINAL
Imagen

Le añade mucha más información de la que posiblemente quita teniendo en cuenta que es un plano alejado del personaje, no vas a fijarte en detalle.

El cambio de color puede ser por el parámetro de gamma correction.
No se muy bien como expresarlo, pero es que tanta calidad y definición mi cerebro lo interpreta como que estoy viendo un videojuego.
Yo creo que en la vida real, cuando estoy hablando con una persona mis ojos no son capaces de captar el detalle que se muestra en esas imagenes [+risas]

De todas formas, si la técnica mejora puede estar bien para mejorar algún video familiar de los que tengo en minivhs o incluso alguna peli raruna con calidades SD.
Esto lo veo superútil para rescatar clásicos de cine que nunca han tenido (ni van a tener) reediciones ni remasterizaciones. Me vienen por ejemplo a la mente clásicos del noir, nouvelle vagues, o cintas de culto clásico japonesas.

Por curiosidad, ¿existe alguna referencia de qué equipo mínimo haría falta para hacer vídeos así? Por si podría reconvertir alguna película vieja que tenga, o hasta vídeos caseros :)
@Abrams

Para eso sería perfecto. Alguien sabe como se hace?
@kechua en principio usa ESRGAN, de Tencent y código abierto, está en github, pero todavía no he profundizado en cómo se usa y parece ir más enfocado a la animación.
65 respuestas
1, 2