Prince of Persia: The Lost Crown detalla sus requisitos en PC y confirma 60 FPS para todas las pl...

Prince of Persia: The Lost Crown es un juego de acción y aventura en 2.5D con una exigencia gráfica baja, cosa que ha quedado demostrada cuando Ubisoft ha revelado los requisitos en PC así como los modos gráficos para consola. Jugar en 4K y 60 FPS en PC no será complicado, mientras que en consolas el editor francés cumple con su promesa y todas las versiones, incluyendo la de Nintendo Switch, PlayStation 4 y Xbox One, corren a 60 FPS.

En Nintendo Switch, Prince of Persia: The Lost Crown se ejecutará a 720p en el modo portátil y 1080p cuando la consola esté en su base. En PlayStation 4 Pro serán 4K que bajarán a 1080p en PlayStation 4, mientras que en Xbox One X el título funcionará a 4K y en Xbox One y Xbox One S serán 1080p. En la nueva generación subimos a 4K y 120 FPS tanto en PlayStation 5 como en Xbox Series X y Xbox Series S se conforma con 1440p. En todas las consolas Ubisoft asegura que el juego funciona a 60 FPS. Aquellos que jueguen en Amazon Luna, un servicio en la nube que ya está disponible en España, serán 1080p a 60 FPS.

Para los jugadores de PC los requisitos son muy asequibles e incluso el club de la GTX 1060 podrá jugar en 4K. Las especificaciones facilitadas por Ubisoft son las siguientes.

Requisitos mínimos (1920x1080, 60 FPS, calidad de los gráficos normal)
  • CPU: Intel Core i5-4460 3.4 GHz o AMD Ryzen 3 1200 3.1 GHz
  • GPU: Nvidia GeForce GTX 950 (2 GB VRAM) o AMD Radeon RX 5500 XT (4 GB VRAM)
  • RAM: 8GB (configuración Dual-channel)
  • Espacio en el disco duro: 30 GB
  • SO: Windows 10/11 (64-bit)
Recomendados (2560x1440 [2K], 60 FPS, calidad de los gráficos alta)
  • CPU: Intel Core i7-6700 3.4 GHz o AMD Ryzen 5 1600 3.2 GHz
  • GPU: Nvidia GeForce GTX 960 (4 GB VRAM) o AMD Radeon RX 5500 XT (4 GB VRAM)
  • RAM: 8GB (configuración Dual-channel)
  • Espacio en el disco duro: 30 GB
  • SO: Windows 10/11 (64-bit)
Ultra (3840x2160 [4K], 60 FPS, calidad de los gráficos ultra)
  • CPU: Intel Core i7-6700 3.4 GHz o AMD Ryzen 5 1600 3.2 GHz
  • GPU: Nvidia GeForce GTX 1060 (6 GB VRAM) o AMD Radeon RX 5500 XT (8 GB VRAM)
  • RAM: 8GB (configuración Dual-channel)
  • Espacio en el disco duro: 30 GB
  • SO: Windows 10/11 (64-bit)
Quien quiera comprobar el rendimiento de Prince of Persia: The Lost Crown en su consola o PC o simplemente quiera echar un vistazo a la jugabilidad del título, lo podrá hacer con una demo que estará disponible el 11 de enero. El juego se pondrá a la venta en todas las plataformas una semana después, el 18 de enero.

Fuente: Ubisoft
Me resulta extraño que cuando ponen gráficas de AMD siempre sea la 5500XT en todos los requisitos
Lo mejor aparte de que va a ser asequible para casi todos, que tenga demo, debería ser casi obligatorio en todos los juegos
No me esperaba los 60 fps en Switch, bastante bien la verdad. Habrá que catarlo en la demo.
Imagino que por el simple hecho de no ser 3D/open word, no debería ser exigente. Por eso los requisitos son asequibles.
No es mucha CPU para un PoP 2D? La progresión de los juegos, cada vez te van pidiendo más para lo mismo porque si. Cuantos GHz harán falta a día de hoy para un Pac-Man?
Este juego en portátil va a ser un placer.
darksch escribió:No es mucha CPU para un PoP 2D? La progresión de los juegos, cada vez te van pidiendo más para lo mismo porque si. Cuantos GHz harán falta a día de hoy para un Pac-Man?

Para un pac-man en 16 colores, resolucion 320x240 y 15fps como el pacman de las recreativas de los 80 no hace falta mucho.

Si ya quieres el pacman Championship Edition Dx+ (del que por cierto solo me falta un logro en steam) pide esto de minimos para tirar a 1080p y 60fps:
Procesador: 1 GHz or faster 32-bit (x86) or 64-bit (x64) processor
Memoria: 1 GB de RAM
Grafica: GTX 1030

Y aunque inicialmente estuviese capado a 720p/60fps , ahora se puede poner a 1440p o a 4K y hasta 144fps. Pero para eso ya te vas a requisitos mas altos. Por ejemplo con los requisitos minimos, si lo pones a 1440p el juego corre a unos 40fps.
Hasta se puede jugar en calidad ultra o máxima con un ordenador de hace 7 u 8 años. A ver esa demo como va.
LoomBrane escribió:
darksch escribió:No es mucha CPU para un PoP 2D? La progresión de los juegos, cada vez te van pidiendo más para lo mismo porque si. Cuantos GHz harán falta a día de hoy para un Pac-Man?

Para un pac-man en 16 colores, resolucion 320x240 y 15fps como el pacman de las recreativas de los 80 no hace falta mucho.

Si ya quieres el pacman Championship Edition Dx+ (del que por cierto solo me falta un logro en steam) pide esto de minimos para tirar a 1080p y 60fps:
Procesador: 1 GHz or faster 32-bit (x86) or 64-bit (x64) processor
Memoria: 1 GB de RAM
Grafica: GTX 1030

Y aunque inicialmente estuviese capado a 720p/60fps , ahora se puede poner a 1440p o a 4K y hasta 144fps. Pero para eso ya te vas a requisitos mas altos. Por ejemplo con los requisitos minimos, si lo pones a 1440p el juego corre a unos 40fps.

El juego se sincronizaba con la pantalla, así que no eran 15 fps, eran los del refresco del monitor, que ahora no recuerdo si eran 60Hz o algo tipo 50 y pico como era no poco habitual en la época el tener monitores específicos.
El hardware está aquí (aunque no se indica la pantalla):
http://system16.com/hardware.php?id=514

Y luego se mezclan churras con merinas, la CPU no se encarga de dibujar. Así que con el chip de video adecuado podrías tener Pacman con el mismo Z80 a 4 u 8K si se quisiera, mientras la CPU tenga que hacer el mismo trabajo de cálculos y comunicación con los periféricos.

De hecho las arcades de Laser Disc tiraban de Z80, y reproducían películas digitales en alta calidad jugables. Como este juego curioso:
https://jalopnik.com/this-laserdisc-arcade-game-let-you-drive-tsukuba-and-fu-1845775042
Como al final la CPU lo que hacía era realmente ejecutar un juego mucho más simple que es lo que se juega que del video ya se encargan los coprocesadores.

Así que al final es eso, para la misma carga de computación, para ejecutar una lógica muy similar, cada vez te van pidiendo más y más.
darksch escribió:Y luego se mezclan churras con merinas, la CPU no se encarga de dibujar. Así que con el chip de video adecuado podrías tener Pacman con el mismo Z80 a 4 u 8K si se quisiera, mientras la CPU tenga que hacer el mismo trabajo de cálculos y comunicación con los periféricos.


En el caso de Pac-Man, es el z80 el encargado de practicamente todo el trabajo, tanto de la logica, como de la generacion de graficos. No tiene un coprocesador grafico dedicado en el sentido moderno. Si que tiene circuitos auxiliares para ayudar a mostrar los graficos en la pantalla, como el circutio dedicado a la salida de video y a manejar la memoria de video con los pixels almacenados. O el generador de caracteres y sprites, que ayuda en la generacion de los graficos. Pero todo el trabajo pesado lo lleva a cabo el z80.

Y por supuesto, que nada tiene que ver con el actual sistema de CPU dedicada por un lado a unas operaciones, y GPU dedicada por otro lado a otras operaciones.

No se podrian mostrar graficos modernos a resoluciones actuales, ni a resoluciones de aquella epoca y tasas de fotogramas altas en un z80. Ni en el hipotetico caso de poder "unir" un z80 con una grafica actual (o chip grafico adecuado como comentas) se podrian mostrar graficos modernos. Basicamente porque el z80 tipico de una arcade, y concretamente el de pacman, funcionaban a 3mhz, ademas de disponer de 64kb de memoria. Lo que limitaria la capacidad de comunicacion con el chip grafico dedicado creando un cuello de botella sin sentido, incapaz de enviar datos al chip grafico lo suficientemente rapido para aprovechar su potencia, ni de recibirlos claro.
Por no mencionar que el z80 ni siquiera podria manejar los buses de datos necesarios. Ya no los datos en si, sino los buses.
Es mas, ni si quiera seria capaz de manejar las apis graficas necesarias, no seria capaz de manejar ni enviar en tiempo los datos que tiene que renderizar el chip grafico en cada escena. Por no entrar en tema de fisicas, o calculos de iluminacion global claro.
El procesador tendria que hacer muchos mas calculos. No solo hace los calculos necesarios para manejar perifericos, hace muchos mas calculos para manejar los graficos, aun teniendo un chip grafico dedicado, como actualmente.

Y si a lo que te refieres es que el z80 el solo podria mostrar el mismo juego pac-man clasico arcade a 8K programandolo correctamente... hombre, por poder, si haces una modificacion completa del hardware sobre el que va el z80, cambiando todo el sistema en si, desde memoria hasta buses, y subiendo la frecuencia del z80 que se puede, para poder mantener la frecuencia de imagenes por segundo, pues si. Pero con los graficos del pacman de 1980. No con los graficos actuales. Con los sprites del pacman. Nada de texturas.

Y creo que es obvio para cualquiera que los graficos mostrados en una arcade de 1980 respecto de los graficos del juego actual mas cutre no tienen absolutamente nada que ver. Empezando por el numero de colores, y siguiendo por toda la retaila de sistemas de iluminacion, renderizado, texturas, etc.
gracias por la news

personalmente, no tengo tiempo para estos experimentos de ubisoft
LoomBrane escribió:
darksch escribió:Y luego se mezclan churras con merinas, la CPU no se encarga de dibujar. Así que con el chip de video adecuado podrías tener Pacman con el mismo Z80 a 4 u 8K si se quisiera, mientras la CPU tenga que hacer el mismo trabajo de cálculos y comunicación con los periféricos.


En el caso de Pac-Man, es el z80 el encargado de practicamente todo el trabajo, tanto de la logica, como de la generacion de graficos. No tiene un coprocesador grafico dedicado en el sentido moderno. Si que tiene circuitos auxiliares para ayudar a mostrar los graficos en la pantalla, como el circutio dedicado a la salida de video y a manejar la memoria de video con los pixels almacenados. O el generador de caracteres y sprites, que ayuda en la generacion de los graficos. Pero todo el trabajo pesado lo lleva a cabo el z80.

Y por supuesto, que nada tiene que ver con el actual sistema de CPU dedicada por un lado a unas operaciones, y GPU dedicada por otro lado a otras operaciones.

No se podrian mostrar graficos modernos a resoluciones actuales, ni a resoluciones de aquella epoca y tasas de fotogramas altas en un z80. Ni en el hipotetico caso de poder "unir" un z80 con una grafica actual (o chip grafico adecuado como comentas) se podrian mostrar graficos modernos. Basicamente porque el z80 tipico de una arcade, y concretamente el de pacman, funcionaban a 3mhz, ademas de disponer de 64kb de memoria. Lo que limitaria la capacidad de comunicacion con el chip grafico dedicado creando un cuello de botella sin sentido, incapaz de enviar datos al chip grafico lo suficientemente rapido para aprovechar su potencia, ni de recibirlos claro.
Por no mencionar que el z80 ni siquiera podria manejar los buses de datos necesarios. Ya no los datos en si, sino los buses.
Es mas, ni si quiera seria capaz de manejar las apis graficas necesarias, no seria capaz de manejar ni enviar en tiempo los datos que tiene que renderizar el chip grafico en cada escena. Por no entrar en tema de fisicas, o calculos de iluminacion global claro.
El procesador tendria que hacer muchos mas calculos. No solo hace los calculos necesarios para manejar perifericos, hace muchos mas calculos para manejar los graficos, aun teniendo un chip grafico dedicado, como actualmente.

Y si a lo que te refieres es que el z80 el solo podria mostrar el mismo juego pac-man clasico arcade a 8K programandolo correctamente... hombre, por poder, si haces una modificacion completa del hardware sobre el que va el z80, cambiando todo el sistema en si, desde memoria hasta buses, y subiendo la frecuencia del z80 que se puede, para poder mantener la frecuencia de imagenes por segundo, pues si. Pero con los graficos del pacman de 1980. No con los graficos actuales. Con los sprites del pacman. Nada de texturas.

Y creo que es obvio para cualquiera que los graficos mostrados en una arcade de 1980 respecto de los graficos del juego actual mas cutre no tienen absolutamente nada que ver. Empezando por el numero de colores, y siguiendo por toda la retaila de sistemas de iluminacion, renderizado, texturas, etc.

Pues si sólo tiene un DAC peor aún, teniendo que encargarse de más tareas.

Nota: periférico es todo lo que se conecta a la CPU, vamos que el VDP o GPU es un chip periférico, no sólo los "mandos".

No puede manejar APIs porque requieren de demasiada comunicación, que al final es a lo que se reduce, pero según crecen requieren de más señales, y la capa de software, montado a su vez sobre un SO y etc.etc. es lo que añade requisito de memoria y etc. Pero vamos que puedes creárselas específicas, de hecho las hay como MSXgl. Al final de todas las capas y conversiones se tienen la comunicación por los puertos que es como funciona. Habrá que ver cuantos usan las API modernas. Vamos que una API al final es un conjunto para estandarizar y poner en común el desarrollo, que luego el driver se encarga de convertir en las señales adecuadas para el hardware específico utilizando los métodos del SO (ya que no se puede acceder al hardware directamente).

Del resto, ya todo depende del hardware dedicado. Puedes tener almacenada la información en memoria y dibujar un pedazo de gráfico en alta definición transfiriendo unos pocos bytes por el puerto de turno. Por ej. con el típico para sprites [x, y, pattern] para patrones pre-almacenados, eso es transparente la CPU al final tiene que manejar lo mismo, y luego si al otro lado hay un VDP que funciona a 256 o a 8K (haciendo éste la conversión de coordenadas) le es indiferente.

Respecto a juegos modernos, DirectX y demás no es que sean nuevos, así que esa carga (overhead) ya se tenía desde hace mucho, y ya se incluye y se supone en la afirmación. De hecho con APIs más óptimas y CPUs más rápidas incluso deberían ser menos problema.
Por lo que cada vez se pide más para lo mismo, asumiendo los mismos costes fijos que ya se tenían desde hace tiempo. A nada que se piense en la lógica que está corriendo por debajo más el coste de la API. Por ej. en qué se diferencia este PoP de digamos un Strider. Al final tienes a personajes, cajas de colisión, y etc. que vienen a ser parecidos, lo que es un juego vamos, pero PoP pide 4 veces más CPU. Las diferencias visuales acorde a disponer de mejor hardware dedicado, pero para gestionar los personajes de pantalla, lo que haya fuera que necesite actualizarse, las colisiones...todo muy similar, ¿4 veces más CPU?.
Lo llegaré a comprar, pero cuando esté baratito y veré para que plataforma hacerlo, los juegos de Ubisoft bajan rápido de precio.
Curioso.....Solo interesa que vaya a 60 Fps [comor?]
60 fps a estas alturas en pc poco me parece
emiliojrc escribió:Me resulta extraño que cuando ponen gráficas de AMD siempre sea la 5500XT en todos los requisitos


Imagino que viene dado de que el juego no es nada exigente como se puede comprobar en mecánicas y gráficos.

Y el punto final, el fin de soporte de Polaris (AMD RX 5XX). Con lo que no se la querrán jugar con esas gráficas sin soporte oficial.
Probaré la demo a ver qué tal.

A ver si UbiSoft, ya que saca éste, se anima y saca nuevos juegos de la serie Assassins Creed Chronicles... me pasé los 3 y me quedé con ganas de más.

Salu2 :cool:
17 respuestas