[HO] Marvel’s Spider-Man Remastered

kechua escribió:@garbaje_de_potanzos

Mi 480 ni aparece … [qmparto]

Lo normal es que no tengas problemas con esa 480 sabiendo que es un port de PS4 FAT.
bpg86 escribió:tanto spiderman tanto spiderman para que resulte ser un juego más, mediocre a mas no poder. Cualquier Batman es 10 veces mejor



Naked.Snake escribió: Yo a la gente que no se ha jugado este ni los Batman le recomiendo mil veces antes los Batman, porque son 1000000 veces mejor


Sospechoso...
Yo lo probé ayer con un Ryzen 5800X, 32Gb de RAM y una 6800XT.

Con las opciones del raytracing al máximo va mejor de lo que esperaba, pero sin ir a 60fps estables, para conseguirlos tendré que bajar algo a alto.

A mi me pasa algo muy raro,cuando llegas al laboratorio,no me pasa de 48-52fps lo ponga en bajo o muy alto,tanto la cpu como la gpu me va entre el 50 y 60%,tengo el ultimo driver de Nvidia,hay algun parametro que tenga que bajar para que vaya a 60fps?
Evidentemente llevo RT desactivado.
A modo de curiosidad, estais jugando o solo haciendo pruebas? Porque vamos, yo tengo la 3060ti, DLSS en dinámico (con salida en 4k) , RT activado con el object range en "5". Y el juego se me ve espectacular, lo puse así desde el primer día y solo me estoy dedicando a jugarlo, que no lo digo por nada eh. Pero que es más fácil pararse a disfrutar del juego que estar angustiado con tantas opciones.
Pistu escribió:A modo de curiosidad, estais jugando o solo haciendo pruebas? Porque vamos, yo tengo la 3060ti, DLSS en dinámico (con salida en 4k) , RT activado con el object range en "5". Y el juego se me ve espectacular, lo puse así desde el primer día y solo me estoy dedicando a jugarlo, que no lo digo por nada eh. Pero que es más fácil pararse a disfrutar del juego que estar angustiado con tantas opciones.

Es lo que pasa últimamente
Sobre todo los que pollagordean con sus pc máster RACE
De jugar poco o nada pero probar y llorar por qué en algún momento baja de 60 fps es lo que los entretiene
zarcelo_2 escribió:
Pistu escribió:A modo de curiosidad, estais jugando o solo haciendo pruebas? Porque vamos, yo tengo la 3060ti, DLSS en dinámico (con salida en 4k) , RT activado con el object range en "5". Y el juego se me ve espectacular, lo puse así desde el primer día y solo me estoy dedicando a jugarlo, que no lo digo por nada eh. Pero que es más fácil pararse a disfrutar del juego que estar angustiado con tantas opciones.

Es lo que pasa últimamente
Sobre todo los que pollagordean con sus pc máster RACE
De jugar poco o nada pero probar y llorar por qué en algún momento baja de 60 fps es lo que los entretiene

Con mi cpu poco voy a pollagordear amigo.
este video confirma lo que dice Digital foundry (que a su vez se lo dijo Nixxes que son el estudio que ha porteado el juego a PC) sobre la carga en la CPU al descomprimir los assets del juego , no es un problema de almacenamiento ya que con que tengas el juego instalado en un SSD no vas a tener problemas ya que las cargas mas altas registradas por digital foundry son de 500 mg/s y tampoco es problema del ray tracing , el ray tracing evidentemente va a subir mas la carga de la CPU pero no es el motivo por el cual el GPU load (RTX 3080 , RTX 3090 etc) esta a medio gas y el juego baja de fps.



Imagen

Imagen
Alguien tiene a mano algun grafico donde se vea el consumo de cada apartado grafico?

Ya sabeis, la típica tabla del % que le cuesta a cada apartado grafico.

Lo estoy buscando en google pero no lo veo.

Aun no voy a comprar el juego, cuando baje de precio, ya que me lo pase en ps4, pero tengo curiosidad de verlo viendo comentarios de que se ve muy bien. Segun leo es una maravilla visual y tengo curiosidad.

Gracias desde ya.
Bio81 escribió:este video confirma lo que dice Digital foundry (que a su vez se lo dijo Nixxes que son el estudio que ha porteado el juego a PC) sobre la carga en la CPU al descomprimir los assets del juego , no es un problema de almacenamiento ya que con que tengas el juego instalado en un SSD no vas a tener problemas ya que las cargas mas altas registradas por digital foundry son de 500 mg/s y tampoco es problema del ray tracing , el ray tracing evidentemente va a subir mas la carga de la CPU pero no es el motivo por el cual el GPU load (RTX 3080 , RTX 3090 etc) esta a medio gas y el juego baja de fps.



Imagen

Imagen


Es lamentable. Sin Ray Tracing hablamos de un juego de PS4. Mucha gente alabando el port, pero claro:
- Personas con CPUs de 400 euros.
- Personas a las que les baja de 60 y 50 fps, que tienen la GPU trabajando al 70 por ciento y ellos tan contentos.

No, esto no puede ser un buen port hasta que dejen de tirar de fuerza bruta del procesador. Pero es que esto no es nuevo. Horizon Zero Dawn por ejemplo no se puede jugar en un HDD con total fluidez, y cuando salio el rendimiento en equipos sin CPUs muy potentes era muy pobre. Un juego de PS4. De PS4. Macho que a veces parece que los esten emulando.
Bio81 escribió:este video confirma lo que dice Digital foundry (que a su vez se lo dijo Nixxes que son el estudio que ha porteado el juego a PC) sobre la carga en la CPU al descomprimir los assets del juego , no es un problema de almacenamiento ya que con que tengas el juego instalado en un SSD no vas a tener problemas ya que las cargas mas altas registradas por digital foundry son de 500 mg/s y tampoco es problema del ray tracing , el ray tracing evidentemente va a subir mas la carga de la CPU pero no es el motivo por el cual el GPU load (RTX 3080 , RTX 3090 etc) esta a medio gas y el juego baja de fps.



Imagen

Imagen

Joder, vaya caidas de FPS que tiene mientras se mueve por la ciudad... y está jugando a 1080P sin RT obviamente [qmparto].

Yo que tengo el 8700K, una 2080 y que juego a 1440P, me da que me esperaré a actualizar el PC [noop]
Pero si un i3 12100f de 110€ te lo mueve a +100fps sin RT, que 400€ ni que compresión de CPU de datos [facepalm]
Chaquetero está baneado por "troll"
zero2006xl escribió:No, esto no puede ser un buen port hasta que dejen de tirar de fuerza bruta del procesador. Pero es que esto no es nuevo. Horizon Zero Dawn por ejemplo no se puede jugar en un HDD con total fluidez, y cuando salio el rendimiento en equipos sin CPUs muy potentes era muy pobre. Un juego de PS4. De PS4. Macho que a veces parece que los esten emulando.


Me extraña mucho. No tengo el juego ni lo tendré así que no puedo opinar, pero ya te digo que no creo que en su salida el Horizon tirara mucho de CPU y mediante parches mágicos consiguieran bajar ostensiblemente el uso de CPU. Los juegos que suelen salir mal, se quedan mal, más allá de que los mejoren un poco a base de recortar cosas. Eso en mi experiencia.

Lo de optimizar no se hace con parches, se hace en la propia concepción del juego. Si el juego está diseñado para tirar a lo bestia de CPU pues así se va a quedar. Otra cosa es que te refieras a la carga de shaders, que si está buggeado puede triturar cualquier cpu al inicio de la carga de los mismos.

En cuanto al juego, que el hilo va en las últimas 20 páginas del tradicional mirad que equipo tengo y me baja a 55 FPS, es una ñoñería con un protagonista repelente y personajes más repelentes aún que no entiendo cómo puede jugar la gente.

De pequeño veía unos dibus de Batman supuestamente para niños de 8 años muchísimo más adultos con un tono, diálogos y argumento coherentes más allá del malo malísimo y el prota que es bueno porque sí.


Dicho esto ya cuando lo jugué en PS4 me pareció una pasada lo que habían conseguido con la ciudad y lo bien que se controlaba Spiderman. Pero es eso, puro envoltorio, cualquier juego de rocksteady de Batman Arkham es muchísimo mejor.

@AL0 dicen que el problema viene con RT. Sin él no pasa.

Esto ya viene de largo, el RT no solo aumenta el consumo de la gráfica sino también el de la CPU. Hay una diferencia de entre un 15-20% más de uso con respecto al metro exodus normal y la enhanced edition que va solo con RT. Y todo por una tecnología que nadie ha pedido, ni se nota un pimiento si no te lo dicen. Pero eh, mira qué guay soy que yo lo tengo y tú no.
Está claro que el juego es cpu dependiente,tengo un i7 4790k que es antiguo si,pero ni en bajo y sin RT pega bajadas bestiales,de 60 fijos a 40fps sin motivo.
Yo con una RTX 3080, i5 12600k, 16GB de RAM DDR5 5600MHZ va bastante bien a 4K con todos los presets a tope menos el ray tracing en ALTO, DLSS en calidad y HDR

En la mayoría de situaciones ronda los 100FPS y en algunas ocasiones baja de 60FPS haciendo el cabra por la ciudad con las telarañas, pero la verdad es que si no lo miro los FPS ni lo noto. No sé si es cosa de la pantalla, la OLED con el BFI y VRR activado seguramente ayuda

Igualmente, tendré que bajar un poco la distancia de visionado porque creo que me he pasado xD


PD: Es una locura como se ve con la combinación del Ray Tracing & HDR
AL0 escribió:Pero si un i3 12100f de 110€ te lo mueve a +100fps sin RT, que 400€ ni que compresión de CPU de datos [facepalm]


Que no, shur, que sabemos de lo que estamos hablando.

- Ese i3 es bastante potente. Tiene un IPC muy superior a anteriores generaciones y arquitectura mas moderna, luego soporta mejor esos procesos de los que hablamos.
- Esta jugando sin RT, a 1080 y con DLSS o sea que la resolucion es aun menor y aun con esas en muchos momentos la GPU le va al 70 por ciento de uso y con bajones a 80.

@Chaquetero no tiene que extranarte. Si no te lo crees mirate el historial de parches de Horizon Zero Dawn en PC y su changelog. Cyberpunk tambien mejoro bastante en lo que uso de CPU respecta. Si hablo es porque los compre de salida y porque he podido probarlos en diferente hardware y he visto mil videos de configuraciones. Con todos mis respetos, a algunos shurs parece que os pagan por llevar la contraria. No sere yo quien lo discuta, los hechos estan ahi y se pueden revisar. A mi lo que me interesa es que las cosas se hagan bien, no que nos veamos obligados a cambiar un hardware estupendo cada dos anos porque los desarrolladores no se dejan los huevos en hacer su trabajo. Eso se llama ineficiencia y gasto absurdo, y eso si lo voy a discutir las veces que haga falta. Llevo desde los 12 años en esto y ya me he comido unas cuantas. Pero como amo el mundo del PC pues aqui sigo.
zero2006xl escribió:
AL0 escribió:Pero si un i3 12100f de 110€ te lo mueve a +100fps sin RT, que 400€ ni que compresión de CPU de datos [facepalm]


Que no, shur, que sabemos de lo que estamos hablando.

- Ese i3 es bastante potente. Tiene un IPC muy superior a anteriores generaciones y arquitectura mas moderna, luego soporta mejor esos procesos de los que hablamos.
- Esta jugando sin RT, a 1080 y con DLSS o sea que la resolucion es aun menor y aun con esas en muchos momentos la GPU le va al 70 por ciento de uso y con bajones a 80.


La verdad es que intel se sacó la chorra con los Alder Lake y volvió a dejar a AMD en la cuneta

Según el test de GameGPU, hay una diferencia de casi 20FPS en los FPS mínimos entre las CPUS Alder Lake y los AMD Ryzen serie 5000
@zero2006xl Pero tío te estás leyendo?? Una bajada puntual de 80fps donde corre a +100 el 95% del tiempo en una cpu gama baja de apenas 110€?? Obvio que si andamos con procesadores de +5 años por mucho i9 que fueran y costaran 900€ pues a día de hoy si rinden menos que uno de 110€ igual toca actualizar no? No se digo yo, que hoy es Spiderman y 2 juegos contados pero mañana serán 20
BernatBCN escribió:
zero2006xl escribió:
AL0 escribió:Pero si un i3 12100f de 110€ te lo mueve a +100fps sin RT, que 400€ ni que compresión de CPU de datos [facepalm]


Que no, shur, que sabemos de lo que estamos hablando.

- Ese i3 es bastante potente. Tiene un IPC muy superior a anteriores generaciones y arquitectura mas moderna, luego soporta mejor esos procesos de los que hablamos.
- Esta jugando sin RT, a 1080 y con DLSS o sea que la resolucion es aun menor y aun con esas en muchos momentos la GPU le va al 70 por ciento de uso y con bajones a 80.


La verdad es que intel se sacó la chorra con los Alder Lake y volvió a dejar a AMD en la cuneta

Según el test de GameGPU, hay una diferencia de casi 20FPS en los FPS mínimos entre las CPUS Alder Lake y los AMD Ryzen serie 5000


Alder Lake es la leche. Tu CPU es la primera que permite ir casi casi casi siempre a 60 fps minimos con ajustes de RT medios-altos activados. No deberia ser asi, pero enhorabuena por poder exprimirlo ademas con una OLED. Tiene que dar mucho gustito.

@AL0 Un 10700 no era precisamente gama baja ni barato y tiene escasos 2 anos y este juego no puede moverlo con RT activado a 60 porque la CPU esta ocupada descomprimiendo y moviendo recursos de un lado a otro. Que no, que la solucion no es actualizar el procesador. Y no lo digo yo, esta en Digital Foundry, en Reddit, en el chip Kraken de PS5 y en la forma que ha tenido Nixxes de resolver esto. Y confio en que encontraran la manera de mejorar algo. Mas info en este mensaje de otro foro: Digital Foundry
el problema del horizon zero dawn como bien dice @zero2006xl es problema del HDD lo se por que lo jugué en un HDD y pagaba rascadas al cruzar ciertas partes del mapa hasta que lo instale en un SSD y va perfecto , sobre el uso de cpu que hace el horizon zero dawn es por la compilación de shaders al principio cuando se lanzo el juego cargaba los shaders al instalar un nuevo driver de la GPU al entrar por primera vez al juego en la pantalla de inicio , ahora se compilan sobre la marcha en decir en pantallas de carga o durante el gameplay.

@ALO no hay por donde cogerlo , un i9 10900K con 10 núcleos y 20 hilos con 2 años de antiguedad no se puede arrastrar con este juego.... que necesite se un procesador de 12ª generación de intel para moverlo a 60 estables o su equivalente en AMD no es de recibo..
Si un juego no usa para nada la cpu:
Vaya mierda de optimización, nos gastamos una pasta en pcs para que no se les de uso, solo usa dos núcleos y tengo 8.....
Si un juego mete carga a la cpu y necesitas una moderna:
Vaya mierda de optimización la cpu me va al 100%, no mantengo 60fps con mi cpu de 10 años, no todos tenemos 8 o mas núcleos...

Desde luego como desarrollador deben de dar ganas de hacer como SE y sacar ports 1:1 con cero esfuerzo y dinero.
adriano_99 escribió:Si un juego no usa para nada la cpu:
Vaya mierda de optimización, nos gastamos una pasta en pcs para que no se les de uso, solo usa dos núcleos y tengo 8.....
Si un juego mete carga a la cpu y necesitas una moderna:
Vaya mierda de optimización la cpu me va al 100%, no mantengo 60fps con mi cpu de 10 años, no todos tenemos 8 o mas núcleos...

Desde luego como desarrollador deben de dar ganas de hacer como SE y sacar ports 1:1 con cero esfuerzo y dinero.



Estoy de acuerdo pero desde que sufra un 9900k jugando a 4K no mola 😑.
Los trajes y tal como este te los dan más alante o se puede tener de inicio?

Imagen
@Bio81 Ya bueno esque esperar que el Raytracing en Ultra vaya fino es de traca, si me dieran 5€ por cada uno que se queja de eso sería millonario... Nadie te apunta a la cabeza para que actives el RT en modos que sólo el tope de gama puede, te dan esa opción, no te obligan. Existen opciones mas bajas que el RT mmximo y doy fe que un 12400f de 199€ da para +60fps sin bajadas con RT activado, no necesito irme a burradas de i9 de 700€ para justificar su uso.
adriano_99 escribió:Si un juego no usa para nada la cpu:
Vaya mierda de optimización, nos gastamos una pasta en pcs para que no se les de uso, solo usa dos núcleos y tengo 8.....
Si un juego mete carga a la cpu y necesitas una moderna:
Vaya mierda de optimización la cpu me va al 100%, no mantengo 60fps con mi cpu de 10 años, no todos tenemos 8 o mas núcleos...

Desde luego como desarrollador deben de dar ganas de hacer como SE y sacar ports 1:1 con cero esfuerzo y dinero.


Por favor, razonemos un poco... Optimizar un juego significa aprovechar los recursos de la mejor manera posible. Que un juego que se estrenó en PS4 y que funciona a 60fps con RT estables en PS5 con una CPU no superior a un Ryzen 3600 no funcione de manera óptima en CPUs mucho mejores es para quejarse.

Si un juego puede funcionar bien usando sólo 2 núcleos, que los use. Este juego mete carga a la CPU no porque tenga una inteligencia artificial brutal ni unas físicas impresionantes, la mete porque no han sido capaces de optimizar mejor la carga de recursos (a día de hoy).

Vale ya de defender a las compañías porque sí, y más leer y quejarnos cuando hay razón para ello. Ya lo han dicho expertos como Digital Foundry que han hablado con los desarrolladores y hay bastantes hilos en Reddit y en otros foros sobre el tema. Si alguien no sabe de algo, que aprenda, pero que no llame ignorantes a los demás. Así no vamos a ninguna parte.

Bueno sí, a comernos ports capadísimos que nos obliguen a cambiar de hardware cada dos años si queremos disfrutar de esos juegos decentemente. Cuando NO debería ser así.

@AL0 No es sólo en ultra. Los ajustes de Ray Tracing equivalentes a PS5 no pueden jugarse a 60fps estables en todo momento ni con un 10700 ni con un 12400. En muchas ocasiones el uso de GPU cae al 80 o 70%. El Ray Tracing en Alto o Ultra en juegos como: Control, Cyberpunk 2077, Metro Exodus Enhanced Edition y un largo etcétera. Juegos que con mi 3070 supero la calidad gráfica que tienen en PS5 de sobra.

Y disculpadme por mis faltas en otros mensajes, escribo con un teclado americano de salón a veces y las tildes y las eñes son un engorro total.
zero2006xl escribió:
adriano_99 escribió:Si un juego no usa para nada la cpu:
Vaya mierda de optimización, nos gastamos una pasta en pcs para que no se les de uso, solo usa dos núcleos y tengo 8.....
Si un juego mete carga a la cpu y necesitas una moderna:
Vaya mierda de optimización la cpu me va al 100%, no mantengo 60fps con mi cpu de 10 años, no todos tenemos 8 o mas núcleos...

Desde luego como desarrollador deben de dar ganas de hacer como SE y sacar ports 1:1 con cero esfuerzo y dinero.


Por favor, razonemos un poco... Optimizar un juego significa aprovechar los recursos de la mejor manera posible. Que un juego que se estrenó en PS4 y que funciona a 60fps con RT estables en PS5 con una CPU no superior a un Ryzen 3600 no funcione de manera óptima en CPUs mucho mejores es para quejarse.

Si un juego puede funcionar bien usando sólo 2 núcleos, que los use. Este juego mete carga a la CPU no porque tenga una inteligencia artificial brutal ni unas físicas impresionantes, la mete porque no han sido capaces de optimizar mejor la carga de recursos (a día de hoy).

Vale ya de defender a las compañías porque sí, y más leer y quejarnos cuando hay razón para ello. Ya lo han dicho expertos como Digital Foundry que han hablado con los desarrolladores y hay bastantes hilos en Reddit y en otros foros sobre el tema. Si alguien no sabe de algo, que aprenda, pero que no llame ignorantes a los demás. Así no vamos a ninguna parte.

Bueno sí, a comernos ports capadísimos que nos obliguen a cambiar de hardware cada dos años si queremos disfrutar de esos juegos decentemente. Cuando NO debería ser así.

Según digital foundry sin RT o bajándolo a nivel de consola funciona bien hasta en un ryzen 3600, una cpu que ya tiene años y es de gama media.
El juego está bien optimizado, pero le han puesto unas opciones de RT que están MUY MUY por encima del RT de la ps5.
Quieres ese RT tan por encima de la ps5? Necesitas una cpu moderna.
adriano_99 escribió:
zero2006xl escribió:
adriano_99 escribió:Si un juego no usa para nada la cpu:
Vaya mierda de optimización, nos gastamos una pasta en pcs para que no se les de uso, solo usa dos núcleos y tengo 8.....
Si un juego mete carga a la cpu y necesitas una moderna:
Vaya mierda de optimización la cpu me va al 100%, no mantengo 60fps con mi cpu de 10 años, no todos tenemos 8 o mas núcleos...

Desde luego como desarrollador deben de dar ganas de hacer como SE y sacar ports 1:1 con cero esfuerzo y dinero.


Por favor, razonemos un poco... Optimizar un juego significa aprovechar los recursos de la mejor manera posible. Que un juego que se estrenó en PS4 y que funciona a 60fps con RT estables en PS5 con una CPU no superior a un Ryzen 3600 no funcione de manera óptima en CPUs mucho mejores es para quejarse.

Si un juego puede funcionar bien usando sólo 2 núcleos, que los use. Este juego mete carga a la CPU no porque tenga una inteligencia artificial brutal ni unas físicas impresionantes, la mete porque no han sido capaces de optimizar mejor la carga de recursos (a día de hoy).

Vale ya de defender a las compañías porque sí, y más leer y quejarnos cuando hay razón para ello. Ya lo han dicho expertos como Digital Foundry que han hablado con los desarrolladores y hay bastantes hilos en Reddit y en otros foros sobre el tema. Si alguien no sabe de algo, que aprenda, pero que no llame ignorantes a los demás. Así no vamos a ninguna parte.

Bueno sí, a comernos ports capadísimos que nos obliguen a cambiar de hardware cada dos años si queremos disfrutar de esos juegos decentemente. Cuando NO debería ser así.

Según digital foundry sin RT o bajándolo a nivel de consola funciona bien hasta en un ryzen 3600, una cpu que ya tiene años y es de gama media.
El juego está bien optimizado, pero le han puesto unas opciones de RT que están MUY MUY por encima del RT de la ps5.
Quieres ese RT tan por encima de la ps5? Necesitas una cpu moderna.


Si miras el vídeo entero vas a ver que el juego con RT en calidad PS5 no funciona bien en un 3600. Va por debajo de 60 fps en muchas ocasiones. Para que vaya a 60 tienes que bajar la calidad RT muy por debajo de PS5 (RT Object Range 1 vs 7-8 en PS5), que casi te compensa hasta desactivarlo o aceptar los bajones. Si se usa Object Range 1 los reflejos están vacíos. Por favor, revisa el vídeo a partir del minuto 19:30.
Chaquetero está baneado por "troll"
zero2006xl escribió:
@Chaquetero no tiene que extranarte. Si no te lo crees mirate el historial de parches de Horizon Zero Dawn en PC y su changelog. Cyberpunk tambien mejoro bastante en lo que uso de CPU respecta. Si hablo es porque los compre de salida y porque he podido probarlos en diferente hardware y he visto mil videos de configuraciones. Con todos mis respetos, a algunos shurs parece que os pagan por llevar la contraria. No sere yo quien lo discuta, los hechos estan ahi y se pueden revisar. A mi lo que me interesa es que las cosas se hagan bien, no que nos veamos obligados a cambiar un hardware estupendo cada dos anos porque los desarrolladores no se dejan los huevos en hacer su trabajo. Eso se llama ineficiencia y gasto absurdo, y eso si lo voy a discutir las veces que haga falta. Llevo desde los 12 años en esto y ya me he comido unas cuantas. Pero como amo el mundo del PC pues aqui sigo.


No. Llevo jugando a cyberpunk desde su salida y no ha habido ninguna bajada en la utilización de la CPU. Con un 10900k en su salida se me ponía a un 30-40% de uso, y 2 años después se me sigue poniendo a ese 30-40% de uso.

Y hacía bien en extrañarme porque como sospechaba lo que pasaba en relación a la CPU que decías tú con el Horizon en su salida fue la carga de shaders que estaba rota. No "optimizaron" la carga de la CPU luego tampoco.

Estás mezclando peras con manzanas, que si un juego sale CPU dependiente siempre lo va a ser, y en el mejor de los casos la "optimisasión" bajará un poco la dependencia. Nada de milagros. Yo no he excusado a nadie y más allá de despotricar contra el rtx esté juego me da absolutamente igual. Salió el days gone perfectamente optimizado desde el primer día y con eso me basta.

Si este juego ha salido así es porque está diseñado así de base y ya no lo van a poder cambiar. Haría falta un esfuerzo tremendo y relanzar el juego, nada de parches.
adriano_99 escribió:Si un juego no usa para nada la cpu:
Vaya mierda de optimización, nos gastamos una pasta en pcs para que no se les de uso, solo usa dos núcleos y tengo 8.....
Si un juego mete carga a la cpu y necesitas una moderna:
Vaya mierda de optimización la cpu me va al 100%, no mantengo 60fps con mi cpu de 10 años, no todos tenemos 8 o mas núcleos...

Desde luego como desarrollador deben de dar ganas de hacer como SE y sacar ports 1:1 con cero esfuerzo y dinero.


También es que quizás la gente debería saber que el porcentaje de uso de la GPU/CPU no determina lo bien o mal optimizado que esté el software en cuestión, hay muchos juegos que te ponen la GPU y/o CPU al 100% de uso y realmente no está aprovechando ni la mitad de ese hardware, simplemente por que no está bien optimizado, por el motor gráfico utilizado u otros tantísimos factores y variantes.

Por otra parte también da la sensación de que muchos se lo pasan mejor toqueteando ajustes continuamente en lugar de jugar y disfrutar, está bien configurarlo un poco para sacar el mejor aspecto visual sin repercutir demasiado en el rendimiento, pero hay extremos :p

También se ha de ser consciente que el hardware quedará "desfasado" tarde o temprano y JAMÁS se le habrá sacado todo el partido que se le podría sacar, habrán softwares mejor optimizados que otros que le sacarán mas chicha o menos, pero es imposible aprovechar el 100% con todos los modelos tan distintos y de diferentes fabricantes que existen en todo el hardware que utilizamos, la de tiempo y recursos que necesitarían los estudios, las compañías de drivers, el propio sistema operativo etc.. sería brutal (y con esto no estoy defiendo las malas optimizaciones, ojo) pero les sale mas rentable ir sacando nuevas CPU cada año y GPU cada 2, y hacer pensar que los anteriores modelos ya no están a la altura.
zero2006xl escribió:
Si miras el vídeo entero vas a ver que el juego con RT en calidad PS5 no funciona bien en un 3600. Va por debajo de 60 fps en muchas ocasiones. Para que vaya a 60 tienes que bajar la calidad RT muy por debajo de PS5 (RT Object Range 1 vs 7-8 en PS5), que casi te compensa hasta desactivarlo o aceptar los bajones. Si se usa Object Range 1 los reflejos están vacíos. Por favor, revisa el vídeo a partir del minuto 19:30.

ignoras el hecho de que la ps5 tiene dos modos gráficos , fidelidad y rendimiento.
El 3600x no aguanta los 60 fps perfectos si pones el equivalente a la ps5 en modo fidelidad pero ers que entocnes ella tampoco los aguanta.
Y eso con una cpu un poco inferior a la de la consola.
Decir que está mal optimizado porque no aguanta los 60fps perfectos en una cpu que se lanzó hace 3 años por 200 dólares lo veo como mínimo injusto.
@DaNi_0389 lo está jugando con el RT al maximo en un 5800x, cpu que tiene ya casi 2 años y se puede encontrar por menos de 300 euros.
Que uno lee el hilo y parece que necesitas un 12900ks pasado por agua para que el juego vaya bien y no es para nada así.
Chaquetero escribió:
zero2006xl escribió:
@Chaquetero no tiene que extranarte. Si no te lo crees mirate el historial de parches de Horizon Zero Dawn en PC y su changelog. Cyberpunk tambien mejoro bastante en lo que uso de CPU respecta. Si hablo es porque los compre de salida y porque he podido probarlos en diferente hardware y he visto mil videos de configuraciones. Con todos mis respetos, a algunos shurs parece que os pagan por llevar la contraria. No sere yo quien lo discuta, los hechos estan ahi y se pueden revisar. A mi lo que me interesa es que las cosas se hagan bien, no que nos veamos obligados a cambiar un hardware estupendo cada dos anos porque los desarrolladores no se dejan los huevos en hacer su trabajo. Eso se llama ineficiencia y gasto absurdo, y eso si lo voy a discutir las veces que haga falta. Llevo desde los 12 años en esto y ya me he comido unas cuantas. Pero como amo el mundo del PC pues aqui sigo.


No. Llevo jugando a cyberpunk desde su salida y no ha habido ninguna bajada en la utilización de la CPU. Con un 10900k en su salida se me ponía a un 30-40% de uso, y 2 años después se me sigue poniendo a ese 30-40% de uso.

Y hacía bien en extrañarme porque como sospechaba lo que pasaba en relación a la CPU que decías tú con el Horizon en su salida fue la carga de shaders que estaba rota. No "optimizaron" la carga de la CPU luego tampoco.

Estás mezclando peras con manzanas, que si un juego sale CPU dependiente siempre lo va a ser, y en el mejor de los casos la "optimisasión" bajará un poco la dependencia. Nada de milagros. Yo no he excusado a nadie y más allá de despotricar contra el rtx esté juego me da absolutamente igual. Salió el days gone perfectamente optimizado desde el primer día y con eso me basta.

Si este juego ha salido así es porque está diseñado así de base y ya no lo van a poder cambiar. Haría falta un esfuerzo tremendo y relanzar el juego, nada de parches.


No quiero decir que la CPU se use mas o menos. Quiero decir que las optimizaciones que aplicaron a esos juegos permitieron que la CPU limitase menos el rendimiento. Cyberpunk mejoro porque utilizaba mejor la CPU. Horizon Zero Dawn mejoro porque dejaron de saturar a la CPU con la carga de shaders y porque resolvieron el memory leak que sufria el juego. Estas son formas de mejorar la relacion entre el juego y la CPU. No mezclo nada.

@adriano_99 No me olvido de nada shur, te estoy hablando del modo Rendimiento RT. No cambiemos de tema. Y decir que le falta optimización porque no aguanta 60fps en una CPU de 330 dólares de hace 2 años no me parece injusto, me parece coherente.
Esta la gente , sin ofender a nadie, un poco mal acostumbrada. Yo la verdad con mi 10400 f y mi 2060 de 6 gigas, puedo poner muchas cosas en alto y con el dlss activado y vamos y me va a 60 que mas quiero. Si realmente el ray tracing un vez que llevas jugando x tiempo, ni lo notas. Que entiendo que te has gastado mucho dinero , quieres que vaya al maximo con ray tracing y tal. Pero vamos han realizado un buen port. Ya tienen que aprender muchos [beer]
zarcelo_2 escribió:
Pistu escribió:A modo de curiosidad, estais jugando o solo haciendo pruebas? Porque vamos, yo tengo la 3060ti, DLSS en dinámico (con salida en 4k) , RT activado con el object range en "5". Y el juego se me ve espectacular, lo puse así desde el primer día y solo me estoy dedicando a jugarlo, que no lo digo por nada eh. Pero que es más fácil pararse a disfrutar del juego que estar angustiado con tantas opciones.

Es lo que pasa últimamente
Sobre todo los que pollagordean con sus pc máster RACE
De jugar poco o nada pero probar y llorar por qué en algún momento baja de 60 fps es lo que los entretiene


Esa es la esencia de tener un pc máster RACE como tú lo llamas... Que por cierto vaya comentario con aires de envidia que te has soltado...

El que se compra una 3090... 3080ti... No lo hace solo para jugar y se acabó.. quién se hace con un equipo , usando tu concepto, máster RACE, lo hace porque disfruta tanto jugando como configurando.. algo totalmente respetable por mi parte...

Lo que se disfruta configurando un juego... Apurando frames... Resoluciones... Ganando definición.. viendo que da tirones y porque... Hoy en día es más divertido que muchos juegos que están sacando xD
A mí que el juego ya me vaya a 4k, 60fps con todo en ultra con una 1080ti (una gpu que en nada va a cumplir 6 años) y un ryzen 5 3600 (una cpu de gama media de las más económicas) ya me tiene súper contento, una lastima lo del RT del que tanta gente se queja, ojalá lo terminen solucionando en algún parche posterior

En mi caso y tocando más opciones gráficas, en los únicos momentos que si he notado caídas, es si aumento la distancia de dibujado, ahí me baja hasta los 54fps y solo cuando me estoy balanceando en las zonas más altas y voy en caída, si dejó la distancia como viene de base, se mantiene a 60 estables

Ya hablando sobre el juego, que ví por ahí a alguien que decía que era mediocre, pues para nada lo es, si creo que objetivamente es peor que los Batman Arkham, pero en todo el resto es un título súper competente, su mayor pecado "por así decirlo" es que tiene mucha paja y contenido secundario que te lo meten en vena nada más empezar, que si coleccionables, que si desbloquear torres, que si buscar mochilas, que si delitos genericos y demases, hay MUCHA PAJA que realmente no aporta demasiado y que está ahí para aumentar las horas de juego artificialmente

Pd : ya empiezan a salir los primeros mods

EMC2 está baneado por "Troll"
zero2006xl escribió:
adriano_99 escribió:Si un juego no usa para nada la cpu:
Vaya mierda de optimización, nos gastamos una pasta en pcs para que no se les de uso, solo usa dos núcleos y tengo 8.....
Si un juego mete carga a la cpu y necesitas una moderna:
Vaya mierda de optimización la cpu me va al 100%, no mantengo 60fps con mi cpu de 10 años, no todos tenemos 8 o mas núcleos...

Desde luego como desarrollador deben de dar ganas de hacer como SE y sacar ports 1:1 con cero esfuerzo y dinero.


Por favor, razonemos un poco... Optimizar un juego significa aprovechar los recursos de la mejor manera posible. Que un juego que se estrenó en PS4 y que funciona a 60fps con RT estables en PS5 con una CPU no superior a un Ryzen 3600 no funcione de manera óptima en CPUs mucho mejores es para quejarse.

Si un juego puede funcionar bien usando sólo 2 núcleos, que los use. Este juego mete carga a la CPU no porque tenga una inteligencia artificial brutal ni unas físicas impresionantes, la mete porque no han sido capaces de optimizar mejor la carga de recursos (a día de hoy).

Vale ya de defender a las compañías porque sí, y más leer y quejarnos cuando hay razón para ello. Ya lo han dicho expertos como Digital Foundry que han hablado con los desarrolladores y hay bastantes hilos en Reddit y en otros foros sobre el tema. Si alguien no sabe de algo, que aprenda, pero que no llame ignorantes a los demás. Así no vamos a ninguna parte.

Bueno sí, a comernos ports capadísimos que nos obliguen a cambiar de hardware cada dos años si queremos disfrutar de esos juegos decentemente. Cuando NO debería ser así.

@AL0 No es sólo en ultra. Los ajustes de Ray Tracing equivalentes a PS5 no pueden jugarse a 60fps estables en todo momento ni con un 10700 ni con un 12400. En muchas ocasiones el uso de GPU cae al 80 o 70%. El Ray Tracing en Alto o Ultra en juegos como: Control, Cyberpunk 2077, Metro Exodus Enhanced Edition y un largo etcétera. Juegos que con mi 3070 supero la calidad gráfica que tienen en PS5 de sobra.

Y disculpadme por mis faltas en otros mensajes, escribo con un teclado americano de salón a veces y las tildes y las eñes son un engorro total.


El apartado tecnico es inferior en PS5 que en PC, DF tiene setting optimizados si te interesa que equivalen PS5 o superior.

Y la CPU de PS5 no es como una 3600, la CPU de PS5 es un Zen 2 de 8/16 a 3.5ghz , seria como un 2800x, y por lo que se ve el juego esta optimizado para usar 8 nucleos o mas. En mi humilde opinión si un juego es capaz de paralelizar sus tareas en multiples nucleos/hilos es un juego que esta optimizado a nivel de CPU, otra cosa distinta sera la intensidad de esas tareas.
_revan_ escribió:A mí que el juego ya me vaya a 4k, 60fps con todo en ultra con una 1080ti (una gpu que en nada va a cumplir 6 años) y un ryzen 5 3600 (una cpu de gama media de las más económicas) ya me tiene súper contento, una lastima lo del RT del que tanta gente se queja, ojalá lo terminen solucionando en algún parche posterior

En mi caso y tocando más opciones gráficas, en los únicos momentos que si he notado caídas, es si aumento la distancia de dibujado, ahí me baja hasta los 54fps y solo cuando me estoy balanceando en las zonas más altas y voy en caída, si dejó la distancia como viene de base, se mantiene a 60 estables

Ya hablando sobre el juego, que ví por ahí a alguien que decía que era mediocre, pues para nada lo es, si creo que objetivamente es peor que los Batman Arkham, pero en todo el resto es un título súper competente, su mayor pecado "por así decirlo" es que tiene mucha paja y contenido secundario que te lo meten en vena nada más empezar, que si coleccionables, que si desbloquear torres, que si buscar mochilas, que si delitos genericos y demases, hay MUCHA PAJA que realmente no aporta demasiado y que está ahí para aumentar las horas de juego artificialmente

Pd : ya empiezan a salir los primeros mods


Pues ya me dirás como lo haces, porque con una 3070 a 1440p no llego a 60.
pdriko31 escribió:Pues ya me dirás como lo haces, porque con una 3070 a 1440p no llego a 60.


Probablemente, cuello de botella
pdriko31 escribió:
_revan_ escribió:A mí que el juego ya me vaya a 4k, 60fps con todo en ultra con una 1080ti (una gpu que en nada va a cumplir 6 años) y un ryzen 5 3600 (una cpu de gama media de las más económicas) ya me tiene súper contento, una lastima lo del RT del que tanta gente se queja, ojalá lo terminen solucionando en algún parche posterior

En mi caso y tocando más opciones gráficas, en los únicos momentos que si he notado caídas, es si aumento la distancia de dibujado, ahí me baja hasta los 54fps y solo cuando me estoy balanceando en las zonas más altas y voy en caída, si dejó la distancia como viene de base, se mantiene a 60 estables

Ya hablando sobre el juego, que ví por ahí a alguien que decía que era mediocre, pues para nada lo es, si creo que objetivamente es peor que los Batman Arkham, pero en todo el resto es un título súper competente, su mayor pecado "por así decirlo" es que tiene mucha paja y contenido secundario que te lo meten en vena nada más empezar, que si coleccionables, que si desbloquear torres, que si buscar mochilas, que si delitos genericos y demases, hay MUCHA PAJA que realmente no aporta demasiado y que está ahí para aumentar las horas de juego artificialmente

Pd : ya empiezan a salir los primeros mods


Pues ya me dirás como lo haces, porque con una 3070 a 1440p no llego a 60.




Aquí lleva mejor procesador 3700X 8/16 @4275Mhz (entiendo que será mejor que en ryzen 5 3600 que dice que tiene, no soy de AMD) y se pueden ver los FPS bailando, pero en cifras aceptables.
pdriko31 escribió:
_revan_ escribió:A mí que el juego ya me vaya a 4k, 60fps con todo en ultra con una 1080ti (una gpu que en nada va a cumplir 6 años) y un ryzen 5 3600 (una cpu de gama media de las más económicas) ya me tiene súper contento, una lastima lo del RT del que tanta gente se queja, ojalá lo terminen solucionando en algún parche posterior

En mi caso y tocando más opciones gráficas, en los únicos momentos que si he notado caídas, es si aumento la distancia de dibujado, ahí me baja hasta los 54fps y solo cuando me estoy balanceando en las zonas más altas y voy en caída, si dejó la distancia como viene de base, se mantiene a 60 estables

Ya hablando sobre el juego, que ví por ahí a alguien que decía que era mediocre, pues para nada lo es, si creo que objetivamente es peor que los Batman Arkham, pero en todo el resto es un título súper competente, su mayor pecado "por así decirlo" es que tiene mucha paja y contenido secundario que te lo meten en vena nada más empezar, que si coleccionables, que si desbloquear torres, que si buscar mochilas, que si delitos genericos y demases, hay MUCHA PAJA que realmente no aporta demasiado y que está ahí para aumentar las horas de juego artificialmente

Pd : ya empiezan a salir los primeros mods


Pues ya me dirás como lo haces, porque con una 3070 a 1440p no llego a 60.


Raro, simplemente al empezar el juego se me ponía automáticamente en 1080p y en alto, luego puse el preset muy alto y cambie la resolución a 4k y tengo 60fps estables como rocas, eso sí, lo estoy jugando a 2k, por qué en 4k la temperatura me llegaba a picos de 70 grados, en 2k no me pasa de 60 y la diferencia es prácticamente inapreciable, a ver si subo unas capturas luego

Por cierto, tengo el juego instalado en un M2 Aorus, un ssd ultra rápido que tiene conectividad con pci xpress 4.0, el que tiene la placa de cobre para ser más exacto, no sé si eso tengo algo que ver

Este para ser más exactos
https://www.gigabyte.com/cl/SSD/AORUS-N ... SSD-1TB#kf
AL0 escribió:@Bio81 Ya bueno esque esperar que el Raytracing en Ultra vaya fino es de traca, si me dieran 5€ por cada uno que se queja de eso sería millonario... Nadie te apunta a la cabeza para que actives el RT en modos que sólo el tope de gama puede, te dan esa opción, no te obligan. Existen opciones mas bajas que el RT mmximo y doy fe que un 12400f de 199€ da para +60fps sin bajadas con RT activado, no necesito irme a burradas de i9 de 700€ para justificar su uso.


el ray tracing en este juego no es tan pesado como en otros juegos como por ejemplo Cyberpunk 2077 , una RTX 3090 Ti casi mantiene los 60 fps a 4k nativo con el ray tracing al máximo
, con una 4080 en adelante se mantendrán seguro siempre y cuando se acompañe de una CPU a la altura , el RAY TRACING a diferencia de lo que creía yo al principio no es el problema de este juego , el problema es el uso que hace de la CPU al descomprimir los assets eso genera inestabilidad en los fps bajando de 60 fps si no se tiene una CPU de ultima generación.

solo fijaros en el uso de GPU con v-sync desactivado todo el rato al 98% o 99% gracias al i9 12900k , imposible con un procesador de generación anterior
EMC2 escribió:Y la CPU de PS5 no es como una 3600, la CPU de PS5 es un Zen 2 de 8/16 a 3.5ghz , seria como un 2800x, y por lo que se ve el juego esta optimizado para usar 8 nucleos o mas. En mi humilde opinión si un juego es capaz de paralelizar sus tareas en multiples nucleos/hilos es un juego que esta optimizado a nivel de CPU, otra cosa distinta sera la intensidad de esas tareas.


Zen 2 son los 3XXX no los 2XXX, los 2XXX son Zen+, la CPU de ps5 y Series X seria como un 8/16 de la serie 3XXX.

Y con respecto al juego, apurando un poco mas los settings he podido activar el RT a 1080p con una RX6600 y un Ryzen 5 2600X, por mi parte contentisimo con el port.

Salu2.
@zero2006xl El 3600x salio hace 3 años por 200 euros, el que tu dices que salió hace 2 años y vale 300 es el 5800x y si que mantiene los 60fps.
DarkMessiah escribió:
pdriko31 escribió:
_revan_ escribió:A mí que el juego ya me vaya a 4k, 60fps con todo en ultra con una 1080ti (una gpu que en nada va a cumplir 6 años) y un ryzen 5 3600 (una cpu de gama media de las más económicas) ya me tiene súper contento, una lastima lo del RT del que tanta gente se queja, ojalá lo terminen solucionando en algún parche posterior

En mi caso y tocando más opciones gráficas, en los únicos momentos que si he notado caídas, es si aumento la distancia de dibujado, ahí me baja hasta los 54fps y solo cuando me estoy balanceando en las zonas más altas y voy en caída, si dejó la distancia como viene de base, se mantiene a 60 estables

Ya hablando sobre el juego, que ví por ahí a alguien que decía que era mediocre, pues para nada lo es, si creo que objetivamente es peor que los Batman Arkham, pero en todo el resto es un título súper competente, su mayor pecado "por así decirlo" es que tiene mucha paja y contenido secundario que te lo meten en vena nada más empezar, que si coleccionables, que si desbloquear torres, que si buscar mochilas, que si delitos genericos y demases, hay MUCHA PAJA que realmente no aporta demasiado y que está ahí para aumentar las horas de juego artificialmente

Pd : ya empiezan a salir los primeros mods


Pues ya me dirás como lo haces, porque con una 3070 a 1440p no llego a 60.




Aquí lleva mejor procesador 3700X 8/16 @4275Mhz (entiendo que será mejor que en ryzen 5 3600 que dice que tiene, no soy de AMD) y se pueden ver los FPS bailando, pero en cifras aceptables.


He subido un vídeo cortito para que veas mi rendimiento, cómo podrás comprobar a 4k con el preset en ultra me va totalmente fluido, con alguna caída puntual de 1 fps, pero es que ni se nota cuando estás jugando, todo esto con una 1080ti, o sea que me extraña que a alguien con una 3070 le vaya peor, aunque claro, sin RT por motivos obvios

Eso sí, cómo aumente el FOV, el rendimiento cae en picado, bailando entre 60 y 54/53 fps, pero nunca cayendo a los 40 cómo se veía en ese vídeo y eso que ni siquiera estoy usando FSR ni ninguna otra técnica de reconstrucción de imagen, prácticamente 4k/60 frames con una gpu de hace 6 años y una cpu económica de gama media, si eso no es buena optimización, ya no se lo que es




De hecho, sigo sorprendido con el rendimiento, los juegos que me van a 4k/60 fps en ultra son generalmente títulos de la gen de ps360 o títulos actuales que tengan muy MUY buena optimización, generalmente juego a 2k ultra para mantener una buena taza de frames

Con este spiderman de igual forma juego a 2k para cuidar temps, pero en 2k/4k el rendimiento es idéntico
Tengo un 5800X3D y una 3080 Tí, también hace cuello de botella el CPU a la gráfica
EMC2 está baneado por "Troll"
@Ghandig

Lo baje a 2800x porque la CPU de las consolas tienen recortes en la L3 (4mb por ccx si no mal recuerdo), por cual en rendimiento apesar de ser un zen 2 debe ser inferior al de 3800x.
pdriko31 escribió:Pues ya me dirás como lo haces, porque con una 3070 a 1440p no llego a 60.


Yo tenía la misma CPU que tu hasta hace 3 meses (de un 4790K he pasado a un 12400F) y realmente el cambio lo hice con dudas, pero una vez montado y probado se nota muchísima la diferencia, el pobre i7 era una pedazo de CPU del copón (y lo sigue siendo para los años que tiene) pero se nota que ya no puede con muchos juegos, sobretodo MMO exigentes o mundos abiertos, no te fíes del porcentaje de uso de la CPU, puede parecer que la CPU "todavía va sobrada", pero no siempre es así. Y eso que el cambio es solamente a un 12400F, vamos, que no es ni siquiera el i5 mas top, pero se aprecia el cambio, lo poco que he probado con el Spider-man y una 3060TI a 1440p me va muy bien (eso si, sin opciones "ultritis" XD)
Personalmente, este me toca muy mucho la moral y me hace replantearme que si un juego de PS4 hace que todo el hilo este hablando de su rendimiento y no todos contentos con equipos que revientan y cuestan 4 veces más que una ps5... Me hace el no vender la consola y mantenerla para este tipo de cosas, hablamos de un juego que tiene años y viene así, en hardware como ps5 rinde mejor que en una 3070? Por muy optimizado que venga en la consola me parece de vergüenza.

Lo jugué en ps5 y ahora lo probé en pc y de verdad, las consolas en ese sentido no pillas estos mosqueos y quebraderos de cabeza.

Un saludo a todos gente.
EMC2 escribió:
zero2006xl escribió:
adriano_99 escribió:Si un juego no usa para nada la cpu:
Vaya mierda de optimización, nos gastamos una pasta en pcs para que no se les de uso, solo usa dos núcleos y tengo 8.....
Si un juego mete carga a la cpu y necesitas una moderna:
Vaya mierda de optimización la cpu me va al 100%, no mantengo 60fps con mi cpu de 10 años, no todos tenemos 8 o mas núcleos...

Desde luego como desarrollador deben de dar ganas de hacer como SE y sacar ports 1:1 con cero esfuerzo y dinero.


Por favor, razonemos un poco... Optimizar un juego significa aprovechar los recursos de la mejor manera posible. Que un juego que se estrenó en PS4 y que funciona a 60fps con RT estables en PS5 con una CPU no superior a un Ryzen 3600 no funcione de manera óptima en CPUs mucho mejores es para quejarse.

Si un juego puede funcionar bien usando sólo 2 núcleos, que los use. Este juego mete carga a la CPU no porque tenga una inteligencia artificial brutal ni unas físicas impresionantes, la mete porque no han sido capaces de optimizar mejor la carga de recursos (a día de hoy).

Vale ya de defender a las compañías porque sí, y más leer y quejarnos cuando hay razón para ello. Ya lo han dicho expertos como Digital Foundry que han hablado con los desarrolladores y hay bastantes hilos en Reddit y en otros foros sobre el tema. Si alguien no sabe de algo, que aprenda, pero que no llame ignorantes a los demás. Así no vamos a ninguna parte.

Bueno sí, a comernos ports capadísimos que nos obliguen a cambiar de hardware cada dos años si queremos disfrutar de esos juegos decentemente. Cuando NO debería ser así.

@AL0 No es sólo en ultra. Los ajustes de Ray Tracing equivalentes a PS5 no pueden jugarse a 60fps estables en todo momento ni con un 10700 ni con un 12400. En muchas ocasiones el uso de GPU cae al 80 o 70%. El Ray Tracing en Alto o Ultra en juegos como: Control, Cyberpunk 2077, Metro Exodus Enhanced Edition y un largo etcétera. Juegos que con mi 3070 supero la calidad gráfica que tienen en PS5 de sobra.

Y disculpadme por mis faltas en otros mensajes, escribo con un teclado americano de salón a veces y las tildes y las eñes son un engorro total.


El apartado tecnico es inferior en PS5 que en PC, DF tiene setting optimizados si te interesa que equivalen PS5 o superior.

Y la CPU de PS5 no es como una 3600, la CPU de PS5 es un Zen 2 de 8/16 a 3.5ghz , seria como un 2800x, y por lo que se ve el juego esta optimizado para usar 8 nucleos o mas. En mi humilde opinión si un juego es capaz de paralelizar sus tareas en multiples nucleos/hilos es un juego que esta optimizado a nivel de CPU, otra cosa distinta sera la intensidad de esas tareas.


No entro a lo de la CPU de la PS5 porque ni es un 2800x ni un 3600 exactamente. Pero en rendimiento es equivalente a este ultimo a pesar de tener 2 cores mas. Da para rato, es un debate interesante pero se nos iria el hilo.

Sobre lo que comentas de repartir tareas en núcleos estoy de acuerdo. El problema como tu dices es la intensidad de las tareas. Y es que la descompresión de assets no debería de estar generando ese agujero en el rendimiento. Este juego baja de 60 fps no por el ray tracing en si mismo, no por la carga de poligonos o por las fisicas. Este juego cae porque la CPU esta ejecutando WinRAR todo el tiempo con muchos archivos, por decirlo de una manera que todo el mundo entienda. Evidentemente no es WinRAR pero es un ejemplo. Al activar el RT ese volumen de archivos aumenta considerablemente, pero el rendimiento no cae de 60fps porque la GPU tenga que calcular mas rayos, sino porque ¨WinRAR¨ tiene que descomprimir muchos mas archivos en menos tiempo.
el problema esta en que si tienes una GPU de gama alta y quieres poner los gráficos al máximo y 60fps estables al 100% no puedes si tienes una CPU con 1 o 2 años de antiguedad , de que sirve tener una GPU que pueda mover el juego perfectamente a 60fps o mas fps con todos los gráficos a tope si luego la CPU esta limitando? , lo que no puede ser es cambiar de CPU cada 2x3 por una pequeña cantidad de juegos , una CPU que fuera tope de gama en su momento en mi opinión debe durar mínimo 4 años rindiendo bien si no ¿qué tenemos que estar cambiado todo el pc cada 1 o 2 años?... otra tema es la evolución técnica en los juegos yo estoy a favor del progreso por eso me gusta el ray tracing y todas las tecnologías que van saliendo , pero lo que no puede ser es que un juego como este (remaster de ps4) pida lo que pide de CPU , si me dijeras que es algo revolucionario que necesita un procesamiento brutal pero esta justificado adelante , pero no es el caso
678 respuestas