[HO] Marvel’s Spider-Man Remastered

todo en ultra y RT tambien, DLSS en calidad no baja de 90 pfs haciendo el loco por la ciudad

12700K a 5GHZ
3080ti
DDR5 a 5200MHZ


Para quien le sirva!

Despues de lo que he leido, contento
@Mikel24 pues todos los juegos que soportan dualsense necesitas jugar por cable así que otra no te queda, 😑.
chrispro escribió:todo en ultra y RT tambien, DLSS en calidad no baja de 90 pfs haciendo el loco por la ciudad

12700K a 5GHZ
3080ti
DDR5 a 5200MHZ


Para quien le sirva!

Despues de lo que he leido, contento


Con el mejor hardware del mercado tanto en GPU y CPU ( si no el mejor, el segundo)
Apaga y vámonos si no funciona bien xD

Igualmente,veo que son pocos FPS para semejante equipo y un juego de la pasada generación
Mikel24 escribió:
ram escribió:
Mikel24 escribió:Yo lo uiero jugar con el DualSense pero no vibra ni funciona nada de las opciones extras del mando ¿alguien mas le pasa?



Por cable funciona sin problemas.


na, paso de cable, es un engorro

Es la única forma de jugar con funciones de gatillo adaptativo. Cable y en las propiedades del juego dentro de Steam desactivar el "Steam input"
Pues vaya chasco, seguiré jugando con el mando de Xone
BernatBCN escribió:
chrispro escribió:todo en ultra y RT tambien, DLSS en calidad no baja de 90 pfs haciendo el loco por la ciudad

12700K a 5GHZ
3080ti
DDR5 a 5200MHZ


Para quien le sirva!

Despues de lo que he leido, contento


Con el mejor hardware del mercado tanto en GPU y CPU ( si no el mejor, el segundo)
Apaga y vámonos si no funciona bien xD

Igualmente,veo que son pocos FPS para semejante equipo y un juego de la pasada generación


ya se que es de lo mejorcito del mercado, lo pongo porque usuario atras con 3080 ti estan experimentando bajo rendimiento!

Respecto al tipico comentario de juego generacion pasada, pocos fps... Si no te has enterado ya de que va El ray tracing a estas alturas, dudo que con mi explicacion pueda hacerte cambiar de opinion ! asi que...
chrispro escribió:
BernatBCN escribió:
chrispro escribió:todo en ultra y RT tambien, DLSS en calidad no baja de 90 pfs haciendo el loco por la ciudad

12700K a 5GHZ
3080ti
DDR5 a 5200MHZ


Para quien le sirva!

Despues de lo que he leido, contento


Con el mejor hardware del mercado tanto en GPU y CPU ( si no el mejor, el segundo)
Apaga y vámonos si no funciona bien xD

Igualmente,veo que son pocos FPS para semejante equipo y un juego de la pasada generación


ya se que es de lo mejorcito del mercado, lo pongo porque usuario atras con 3080 ti estan experimentando bajo rendimiento!

Respecto al tipico comentario de juego generacion pasada, pocos fps... Si no te has enterado ya de que va El ray tracing a estas alturas, dudo que con mi explicacion pueda hacerte cambiar de opinion ! asi que...


Si te refieres a mi por lo del bajo rendimiento, a ver tampoco es eso, más que nada que tengo una CPU de hace 5 años así como 16Gb de RAM DDR4 3000MHZ y la verdad que es de los primeritos juegos donde se nota bastante el cuello de botella.

Simplemente como conclusión, que activar RT en este juego es muy CPU dependiente. Así que aquellos que quieran RT y tengan una CPU de unos cuantos años, no esperen 60fps rocosos. Quitando RT jugando a 2k nativo con DSR a 4k mantengo entre 60-90 sin bajar casi nunca por debajo de 60fps, por lo que lo veo bien en general, además que el juego sin RT también se ve fenomenal.

Saludos!
Namaskar está baneado por "clon de usuario baneado"
ram escribió:He grabado con la aplicación de nvidia la primera misión, pues si que tira bastante de cpu como se comenta más arriba, el juego luce bien y de noche es una maravilla , esperaremos parches que mejoren rendimiento.



4k hdr dlss calidad con el preset mas alto .



Veo que tienes el gpu load algo bajo los primeros minutos, no llegas al 90% de media. Yo tengo la 3090ti recibida ayer con el 9900k como tu y mi gpu load es del 95% en esas zonas con tus settings gráficos.

Eso si lo probé también a 1440p pero se me relajaba mucho y decidí tirar directo en 4k.

De momento debo decir que el juego me va fino, bastante fluido y me esta gustando bastante. Voy a retomar la partida y ya os comento si afino algo más tuneando settings buscando un sweet spot.
chrispro escribió:
ya se que es de lo mejorcito del mercado, lo pongo porque usuario atras con 3080 ti estan experimentando bajo rendimiento!

Respecto al tipico comentario de juego generacion pasada, pocos fps... Si no te has enterado ya de que va El ray tracing a estas alturas, dudo que con mi explicacion pueda hacerte cambiar de opinion ! asi que...


Por supuesto que se cómo va, y porque lleve trazado de rayos no tiene que ir mal o rascando frames si es lo que das a entender..
Tampoco es una locura que digamos el RT de este juego. Cumple sin más

Volvemos a lo mismo que he comentado anteriormente, lo estás jugando con un hardware de lo mejorcito del mercado, que solo la GPU + CPU ya valen casi 2.000€
Hay que exigir un poco más

No es cuestión de opiniones, es lo que hay y ya está.
El rendimiento no es del todo malo, pero a día de hoy está bastante lejos comparado por ejemplo con el port del God Of War
tiralmonte escribió:
OK Computer escribió:
Bio81 escribió:yo no se si pillarlo ahora en instant gaming que esta rebajado o esperar ya a cuando tenga la nueva GPU , por que pa jugarlo con una GTX 1080 Ti en una TV 4k como que tira un poco patras , lo mas seguro es que espere a tener la nueva GPU (espero que no se alargue mucho la salida de la 4080 o 4080 Ti) y jugarlo en condiciones además también estará mas barato , y sobre las guerras consola vs pc me parece de lo mas absurdo que hay , las consolas están bien y el pc también , cada plataforma tiene sus pros y sus contras.. , un pc que te mueva el 4k con fluidez cuesta mucho dinero , y las consolas lo hacen muy bien para lo que cuestan..

salu2.


Tengo una TV 4k de 55" y una 1080Ti. A 1440p/60fps los juegos se me ven de escándalo, no echo en falta el 4k.

Yo no esperaría para darle, tienes una tarjeta muy decente para 1440p.

Prueba a crear esta resolución desde el panel de nvidia 2688x1512, en rendimiento pierdes nada y veras como se ve aun mejor. Hace tiempo leí en una pagina que esta resolución escalaba mejor en una tv 4k que era 16:9 real o no se que movida no recuerdo bien, el caso es que lo probé y para mi si que se ve mejor. Un saludo


I7 4790k
1080Ti
16GB

Probada la primera media hora con todo en ultra sin RT y sombras en high.
A 1440p y a la resolución que propone el compañero (2688x1512) va a 60 FPS sólidos, luce genial.

Me queda por probar más dicha resolución para apreciar la mejora visual, en rendimiento hay que decir que no noto pérdida con respecto a 1440p.

Tiene pinta de ser otro juego más para la saca, que me hace retrasar más todavía la decisión de jubilar el equipo. Como rinde el cabrón con los años que tiene encima [amor]
A mas trasteo con el port mas me doy cuenta que el RT + 8GB de VRAM es insuficiente. El suceso que comenté mas atrás de que me bajaban los fps sin venir a cuento lo he reproducido varias veces mas y sin tocar ajustes ni nada, sólo balanceándome por ahí un rato y volviendo al punto de partida, pierdo como 20 o 30fps con el tiempo y el uso de memoria del sistema aumenta entre 2/3GB, se soluciona reiniciando el juego pero si repito el proceso vuelve a pasar....

Esto canta a falta de VRAM por todos lados, y eso que estoy a 1080p+DLAA+RT en High con un valor de 3 en la distancia, nada del otro mundo. Por curiosidad me ha dado por mirar benchs de alguna web y en GameGpu da la casualidad de que la 3060 12GB les rinde mas con RT que sus hermanas mayores de 8GB [qmparto]
Imagen

Así que ojito con esto los que tengáis gráficas de 8GB si notáis que el juego no rinde como debe.
Namaskar escribió:
ram escribió:He grabado con la aplicación de nvidia la primera misión, pues si que tira bastante de cpu como se comenta más arriba, el juego luce bien y de noche es una maravilla , esperaremos parches que mejoren rendimiento.



4k hdr dlss calidad con el preset mas alto .



Veo que tienes el gpu load algo bajo los primeros minutos, no llegas al 90% de media. Yo tengo la 3090ti recibida ayer con el 9900k como tu y mi gpu load es del 95% en esas zonas con tus settings gráficos.

Eso si lo probé también a 1440p pero se me relajaba mucho y decidí tirar directo en 4k.

De momento debo decir que el juego me va fino, bastante fluido y me esta gustando bastante. Voy a retomar la partida y ya os comento si afino algo más tuneando settings buscando un sweet spot.


Tengo que probar más pero parece ser que si tabulas o tocas settings se jode el rendimiento, probaré a subir la cpu a 5ghz por si mejora .
Yo estoy jugando con todo a máximo y 4K nativos sin RT (prefiero rendimiento y resolución) en una 3070 y va de fábula. Lo único que noto es que a veces, sobre todo en cinemáticas, los objetos se glitchean y se distorsionan, como por ejemplo los teléfonos móviles de la gente, además parece que algunas veces las texturas no cargan ya sea en objetos y edificios cercanos o lejanos. No se si a alguien más le pasa, tengo instalado el último driver con una instalación limpia.
Doomed Avatar escribió:Yo estoy jugando con todo a máximo y 4K nativos sin RT (prefiero rendimiento y resolución) en una 3070 y va de fábula. Lo único que noto es que a veces, sobre todo en cinemáticas, los objetos se glitchean y se distorsionan, como por ejemplo los teléfonos móviles de la gente, además parece que algunas veces las texturas no cargan ya sea en objetos y edificios cercanos o lejanos. No se si a alguien más le pasa, tengo instalado el último driver con una instalación limpia.


Es como si le costara cargar las texturas. Que le falte tiempo. Puede ser por el hdd , lo tienes en mecanico o en un ssd? También puede ser que cargue texturas en la ram y esta no pueda con todo.

Tu ram es bastante limitada.
Si se cambia algún parámetro durante la partida, el rendimiento se va a la mierda. Más allá de eso, no he sufrido pérdida de frames en partidas de más de 2 horas, por lo que estoy satisfecho con el rendimiento en términos generales.

Y en cuanto al juego en sí, fue más impactante el inicio del Arkham Asylum, con mecánicas más prácticas y desafiantes, aunado a una mejor puesta en escena.
EMC2 está baneado por "Troll"
@Bio81

No todos los juegos usan la misma calidad de reflejo, lo que se llama optimizar es recortar.

Spiderman en RT very high usa reflejos a full resolución, si se quiere rendimiento sacrificando un poco la calidad usa el setting High que renderiza los reflejos a mitad de resolución, que es lo que usan la mayoria de juegos.

Los reflejos full resolución son pesados para la GPU actuales.
EMC2 escribió:@Bio81

No todos los juegos usan la misma calidad de reflejo, lo que se llama optimizar es recortar.

Spiderman en RT very high usa reflejos a full resolución, si se quiere rendimiento sacrificando un poco la calidad usa el setting High que renderiza los reflejos a mitad de resolución, que es lo que usan la mayoria de juegos.

Los reflejos full resolución son pesados para la GPU actuales.


si tienes razón en que los reflejos de este juego pueden ser mas complejos que los de otros juegos como Battlefield V , aunque este juego para activar los reflejos a su máxima calidad aparte de una GPU tope de gama como RTX3080/Ti RTX3090/Ti para 4K necesitas mucha CPU , una 3090 Ti casi mantiene los 60fps a 4k nativo , con una 4090 los mantendría sin problemas pero siempre y cuando se acompañe de una CPU como un i7 12700K o un i9 12900K si no el uso de GPU disminuye y se desaprovecha la GPU.

Todo un señor procesador como un i9 10900k no puede mantener los 60fps , pa flipar:



si os fijáis esta con DLSS en calidad a 4k por eso el GPU load no esta cercano a 99% o al 99% sin vsync , pero aun así por la cpu no puede mantener 60 fps es decir que aunque estuviera a 4k nativo bajaría el gpu load
Pues el juego hace atragantarse a mi 5800x. No pasa de 95fps en suelo con muchos NPCS y de 100/120fps en alturas y/o cinemáticas a 1440p. A 4k también se nota cuando trata de subir de 60/70fps.

Todo esto con la confi de Digital Foundry que me parece acertada ya que pega un buen chute de FPS a costa de casi nula experiencia grafica.

Y para los que juegan con la Magia negra del DSLL activado o vas a interesar esto.
https://www.techpowerup.com/download/nvidia-dlss-dll/

Descargaros la ultima version y sustituir por el mismo archivo en la carpeta raiz del juego. Es la ultima versión y suelen dar mejores resultados graficos y visuales. Esto vale para TODOS los juegos que usen DSLL. Yo lo uso en el Monster hunter, Metro Exodus entre otros y se nota tener la ultima versión puesta siempre.

Y ya que hablo del DSLL menuda magia negra... Antes era muy exepctico y siempre intentaba jugar a resus nativas pero entre el precio de la luz y las olas de calor casi siempre lo activo en modo calidad a 1440p y siempre a 4K.

Menuda magia negra, cuesta ver la diferencia jugando y solo con los ojos casi pegados al monitor notas diferencias en imagenes estaticas.
@SECHI Todos los juegos los tengo instalados en el M2 y bueno, la RAM hasta ahora no me ha dado muchos problemas y la verdad es que no era mi prioridad cambiarla, aunque se que de frecuencia va justa. Me veo más poniéndole una 4080 cuando salga que cambiar la RAM [qmparto]. Supongo que con algún parche mejorará la cosa, pero es raro de narices, como si no priorizara la carga de texturas cercanas, además de la deformación del objetos y el flickering raro que tiene.
@KoGollin la versión de dlss es la última en Spiderman por eso está en tech power.

Saludos.
EMC2 está baneado por "Troll"
@Bio81

El uso CPU lo explican en DF, al parecer los desarrolladores trasladaron cierto calculos del Ray Tracing al CPU, es la opcion del juego que va del 1 -10. Supungo que esto lo hicieron para no hacerlo tan exigente de GPU y aprovechar los CPU actuales de muchos nucleos.

DF recomienda dejar esa opcion en 1 para CPU de 6 nucleos.

Lo positivo al final de cuenta es que los desarrolladores han dejado las opciones de configuración, para que cada usuario configuere el RT deacuerdo a su equipo.
EMC2 escribió:@Bio81

El uso CPU lo explican en DF, al parecer los desarrolladores trasladaron cierto calculos del Ray Tracing al CPU, es la opcion del juego que va del 1 -10. Supungo que esto lo hicieron para no hacerlo tan exigente de GPU y aprovechar los CPU actuales de muchos nucleos.

DF recomienda dejar esa opcion en 1 para CPU de 6 nucleos.

Lo positivo al final de cuenta es que los desarrolladores han dejado las opciones de configuración, para que cada usuario configuere el RT deacuerdo a su equipo.


si eso esta bien , pero que pida tanta cpu al activar el RT me parece una sobrada , si fuera como el cyberpunk 2077 que tiene RT para varios efectos como la iluminación , reflejos , sombras , o que usara un tipo de RT como el del Quake se entendería mas , pero en un juego como este que no es nada del otro mundo técnicamente (juego de ps4 remasterizado + RT) si mas complejo que en ps5 pero no deja de ser un juego antiguo con RT solo para reflejos , en mi opinión no esta bien optimizado por el uso que hace de la CPU , hubiera preferido que se centraran solo en la GPU y no repartieran la carga del RT entre cpu y gpu
Probando el juego con todo al máximo a 1080 es increíble como se ve, y no he tenido ningún paran ni nada, mi modesto equipo es.
GRAFICA: GeForce RTX™ 2060 VENTUS 12G OC
PROCESADOR: Intel Core i5-12400 4.4 GHz
RAM: Corsair Vengeance RGB Pro Optimizado AMD DDR4 3200 16GB 2x8GB CL16
SSD interno 1TB - WD_Black SN850 NVMe SSD con Disipador de Calor, PCIe Gen4, 7000MB/s
PLACA BASE: Asus TUF GAMING B660-PLUS WIFI D4

Y respecto al consumo:
Imagen

No es lo mejor de lo mejor pero oye se porta como un campeón [jaja]
es que el que tenga un i9 10900K de 2020 con 10 núcleos y 20 hilos ¿que tiene que cambiar a un 12700K o 12900K para jugar a 60fps estables con RT al máximo? , es que no tiene sentido.
@Bio81 Esque es imposible trasladar la carga de los reflejos a la GPU, la cosa no funciona así. Es la CPU la que siempre empieza a generar una escena por cada frame, una vez tiene su "boceto" (esto es la forma poligonal a secas o wireframe) se la pasa a la GPU para que la pinte y la represente. Cuando estás metiendo reflejos por Raytracing de toda la escena en diferentes puntos de vista en la pantalla (Diferentes ángulos de cristales, charcos, espejos etc) estamos pidiéndole a la CPU que dibuje el boceto de esa escena tantas veces por frame como sea necesario en ese momento, y cuando la tiene lista es cuando se la pasa a la GPU para que la termine de pintar. Creo que estáis pidiendo imposibles y Nixxes yo creo que de sobra es conocida por saber lo que hace con los ports a PC, y sabrá mucho mejor que nosotros como funciona el tema.

Si han dado la opción de llevar los reflejos mas allá de lo que hacen otros juegos es porque han testeado que hay actualmente CPUs que son capaces de ese trabajo (vease 12700/12900) a una velocidad razonable (60fps). Todos los vídeos que estás poniendo son con los reflejos a full resolución nativa con la distancia de dibujado en ellas al máximo con toda la carga bestial que supone eso.

Me dijiste que BFV el RT está bien optimizado, pero esque ni es un open world, ni renderiza los reflejos a resolución nativa (40% de la nativa en Ultra) además de que la distancia a la que representa la geometría en los reflejos son mínimas con un pop in acusado y no comparable las distancias usadas al máximo en Spiderman:


Otras técnicas como RTGI, AO, Sombras no son apenas pesadas para la CPU como son los reflejos porque no necesita pintar toda la escena X veces, por lo tanto comparar esos efectos en otros juegos donde su carga mayormente se encarga la GPU no tiene mucho sentido. Tendríamos que entrar a comparar cuantas veces pintan la escena, que tipo de escena y desde que distancia renderizan los reflejos RT en otros juegos.
EMC2 escribió:@Bio81

El uso CPU lo explican en DF, al parecer los desarrolladores trasladaron cierto calculos del Ray Tracing al CPU, es la opcion del juego que va del 1 -10. Supungo que esto lo hicieron para no hacerlo tan exigente de GPU y aprovechar los CPU actuales de muchos nucleos.

DF recomienda dejar esa opcion en 1 para CPU de 6 nucleos.

Lo positivo al final de cuenta es que los desarrolladores han dejado las opciones de configuración, para que cada usuario configuere el RT deacuerdo a su equipo.


El verdadero problema aqui es la descompresion de recursos. No han hecho esto por liberar GPUs menos potentes sino porque PS5 tiene chip dedicado para esta tarea y en PC DirectStorage todavia no permite realizar dicha funcion de descompresion. NO es que este optimizado para CPUs de mas nucleos es que tira de fuerza bruta del procesador para descomprimir recursos y cachear shaders.

Este port necesita trabajo. Ni un 10400 como el que tengo yo ni un 10700 pueden hacer funcionar el juego a 60fps sin caidas con ajustes de Ray Tracing en condiciones. Mi 3070 se pasa todo el tiempo de paseo. A dia de hoy el unico juego con el que sucede esto.

@garbaje_de_potanzos no es solo lo que comentas. A eso se le suma lo que explico arriba que no es poco. Si no sucediera esto, el juego funcionaria perfectamente en CPUs como las que comenta el companero al que has citado antes.
garbaje_de_potanzos escribió:@Bio81 Esque es imposible trasladar la carga de los reflejos a la GPU, la cosa no funciona así. Es la CPU la que siempre empieza a generar una escena por cada frame, una vez tiene su "boceto" (esto es la forma poligonal a secas o wireframe) se la pasa a la GPU para que la pinte y la represente. Cuando estás metiendo reflejos por Raytracing de toda la escena en diferentes puntos de vista en la pantalla (Diferentes ángulos de cristales, charcos, espejos etc) estamos pidiéndole a la CPU que dibuje el boceto de esa escena tantas veces por frame como sea necesario en ese momento, y cuando la tiene lista es cuando se la pasa a la GPU para que la termine de pintar. Creo que estáis pidiendo imposibles y Nixxes yo creo que de sobra es conocida por saber lo que hace con los ports a PC, y sabrá mucho mejor que nosotros como funciona el tema.

Si han dado la opción de llevar los reflejos mas allá de lo que hacen otros juegos es porque han testeado que hay actualmente CPUs que son capaces de ese trabajo (vease 12700/12900) a una velocidad razonable (60fps). Todos los vídeos que estás poniendo son con los reflejos a full resolución nativa con la distancia de dibujado en ellas al máximo con toda la carga bestial que supone eso.

Me dijiste que BFV el RT está bien optimizado, pero esque ni es un open world, ni renderiza los reflejos a resolución nativa (40% de la nativa en Ultra) además de que la distancia a la que representa la geometría en los reflejos son mínimas con un pop in acusado y no comparable las distancias usadas al máximo en Spiderman:


Otras técnicas como RTGI, AO, Sombras no son apenas pesadas para la CPU como son los reflejos porque no necesita pintar toda la escena X veces, por lo tanto comparar esos efectos en otros juegos donde su carga mayormente se encarga la GPU no tiene mucho sentido. Tendríamos que entrar a comparar cuantas veces pintan la escena, que tipo de escena y desde que distancia renderizan los reflejos RT en otros juegos.


buena explicación , si se que la cpu siempre procesa la imagen antes de que la GPU la dibuje por eso una CPU lenta va a ralentizar a una GPU rápida , pero la CPU según ha comentado el compañero según dice digital foundry parte de los cálculos de renderizado los han trasladado a la CPU en vez de a la GPU (la GPU utiliza los RT cores) eso es lo que he entendido yo , por otra parte si dije anteriormente que el Battlefield V tiene unos reflejos por RT mas simples que spiderman remastered , aun así el uso que hace de CPU me parece exagerado con el RT al máximo , un i9 10900K es un procesador con 2 años de antiguedad y no tiene pocos núcleos precisamente 10 y 20 hilos y con muy buen IPC por cierto
Bio81 escribió:
garbaje_de_potanzos escribió:@Bio81 Esque es imposible trasladar la carga de los reflejos a la GPU, la cosa no funciona así. Es la CPU la que siempre empieza a generar una escena por cada frame, una vez tiene su "boceto" (esto es la forma poligonal a secas o wireframe) se la pasa a la GPU para que la pinte y la represente. Cuando estás metiendo reflejos por Raytracing de toda la escena en diferentes puntos de vista en la pantalla (Diferentes ángulos de cristales, charcos, espejos etc) estamos pidiéndole a la CPU que dibuje el boceto de esa escena tantas veces por frame como sea necesario en ese momento, y cuando la tiene lista es cuando se la pasa a la GPU para que la termine de pintar. Creo que estáis pidiendo imposibles y Nixxes yo creo que de sobra es conocida por saber lo que hace con los ports a PC, y sabrá mucho mejor que nosotros como funciona el tema.

Si han dado la opción de llevar los reflejos mas allá de lo que hacen otros juegos es porque han testeado que hay actualmente CPUs que son capaces de ese trabajo (vease 12700/12900) a una velocidad razonable (60fps). Todos los vídeos que estás poniendo son con los reflejos a full resolución nativa con la distancia de dibujado en ellas al máximo con toda la carga bestial que supone eso.

Me dijiste que BFV el RT está bien optimizado, pero esque ni es un open world, ni renderiza los reflejos a resolución nativa (40% de la nativa en Ultra) además de que la distancia a la que representa la geometría en los reflejos son mínimas con un pop in acusado y no comparable las distancias usadas al máximo en Spiderman:


Otras técnicas como RTGI, AO, Sombras no son apenas pesadas para la CPU como son los reflejos porque no necesita pintar toda la escena X veces, por lo tanto comparar esos efectos en otros juegos donde su carga mayormente se encarga la GPU no tiene mucho sentido. Tendríamos que entrar a comparar cuantas veces pintan la escena, que tipo de escena y desde que distancia renderizan los reflejos RT en otros juegos.


buena explicación , si se que la cpu siempre procesa la imagen antes de que la GPU la dibuje por eso una CPU lenta va a ralentizar a una GPU rápida , pero la CPU según ha comentado el compañero según dice digital foundry parte de los cálculos de renderizado los han trasladado a la CPU en vez de a la GPU (la GPU utiliza los RT cores) eso es lo que he entendido yo , por otra parte si dije anteriormente que el Battlefield V tiene unos reflejos por RT mas simples que spiderman remastered , aun así el uso que hace de CPU me parece exagerado con el RT al máximo , un i9 10900K es un procesador con 2 años de antiguedad y no tiene pocos núcleos precisamente 10 y 20 hilos


Arriba comento. No es solo el RT en si mismo, sino la forma en la que han resuelto la descompresion y carga de recursos. Algo deben hacer porque como tu dices, no tiene sentido que una CPU como la 10900 se tenga que despeinar por esto.

El RT de este juego no va mucho mas alla que cualquier otro juego ni hablamos de un portento grafico de otro planeta. Yo no voy a pagar ni un duro hasta que lo mejoren. Paso de jugarlo asi.
zero2006xl escribió:
Bio81 escribió:
garbaje_de_potanzos escribió:@Bio81 Esque es imposible trasladar la carga de los reflejos a la GPU, la cosa no funciona así. Es la CPU la que siempre empieza a generar una escena por cada frame, una vez tiene su "boceto" (esto es la forma poligonal a secas o wireframe) se la pasa a la GPU para que la pinte y la represente. Cuando estás metiendo reflejos por Raytracing de toda la escena en diferentes puntos de vista en la pantalla (Diferentes ángulos de cristales, charcos, espejos etc) estamos pidiéndole a la CPU que dibuje el boceto de esa escena tantas veces por frame como sea necesario en ese momento, y cuando la tiene lista es cuando se la pasa a la GPU para que la termine de pintar. Creo que estáis pidiendo imposibles y Nixxes yo creo que de sobra es conocida por saber lo que hace con los ports a PC, y sabrá mucho mejor que nosotros como funciona el tema.

Si han dado la opción de llevar los reflejos mas allá de lo que hacen otros juegos es porque han testeado que hay actualmente CPUs que son capaces de ese trabajo (vease 12700/12900) a una velocidad razonable (60fps). Todos los vídeos que estás poniendo son con los reflejos a full resolución nativa con la distancia de dibujado en ellas al máximo con toda la carga bestial que supone eso.

Me dijiste que BFV el RT está bien optimizado, pero esque ni es un open world, ni renderiza los reflejos a resolución nativa (40% de la nativa en Ultra) además de que la distancia a la que representa la geometría en los reflejos son mínimas con un pop in acusado y no comparable las distancias usadas al máximo en Spiderman:


Otras técnicas como RTGI, AO, Sombras no son apenas pesadas para la CPU como son los reflejos porque no necesita pintar toda la escena X veces, por lo tanto comparar esos efectos en otros juegos donde su carga mayormente se encarga la GPU no tiene mucho sentido. Tendríamos que entrar a comparar cuantas veces pintan la escena, que tipo de escena y desde que distancia renderizan los reflejos RT en otros juegos.


buena explicación , si se que la cpu siempre procesa la imagen antes de que la GPU la dibuje por eso una CPU lenta va a ralentizar a una GPU rápida , pero la CPU según ha comentado el compañero según dice digital foundry parte de los cálculos de renderizado los han trasladado a la CPU en vez de a la GPU (la GPU utiliza los RT cores) eso es lo que he entendido yo , por otra parte si dije anteriormente que el Battlefield V tiene unos reflejos por RT mas simples que spiderman remastered , aun así el uso que hace de CPU me parece exagerado con el RT al máximo , un i9 10900K es un procesador con 2 años de antiguedad y no tiene pocos núcleos precisamente 10 y 20 hilos


Arriba comento. No es solo el RT en si mismo, sino la forma en la que han resuelto la descompresion y carga de recursos. Algo deben hacer porque como tu dices, no tiene sentido que una CPU como la 10900 se tenga que despeinar por esto.

El RT de este juego no va mucho mas alla que cualquier otro juego ni hablamos de un portento grafico de otro planeta. Yo no voy a pagar ni un duro hasta que lo mejoren. Paso de jugarlo asi.


yo no tenia pensado comprarlo hasta cambiar de GPU pero visto lo visto si no lo arreglan paso de pillarlo
@Bio81 Pero no se trata de una mala decisión al trasladar el dibujado de la escena a la CPU, esque es así como funciona y no queda otra xD PCgameshardware.de tiene un artículo que lo explica muy bien por si quieres mas info Link

Para resumir, mi conclusión en todo esto esque no es tanto culpa de Nixxes que necesite optimizar lo que ya hay (que oye si lo hacen mejor), si no que los valores de Reflejos por RT que han ofrecido en PC ahora mismo son muy bestias para la CPU al máximo y no igualados por ningún otro juego. Que no va bien la máximo en nuestros 6c/12h?? Pues bajamos un poco los valores, no pasa nada xD Igual si los del BFV nos parece que están bien, podríamos dejar los de Spiderman a valores parecidos de distancia y resolución y rendirá igual de bien. En mi caso me jodo porque tengo 8GB de VRAM y he comprobado que no son suficientes [qmparto]

Súmale lo que dice @zero2006xl que yo de eso no entiendo mucho que al final es mas sobrecarga para la CPU y bueno, el resultado es el que hay.

P.D.- Yo tampoco lo compraba, vamos es un juego que no me gusta, si he estado trasteando con el es porque esta en la Jack Sparrow Store y porque me gusta trastear con tecnologías gráficas [qmparto]
garbaje_de_potanzos escribió:@Bio81 Pero no se trata de una mala decisión al trasladar el dibujado de la escena a la CPU, esque es así como funciona y no queda otra xD PCgameshardware.de tiene un artículo que lo explica muy bien por si quieres mas info Link

Para resumir, mi conclusión en todo esto esque no es tanto culpa de Nixxes que necesite optimizar lo que ya hay (que oye si lo hacen mejor), si no que los valores de Reflejos por RT que han ofrecido en PC ahora mismo son muy bestias para la CPU al máximo y no igualados por ningún otro juego. Que no va bien la máximo en nuestros 6c/12h?? Pues bajamos un poco los valores, no pasa nada xD Igual si los del BFV nos parece que están bien, podríamos dejar los de Spiderman a valores parecidos de distancia y resolución y rendirá igual de bien. En mi caso me jodo porque tengo 8GB de VRAM y he comprobado que no son suficientes [qmparto]

Súmale lo que dice @zero2006xl que yo de eso no entiendo mucho que al final es mas sobrecarga para la CPU y bueno, el resultado es el que hay.


si , si lo se , activar RT en cualquier juego va a suponer un coste adicional a la CPU y cuanto mas complejo sea el RT mayor será el coste para la CPU , pero lo que dice digital foundry según a comentado el compañero es que la parte que hace la GPU , es decir renderizar la imagen esta compartida entre la GPU y CPU , la CPU siempre se va a encargar de hacer las llamadas de dibujado a la GPU , pero en este juego además de eso según entiendo yo también se encarga de hacer lo que hace la GPU (en parte) es decir sin hardware dedicado para RT con los núcleos del procesador , por eso se supone que pide tanta CPU
Bio81 escribió:
garbaje_de_potanzos escribió:@Bio81 Pero no se trata de una mala decisión al trasladar el dibujado de la escena a la CPU, esque es así como funciona y no queda otra xD PCgameshardware.de tiene un artículo que lo explica muy bien por si quieres mas info Link

Para resumir, mi conclusión en todo esto esque no es tanto culpa de Nixxes que necesite optimizar lo que ya hay (que oye si lo hacen mejor), si no que los valores de Reflejos por RT que han ofrecido en PC ahora mismo son muy bestias para la CPU al máximo y no igualados por ningún otro juego. Que no va bien la máximo en nuestros 6c/12h?? Pues bajamos un poco los valores, no pasa nada xD Igual si los del BFV nos parece que están bien, podríamos dejar los de Spiderman a valores parecidos de distancia y resolución y rendirá igual de bien. En mi caso me jodo porque tengo 8GB de VRAM y he comprobado que no son suficientes [qmparto]

Súmale lo que dice @zero2006xl que yo de eso no entiendo mucho que al final es mas sobrecarga para la CPU y bueno, el resultado es el que hay.


si , si lo se , activar RT en cualquier juego va a suponer un coste adicional a la CPU y cuanto mas complejo sea el RT mayor será el coste para la CPU , pero lo que dice digital foundry según a comentado el compañero es que la parte que hace la GPU , es decir renderizar la imagen esta compartida entre la GPU y CPU , la CPU siempre se va a encargar de hacer las llamadas de dibujado a la GPU , pero en este juego además de eso según entiendo yo también se encarga de hacer lo que hace la GPU (en parte) es decir sin hardware dedicado para RT con los núcleos del procesador , por eso se supone que pide tanta CPU


En concreto es la descompresion de recursos. La PS5 tiene un chip dedicado para esto llamado Kraken si no me equivoco. En PC se podria mitigar con DirectStorage.

Me preocupa que esta vaya a ser la dinamica.
@Bio81 Bueno yo me he visto el video entero y no hicieron mención a eso que dices, o no lo recuerdo. Si hicieron referencia a los draw calls de la CPU al la hora de generar reflejos por RT, pero que hayan volcado mas trabajo en ella... si podéis aportar ese dato con el vídeo en el momento que lo dicen me lo creo, si no es un castillo en el aire como aquel que dice, porque yo no entendí eso.
EMC2 está baneado por "Troll"
@garbaje_de_potanzos

La CPU no dibuja, la CPU es simplemente la encargada de dicerle a la GPU dibujame esto y es la GPU la que lo dibuja, a eso se le conoce como DrawsCall, en pocas palabras la CPU es el orquestador, le llama a la GPU y le dice dibuja esta palmera que esta aqui, pero eso actualmente no suele consumir mucha CPU, porque se usan tecnicas de optimización de llamadas desde Dx9 o Dx10 si no mal recuerdo.

En Spiderman no que da claro cuales son los calculos que se le asignado a la CPU del Ray Tracing, pero em setting grafico se refiere a rango de los objectos, por lo cual creo que se refiere a la distancia del BVH.

El BVH ya que las unidades RT de las GPU no lo crean, se le suele asignar al CPU, supungo que entre mayor sea el rango de objectos que entren en los reflejos, la CPU tendra que crear mas BVH de la geometria.

Por cierto el Ray Tracing crea otro problema de rendimiento en los juegos actuales, ya que con Ray Tracing no se puede usar culling de la geometria, por cual a la GPU le toca procesar mas geometria con Ray Tracing.
Osea que con mi i7 4790k me voy a olvidando del RT por mucha 3070 que tenga no? Xd
garbaje_de_potanzos escribió:@pdriko31 básicamente xd Imagen

Jajaja, el mio es el i7 4790k a 4.4 no el 4770k,pero imagino que será lo mismo.
@pdriko31 bueno esa web siempre me pareció un poco sospechosa que testeen tantisimos procesadores con tantísimas gráficas en tan poco tiempo, no le daba 100% de credibilidad pero una idea para saber por donde van los tiros si que vale.
garbaje_de_potanzos escribió:@Bio81 Bueno yo me he visto el video entero y no hicieron mención a eso que dices, o no lo recuerdo. Si hicieron referencia a los draw calls de la CPU al la hora de generar reflejos por RT, pero que hayan volcado mas trabajo en ella... si podéis aportar ese dato con el vídeo en el momento que lo dicen me lo creo, si no es un castillo en el aire como aquel que dice, porque yo no entendí eso.


vi el video de digital foundry y no lo comentan , se ve que el compañero o no lo entendió o lo explico mal , lo que saco en claro del video de digital foundry es que la descompresión de los assets son los que generan un alto coste de CPU
Imagen

Yo juego con esos parametros y no me puedo quejar, mi equipo no es que sea muy bueno pero mueve el juego sin problemas, mi equipo es:
GRAFICA: GeForce RTX™ 2060 VENTUS 12G OC
PROCESADOR: Intel Core i5-12400 4.4 GHz
RAM: Corsair Vengeance RGB Pro Optimizado AMD DDR4 3200 16GB 2x8GB CL16
SSD interno 1TB - WD_Black SN850 NVMe SSD con Disipador de Calor, PCIe Gen4, 7000MB/s
PLACA BASE: Asus TUF GAMING B660-PLUS WIFI D4

Grabe la partida y luce así
EMC2 está baneado por "Troll"
No como se como se puede jugar con efecto viñeta y aberración cromática, es lo primero a quitar junto al motion blur, el dof dependiendo como este implementado se puede dejar.

PD: Que tal el juego ?, Es un batman en jugabilidad?.
EMC2 escribió:No como se como se puede jugar con efecto viñeta y aberración cromática, es lo primero a quitar junto al motion blur, el dof dependiendo como este implementado se puede dejar.

PD: Que tal el juego ?, Es un batman en jugabilidad?.


Si los controles son casi identicos al de batman

He quitado el efecto viñeta y aberración cromática y gana mucho mas [oki]
@Cloud_Japan Jur el porcentaje al lado de la gráfica es su uso o el de los ventiladores?? Si es lo primero, me dices que el i5 12400 te hace cuello de botella a una 2060?? La madre que me parió al final me uno al grupo de que esto necesita optimizarse, ya sea bajando settings o que le metan mano internamente porque eso si que no me lo esperaba [+risas]

También gracias a tu video confirmo la falta de VRAM que me pasaba, tengo la 2060 Super que viene a ser algo mas rápida que la tuya pero con 8GB y veo que te está consumiendo mas de esa cantidad al rato de jugar, en esos momentos a mi me empieza a caer el rendimiento.
garbaje_de_potanzos escribió:@Cloud_Japan Jur el porcentaje al lado de la gráfica es su uso o el de los ventiladores?? Si es lo primero, me dices que el i5 12400 te hace cuello de botella a una 2060?? La madre que me parió al final me uno al grupo de que esto necesita optimizarse, ya sea bajando settings o que le metan mano internamente porque eso si que no me lo esperaba [+risas]

También gracias a tu video confirmo la falta de VRAM que me pasaba, tengo la 2060 Super que viene a ser algo mas rápida que la tuya pero con 8GB y veo que te está consumiendo mas de esa cantidad al rato de jugar, en esos momentos a mi me empieza a caer el rendimiento.


Si no me equivoco el primer dato es la temperatura, y justamente al lado es el % de uso o de carga de la grafica,lo de la cpu en otros juegos tiene menos carga que la grafica, a que te refieres con lo del cuello de botella?
garbaje_de_potanzos escribió:@pdriko31 bueno esa web siempre me pareció un poco sospechosa que testeen tantisimos procesadores con tantísimas gráficas en tan poco tiempo, no le daba 100% de credibilidad pero una idea para saber por donde van los tiros si que vale.

Bueno me lo estoy descargando y diré de primera mano que tal va todo en ultra a 1440p,por si a alguien le interesa saber como va con una cpu viejuna.
EMC2 escribió:No como se como se puede jugar con efecto viñeta y aberración cromática, es lo primero a quitar junto al motion blur, el dof dependiendo como este implementado se puede dejar.

PD: Que tal el juego ?, Es un batman en jugabilidad?.

Para gustos colores, a mí me gustan esos efectos. Para eso estamos en PC y tenemos opción a jugar como queremos.

Es muy parecido a los Batman Arkham sí. Y en mi opinión y sin querer generar debate en éste tema, aún pareciéndome un juego bastante notable, los Batman me parecen superiores. Pero esto ya es algo subjetivo donde entran los gustos de cada uno.
tanto spiderman tanto spiderman para que resulte ser un juego más, mediocre a mas no poder. Cualquier Batman es 10 veces mejor
Bueno pues probado con el pc de mi firma,me va fatal,con RT de 45 fps no pasa a 1440p y si lo quito en alto me da rascadas buenas,lo tengo que jugar en medio.bajo?vaya tela,el juego luce bien,pero tampoco no es ningun portento grafico,RDR2 me va mejor....
Eso si,el juego está guapisimo la verdad.
Yo lo he probado unas 4/5 horas y flipando en colores con el rendimiento, lo muevo a 4k/60fps con un ryzen 5 3600 y una 1080ti, menuda bestialidad se han marcado en ese aspecto...y todo esto en ultra, sin RT lógicamente por qué, por mi gpu no puedo activarlo

Imagino que todos los problemas de rendimiento de los que hablan son por temas de raytracing, pero asumo que eso no es tanto culpa del juego, si no de la tecnología en si, que consume un montón de recursos y las tarjetas actuales no dan la talla, razón por la que tienen que tirar de movidas como el DLSS

Definitivamente lo compraré y a precio completo, primero, por qué el rendimiento es una maravilla, segundo, por qué quiero que Sony gane esos 300 millones que tenían presupuestados, por qué quiero ver más juegos de PS en PC, así me ahorro comprarme otro pisapapeles cómo consola, eso sí, le daré 1 o 2 meses antes para esperar a ver qué logra hacer la peña en temas de mods

Esperando el Miles Morales que ya está anunciado y a ver si se animan con Bloodborne de una jodida vez 🙏🏻
678 respuestas
15, 6, 7, 8, 914