Rendimiento DirectX 12 y API PS4

Bueno las colisiones le hacen falta a la CPU si no es que no hay juego, los personajes tendrán que chocarse contra las cosas. Además este puede ser destruible y cambiar etc..etc. Por eso todas esas cosas que muestran no dejan de quedarse en demos, no parece aplicarse mucho en juegos, desde luego en los juegos se quedan muy muy lejos como vemos. Se supone que se debe evolucionar a mayor realismo, a ver si se empieza a usar todo de una vez porque vamos entre las demos con miles y miles de partículas colisionando y los juegos donde salen 10 y ya tenemos que andar dando las gracias... Para ir hacia adelante lo suyo seria el escenario en el espacio común y que cada unidad se encargue de lo que mejor se le de. No creo que por tener un ancho de 30 GB/s o similar sea problema para el procesamiento, así no hay que andar repitiendo los datos de colisiones para la CPU y GPU.

Tampoco es requisito usar el 100% del HSA, si para algo solo te hace falta el espacio común, pues bien, si para otra cosa necesitas 2 características, pues bien. El caso es tenerlas y aprovecharse de lo que haga falta en cada caso. El uso de los huecos es lo mismo, el caso es tenerlos y puede ser para ejecutar un GPGPU estándar sin mas o para ejecutar procesamiento HSA en lo que se pueda. No deja de ser como tener una GPU con X CUs visto que rara vez están todos al uso para render.
Lo que no se puede seguir es dejarlo como si no estuviera ahí.
Buenas gente.

@J_Ark de nada [beer] me gustaría escribir mas en el hilo, lo leo pero tengo poco tiempo.

@papatuelo qué incidencia tiene el aumento de los draw calls en la iluminación?. La verdad es q dándole un poco de vueltas no veo ninguna incidencia o prácticamente ninguna [+risas] , no entiendo muy bien pq hizo esa declaración.

Hoy en día casi todo el mundo usa un Compute Shader para calcular la iluminación (ya sea para obtener una lista con las luces de la escena o para componer un deferred), por lo q el número de drawcalls no influye en prácticamente nada. Tb hay q tener en cuenta que al tener más luces mas cálculos hay que hacer y tb que hoy en día el número de luces por frame no debe suponer mucho problema. Te toparías antes con otros cuellos de botella cuando calculas la iluminación que el número de llamadas. Donde si podría tener más impacto es en el cálculo de las sombras, pero tb depende de como envíes la geometría...habría que probarlo y sería un estudio interesante [oki] , de hecho la creación de distintos command buffers en paralelo para renderizar las sombras sería curioso...me lo apunto.

Con respecto a los resultados que pones, solo con esos datos no puedes asegurar que estés limitado por el command processor, necesitarías un profiler para saber donde tienes el cuello de botella si realmente lo tienes, puede que la GPU esté al 100% o casi. De hecho sería bastante complicado que el command processor fuera un factor limitante en condiciones normales (e incluso no tan normales). A parte de q en un software real no necesitas tantísimas drawcalls y si las necesitas es q algo estás haciendo mal [+risas] , la GPU se saturaría antes o perdería rendimiento por otros factores.

@darksch es q el ejemplo del sistema de partículas realmente no es demasiado bueno para mostrar el espacio compartido de direcciones [+risas] . Si ahora hablamos de colisiones personaje/escenario...tengo mis dudas, ten en cuenta q no todas las tareas se ajsutan bien a la arquitectura de una GPU y ejecutarla en esta puede ser contraproducente, tiene q tener una serie de características (tamaño del problema, independencia de tareas...).

Ese ejemplo que te he puesto es un benchmark como todos los q están saliendo de Directx12 por ejemplo, y los benchmark hay q tomárselos como lo que son, no se pueden extrapolar a un software real. No obstante hay un paper de la GDC de Sucker Punch hablando de como hicieron las partículas en Infamous muy interesante.

Por último te recomiendo que le eches un ojo a este paper http://amd-dev.wpengine.netdna-cdn.com/ ... /hsa10.pdf que puede aclararte muy bien lo que es la arquitectura HSA pq creo q tienes una pequeña confusión al respecto.

Un saludo.
@polyteres

El profiler lo tiene Dan Baker y ya lo dijo,
la prueba solo es eso, una prueba de lo q Dan Baker dijo.
Da igual que puedas poner infinitas fuentes de luz si la maquina, renderizando el resto de elementos, solo puede con X fuentes de luz.

Sería algo así como "tengo una bestia de janders Tflops y con DX11 estaba limitado a X drawcalls (¿esto es así?, ¿Dx11 limitaba el nº de drawcalls por algún motivo?), con lo que por mucha chicha que pusiese solo podía dibujar esas X cosas (en este caso, luces). Ahora que me han aumentado las drawcalls que puedo realizar, ya puedo crear casi las que me salga del rabo porque la GPU tenía margen".
He cometido un error del que me alegro un monton, no compara 1080p vs 2k en el enlace que pase.

Y me alegro porque tengo un crossfire de 7950 y me preocupaba el tema del command processor.

Aunque como digo, ya dijo Dan Baker que si puede haber cuello de botella en el command.
Lo del cuello de botella en el command processor ya lo dijo anandtech cuando se publicaron los primeros benchmarks de directx12.
Pada escribió:Lo del cuello de botella en el command processor ya lo dijo anandtech cuando se publicaron los primeros benchmarks de directx12.


Claro que lo dijo anandtech, pero por que se lo dije Dan Baker a ellos.
Se de que va HSA, y habrá elementos paralelizables, otros que no, y mil cosas más.

Ya he dicho más de una vez que no hay porque usar el 100%, en cada caso se usará lo que se pueda. Pero el caso es usarlo.

De hecho el punto 2.1 de ese documento lo expone a la perfección.
Nuevamente te estás cerrando mucho en "como se hacen ahora", cuando precisamente eso es algo nuevo, no tiene ni por que coincidir las conveniencias con un modelo tradicional puramente GPGPU.
El simple hecho de usar recursos sin aprovechar.
Si hasta sirve para hojas de cálculo, la verdad que nunca me esperaría que en eso funcionara así. Puede servir para mil cosas más.

Respecto a lo de las partículas, ya me extenderé un poco en otro momento que desde el móvil no...
Buenas gente.

@papatuelo le he estado echando un ojo al artículo de anantech del que se está hablando. Si estás saturando el command processor en un software real, más allá de un benchmark hecho ex profeso para mostrar el número de drawcalls, es q tienes un problema o algo estás haciendo mal. Teniendo en cuenta que los juegos más punteros usan menos de 10.000 drawcalls...

En ese mismo artículo con una 750ti (nada del otro mundo) se consiguen 7.5 millones de drawcalls lo q a 30fps (algo equilibrado para esta gráfica) nos da mas de 250.000 llamadas por frame. Si tu juego necesita mas de 250.000 drawcalls por frame, después incluso de usar bundles, instanciación, batch, indirect draw y todo lo q ponen a tu disposición las GPUs actuales es q tienes un problema y grave o q lo has hecho a caso hecho para saturar el command processor.

Por otro lado si te lo propones puedes saturar cualquier parte de una GPU, tan solo hay que buscarle las cosquillas al hardware... En un benchmark cuya finalidad es comprobar el número de drawcalls que puedes hacer es hasta lógico q satures el command processor, significa que el benchmark está haciendo bien su trabajo. Ahora de ahí a pensar que en un software real, un juego, el command processor será un cuello de botella va un trecho y no es un escenario realista.

Un saludo.
Polyteres, te digo lo mismo que te ha dicho Darksch y ya te lo dije en el pasado, siempre dices que las cosas no son así porque ahora no se hacen así. Tu mismo has dicho que hoy en día se intentan limitar las llamadas con x herramientas. Pero, ¿y si no hiciera falta?

DirectX 12 and Mantle: Can they deliver movie quality?
Published on Sunday, February 08, 2015 By Frogboy In PC Gaming

A couple weeks ago I wrote about DirectX 11 vs. DirectX 12 and how they worked.

Bottom line: DirectX 11 stuffs all the commands to the GPU through a single pipeline. DirectX 12 makes it parallel. In theory, you could see an Ntimes boost (N = number of cores).

The article got a lot of coverage with some people arguing that such massive gains due to a platform change were impossible.

I had the advantage of knowing that Star Swarm was going to be benchmarked on DirectX 12 vs. DirectX 11: http://www.anandtech.com/show/8962/the- ... star-swarm

In the AnandTech article: The AMD GPU (which is the brand the consoles use) got a 5X (500%) performance boost just by having the game (which was originally optimized for DirectX 11) updated to use DirectX 12 instead.

You can see their video here: https://www.youtube.com/watch?v=ilVq4kRedcw. Note that this is just a quick engine demo. Having decent textures and such wouldn’t have affected the performance.

The software matters: DirectX 9 vs. DirectX 12 on same hardware

Hardware is only part of the picture and in fact, these days, a relatively small part of the picture. The biggest monster machine I have available to me (Core I7 5960X with a Radeon R9 290X) is still going to top out at around 8000 batches on DirectX 9 for the typical developer. On Mantle or DirectX 12, however, that same hardware can do >100,000 batches.

Terminology: Number of batches.

This is how much information can be put on the screen in a given frame. The more batches, the more sophisticated the scene. The next big debate will be how many batches does a scene need before the typical viewer will think it’s “real life”. they’re looking at.

You want >30FPs (or better yet over 60FPS) so then it’s just a matter of how many batches can you shove into a scene and keep it at that speed?

Batches directly tied to on screen sophistication

Look around your room. How many sources of light are there? I have 3 monitors and about a half dozen light bulbs in this room. Those lights are bouncing off drink glasses, my desk, the monitor, etc.

Now, how many light sources does a typical game today have? 4? I saw someone on a forum laughing because I didn’t know what I was talking about because they saw an example of 8 light sources. Eight.

A real life battle scene would likely have hundreds or thousands of different light sources involved. In a game today, only 4 (or EIGHT) of those lights are going to be real. You may not notice this but your brain will. And that’s just lighting. Plus, real world temporal anti-aliasing, much greater material sophistication and all the other things that are pre-requisites to have something that looks real or at least not blatantly plasticy. And as Oxide’s Dan Baker points out, we haven’t really touched on lens effects.

Batch count survey

Best guesses below. Would be great to get exact numbers from some enterprising game developer (hint hint).

Platform

Max Batch Count on a Radeon HD 7790

DirectX 9 4,000
DirectX 11 11,000
DirectX 12 / Mantle 50,000

This presumes 30fps at 720p. I haven’t tried out DirectX 9 at 1920x1080 with that level card and am too lazy try to now.

Frames per second needs to die
FPS needs to die as a benchmark result. Let us presume that 30fps or 60fps is a prerequisite at this stage of the game. The question is therefore, how many batches per frame can a piece of hardware or software deliver and still hit those 2 minimum qualifiers?

Using FPS at this stage is like arguing processor power based on MHZ.

When is it Star Wars prequel level?

I got quoted as saying that by the end of the current console generation that you’ll have games that are able to do LOTR-like battle scenes. I stand by that. I’m putting it here, in writing, on this blog so people can point back to it in a few years and see if I was right (or tragically wrong).

But we can have a useful debate on it now: Is 50,000 batches in a given frame enough to produce a scene of sufficient fidelity that the typical viewer will find it realistic? We have had this debate internally a lot over the past year. Our lead graphics dev says you’d really need more like 300,000 batches. My position is that at 50,000 you reach well into the “good enough” range provided that the engine is doing a lot of optimizing (LOD, good use of built in hardware features, etc.).



I’m pretty sure this can be done with 50k batches at 24fps. They don’t even have real light. Seriously, go back and watch the prequels, most of their explosions might as well be cartoons.



This is very doable at 50k batches.



With smart LOD, yea, I think this can be done with 50k batches per frame to a level as to make the typical viewer not tell the difference. (this scene is admittedly vastly more sophisticated than that, look closely at the light reflections on the people then point and laugh at the Gungans above. It’s okay. They’re used to it.).



Next Up: TXAA, GPU computing
As GDC gets closer, I am going to try to dive into why Mantle, DirectX 12 and other upcoming architectures are a big deal besides just in making the screen prettier or faster in a given frame.

AMD and NVidia have some amazing features built into their hardware that are scarcely used because of the CPU to GPU bottleneck that is now being addressed. In addition, a lot of interesting things start to become possible when the CPU and GPU total computing power can finally be effectively merged instead of segregated as they are currently.
Eso ya lo veremos a final de generación. Lo de que en juegos no se podrá saturar el command processor digo.
Bueno a lo que iba. El problema de hacerlo todo en la GPU es que es su mundo aparte, por eso principalmente todo lo que nos dan son demos. Queda muy bien pero el problema es llevarlo al mundo real. Los principales problemas del GPGPU son:
- Debe ejecutarse enteramente en la GPU, así que tiene que ser como algo aparte. Si no hay que andar con copiados que son otro problema asociado.
- Debe ser totalmente paralelizable, lo cual no siempre es fácil o posible siquiera. Por cada parte en serie te quedará una unidad de la GPU muerta sin hacer nada (o mucho menos de lo que podría).

Esos problemas con HSA desaparecen. No es necesario copiar ni crear un espacio exclusivo GPU que el resto del programa no vea, y un proceso puede adecuarse a parte en serie y parte en paralelo a lo más conveniente.

En caso de partículas, el problema es el mismo, para que te corra bien en GPGPU resulta que tu escenario tiene que estar en la GPU, es algo aparte e inmutable, y de cambiar pues habría que estar haciendo las copias oportunas, seguramente echando al traste la idea de rendimiento. En esa demo, si el escenario cambiara qué pasaría, o con el resto de elementos del juego, si pasa un camión las partículas lo atravesarían, o haría falta copiar datos para que la GPU lo "viera". Aquí puede verse bien, como en el CryEngine hay que crearle su propio mapa de físicas sólo para la GPU, en lugar de usar el mapa de colisiones del propio juego.
https://youtu.be/WtfTqV2ZPO0
Esto en arquitecturas de memoria unificada es doblemente malo porque nos obliga a tener duplicado un mapa sobre la misma memoria, desperdiciando espacio incluso.

En ningún caso el documento HSA especifica que deba darse un cierto reparto de en serie/paralelo, al mismo tiempo, aunque tu proceso no sea HSA-compliant, si puedes aprovecharte de alguna característica de arquitectura HSA para sacar rendimiento pues ya está, como es el caso de la memoria unificada para procesar con GPU elementos del juego.

Viendo esto:
http://www.dualshockers.com/2014/09/03/ps4s-powerful-async-compute-tech-allows-the-tomorrow-childrens-developer-to-save-5-ms-per-frame/
Imagen

Lo que yo digo es que aún hay mucho margen. Para empezar pilla toda parte paralelizable de los procesos que se estarán cargando en la CPU y cárgalo en la GPU ociosa. Sólo con eso la CPU AMD seguro que lo va a agradecer mucho. Si es un 10% vale, si es un 20 vale y si es un 50 pues igualmente vale. Pero sea lo que sea descarga. La ventaja de HSA es que no hay que andar como en el GPGPU separando radicalmente una cosa de la otra.
Imagen

Si aún así te queda parte de la GPU libre, pues se puede seguir ocupando con procesos que sean 100% paralelos o que puedan ejecutarse enteramente en la GPU, como partículas que no interactúen con el resto (de las que flotan en el aire por ejemplo), e incluso elementos que sí lo hagan, aunque sólo aproveches en ese caso la memoria unificada de HSA.

Sea como sea, sigo viendo mucha mejora posible. Eso sí, hay que usarlo, no se va a usar solo.
@darksch interesante eso que comentas de las particulas, pero HSA solo ayudaría a hacer mejor el cliping de las particulas, no ? Para generarlas seguira haciendo falta mucha potencia bruta, no ?

josemurcia escribió:Si tienen un pipeline forward+ y han hecho downgrade masivo es porque ni con esa técnica completamente nueva han conseguido milagros. Las consolas nuevas no dan para más y hay que asumirlo.

Eso empiezo a pensar yo ... Mark Cerny dijo que llevaria 3 años empezar a exprimir bien la PS4 ... como no veamos resultados rápido ... [triston]

josemurcia escribió:
josemayuste escribió:¿El motor de The Witcher 3 es Forward+? :-?

Así lo anunciaron hace 2 años.
http://www.examiner.com/article/possibl ... nouncement

A flexible renderer prepared for deferred or forward+ rendering pipelines has a wide array of cinematic post-processing effects, including bokeh depth-of-field, color grading and flares from many lights.

Dicen que el motor soporta Forward+, pero habría que ver a que nivel, es como Crytek con el Ryse, que su motor también soportaba Forward+, pero algunas cosas no las soportaban aun, y al final usaron algo hybrido con deferred.
@cercata serviría para que pudieran integrarse con el mundo del juego en toda su extensión y que no existan únicamente en ese "mundo aparte de la GPU". Así por poner un ejemplo podrían rebotar contra los elementos móviles de la escena (vehículos, etc) y/o permitir que el escenario cambie (por destrucción) sin que haya que actualizar ese mapa en la GPU (consumiendo tiempo). Aparte de no tener el escenario repetido para que lo use la CPU (gameplay) y la GPU (en sus menesteres). Ventajas por doquier, flexibilidad.
Noticia sin sentido, hace 2 meses que se liberó la preview de DX12 en la preview(valga la redundancia) de W10. Llevamos 2 meses viendo resultados de ese benchmark y este no es nada nuevo.
Yo pensaba que los PCs en el futuro acabarian pareciendose a los consolas actuales, pero este articulo me ha iluminado:

https://josepjroca.wordpress.com/2015/05/28/el-retorno-del-cbea-en-espiritu/

En el futuro PCs y consolas serán como las consolas actuales mas una GPU discreta:
- La GPU integrada dentro de la misma APU que la CPU, compartiendo caches y un zona de memoria externa con HSA, para hacer de GPGPU.
- Y una GPU discreta muy potente fuera con sus ventiladores, como las actuales pero con memoria HBM, para los graficos.

¿ Que os parece ?
Que al ritmo que van las cosas, no me extrañaria que se mac-izasen los pcs.

Gama A, gama B, ... Seria todo mucho mas sencillo para todos. Mayor rendimiento, mayor estabilidad, mayor control.
Nuhar escribió:Que al ritmo que van las cosas, no me extrañaria que se mac-izasen los pcs.

Gama A, gama B, ... Seria todo mucho mas sencillo para todos. Mayor rendimiento, mayor estabilidad, mayor control.

No gracias.
No se comenta lo que ha dicho el Project Cars de 30/40% en su juego? Parece algo asi como los datos reales que estabamos esperando, y la verdad es mucho mucho mas de lo que yo esperaba, contandome en un grupo mas optimista que pesimista.
NeCLaRT escribió:No se comenta lo que ha dicho el Project Cars de 30/40% en su juego? Parece algo asi como los datos reales que estabamos esperando, y la verdad es mucho mucho mas de lo que yo esperaba, contandome en un grupo mas optimista que pesimista.

Sabiendo que esa mejora es en PC, yo es más o menos lo que me esperaba teniendo en cuenta lo CPU-intensivo que es el juego.
josemurcia escribió:
NeCLaRT escribió:No se comenta lo que ha dicho el Project Cars de 30/40% en su juego? Parece algo asi como los datos reales que estabamos esperando, y la verdad es mucho mucho mas de lo que yo esperaba, contandome en un grupo mas optimista que pesimista.

Sabiendo que esa mejora es en PC, yo es más o menos lo que me esperaba teniendo en cuenta lo CPU-intensivo que es el juego.


En pc? Pero si lo dijo en el foro de xbox one... Igual se confundio de foro
Nuhar escribió:
josemurcia escribió:
NeCLaRT escribió:No se comenta lo que ha dicho el Project Cars de 30/40% en su juego? Parece algo asi como los datos reales que estabamos esperando, y la verdad es mucho mucho mas de lo que yo esperaba, contandome en un grupo mas optimista que pesimista.

Sabiendo que esa mejora es en PC, yo es más o menos lo que me esperaba teniendo en cuenta lo CPU-intensivo que es el juego.


En pc? Pero si lo dijo en el foro de xbox one... Igual se confundio de foro


josemurcia escribió:Imagen


12-14 da la suma de lo que dice el tio este
Nuhar escribió:Que al ritmo que van las cosas, no me extrañaria que se mac-izasen los pcs.

Gama A, gama B, ... Seria todo mucho mas sencillo para todos. Mayor rendimiento, mayor estabilidad, mayor control.

Yo pensaba que eso iba a pasar con la Steam Machines ... pero parece que no.

NeCLaRT escribió:No se comenta lo que ha dicho el Project Cars de 30/40% en su juego? Parece algo asi como los datos reales que estabamos esperando, y la verdad es mucho mucho mas de lo que yo esperaba, contandome en un grupo mas optimista que pesimista.

Cuando saquen el parche DX12 y veamos los benchmark, entonces hablaremos.
Ahm, ok,

Pues no se para que escribe eso en el foro de Xbox cuando es en PC...
Nuhar escribió:Ahm, ok,

Pues no se para que escribe eso en el foro de Xbox cuando es en PC...


Un poco abajo achaca eso al boton de new posts del foro, que lo usa mucho. Que hay muchos posts nuevos en los que tiene que responder, que se pierde y a veces no sabe ni en que subforo escribe ni si es lo suficientemente preciso con sus declaraciones, y que lo siente, pero que aun y todo es un buen boost para la one
Zokormazo escribió:12-14 da la suma de lo que dice el tio este

Esa es la mejora total que se espera, pero la mejora debido a DX12 es del 7%, el otro 5-7% se consigue con la API actual.
josemurcia escribió:
Zokormazo escribió:12-14 da la suma de lo que dice el tio este

Esa es la mejora total que se espera, pero la mejora debido a DX12 es del 7%, el otro 5-7% se consigue con la API actual.


Se supone que la api actual tiene cosas de dx12, de ahi que siempre hayamos dicho que no iba a tener tanta ganancia.

Mas o menos la mitad que en PC... lo que decía yo.

De todas formas tampoco parece tener claro lo de xbox, me imagino que es porque aún no han hecho el port.
Como ya dije en el hilo de PCARS, la beta de DX12 para PC lleva solo 2 meses disponible. No tenía mucho sentido que ya hubiese thirds testeando DX12 en ONE habiendo salido hace tan poco en PC.

Y bueno, hay que tener claro que ya dijo que parte de las optimizaciones de este 5-7% también se aplican a PS4, por lo que si hablamos de la mejora del DX12 es exclusivamente ese 7%.
Pues menudo puto lio que ha montado jajaja

Asi que un 7% de mejora para todos porque no han depurado su trabajo y luego que si eso igual un 7% en xbox one pero a ojo... Vamos, que puede ser 0 o puede ser 50.
Nuhar escribió:
josemurcia escribió:
Zokormazo escribió:12-14 da la suma de lo que dice el tio este

Esa es la mejora total que se espera, pero la mejora debido a DX12 es del 7%, el otro 5-7% se consigue con la API actual.


Se supone que la api actual tiene cosas de dx12, de ahi que siempre hayamos dicho que no iba a tener tanta ganancia.

Mas o menos la mitad que en PC... lo que decía yo.

De todas formas tampoco parece tener claro lo de xbox, me imagino que es porque aún no han hecho el port.

7 es la mitad de 30-40? Es más bien una 5a parte.
cercata escribió:Yo pensaba que los PCs en el futuro acabarian pareciendose a los consolas actuales, pero este articulo me ha iluminado:

https://josepjroca.wordpress.com/2015/05/28/el-retorno-del-cbea-en-espiritu/

En el futuro PCs y consolas serán como las consolas actuales mas una GPU discreta:
- La GPU integrada dentro de la misma APU que la CPU, compartiendo caches y un zona de memoria externa con HSA, para hacer de GPGPU.
- Y una GPU discreta muy potente fuera con sus ventiladores, como las actuales pero con memoria HBM, para los graficos.

¿ Que os parece ?

Las CPU deben sustituirse por APU, como ya se han visto resultados increíbles al usar un modelo HSA. Pero claro dependiendo de Intel...

Lo de la GPU discreta quedará a elección del usuario, ya que en computación (uso de HSA) no se ocupan todas las unidades ni de lejos de la APU, de hecho usando las que queden libres del render es más que suficiente, y para eso están las nuevas tecnologías y API que permiten usarlas en paralelo.
Quien quiera un boost adicional para gráficos exclusivamente, pues añade una gráfica discreta y listo. Lo que va quedando demostrado es que la GPU discreta para lo que se ha querido usar no es conveniente. Ese aislamiento no es factible en la práctica.

DX12 will add probably another 7% or more to Xbox for us.

Es decir que ni idea. Estos en XOne no han tocado aún el DX12.
David Ricardo escribió:7 es la mitad de 30-40? Es más bien una 5a parte.


Que pensaba que era 7 del parche actual + 7 del dx12, como es a ojimetro y tal pues mas o menos era la mitad, pero luego ya he dicho que me estaba liando con sus declaraciones :P

Que lo del parche actual es para todos y pensaba que era exclusivo de xbox.
No dice que vaya a ser la misma mejora en ONE y PS4 con el proximo parche, sino que parte de esa mejora también se aplica a PS4:

Also, and less impressively, the 5ish% improvement we've found on Xbox One also adds a little to PS4.


EDIT: Por cierto, unas palabras de Ian Bell sobre misterxmedia, Parasyte76 y compañía:

Nothing I can say will stop the lunatic fringe from giving it their all.

It's all marketing.


http://forum.projectcarsgame.com/showth ... post942648
Ah bueno, eso ya es una cosa mas normal. Aun asi bastante decente para ser con parches a posteriori.
Desde luego ya sabemos que DX12 no son las locuras de misterxmedia mellado y demás.
Creo que os creiais mas la "superpotencia" de d12 los de fuera del foro de xbox one que los del propio foro ( en la mayoria)
Grinch escribió:Creo que os creiais mas la "superpotencia" de d12 los de fuera del foro de xbox one que los del propio foro ( en la mayoria)

No creo cuando la mayoría de posteadores habituales postean en otro foro. Con que se busque un poco se pueden leer mixtermediadas varias: viewtopic.php?p=1738079800

De todas maneras tampoco es algo que deba tratarse en el hilo, simplemente no estaba de acuerdo con tu afirmación.
J_Ark escribió:
Grinch escribió:Creo que os creiais mas la "superpotencia" de d12 los de fuera del foro de xbox one que los del propio foro ( en la mayoria)

No creo cuando la mayoría de posteadores habituales postean en otro foro. Con que se busque un poco se pueden leer mixtermediadas varias: viewtopic.php?p=1738079800

De todas maneras tampoco es algo que deba tratarse en el hilo, simplemente no estaba de acuerdo con tu afirmación.


He dicho mayoria. Yo posteo por alli, @nuhar tambien erick tambien etc y no creemos que direct 12 sea potencia magia revolucionaria. Creemos que sera beneficioso ? si . QUe dara un empujon y mejorara ? si. Todo lo demas tendra que demostrarlo.
Tambien los "habituales" del otro bando exageran un huevo la potencia de d12 o la nube unicamente para mofarse. Es como creerse esa superpotencia del 50% powa de ps4.

Pero aun asi creo que hay mas gente fuera de xbox one que cree que creemos que el d12 nos dara un potencia maxima que lo que realmente es. Pero bueno . Como ejemplo podria ponerte varios enlaces pero es mas rapido. Pasate por expruebas y flipas xD .


Lo dicho la gran parte de one ( no todos) cree que d12 sera un buen empujon no poderes magicos.
Y gran parte de "haters" ( no todos) se creen que creemo que d12 nos dara el 50% de power o lo que sea.

Yo me esperare a que me lo demuestren y luego dare las gracias o no. Por ahora ando satisfecho con el rendimiento de la one . Compre lo que esperaba :)

Pero como todo. Opiniones como culos. Cada uno con el nuestro xD
No se, yo he visto un montón de veces a @josemurcia o @polyteres intentar llevar al hilo algo de cabeza de la que me hablas (esperad a que salgan datos palpables en consola y no en PC) desdiciendo flipadas de las que hablamos y no han sido pocos los que se les han tirado a la cabeza llamándoles de trolles para arriba, mientras que nadie decía ni pío para defenderle. No se, que lo diga ellos, pero lo que me cuentas es muy bonito y teórico pero no es lo que he podido ver en el hilo.
Aunque es un usuario que no se casa ni con ps4 ni con one si va muy a saco con cualquier informacion ... vease expruebas.

Pero bueno lo dicho hay casi o mas "fans" de d12 en el lado contrario que en el lado verde. xD Ya sea de una forma u otra.

Porque alli dices que se le tiran bien... porque la noticias que ultimamente esta poniendo en expruebas no las pone por aqui ?. Pues porque alli se trolea libremente y aqui no se puede. Aqui la gente le discutira con otras pruebas etc.
Y conste que no tengo nada contra josemurcia.

Insisto y lo dejo aqui ^^ hay mas "fans" que creen de verdad que la mayori pensamos que d12 es algo magico que multiplacara por X la potencia de la one que los que de verdad lo pensamos.

Cada uno con su pensamiento . No voy a defender ni a un bando ni a otro.

Y a polytress se le "echo casi " del foro por que se le pillo en muchas contradicciones dichas por el mismo . Ademas insisto que si se llama troll o algo reportar y alli seas "azul" o "verde" se es sancionado por igual . Dudo que @ahona o @[erick] den preferencia como muchos pensais a un lado u a otro . Y josemurcia fue baneado del subforo por ellos. No por los usuarios.

Y con esto lo dejo por que es mas tema de feedback y tu tienes tu opinon y yo otra. Y este se vuelve bucle ^^ Asi que voy a seguir con el the witcher un rato hoy que puedo ^^
Nuhar escribió:
Que pensaba que era 7 del parche actual + 7 del dx12, como es a ojimetro y tal pues mas o menos era la mitad, pero luego ya he dicho que me estaba liando con sus declaraciones :P

Que lo del parche actual es para todos y pensaba que era exclusivo de xbox.

Ya, ahora mirándolo a posteriori me doy cuenta que tienes un mensaje justo antes del mío donde lo dices, así que discúlpame por apretar el gatillo de enviar sin haber leído todo antes.

La cosa queda en el caso concreto de project cars en una mejoría probablemente de un 7% o más gracias a DX12 y una mejoría de entre 5-7% debido a otras optimizaciones que en parte se pueden usar para otros sistemas.

@Grinch No en todos los foros se modera igual. En los foros monoplataforma se tiene más manga ancha con los fans de la máquina en cuestión y menos con la gente que tenga opiniones críticas. No quiere decir que se discrimine a nadie. Si vas al foro contrario, encontrarás que pasa lo mismo en sentido contrario.
Grinch escribió:Aunque es un usuario que no se casa ni con ps4 ni con one si va muy a saco con cualquier informacion ... vease expruebas.

Pero bueno lo dicho hay casi o mas "fans" de d12 en el lado contrario que en el lado verde. xD Ya sea de una forma u otra.

Porque alli dices que se le tiran bien... porque la noticias que ultimamente esta poniendo en expruebas no las pone por aqui ?. Pues porque alli se trolea libremente y aqui no se puede. Aqui la gente le discutira con otras pruebas etc.
Y conste que no tengo nada contra josemurcia.

Insisto y lo dejo aqui ^^ hay mas "fans" que creen de verdad que la mayori pensamos que d12 es algo magico que multiplacara por X la potencia de la one que los que de verdad lo pensamos.

Cada uno con su pensamiento . No voy a defender ni a un bando ni a otro.

Y a polytress se le "echo casi " del foro por que se le pillo en muchas contradicciones dichas por el mismo . Ademas insisto que si se llama troll o algo reportar y alli seas "azul" o "verde" se es sancionado por igual . Dudo que @ahona o @[erick] den preferencia como muchos pensais a un lado u a otro . Y josemurcia fue baneado del subforo por ellos. No por los usuarios.

Y con esto lo dejo por que es mas tema de feedback y tu tienes tu opinon y yo otra. Y este se vuelve bucle ^^ Asi que voy a seguir con el the witcher un rato hoy que puedo ^^


Curiosamente cuando aparecen comparativas de versiones en portada se ve lo mismo que criticas pero en la otra direccion,que lo del 50% more powah se lo creyeron mas los que no tienen una PS4 que los que la tienen,y precisamente algun forero habitual de multi lo ha mencionado o lo ha usado a modo de mofa y no has comentado nada al respecto.

Y por mucho que se diga,solo hay que visitar el foro de Xone para ver de lo que se habla sobre DX12,y mas de uno pregona la palabra.

Ahora estoy leyendo lo de la mejora de project cars gracias a DX12 y es algo dentro de lo esperable,pero para nada las cantidades que se han visto por aqui.

Un saludo.
Eso del 50% por aquí fue el día a día de meses y meses, no faltemos a la verdad. Por mucho que visto lo visto haya acabado desapareciendo súbitamente.

Igual que el aquí (ONE) no hay nada que ver (dx12), que al final no sabían tanto como se decía y igual si estaban bien contestados. La gran mayoría que apostó por esperar o cifras razonables acertó, o almenos hoy día parece que acertó.
NeCLaRT escribió:Eso del 50% por aquí fue el día a día de meses y meses, no faltemos a la verdad. Por mucho que visto lo visto haya acabado desapareciendo súbitamente.

Igual que el aquí (ONE) no hay nada que ver (dx12), que al final no sabían tanto como se decía y igual si estaban bien contestados. La gran mayoría que apostó por esperar o cifras razonables acertó, o almenos hoy día parece que acertó.


Lo del 50% lo he visto mas veces nombrados por gente que no le interesa la consola que por gente que si le interesa,y un 50% mas de potencia es una burrada que se notaria directamente con los primeros titulos.

Supongo que el que solo se guiara por Tflops pues se creyo que en todo PS4 era un 50% mas potente,cuando hay mas cosas a tener en cuenta a parte de los Tflops.

Es perfectamente que alguno que se lo creyera,tras ver la realidad en los juegos ya se ha dado cuenta que de 50% nanai,por eso el tema ha aparecido tan subidamente,no se le ha dado coba con que si faltan parches o es que hay que saber aprovechar la maquina y tal.

Por mi parte dejo de lado el off-topic,que tampoco es para que hagamos un debate sobre el tema.

Un saludo.
Hasta al propio erick se le ha linchado y acusado de troll en el foro del interior de xbox one.
Así que no digamos tonterías.
Y es un vergüenza la forma en la que se ha tratado a Polyteres.
NeCLaRT escribió:Eso del 50% por aquí fue el día a día de meses y meses, no faltemos a la verdad. Por mucho que visto lo visto haya acabado desapareciendo súbitamente.

Igual que el aquí (ONE) no hay nada que ver (dx12), que al final no sabían tanto como se decía y igual si estaban bien contestados. La gran mayoría que apostó por esperar o cifras razonables acertó, o almenos hoy día parece que acertó.

El 50% es de un componente de entre muchos, y solo fue cierto durante unos meses. Después llegó el aumento de la frecuencia de reloj de One y bajó a 43 creo recordar. Si no se habla de esos temas ahora es simplemente porque está prohibido. Las matemáticas siguen siendo una ciencia exacta, aunque no te dejen decirlo.
El 50% sigue vigente, es una diferencia en potencia de cálculo en GPU que está ahí. Ahora bien, pasa como con una AMD 7770 y una 7790, que hay una diferencia del 50% y eso supone unos frames más (de 23 a 30 por ejemplo en el Crysis Warhead) en el juego puntero del momento o poder poner algún que otro parámetro más en alto o subir la resolución. El problema es cuando la gente se flipa y se cree que ese 50% equivale a ir media generación por encima, un 50% más de resolución, fps,... Teniendo en cuenta los desarrollos multi una diferencia de potencia como la que hay supone lo que está suponiendo ahora mismo y nada más (incluso dependiendo de la optimizacion, la calidad de las herramientas, etc dicha diferencia puede reducirse aún más). En exclusivos se puede rascar más la cosa, pero ya. No hay que hacer un drama sobre el tema.
Polyteres, como el resto de los que hemos posteado en ese hilo, hemos fallado y acertado cosas. El problema es no reconocerlo.

Por otro lado lo ultimo que ha puesto jark es la realidad, es lo que se ve, aunque dx12 trajera un 50% de mejora, no se va a notar mucho en los juegos, cada dia se necesita mas y mas potencia para mostrar un cambio grafico significativo, no hay mas que ver lo que muestra un pc en alta/ultra y lo que monta para ello.

Y ya no entramos en que para exprimir wsos recursos de manera supereficaz en un juego se deberia hacer una inversion que pocos se van a atrever.
1577 respuestas