Algunos desarrolladores hablan sobre las diferencias de rendimiento entre PlayStation 4 y Xbox One

16, 7, 8, 9, 10
Riwer escribió:
Otra cosa es que dicha potencia sea realmente del 50% en gpu (que no lo es), que lo sea en memoria (que no lo es absolutamente nada) y que vaya a funcionar mejor en conjunto que xbox one (que no se sabe). Eso es la realidad, y pasar de ahi es entrar en suposiciones sin fundamento.

PS4 tiene mejor GPU.
Xbox one tiene mejor CPU, y "addons" para tareas graficas que PS4 no tiene. Y el debate esta servido.


addons para tarjetas graficas? que se va a instalar tarjetas? :-?

y como esta eso de que la memoria no es absolutamente nada mejor? la GDDR5 tiene mas ancho de banda que es lo mejor para juegos, ya que funcionan procesando grandes volúmenes de informacion(por eso se usa para las tarjetas graficas en pc) la latencia para el GPU no es un problema ya que mientras espera hace otras cosas(además de que la gddr escribe Y lee en el mismo ciclo), aqui se trata de correr juegos no el office, y si lo dices por la esram por mucha esram no va a suplir el conjunto de 8 GB a 176 GB/s, aun usandola a 133 GB/s posible en la esram(i/o simultaneo) y solo en algunas operaciones(transparencia) la sigue dejando mas abajo y aunque lograran el teorico 192 GB/s que dice MS estamos hablando de los 32 MB que es la esram y de solo en ciertas operaciones por que el resto es ddr3 y no se puede llegar a esas velocidades en todo el proceso, eso sin mencionar que es mas complicado trabajar con ella(asi como es mas complicado aprovechar esos 133-192 Gb/s), y se supone que los buffers de video los van a guardar ahi(que ya se comen una parte) imaginate con el resto de buffers, tan solo KZ:sf ya se come 800MB en render targets, si bien estudios grandes pueden ingeniárselas es notorio que hay diferencia y cosas que no se puede cubrir y sobre todo en la facilidad de uso(que beneficia a las third) y tu que haces overclock creo que sabes que gddr5 trabaja a menor voltage que la ddr3(1.25-1.65V vs aprox. 1V),ddr3 consume mas y se calienta mas




ExtraP escribió:Quien tenga años aqui sabe que la revista Edge tanto la española(no se si sigue) como la de Uk siempre ha sido muy prosony. Despues los datos ofrecidos son por gente anonima, ya con eso se convierte en noticia para mover las balanzas a lo que es popular.


estoy de acuerdo pero eso no quita que pudieran tener algo de razon y mas cuando ya hace tiempo un desarrollador de avalanche studios dijo básicamente eso y no es la primera vez que se reportan cosas similares en otros sitios
Sony decidió meter mejor ram y mejor GPU antes que el puto kinect de mierda.


Así de fácil.


Es una lastima que ningún juego de PS4 me interese.
Jimmyhoo escribió:
Riwer escribió:
Otra cosa es que dicha potencia sea realmente del 50% en gpu (que no lo es), que lo sea en memoria (que no lo es absolutamente nada) y que vaya a funcionar mejor en conjunto que xbox one (que no se sabe). Eso es la realidad, y pasar de ahi es entrar en suposiciones sin fundamento.

PS4 tiene mejor GPU.
Xbox one tiene mejor CPU, y "addons" para tareas graficas que PS4 no tiene. Y el debate esta servido.


addons para tarjetas graficas? que se va a instalar tarjetas? :-?

y como esta eso de que la memoria no es absolutamente nada mejor? la GDDR5 tiene mas ancho de banda que es lo mejor para juegos, ya que funcionan procesando grandes volúmenes de informacion(por eso se usa para las tarjetas graficas en pc) la latencia para el GPU no es un problema ya que mientras espera hace otras cosas(además de que la gddr escribe Y lee en el mismo ciclo), aqui se trata de correr juegos no el office, y si lo dices por la esram por mucha esram no va a suplir el conjunto de 8 GB a 176 GB/s, aun usandola a 133 GB/s posible en la esram(i/o simultaneo) y solo en algunas operaciones(transparencia) la sigue dejando mas abajo y aunque lograran el teorico 192 GB/s que dice MS estamos hablando de los 32 MB que es la esram y de solo en ciertas operaciones por que el resto es ddr3 y no se puede llegar a esas velocidades en todo el proceso, eso sin mencionar que es mas complicado trabajar con ella(asi como es mas complicado aprovechar esos 133-192 Gb/s), y se supone que los buffers de video los van a guardar ahi(que ya se comen una parte) imaginate con el resto de buffers, tan solo KZ:sf ya se come 800MB en render targets, si bien estudios grandes pueden ingeniárselas es notorio que hay diferencia y cosas que no se puede cubrir y sobre todo en la facilidad de uso(que beneficia a las third) y tu que haces overclock creo que sabes que gddr5 trabaja a menor voltage que la ddr3(1.25-1.65V vs aprox. 1V),ddr3 consume mas y se calienta mas




ExtraP escribió:Quien tenga años aqui sabe que la revista Edge tanto la española(no se si sigue) como la de Uk siempre ha sido muy prosony. Despues los datos ofrecidos son por gente anonima, ya con eso se convierte en noticia para mover las balanzas a lo que es popular.


estoy de acuerdo pero eso no quita que pudieran tener algo de razon y mas cuando ya hace tiempo un desarrollador de avalanche studios dijo básicamente eso y no es la primera vez que se reportan cosas similares en otros sitios



La ESRAM funciona a 202Gbps (y no como caso aislado ni solo para ciertas operaciones, que te puedo decir lo mismo del pico de 176 de PS4, que no es mas que eso, un pico maximo teorico), y precisamente si xbox one necesita baja latencia en la RAM, es porque en cojunto (RAM+esram+nucleos de compresion descompresion etc etc) terminara con una latencia similar que GDDR5. (aunque solo para juegos, no para el sistema operativo)

Pero por ejemplo, Xbox one tiene direcxt 11.2 por hardware (confirmado), y para funciones del 11.2 como los tiled resources puden meter 3GB de megatexturas en 16mb y procesar por la ESRAM a gran velocidad. (PS4 tienen que hacerlo por software y con las librerias de imitacion "made by sony").

El caso no es GDDR5 vs DDR3.

El caso es memoria global GDDR5 de PS4 VS conjunto de RAM DDR + ES RAM + move engines de Xbox one. Y ni en ancho de banda ni rendimiento la solucion de PS4 es superior. (muy debatible puesto que son muy similares en sentido final, y aun tiene el pico maximo de ancho de banda el sistema de xbox one mayor). (no es lastrada por la parte DDR3 puesto que el acceso es simultaneo y coherente a las DOS memorias (ram y esram).

Respecto a los "addons" me refiero a los coprocesadores de apoyo de resta de carga a la GPU.

PD: y es tan complicado trabajar con la ESRAM de xbox one, como con la EDRAM de xbox360, poco, y menos que trabajar para PS3 [carcajad]
Mira que a Sony le tiro a matar pero esta gen si me lo puedo permitir ps4 sera mi consola inicial y luego ya con el tiempo quiza one justo al reves de lo que hice con 360 y ps3, ms vuelve a hacer las cosas mal con una consola mal implementada antes de salir y con intentos de abolir la libertad de poder elegir perifericos que todos sabemos y lo afirman los desarrolladores no se usarán (vease kinect que NO LO QUIERO PARA NADA) que ms quiere implementarlo por obligación? ok lo respeto entonces no me interesa ese sistema.
Vengo a comentar simplemente que el artículo es de risa, mal redactado, sin sentido y sin fuentes.

Sobre el papel PS4 es más potente, es lo sabemos todos los que leemos las especificaciones técnicas sin mirar la marca que tiene impresa la consola.

El éxito no lo da la potencia otra cosa que también sabemos, así que yo lo que quiero ver son juegos, bueno y supongo que todos los que no sean fanboys.

De Microsoft espero más al principio de generación, ha dejado tirada a XBOX360 hace casi 2 años, mientras Sony ha apoyado a su PS3 hasta el final, quiero decir que espero que Microsoft tenga mas artillería que Sony que para eso ha dejado de invertir en XBOX360.

De momento no me decanto por ninguna, nada de lo que me han mostrado me hace apostar por una u otra...

Que generación mas interesante la verdad, para mi la mas igualada de todas las que han existido en la historia de esta industria y eso solo quiere decir una cosa, los usuarios vamos a salir beneficiados si o si.

Un Saludo.
Yo hasta que no las pruebe las dos, no me fio de ninguna info, rumores, maletines,etc...
Yo comprendo perfectamente, a los desarrolladores que quieren permanecer en el anonimato con ciertas declaraciones.

Imaginaos a Ubisoft decir que prefieren una consola porque es más fácil programar para ella y que puede tener mejores gráficos que la otra... es tirar piedras sobre tus clientes. Microsoft se cabrearía con ellos (o Sony), y no saldrían bien parados. Han de mantenerse neutrales, ya que trabajan para ambos.

No veremos comentarios tajantes en el tema firmados por nadie. Sólo "rumores" sin fuentes comprobables, programadores en el anonimato, etc...

Un saludo.
Sinceramente no seria justo castrar los multis en ps4 por el mero echo de que la xbox one no este a la altura, pero vamos esta claro que si lo quieren hacer así por facilidad lo van a hacer, aparte de que si los multis en version de ps4 tuvieran los graficos mas subidos y con mas fps la gente se decantaria obv por esta.

Al menos espero despues del lastre que los exclusivos brillen por si mismos y la pongan en su lugar. (Aunque ya sabemos que lo mas importante no son los graficos un 20-40% mejor)
aqui la historia que se acabo que los malos port nos los comamos en la playstation.ahora con ps4 estaran iguales y punto fin del debate chicos.saludos
Blackfedora escribió:Por qué se repite cosas que no son ciertas.

Otro punto , compartir CPU no es compartir arquitectura. La Xbox one y ps4 presenta diferencias más que notables.

Sin conocer todos los elementos y su funcionamiento es imposible hacer un comparativa más o menos seria.


Buenas gente. En todo caso será: compartir repertorio de instrucciones (x86-64) no es compartir arquitectura de CPU. Pero es q en este caso tb comparten arquitectura de CPU XD , son núcleos Jaguar. Todo esto ciñéndonos a la CPU no al conjunto, q ya es otro cantar.

Un saludo.
Riwer escribió:
La ESRAM funciona a 202Gbps (y no como caso aislado ni solo para ciertas operaciones, que te puedo decir lo mismo del pico de 176 de PS4, que no es mas que eso, un pico maximo teorico), y precisamente si xbox one necesita baja latencia en la RAM, es porque en cojunto (RAM+esram+nucleos de compresion descompresion etc etc) terminara con una latencia similar que GDDR5. (aunque solo para juegos, no para el sistema operativo)



te estas confundiendo, no se trata de igualar la latencia de GDDR5, se trata de igualar o acercarse al ancho de banda, los juegos se benefician del ancho de banda por que la GPU asi trabaja, si hablamos de CPU y operaciones de sistema ahi si la DDR3 es lo mas aconsejable por su mejor latencia(sony tuvo que hacer varios ajustes al controlador de memoria precisamente por eso) pero para graficos lo mas importante es que los volumenes de informacion se transfieran rapidamente(ej. texturas) y 192 GB/s es el limite teorico que MS les dijo a los desarrolladores para la esram, pero en pruebas se lograba 133 GB/s para operaciones de blending, el truco consiste en "que vas a pasar" a "que calidad" y "como meterlo", que ese nivel teorico requiere de aprovechar en ciertas operaciones ciclos muertos mientras en GDDR5 ese nivel lo tiene sin complicaciones ya lo que mejoren en su estrategia de memoria que mejor, por eso es mas dificil trabajar con la esram+ddr3

Riwer escribió:Pero por ejemplo, Xbox one tiene direcxt 11.2 por hardware (confirmado), y para funciones del 11.2 como los tiled resources puden meter 3GB de megatexturas en 16mb y procesar por la ESRAM a gran velocidad. (PS4 tienen que hacerlo por software y con las librerias de imitacion "made by sony").


:-|

no te confundas todo al final son instrucciones que pasan al hardware de video, directx(mas bien direct3d) no es mas que una api de graficos, es la GPU la que le da soporte a directx y opengl, todo se hace en shaders que son programables, y te recuerdo que precisamente la ventaja de las consolas es la utilizacion a bajo nivel del hardware de video, con lo de directx por hardware en realidad te estas refiriendo a cosas como los "tile resources", ¿sabes por que estan por hardware? por que AMD ya tenia desde hace un año extensiones para usar esas caracteristicas(AMD_sparse_textures) tanto para opengl como directx(bueno aqui MS la tomo de opengl para la DX 11.2). Las gpu tienen extensiones muchas veces propias del fabricante, la gpu de la one se ha reportado soporta directx 11.1 pero tiene mas extensiones que se utilizan en apis mas nuevas como la 11.2 asi como los kits de PS4 ya tenian el soporte para megatexturas ya que eso es parte de la gpu, con acceso a bajo nivel la cosa se resume a que hagas con el hardware y el uso de extensiones no de la version de directx :-| sin ir muy lejos en esta generacion hemos visto tesselation, tile rendering, incluso en la pasada vimos tesselacion, cosas de las que directx 11 lleva un tiempo presumiendo y esto es por el acceso al hardware aplicado directamente


Riwer escribió:El caso no es GDDR5 vs DDR3.

El caso es memoria global GDDR5 de PS4 VS conjunto de RAM DDR + ES RAM + move engines de Xbox one. Y ni en ancho de banda ni rendimiento la solucion de PS4 es superior. (muy debatible puesto que son muy similares en sentido final, y aun tiene el pico maximo de ancho de banda el sistema de xbox one mayor). (no es lastrada por la parte DDR3 puesto que el acceso es simultaneo y coherente a las DOS memorias (ram y esram).


bien entonces ya reconoces que hay diferencia que es por lo que te cite ;)

lo demas son conjeturas tuyas, no vas a sacar magicamente volumenes de informacion que en un abrir y cerrar de ojos se consumen los 32 MB de la esram y mas cuando van a reservar parte de esta para render targets, que es buena idea, diria que una genial idea pero si es mas complicado para usarla y al final solo teoricamente puede correr ciertas funciones de blending un poco mas rapido y eso de ninguna manera las hace parecidas solo disminuye el gran trecho que hay pero lo sigue habiendo

y esto hablando de ancho de banda por que la diferencia entre las gpu es otro tema aparte

Riwer escribió:Respecto a los "addons" me refiero a los coprocesadores de apoyo de resta de carga a la GPU.


¿como cuales?

Riwer escribió:PD: y es tan complicado trabajar con la ESRAM de xbox one, como con la EDRAM de xbox360, poco, y menos que trabajar para PS3 [carcajad]


lo complicado es portear usando una esram mas lenta que la ram de tu competencia [+risas]
PS4 posee una memoria más eficiente que Xbox One, según algunos desarrolladores

La revista EDGE ha contactado con diversos desarrolladores con el fin de establecer una comparativa entre PlayStation 4 y Xbox One. Las conclusiones finales obtenidas apuntan a que la consola de Sony ofrecería un mayor rendimiento en cuanto a velocidad de lectura de memoria, así como una mayor eficiencia en la ALU (Unidad Aritmética Lógica), tildando a estas diferencias como "importantes" y "obvias".

Citan como ejemplo que un juego corre a 30 FPS en PlayStation 4 a una resolución de 1920x1080, mientras que en Xbox One lo haría a 20 FPS y en una resolución de 1600x900. Este hecho haría que la optimización de un título multiplataforma para Xbox One se presentara como un reto.

Teniendo en cuenta estas afirmaciones y si realmente se ajustan a la realidad, podremos entender el movimiento reciente de Microsoft al anunciar que la CPU había sido optimizada en cuanto a velocidad, pasando desde los 1,6 GHz a los 1,75 GHz. Sobre este asunto, uno de los desarrolladores consultados por EDGE ha comentado que esta mejoría "no es significativa y no va a cambiar las cosas".

Resumen: la PS4 es más potente que X1 (como un 40 o 50% más) y encima será más barata.
No hay más vuelta de hoja, lo quieran admitir o no los fanáticos de Microsoft. ;)

http://www.edge-online.com/news/power-s ... rformance/
Jymmyhoo, 192GBPs no es el limite teorico que dijo microsoft. Microsoft dijo bien claro en la hotchips (y ahi estan las diapositivas) 202GBps.

Y no se de donde te sacas que la ESRAM sea lenta, porque es todo lo contrario.
El resto no son mas que suposiciones tuyas, ademas de que el hardware 11.2 en microsoft esta confirmado. (y no como instrucciones que se pasen a la gpu, sino como hardware dedicado extra)
Que tu estas hablando tambien en la otra generacion de emular las tecnicas por software, y eso es un penalizador bestial de rendmiento. Xbox one repito que tiene soporte 11.2 nativo por hardware.

Y lo gracioso es que digas que GDDR5 realiza el paso del tiled textures "sin complicaciones" cuando es precisamente donde cojea, y va a gestionar peor esta tecnica.

superfenix2020 escribió:PS4 posee una memoria más eficiente que Xbox One, según algunos desarrolladores

La revista EDGE ha contactado con diversos desarrolladores con el fin de establecer una comparativa entre PlayStation 4 y Xbox One. Las conclusiones finales obtenidas apuntan a que la consola de Sony ofrecería un mayor rendimiento en cuanto a velocidad de lectura de memoria, así como una mayor eficiencia en la ALU (Unidad Aritmética Lógica), tildando a estas diferencias como "importantes" y "obvias".

Citan como ejemplo que un juego corre a 30 FPS en PlayStation 4 a una resolución de 1920x1080, mientras que en Xbox One lo haría a 20 FPS y en una resolución de 1600x900. Este hecho haría que la optimización de un título multiplataforma para Xbox One se presentara como un reto.

Teniendo en cuenta estas afirmaciones y si realmente se ajustan a la realidad, podremos entender el movimiento reciente de Microsoft al anunciar que la CPU había sido optimizada en cuanto a velocidad, pasando desde los 1,6 GHz a los 1,75 GHz. Sobre este asunto, uno de los desarrolladores consultados por EDGE ha comentado que esta mejoría "no es significativa y no va a cambiar las cosas".

Resumen: la PS4 es más potente que X1 (como un 40 o 50% más) y encima será más barata.
No hay más vuelta de hoja, lo quieran admitir o no los fanáticos de Microsoft. ;)

http://www.edge-online.com/news/power-s ... rformance/


Primero, fuentes anonimas tienen la misma credibilidad que mi vecina del sexto (tambien anonima).
Que esos "desarrolladores anonimos" pueden ser (y me creo que sean) sus desarralladores web de EDGE.

Segundo, encima citamos solo lo que queremos citar no?

Del mismo link de EDGE:

Xbox One does, however, boast superior performance to PS4 in other ways. “Let’s say you are using procedural generation or raytracing via parametric surfaces – that is, using a lot of memory writes and not much texturing or ALU – Xbox One will be likely be faster,” said one developer.


The difference between cross platform launch window games will be small, and improved graphics drivers plus the power of the cloud might yet tip the balance in Xbox One’s favour. Nonetheless, at launch, PS4 will be the more capable console.



Esto no lo nombramos porque no interesa para despotricar verdad?

Yo por suerte como no me caso con nadie no tengo que ir omitiendo ni negando realidades.



http://www.ign.com/boards/threads/so-co ... 453362563/

Doesn't the PS4 have this too?
Both AMD GPUs support partial resident textures, but we do know for a fact Microsoft added additional dedicated hardware in the X1 architecture to focus on this area beyond AMD's standard implementations.


How come no one's talked about this?
They have. MS talked about partial resident resources in their DirectX build conference. They explained the move to partial resident resources as a solution in this paper. It just might end up being even more important than originally believed. And more recently an unnamed third party developer is touting better ray tracing capabilities on the X1:
Riwer escribió:Jymmyhoo, 192GBPs no es el limite teorico que dijo microsoft. Microsoft dijo bien claro en la hotchips (y ahi estan las diapositivas) 202GBps.

Y no se de donde te sacas que la ESRAM sea lenta, porque es todo lo contrario.
El resto no son mas que suposiciones tuyas, ademas de que el hardware 11.2 en microsoft esta confirmado. (y no como instrucciones que se pasen a la gpu, sino como hardware dedicado extra)
Que tu estas hablando tambien en la otra generacion de emular las tecnicas por software, y eso es un penalizador bestial de rendmiento. Xbox one repito que tiene soporte 11.2 nativo por hardware.


soporte para directx 11.2 por hardware...... como si eso le diera funciones magicas que no se pueden usar en la otra :-|

se ha comentado en pruebas la esram rinde a 133 GB/s y eso como dije en instrucciones de blending asi que mas rapida no es y en lo que teóricamente puede serlo no es en todas las operaciones, y si llega a los teoricos 192 GB/s o 202 es igual me imagino que tal vez incluso pueda llegar a un poco mas ya en la practica en otro tipo de operaciones con los años pero igual puede haber mejor aprovechamiento en GDDR5 y es claro el marketing de MS al juntar la velocidad de la esram y la ddr3 y anunciarlo como ancho de banda total :-| , pero sinceramente no se a que discutes tanto aun si tuviera el doble de velocidad son solo 32 MB o aun si fuera 64 o 128 MB, el grueso de informacion esta en la ddr3 y de ahi quizas algun cacheo o algo dentro de la esram, asi que el conjunto es mas lento, a menos que MS posponga la salida para incluir gddr5 y sobre todo mejorar la gpu

Riwer escribió:Y lo gracioso es que digas que GDDR5 realiza el paso del tiled textures "sin complicaciones" cuando es precisamente donde cojea, y va a gestionar peor esta tecnica.


claro por eso las nuevas tarjetas directx 11.2 usan ddr3 no?

la esram requiere mas trabajo manual para llegar a mas ancho de banda y compensar en algo la diferencia con gddr5 eso es lo que dije y por eso es mas complicado sacarle partido

la latencia de DDR3 bien puede ayudar en varias cosas contra una latencia algo mayor como la de gddr5, no todo es blanco y negro lo ideal seria minima latencia y gran ancho de banda pero no se puede ambos aunque tampoco es que varié demasiado la latencia de ddr3 contra GDDR5, pero el tiempo que one podria ganar haciendo unas cosas y siempre y cuando sea en la esram lo pierde al ser mas lenta en la mayoria de cosas y la ddr3 y su latencia mas baja no va a salvar el dia y menos por que 20 GB se van a la CPU, al final todo depende que tan rapido puede poner un frame en el buffer con unas condiciones dadas y en eso PS4 tiene la ventaja por un bloque de memoria gddr5 y la gpu mas potente(sobre todo esto ultimo), eso es obvio y la discusión ridícula por lo que no tiene sentido, al fin y al cabo yo solo queria citar el punto que decias que la memoria no era mejor cuando en la practica si que es mejor la gddr5 pese a todo lo que quieras debatir o puntualizar, no se puede tapar el sol con un dedo

saludos
Se prevé que la tecnología GDDR5 de alta velocidad y banda ancha se convierta en el nuevo estándar de memoria del sector, y que el mismo rendimiento y banda ancha resulten claves para hacer posible La Mejor Experiencia Visual, ofreciendo nuevas capacidades de la unidad de procesamiento de gráficos (GPU). AMD está colaborando con varios proveedores líderes de memorias, incluidos Samsung, Hynix y Qimonda, para sacar la GDDR5 al mercado.

El rendimiento actual de la GPU está limitado por la tasa a la que pueden transmitirse los datos en el chip gráfico que, a su vez, está limitado por el ancho de la interfaz de memoria y el tamaño de la oblea. Las mayores tasas de datos que permite la GDDR5 – hasta 5 veces más que la GDDR3 y 4 veces más que la GDDR4 – posibilita un mayor ancho de banda en una interfaz de memoria más estrecha, lo que puede traducirse en un rendimiento superior logrado por chips más pequeños y con mejor relación precio/prestaciones.1 Los ingenieros de AMD han trabajado en estrecha colaboración con el organismo de estándares industriales, JEDEC, en el desarrollo de la nueva tecnología de memoria y en la definición de las especificaciones de la GDDR5.

GDDR5 para procesamiento Stream
Además del potencial para un mejor rendimiento de juegos y aplicaciones para ordenador, la GDDR5 también presenta diversos beneficios para el procesamiento stream, donde se aplican las GPUs para realizar grandes cálculos paralelos complejos. Dichos cálculos son frecuentes en la informática de alto rendimiento, segmentos financieros y académicos, entre otros. AMD prevé que la banda ancha aumentada de GDDR5 beneficiará ampliamente a ciertos tipos de cómputos stream.

El nuevo mecanismo de detección de errores en GDDR5 también puede ayudar a aumentar la precisión de cálculos identificando errores y volviendo a emitir comandos para conseguir datos válidos. Esta capacidad representa un nivel de fiabilidad no disponible con otras soluciones de memoria basadas en GDDR hoy en día.


AMD introduce la tecnología hUMA, Acceso Uniforme y heterogéneo a la Memoria.
Tecnología que, a propósito, AMD ha señalado que será el futuro de sus chips para PC a largo plazo, que viene a significar que PS4 es un experimento de una tecnología que veremos en el futuro en PC.
http://news.softpedia.es/AMD-introduce- ... 49783.html

Aunque ambas consolas, la PlayStation 4 y la Xbox One, están basadas en hardware de AMD, solo la PlayStation 4 incorpora hUMA (Heterogeneous Uniform Memory Access) para soportar un espacio compartido de memoria. Esto ha sido explicado por Marc Diana, de AMD, a c’t, uno de las revistas más importantes de tecnología en Alemania, durante la Gamescom. Esto pondría el rendimiento 3D de la PlayStation 4 muy por encima de lo que muchos piensan sobre la Xbox One. AMD cree que hUMA es un elemento clave para conseguir mejoras importantes de rendimiento en procesadores combinados. Los procesadores de AMD Kaveri soportarán hUMA.

http://www.gameiswar.com/2013/08/22/amd ... miento-3d/
de una forma o de otra, una llega a los 900 a 20fps y la otra a 1080 a 30 fps,
me parecen unos números realmente pobres para el bombo q se la ha dado a la nueva generación, es q un pc actual ya supera a lo q va a venir en consolas.

P.D: ...y ya lo de q iban a a correr a 4k de resolución q dijeron en la presentación ... sin palabras

P.D2: ... y la wiiu corriendo juegos a 1080 a 60 fps
Vamos a ver, lo de la resolución y los FPS no dicen ni la calidad del juego ni su optimización y comparar juegos distintos que en PC no existen pues tampoco.

No es lo mismo mover Virtua Tennis 4 a 1080p y 60 fps que crisis 3.

Yo tengo claro que 1080p y 60 fps no van a ser el estándar de esta GEN, siempre se sacrifica resolución y FPS para impresionar con gráficos y 30 fps y 720p con antialiasing son suficientes para notar un juego fluido y es una resolución muy buena para nuestros televisores actuales.

Ya se podrían cumplir porque en muchos casos en los juegos de esta GEN los 30fps mas quisieran ser estables.

Un Saludo.
En fin, yo no me entero de la mitad y decís palabras de mayores que no entiendo.

Y mira que decidir me pone de los nervios porque cada día estoy más confuso, y lo que tengo claro es que no hay pelas para dedicar sólo a un pc de juegos, así que sólo queda esperar a ver que pasa.
superfenix2020 escribió:esta vez parece que PS4 va a barrer a la XboxOne, al menos en Europa y Asia.

el que quiera potencia que se compre un PC.

+1

AMD presenta nuevas tarjetas gráficas
http://www.amd.com/US/PRODUCTS/DESKTOP/ ... ies.aspx#2



Lo de AMD es una tomadura de pelo
468 respuestas
16, 7, 8, 9, 10