Cell BE... EIB, la "potencia" real del chip de STI

1, 2, 3
Llevo unas semanas buceando en páginas para informarme sobre el Cell y entender, sobretodo, que pretende Sony con su estrategía para su próxima consola, ya que después del E3 me quedé bastante descolocado...

Poco a poco creo que he ido entendiendo un poco más la arquitectura del Cell BE y los problemas que plantea de cara a desarrollar para ella de forma eficiente...

Lo que más me llamó la atención es que no sirve de nada, para entender el rendimiento del micro, contar nucleos, Mhz. o antecedentes de la arquitectura que utiliza, ya que el meollo del asunto está en el bus que comunica las distintas pates del micro... y está allí el meollo, precisamente, porque cuantos más nucleos le pongas al micro, mejor tiene que ser la comunicación entre ellos y los accesos a la memoria, si no quieres que se vayan creando cuellos de botella... y aquí es precisamente donde STI nos la mete doblada... Intentaré explicar porqué.

Imagen

Primero, una breve introducción del Element Interconnect Bus (EIB)... El EIB es la forma con la cual IBM ha "solucinado" la comunicación entre los distintos elementos y he entrecomillado lo de solucionado, porque como veremos más adelante, han tenido que optar por una solucióln de compromiso. El EIB corre a la mitad de frecuencia que el nucleo del procesador y puede cambiar un máximo de 96 bytes por cada ciclo de procesador o 192 bytes por cada ciclo del bus. El EIB tiene redes independientes para realizar la peticiones de otros componentes y para mover los datos de un elemento a otro (más adelante se explica un poco mejor esta "red independiente"), tiene 12 puertos de entrada/salida, uno para cada elemento ( 1 PPU, 8 SPEs, 1 MIC -memory interface controller- y un dos puertos para el BIC- bus interface controller- ) cada uno de estos puertos puede mover un máximo de 16 bytes por entreda y 16 bytes por salida por cada ciclo de reloj del bus. Hay 5 ACs -adress concentrators- que se encargan de prevenir las colisiones de datos entre los elementos y de que todas tengan la misma capacidad de acceso al bus... excepto cuando sucede una petición crítica a la memoria principal por alguno de los conponentes, en ese caso en módulo DA -data arb- gestiona esa petición crítica de manera prioritaria en el sistema ...Y ahora llega...

La tranferencia de datos sobre el bus se realiza de manera más elaborada... Por restricciones de tamaño del micro, se tuvo que optar por una solución para comunicar los datos entre elementos que no fuese punto a punto entre ellos, ya que la cantidad de tamaño que necesitaba el cableado dentro del micro y la disipación de calor que produciría, estaría fuera de los parámetros que se habían prefijado para un procesador de producción barata destinado a "consumer electronics"... ¿ cual fué la solución ? Optar por un bus de conexión en anillo.

Imagen

Como podéis ver, esta conexión en anillo, en realidad consta de 4 anillos siendo cada uno de ellos una cadena que va conectando los puertos de datos, que antes se han mencionado, LOS DATOS SOLO SE PUEDEN MOVER EN CADA ANILLO EN UN SENTIDO, de tal manera que si en un anillo movemos los datos del PPE al primer SPE, no podemos luego moverlos de ese primer SPE al PPE POR ESE MISMO ANILLO. Por esta razón, 2 anillos transportan los datos en sentido antihorario, y dos en sentido horario... Bien hasta aquí creo que todo queda más o menos claro... seguro que alguno os habréis ya dado cuenta de una cosa... ¿ Si solo tenemos 2 pares de anillos... el resultado equivalente no sería muy parecido a tener simplemente 2 núcleos con 2 hilos cada uno ? Sí, ciertamente sería muy similar y efectivamente se estan desaprovechando las posibilidades que ofrecen los 9 nucleos... Por eso, los ingenieros de IBM incorporporaron una capacidad extra a cada uno de esos anillos... Cada anillo es capaz de realizar 3 tranferencias concurrentes... pero ESTAS NO SE PUEDEN SOLAPAR, es decir que si en un anillo en sentido horario se realiza una transferencia desde el PPE al SPE5, NO PODEMOS REALIZAR EN ESE CICLO DE RELOJ EN ESE ANILLO UNA TRANSFERENCIA QUE VAYA DEL PPE AL SPE1. Esto nos quita alguna limitación que la pregunta anteriormente formulada planteaba... pero no todas... Si bien es cierto que podemos realizar un máximo de 12 tranferencias simultáneas ( 3 por cada anillo ) también es cierto que llegaremos a ese número muchas menos veces que las deseadas, ya que las rutas que necesitarían seguir en muchos momentos los datos de cada anillo podrían generar solapes entre ellas. Os pongo un ejemplo de gestión del bus eficiente, que solo alcanza 8 tranferencias:

Imagen

... Que es lo que implica esto... Las buenas noticias son que ciertos procesos podrán conseguir velocidades inimaginadas hasta hoy... Las malas es que el sistema también es capaz de generar una nueva familia de cuellos de botella y problemas de ejecución también inimaginados hasta hoy...

Ahora traslademos esto al mundo en particular que nos interesa... el de los videojuegos, ¿Que ventajas nos trae el Cell BE? En teoría muchas, se deberían poder hacer juegos más complejos que los conocidos hasta ahora... Pero en la práctica, hemos de poner la nueva mentalidad de programación que implica este chip en su contexto realista... ¿ Cuantas empresas querrán optimizar su código, hasta el punto de tener que reescrribirlo desde 0 para esta plataforma ?... ¿ Cuanto TIEMPO de optimización requeriran los programas para hacer un uso eficiente de esta arquitectura ?... Hay que recordar la, por lo general, "pereza" que genera en el mundo de los videojuegos la optimización y el uso de recursos de la manera más eficiente... Si no, no estaríamos poniendo constantemente como ejemplos de programación en la GC el RE4 y el Rogue Squadron... o en PS3 los MGS... o en XBox el Ninja Gaiden. Luego, sacad vuestras conclusiones... quizás ahora se entienda mejor porque Kutaragi dió marcha atrás con el tema de poner 2 cells, uno de procesador central y otro para gráficos... imaginaros la reacción de los programadores cuando pensaron que tenían que resolver esos puzzles de gestión que plantea el bus POR DUPLICADO y además, en un apartado como los gráficos, supuesto baluarte de las consolas de nueva generación, en el que probablemente pasaría más tiempo del esperado hasta alcanzar el nivel gráfico que, actualmente, consiguen alcanzar con una 9800...

Para ir acabando os dejo con las palabras del propio diseñador del EIB, David Krolac, cuando un propio compañero de diseño del chip, James Mikos, le preguntó por la solución de los anillos del EIB:

dW: That is actually -- we're very near the end of the time that we have for today. Is there anything you would like to add, that we haven't covered?

Mikos: I have one question for Dave. Let me ask you this. If I was to relate back, because I know you've got a lot of experience in buses and how to interconnect processors and things and you mentioned with the crossbar switch. From a design perspective, would it have been easier for you to do a crossbar switch? It's just the area is so much larger; the power is so much higher.

Krolak: Yes, the crossbar switch would be simpler because arbitration would basically be... there would be a path from everybody to a destination. You would only have to do arbitration based on the destination. Who wants to talk to a particular destination? And you get them routed through the network to that guy. It would be easier to deal with than these rings where its transactions for different destinations are on the ring, when can you schedule it on a ring? How do you keep two transactions or successive transactions from arriving at a destination at the same time?

Mikos: So it's kind of back to when dW asked you the question earlier and you used the analogy of the train. So I can have up to twelve trains on these four tracks at any one time. That's what your logic has to keep track of. In a crossbar switch, that would have been much simpler I think.

Krolak: Yes, it probably would have been simpler.

Mikos: So the reason you went with the ring structure is that it takes up much less chip area, although the crossbar switch would have been simpler, because it gives you the point-to-point interconnect, and you relieve the performance concerns with software in that you don't have to have this knowledge of who's going to who, at least in as much detail.

Krolak: Yes, there's just more wire than we had space for and all the related buffering.

Mikos: And power was a big concern, so it saves area, it saves power to do it this way.

Krolak: Yes.

dW: Thank you so much for joining us today.

Conclusiones finales:

- ¿Que es mejor 6 hilos de ejecución de la CPU de X360 o 8 transferencias de lo anillos del Cell?. Tened en cuenta el caracter específico de los SPEs y el carácter más generalista de los PPEs.

- ¿Realmente pensáis que porque se vayan a usar en superordenadores los Cell eso ya es indicativo de que en los videojuegos van a realizar un cometido igual de impresionante? Los superordenadores se utilizan para unas tareas muy específicas, y también en el diseño de ellos influye la relación calidad-precio... si el Cell BE justo destaca en lo que los superordenadores demandan se usaran... pero recordemos siempre que se usan, como ya he dicho para realizar cálculos muy específicos...

- ¿ No creéis que tanto la X360 como la PS3 tienen un diseño muy descompensado, con unas CPUs demasiado potentes para lo que, con el tiempo, podrán dar de sí las GPUs que montan ? Al final los fillrates de los chips gráficos, limitarán la potencia que puedan proporcionar las CPUs.

- ¿ Cuantos SPEs se necesitan para "emular" un PPE ? Porque es la pregunta que le asaltará a mas de un desarrollador "vaguete"... seguro que entendéis a donde quiero ir a parar con la pregunta... Sí, creo que, como en la generación anterior, va a existir un "mínimo común multiplo" sobre el que programar. De aquí a un año, refloto el hilo, ya lo veréis...

- En el diseño del Cell BE han intervenido, quizás demasidos factores ajenos al mundo de los viedojuegos... creo que esos factores han ido en detrimento de, quizás, un hecho incuestionable, que es que, para el gran público, la PS3, será la puesta de largo del Cell BE... si no demuestra lo que todo el mundo espera de él, quizás se comience a asociar ( para el gran público, no lo olvidemos ), el nombre de CELL BE con el de un Bluff... puedo imaginarme que más de un directivo pueda estar sudando con las consecuencias negativas de esto. No olvidemos que el envite que hace Sony es doble, ahí también está metido Blu-Ray... El binomio de lo que el gran público piense de esas tecnologías depende, en gran parte, del exito de PS3... una CONSOLA DE VIDEOJUEGOS con una GPU ajena a toda estrategía a largo plazo que pueda tener Sony en esos dos terrenos ( aunque quizás por eso, sony firmó un contrato de colaboración con NVidia para la futura PS4 )
Muy interesante, pero me da en la nariz que lo que dices no va a gustar mucho por aqui. :p
maesebit escribió:Muy interesante, pero me da en la nariz que lo que dices no va a gustar mucho por aqui. :p
Lo suscribo, soy de los que también piensa que Sony debería haber metido una CPU menos potente y compensarla con una buena GPU, y no... "eso" que han montado y que va a hacer que más de un desarrollador se tire de los pelos a la hora de optimizar, debuguear o portar código de otras plataformas xD

saludos
Joder,que currada te has pegado,muchacho [tadoramo]
Pero yo tengo una serie de dudas:
-Me parecio escuchar(leer por aqui :P ) que la version del Cell de la PS3 no seria el mismo que el de los ordenadores,y que va a estar "capado".Que diferencias hay?O fueron solo imaginaciones mias? [+risas]
-La 360 en teoria es mas facil de programar,tanto CPU como GPU,no?
-Tambien escuche que el Cell era jodido de programar,pero que era aun mas jodido de programar la PS2...entonces no habria mucho por lo que preocuparse,no? [tomaaa]
Saludos!![bye]
Achoo , tienes ganas de escribir tanto , menos escribir y mas ver
(Lo digo por mi,q me desmuestra mas unas imagenes que unas explicaciones), y ami no me preocupa lo que le cueste la gente programar la PS3 , si quieren vender , ya saben lo q les toca , Saludos
Medir la potencia de una CPU exclusivamente por las transferencias de su bus interno es lo más absurdo que he leido ultimamente.

El bus interno del Cell SOLO se utiliza cuando lanzas DMAs (debido al funcionamiento basado en memoria local), la unica posibilidad de que sea un cuello de botella es hacer como 5-10 veces más accesos a datos de otros SPU que accesos a la memoria principal lo que me parece MUY raro.

Lo de usar un sistema de anillo es simplemente para hacer un diseño escalable, unir por cables cada punto hace que se dispare el tamaño con el numero de core, la unica limitación del diseño es que en el peor de los casos en cuanto a organizacion de transferencias el ancho de banda maximo se reduce a la mitad.

Colapsar el bus interno del Cell es algo que tiene merito ya que precisamente es mucho más rapido que los habituales incluso en el peor de los casos.
el_fer escribió:Joder,que currada te has pegado,muchacho [tadoramo]
Pero yo tengo una serie de dudas:
-Me parecio escuchar(leer por aqui :P ) que la version del Cell de la PS3 no seria el mismo que el de los ordenadores,y que va a estar "capado".Que diferencias hay?O fueron solo imaginaciones mias? [+risas]
-La 360 en teoria es mas facil de programar,tanto CPU como GPU,no?
-Tambien escuche que el Cell era jodido de programar,pero que era aun mas jodido de programar la PS2...entonces no habria mucho por lo que preocuparse,no? [tomaaa]
Saludos!![bye]


- No se las diferencias entre uno y otro, por eso intentaba centrarme en los handicaps que posee la arquitectura general del chip, ya que será común en ambos y los posibles cuellos de botella, también serán idénticos.

- La CPU sí... La GPU, no tanto... pero no llega a este grado de sofisticación y las ALUs realmente si que ofrecen una alternativa, sin excesivas complicaciones, a la cantidad de Pixel o Vertex shaders que el engine gráfico necesite emplear. ( Hablando en plata, resuelve más problemas que los que genera... exceptuando el módulo de eDRAM, que para sacarle partido, se las trae... hay que reprogramar el engine desde el principio...)

- No tanto... al principio no fue fácil... sobretodo por la programación del chip gráfico, el GS... Pero no tiene nada que ver con la arquitectura que propone el Cell...
Pero vamos a ver, no vas a tener a los deserrolladores programando en ensamblador no???
Trabajaran sobre un kit de desarrollo y ese nivel de procesadores buses y demases sera transparente (hasta cierto punto claro), el problema lo tendran como mucho los q desarrollen las herramientas de desarrollo, pero vamos, seguro q los de Sony lo sacan adelante aunq mueran cientos de programadores en el proceso [poraki]
salu2!
DKnight escribió:Pero vamos a ver, no vas a tener a los deserrolladores programando en ensamblador no???
Trabajaran sobre un kit de desarrollo y ese nivel de procesadores buses y demases sera transparente (hasta cierto punto claro), el problema lo tendran como mucho los q desarrollen las herramientas de desarrollo, pero vamos, seguro q los de Sony lo sacan adelante aunq mueran cientos de programadores en el proceso [poraki]
salu2!


Ademas ya se a comentado que sony esta haciendo lo imposible para que esos kits de desarrollo sean lo ams faciles y mas productivos posibles para los desarrolladores,y estos comentan que con cada kit nuevo las herramientas mejoran muxisimo...asi que aunque a la gente le pese,esto no tendra nada que ver con la ps2...
Jur...

Yo las conclusiones que saco son:

1- No tengo ni idea de informática a ese nivel, por lo que los datos ofrecidos no puedo discutirlos (ni afavor ni en contra).

2- Que el Cell BE es un procesador único en potencia, superior a todo lo que hasta ahora se ha concebido en el merco.

3- Que el ser peculiar tambien implica una peculiar programación; por lo tanto, si se sabe programar (herramientas de trabajo), será una máquina que hará cosas muy superiores a lo que a fecha de hoy hemos visto en cualquier consola.

4- Sony se ha dejado un montón de dinero en herramientas gráficas y físicas, en teoría optimizadas para PS3.

Si los programadores se hacen los vagos y sólo hacen "ports", la consola será una más, con mejoras al respecto de la anterior generación... pero nada más.

Si los programadores utilizan bien las herramientas y programan como deben para PS3, los juegos pueden ser espectaculares.

5- De ahí que los juegos "multiplataforma" pueden ser los menos interesantes, mientras que los "exclusivos" o que se programen en un principio para PS3 (los programadores centrados únicamente en sus recursos) serán los que mejor aprovechen la máquina (por ejemplo, MGS4, por lo visto hasta ahora)


En resumen; que el artículo/explicación no dice que Cell BE sea malo, sino que hay que saber programarlo. Su capacidad lo hace único... y también (si no se sabe programar) hace problemas únicos.

Un saludo.
deathkiller escribió:Medir la potencia de una CPU exclusivamente por las transferencias de su bus interno es lo más absurdo que he leido ultimamente.


Es una forma de verlo... Pero creo que la potencia de la CPU depende mucho del bus si tiene varios núcleos y más aún si el punto fuerte de la CPU es ser "extraodinariamente" multinucleo... Replanteate el concepto de absurdo y de paso el de lógica... No suelo faltar, si no me faltan. De todas maneras, hasta en el propio título del hilo está entrecomillado lo de potencia, y creo que en el hilo, se explica claramente porqué...

deathkiller escribió:El bus interno del Cell SOLO se utiliza cuando lanzas DMAs (debido al funcionamiento basado en memoria local), la unica posibilidad de que sea un cuello de botella es hacer como 5-10 veces más accesos a datos de otros SPU que accesos a la memoria principal lo que me parece MUY raro.


Los ejemplos de programación que está dando la propia IBM, niegan esto que dices... pásate por aquí si quieres saber más cosas de ejemplos de programación, pros y contras... De todas maneras te adelanto, que, otra vez, para sacarle partido, la gracia está en que un SPE pueda acceder a los datos de salida de otro, para hacer operaciones más complejas, por ejemplo...

deathkiller escribió:Lo de usar un sistema de anillo es simplemente para hacer un diseño escalable, unir por cables cada punto hace que se dispare el tamaño con el numero de core, la unica limitación del diseño es que en el peor de los casos en cuanto a organizacion de transferencias el ancho de banda maximo se reduce a la mitad.


No has leído nada de lo que he escrito, ¿Verdad?... Es evidente que hay muchas más complicaciones para utilizar todo el ancho de banda "efectivo" del bus... lo que además, nos lleva a la réplica de la siguiente frase que das...

deathkiller escribió:Colapsar el bus interno del Cell es algo que tiene merito ya que precisamente es mucho más rapido que los habituales incluso en el peor de los casos.


El Bus es falsamente más rápido que los habituales... pero no te lo diré yo... mejor te pogo las palabras del diseñador del bus, para que veas que no hay "trampa":

Each port has a theoretical bandwidth of 25.6GB/s in each direction. The command bus streams commands fast enough to support 102.4GB/s for coherent commands, and 204.8GB/s for non-coherent commands. The data rings can sustain 204.8GB/s for some workloads, with transient rates as high as 307.2GB/s. (This would represent all four rings managing three concurrent transfers at once!)

Es decir... que para alcanzar esos anchos de banda tan estratosféricos, precisamente hay que hacer constantemente lo que tu pretendes negar con tu post... Mirate un poco los artículos que hay en el Link que he puesto, ya que vienen de buena fuente ( los propios diseñadores )... Creo que así no tendrás que discutir con un usuario del foro, directamente coges y les escribes un mail diciendoles a ellos que el chip que han diseñado no funciona de la manera que dicen... Colapsar el bus, en este caso, no depende tanto del ancho que pueda llevar el bus, sino, más bien de que las posiciones a las que tengas que acceder, no se solapen en el mismo anillo... luego con mala programación es muy fácil colapsarlo sin apenas carga...

DKnight escribió:Pero vamos a ver, no vas a tener a los deserrolladores programando en ensamblador no???
Trabajaran sobre un kit de desarrollo y ese nivel de procesadores buses y demases sera transparente (hasta cierto punto claro), el problema lo tendran como mucho los q desarrollen las herramientas de desarrollo, pero vamos, seguro q los de Sony lo sacan adelante aunq mueran cientos de programadores en el proceso
salu2!


No, claro que no les vas a tener programando en lenguaje de bajo nivel ( los que quieran lo harán, los más aventurados, para aprovechar más la potencia... ). Pero si nos tenemos que fiar del rendimiento del lenguaje ofrecido en los kits de desarrollo... Viendo este E3, la verdad es que no se alcanza ese rendimiento tan diferenciador con respecto a la arquitectura que propone la X360... sino más bien todo lo contrario...


P.D.:

ferdopa escribió:En resumen; que el artículo/explicación no dice que Cell BE sea malo, sino que hay que saber programarlo. Su capacidad lo hace único... y también (si no se sabe programar) hace problemas únicos


Eso es justo lo que pretendía explicar... gracias ferdopa.

Luego también quería plantear la duda de que si en una industria como la de los videojuegos, con deadlines bestiales, el modelo de programación que propone el Cell ya sea a nivel de herramientas o a nivel de los propios programadores del juego, será el acercamiento más correcto o no... Era un poco intentar ver si la industria estará preparada para invertir más dinero en costes que, lo mismo, no implican mayores ventas que en la generación anterior... Se supone que ellos hacen juegos para ganar dinero y si se tienen que complicar más la vida, será para ganar más dinero. Con un parque de consolas inferior inicialmente al ya establecido en la generación previa... ¿ Compensarán estos esfuerzos ? o quizás no compensarán tanto, porque los analistas les digan que esta vez las cuotas de mercado de cada plataforma van a estar más divididas y no interesará, para conseguir mayores ingresos, centrar esfuerzos más "titánicos" en una sola plataforma, sino distribuir esfuerzos... Recordemos, que salimos de una generación donde también ocurrió esto... y las arquitecturas de NGC y Xbox eran muchísimo más fáciles de optimizar para ellas, que este cell...
Ferdopa escribió:De ahí que los juegos "multiplataforma" pueden ser los menos interesantes, mientras que los "exclusivos" o que se programen en un principio para PS3 serán los que mejor aprovechen la máquina (por ejemplo, MGS4, por lo visto hasta ahora)
Pues hace ya varios meses el mismísimo Kojima dijo que Metal Gear Solid 4 es perfectamente posible en Xbox 360, así que muy "increíble y nunca visto hasta ahora" tampoco resulta, vamos.

A lo que me refiero es a que PS3 es una máquina realmente potente, pero tampoco nos flipemos, que es un procesador, no el Santo Grial.

Saludos
La verdad es que de las dos estrategias, la de XBOX 360 y PS3, me gusta mas la de XBOX 360. Bajo mi punto de vista, hacer un procesador muy potente si, pero que te obliga a cambiar todos los conceptos y a desarrollar de forma diferente, no me parece muy buena idea: es como si estamos en un bosque que no conocemos y nos hacen de ir atravesandolo, en vez de seguir un camino que nos sirva de referencia.

En fin, ellos sabrán: yo no voy a comerme mucho el tarro analizando las maquinas, la XBOX 360 la tengo y PS3 caerá en el momento que yo considere que tiene el precio y el catalogo adecuado para merecer mis euros, asi que...
¡HEREJE!


Bueno,lo he encontrado interesante, creo que hasta se lo podria mandar al profe de configuracion y evaluacion de equipos informaticos XD.

Personalmente me gusta mucho lo que se ha visto de MetalGear pero pienso que las cutscenes no permiten decir que el juego sea lo nunca visto...habria que ver el juego ingame para decir tal cosa,a ver lo que da de sí,si algo revolucionario o simplemente meten en una cocktelera la formula de juego de los anteriores con una ensalada de graficos y voilà MGS4.
Yo tengo entendido que ,por lo menos en pc, el acceso a memoria principal es anecdotico respecto al acceso a datos e instrucciones almacenadas en caché del procesador,por lo que ,si los fallos en la comunicacion entre los diversos nucleos del cell es tan perjudicial para el resultado neto como lo serian una serie de problemas de caché para un cpu 'normal', podriamos decir que el cell es un cordero con piel de lobo.

Yo ya tenia entendido que se habian hecho algunas concesiones en el diseño de los procesadores de 360 y ps3,pero no sabia que habia este problema con los buses.Lo cierto es que no he leido los documentos que adjuntas(no son horas XD) pero por lo dicho hasta ahora me reafirmo: de nada sirven esos rendimientos picos que dan si luego ningun programa "real" va a funcionar de esa manera....es como pasaba "antiguamente", que los datos de las cpus se daban en MIPS y eso no servia para nada porque lo que hacian las compañias para venderte mejor el producto era adulterar las pruebas( benchmarks de solo sumas que era lo mas rapido , para que salieran numeros de instrucciones muy superiores a los factibles en realidad). Por todo esto, ya parece que esta mas que claro que la razon de ser de este procesador es machacar numeros y que puede venir muy bien para aplicaciones de corte cientifico ,al cesar lo que es del cesar,pero lo han metido en una consola con calzador.
desert_fan_club escribió:¿ Si solo tenemos 2 pares de anillos... el resultado equivalente no sería muy parecido a tener simplemente 2 núcleos con 2 hilos cada uno ?

Creo que esto es erróneo. Y que tienes un concepto equivocado. Equiparas proceso con transferencias de bus, y no es así. La 360 tiene ún único bus para transferencias entre sus cores, y según he leído no permite transferencias simultáneas. Y sin embargo no creo que nadie piense que es "como tener un único núcleo" ¿verdad?

En realidad todo eso se aplica cuando transfieres datos en el bus, y dado que es un procesador multicore, diseñado para ser escalable (es decir, más adelante podrían decidir interconectar 4 PPUs y 4SPEs), se ha optado por [s]definir[/s] un sistema con interconexión en anillo además de las razones de tamaño que han planteado. Ten en cuenta que a más cores más tamaño, por simples que sean (y bastantes simples han dejado ya los cores de PS3 y X360). En Cell con 9 cores, la cosa se dispara.
Como ya han comentado puedes utilizar micro-programas en cada SPU y ejecutarlos en ellos, sin necesidad de luego realizar más transferencias más que para recibir / aportar datos, lo que no necesariamente tiene porque sobrecargar el bus.

y respecto a
desert_fan_club escribió:Es decir... que para alcanzar esos anchos de banda tan estratosféricos, precisamente hay que hacer constantemente lo que tu pretendes negar con tu post...

En realidad lo que dice el diseñador es que para alcanzar esos anchos de banda, no hay que sobrecargar el bus, sino todo lo contrario: que todas las transferencias se hagan simultáneamente y sin solaparse, algo que es posible teóricamente, pero muy probablemente inviable. "Sobrecargar" el bus aquí sería más bien hacer transferencias solapadas para mantenér únicamente dos transferencias al mismo tiempo en cada sentido del bus.
zheo escribió:
Creo que esto es erróneo. Y que tienes un concepto equivocado. Equiparas proceso con transferencias de bus, y no es así. La 360 tiene ún único bus para transferencias entre sus cores, y según he leído no permite transferencias simultáneas. Y sin embargo no creo que nadie piense que es "como tener un único núcleo" ¿verdad?

En realidad todo eso se aplica cuando transfieres datos en el bus, y dado que es un procesador multicore, diseñado para ser escalable (es decir, más adelante podrían decidir interconectar 4 PPUs y 4SPEs), se ha optado por [s]definir[/s] un sistema con interconexión en anillo además de las razones de tamaño que han planteado. Ten en cuenta que a más cores más tamaño, por simples que sean (y bastantes simples han dejado ya los cores de PS3 y X360). En Cell con 9 cores, la cosa se dispara.
Como ya han comentado puedes utilizar micro-programas en cada SPU y ejecutarlos en ellos, sin necesidad de luego realizar más transferencias más que para recibir / aportar datos, lo que no necesariamente tiene porque sobrecargar el bus.


Tienes razón, quiero decir que la equivalencia que planteo, es "erronea", entendiendo el Cell como un procesador al "uso standard"... Está claro que los hilos de proceso de esta arquitectura, como en todas, se realizan internamente en cada uno de los nucleos... Pero el tema, es que nos encontramos con una arquitectura que para realizar ciertas tareas tiene que "sacarlas al bus el proceso" para que lo continúe otro SPE... de esto, principalmente salía la comparación... si te fijas en la frase que autoresponde a la pregunta, nunca pretendía representar una equivalencia 1/1 sino intentar ser didáctico buscando algo más asimilable y ahorrarme un poco de literatura extra ( que al final estoy teniendo que añadir con estas lineas )

Respecto a lo de que puedes utilizar micro-programas en cada SPU... completamente cierto, pero, por ejemplo, una IA o unas físicas complejas sería más lógico (en un sistema "perfecto" que no ofreciera las limitaciones del bus) programarlas para varios SPU, de manera que las interacciones entre ellas fueran más complejas, que restringirlas a un solo SPU...

zheo escribió:
y respecto a
En realidad lo que dice el diseñador es que para alcanzar esos anchos de banda, no hay que sobrecargar el bus, sino todo lo contrario: que todas las transferencias se hagan simultáneamente y sin solaparse, algo que es posible teóricamente, pero muy probablemente inviable. "Sobrecargar" el bus aquí sería más bien hacer transferencias solapadas para mantenér únicamente dos transferencias al mismo tiempo en cada sentido del bus.


Aquí, estamos diciendo exactamente lo mismo... mira como continúa ese parrafo, que lo edité antes de ver el tuyo, porque al leerlo me dió la sensación de que realmente no conseguía explicar bien todo... Creo que ha habido una doble interpretación por parte de ambos, del término "sobrecargar" el bus... una aplicado a una arquitectura tradicional y otra aplicada al concepto de bus que propone el Cell...

De todas maneras, chicos... no respondéis a las cuestiones finales que planteo... que realmente es lo que nos debería interesar más, en teoría, ya que estamos en un foro de videojuegos.
desert_fan_club escribió:
Es una forma de verlo... Pero creo que la potencia de la CPU depende mucho del bus si tiene varios núcleos y más aún si el punto fuerte de la CPU es ser "extraodinariamente" multinucleo... Replanteate el concepto de absurdo y de paso el de lógica... No suelo faltar, si no me faltan. De todas maneras, hasta en el propio título del hilo está entrecomillado lo de potencia, y creo que en el hilo, se explica claramente porqué...

La "potencia" no depende del bus, el bus solo sirve para saber cuantos datos puedes sacar/traer a la memoria interna pero no mide el numero de calculos que puedes hacer por ejemplo en un caso practico de usar los SPU para hacer raytracing cada paquete de datos que recibia se tardaba en calcular 198 veces mas que en recibir con lo que ya me diras lo que importa el bus en ese caso.



desert_fan_club escribió:Los ejemplos de programación que está dando la propia IBM, niegan esto que dices... pásate por aquí si quieres saber más cosas de ejemplos de programación, pros y contras... De todas maneras te adelanto, que, otra vez, para sacarle partido, la gracia está en que un SPE pueda acceder a los datos de salida de otro, para hacer operaciones más complejas, por ejemplo...

He visto bastantes sobre los ejemplos de IBM, los modelos que utilizan colaboración entre SPUs para desarrollar una misma tarea que son los que podrian llegar a colapsar el Bus de datos jamas se los he oido plantear su uso a un desarrollador de videojuegos.

El modelo habitual que se esta planteando es dividir el codigo en tareas independientes ejecutadas en distintos SPU por lo que nunca se comunicarian entre si y estarian limitados mucho antes por los 25GB/s de la memoria RAM que por los 100-200GB/s del EIB.



desert_fan_club escribió:No has leído nada de lo que he escrito, ¿Verdad?... Es evidente que hay muchas más complicaciones para utilizar todo el ancho de banda "efectivo" del bus... lo que además, nos lleva a la réplica de la siguiente frase que das...



El Bus es falsamente más rápido que los habituales... pero no te lo diré yo... mejor te pogo las palabras del diseñador del bus, para que veas que no hay "trampa":

Each port has a theoretical bandwidth of 25.6GB/s in each direction. The command bus streams commands fast enough to support 102.4GB/s for coherent commands, and 204.8GB/s for non-coherent commands. The data rings can sustain 204.8GB/s for some workloads, with transient rates as high as 307.2GB/s. (This would represent all four rings managing three concurrent transfers at once!)

Es decir... que para alcanzar esos anchos de banda tan estratosféricos, precisamente hay que hacer constantemente lo que tu pretendes negar con tu post... Mirate un poco los artículos que hay en el Link que he puesto, ya que vienen de buena fuente ( los propios diseñadores )... Creo que así no tendrás que discutir con un usuario del foro, directamente coges y les escribes un mail diciendoles a ellos que el chip que han diseñado no funciona de la manera que dicen... Colapsar el bus, en este caso, no depende tanto del ancho que pueda llevar el bus, sino, más bien de que las posiciones a las que tengas que acceder, no se solapen en el mismo anillo... luego con mala programación es muy fácil colapsarlo sin apenas carga...

Que se solapen las transferencias es algo que puede pasar "accidentalmente" sin mayores consecuencias, la latencia de las transferencias por DMA es variable y lo mejor es diseñar el codigo para que la ejecucion no se pare en el peor de los casos.

Si estas diseñando desde 0 un sistema colaborativo de los SPU puedes organizar el flujo de las trasmisiones basandose en conocer exactamente que SPU esta ejecutando cada cosa sin problemas, solo tendrias problemas si no sabes exactamente como va a funcionar tu codigo.

Siempre podrias utilizar el bus especial de control (un bus que envia datos de 32 bit entre los SPU/PPU sin tocar el EIB) para reorganizar las cosas.




desert_fan_club escribió:No, claro que no les vas a tener programando en lenguaje de bajo nivel ( los que quieran lo harán, los más aventurados, para aprovechar más la potencia... ). Pero si nos tenemos que fiar del rendimiento del lenguaje ofrecido en los kits de desarrollo... Viendo este E3, la verdad es que no se alcanza ese rendimiento tan diferenciador con respecto a la arquitectura que propone la X360... sino más bien todo lo contrario...

El uso del bus de datos se hace mediante funciones, no hay nada a "bajo nivel" que tengas que hacer en ensamblador.

Parece que le das mucha importancia a los "choques de trenes" del bus de datos pero realmente no la tiene excepto para codigos concretos que en la XBox 360 se moririan de asco por que su bus no permite comuncacion directa entre cores, todo lo hacen a traves de la cache de L2 la cual te extrangularia mucho antes de hacer algo que pudiera poner en problemas al EIB.

IBM siempre cita el EIB como una ventaja del Cell a la hora de enfrentarse al "memory wall" si te lees los principios de su diseño, la Xbox 360 basicamente no tiene ningun bus interno ya que no es habitual en las CPUs convencionales por la falta de comunicacion explicita entre cores.

Imagen

PD:

Supongo que no habras confundido el EIB con un FSB (Front Side Bus) ¿no? por que eso lo hace el FlexIO en el Cell.
desert_fan_club escribió:
Tienes razón, quiero decir que la equivalencia que planteo, es "erronea", entendiendo el Cell como un procesador al "uso standard"... Está claro que los hilos de proceso de esta arquitectura, como en todas, se realizan internamente en cada uno de los nucleos... Pero el tema, es que nos encontramos con una arquitectura que para realizar ciertas tareas tiene que "sacarlas al bus el proceso" para que lo continúe otro SPE... de esto, principalmente salía la comparación... si te fijas en la frase que autoresponde a la pregunta, nunca pretendía representar una equivalencia 1/1 sino intentar ser didáctico buscando algo más asimilable y ahorrarme un poco de literatura extra ( que al final estoy teniendo que añadir con estas lineas )
desert_fan_club escribió:
Ok sólo era por puntualizar [ok]

desert_fan_club escribió:Respecto a lo de que puedes utilizar micro-programas en cada SPU... completamente cierto, pero, por ejemplo, una IA o unas físicas complejas sería más lógico (en un sistema "perfecto" que no ofreciera las limitaciones del bus) programarlas para varios SPU, de manera que las interacciones entre ellas fueran más complejas, que restringirlas a un solo SPU...

Si y no... a la espera de más información confidencial, parece ser que un sólo SPU calculando física ya da un rendimiento similar a una tarjeta AGEIA de físicas. Parece que son realmente potentes.

desert_fan_club escribió:Aquí, estamos diciendo exactamente lo mismo... mira como continúa ese parrafo, que lo edité antes de ver el tuyo, porque al leerlo me dió la sensación de que realmente no conseguía explicar bien todo... Creo que ha habido una doble interpretación por parte de ambos, del término "sobrecargar" el bus... una aplicado a una arquitectura tradicional y otra aplicada al concepto de bus que propone el Cell...

Wops, pues tienes razon, básicamente decimos lo mismo.

desert_fan_club escribió:De todas maneras, chicos... no respondéis a las cuestiones finales que planteo... que realmente es lo que nos debería interesar más, en teoría, ya que estamos en un foro de videojuegos.
Jo, pues a mi esto tb me interesa :P
La implementación de motor de fisicas de Ageia para PS3 se basa en segmentar el espacio en trozos que entren bien en los SPU, los SPU no comparten nada entre ellos directamente si no que se dedican a trabajar con trozos de la escena distintos.

Como cualquier otro problema que se resuelve en paralelo el EIB importa una mierda. El EIB esta para problemas resueltos en varias fases que deben resolverse en secuencia por que solo puedes tener un hilo leyendo los datos a la vez, un ejemplo seria la decodificación de video en la que al trabajar con datos de tamaño variable no puedes saber donde empieza un trozo de la imagen y donde acaba antes de leerlo.

Leyendo más sobre los "colapsos" de desert_fan esta confundiendo una parada temporal de una transferencia mientras se libera un canal con un bloqueo total del bus, tal como dice el desarrollador de IBM el bus cuando las transferencias estan mal organizadas funciona a un minimo de 78GB/s sin llegar a pararse.

Table 1. Sustained EIB bandwidth achieved for some SPE-to-SPE DMA transfers
Test configuration Aggregate EIB BW 3.2 GHz
SPE1 <-> SPE3, SPE5 <-> SPE7, SPE0 <-> SPE2, SPE4 <-> SPE6 186 GB/s
SPE0 <-> SPE4, SPE1 <-> SPE5, SPE2 <-> SPE6, SPE3 <-> SPE7 197 GB/s
SPE0 <-> SPE1, SPE2 <-> SPE3, SPE4 <-> SPE5, SPE6 <-> SPE7 197 GB/s
SPE0 <-> SPE3, SPE1 <-> SPE2, SPE4 <-> SPE7, SPE5 <-> SPE6 197 GB/s
SPE0 <-> SPE7, SPE1 <-> SPE6, SPE2 <-> SPE5, SPE3 <-> SPE4 78 GB/s
SPE0 <-> SPE5, SPE1 <-> SPE4, SPE2 <-> SPE7, SPE3 <-> SPE6 95 GB/s
SPE0 <-> SPE6, SPE1 <-> SPE7, SPE2 <-> SPE4, SPE3 <-> SPE5 197 GB/s

Esta tabla esta sacada de http://www-128.ibm.com/developerworks/power/library/pa-cellperf/ que es el unico estudio de la eficiencia de EIB que conozco.
Aunque no tenga mucho que ver ,sobre lo desarrollar juegos especificos para la ps3,lo logico seria que estos sean los que exploten realmente su harware,en cambio lo visto hasta ahora es todo lo contrario,tienen mejor pinta los multis que los especificos,exceptuando el HS que tampoco es nada que no pueda hacer la 360

El metal Gear esta vez PASO OLIMPICAMENTE DE VER EL VIDEO,¿no os an tomado ya bastante el pelo con videos,que aun lo mencionais como referente a potencia?por mucho que diga o sea kojima cuando enseñe algo real ya hablaremos de el,de momento como video que es me siguen gustando mas las peliculas Pixar

Lo que esta claro es que de momento por facilidad de una o dificutad de la otra en cuanto a programacion,cuando salga ps3 sus juegos no seran superiores a los de 360,ahora falta saber si a largo plazo esta diferencia se mantendra,igualara o sobrepasara como mucho suponeis,el tiempo dira...
chris76 escribió: ...

Por si no te has enterado, el video del ANTERIOR e3, el del 2005 del metal gear era en tiempo real, y se mostró de forma privada a la prensa pero se ha filtrado.

Kojima también ha dicho que el video es del motor del juego, y de hecho en algunas partes del mismo pule frames.

También es de notar que Kojima siempre ha mostrado los vídeos con el motor del juego y así lo ha confirmado. ¿Por qué esta vez tendría que estar mintiendo? Abstente de teorías de tráfico de maletines y conspiraciones varias.

Y ten en cuenta que aquí somos realistas y esperamos que el JUEGO no tenga tanta calidad como un vídeo con su motor, y eso lo espero del MG4, del Halo3 y de juegos con vídeos similares.

Por último, ¿como quieres opinar en serio de un vídeo que no has visto?. Míralo y luego expones aquí tus conclusiones, si quieres.


Ah, y en mi opinión hay juegos de primera hornada de PS3 que ya pintan mejor que los de 360 (de primera hornada claro). Lógico por un lado porque algunos de los de 360 estaban destinados a xbox y fueron mejorados, y por el otro porque con la ps3 teóricamente han tenido un añito más y tienen todavía tiempo [666]
Pero sólo por rebatir tu ejemplo, el resistance ya me pinta mejor que el CoD. Otra cosa es cuál es mejor juego que eso se verá.
Claro que me enterado como dices,tambien decian lo mismo con el video del motorstorm y ya ves donde a quedado la cosa,si kojima tuviera algo jugable realmente impactante en estos momentos crees que a sony no le hubiera convenido sacarlo en el e3 donde quedaron como unos "gorrinos",no se por que me dices lo del call of duty con el resistance,uno se desarroyo hace ya un año y el otro aun estan liaos con el,compara los juegos de ps3 con los que abra en ese mismo momento de la 360

No quiero que pienses que soy un fanboy de nadie,yo mismo me comprare tambien la ps3 cuando vea que realmente me aporta algo diferente o superior,pero me revienta que nos traten como si fueramos idiotas con mentiras y humo..

Edito:voy ha vajarme el dichoso video pero me jode que luego pase como con los otros
Pero tu crees que tienen algo jugable quedando poco menos de 2 años para que salga??

Acaso dudas de la trayectoria de Kojima y de lo que muestran sus trailers??

Lo digo porque la política de trailers de mgs2 y mgs3 son exactamente la misma que con mgs4. Y los resultados a la vista están en cuanto a trailers y juegos final.

Que me lo digas de otros vale, pero del kojima team ..

Además de que como te han comentado ya el trailer del año pasado se demostró sobre devkit de ps3 que era real time.
chris76 escribió:Claro que me enterado como dices,tambien decian lo mismo con el video del motorstorm y ya ves donde a quedado la cosa
Y dale, que este video no es un render. SE NOTA. Tiene hasta fallos.

,si kojima tuviera algo jugable realmente impactante en estos momentos crees que a sony no le hubiera convenido sacarlo en el e3 donde quedaron como unos "gorrinos"

Coño, sale en el 2007, tienen tiempo de narices para hacer cosas aún, quizá no quieran mostrar el juego en el estado en que lo tienen y Kojima production mandará sobre su juego más que sony, ¿no?
no se por que me dices lo del call of duty con el resistance,uno se desarroyo hace ya un año y el otro aun estan liaos con el,compara los juegos de ps3 con los que abra en ese mismo momento de la 360

Hombre, yo no se tú, pero suelo comparar juegos de salida y tal. No me daría por comparar el halo con el halo2 y decir que éste es una mierda.
Ya que las consolas estan equiparadas, vamos a ver qué dan de si en periodos similares.

Edito:voy ha vajarme el dichoso video pero me jode que luego pase como con los otros

Haces bien [ok]
y no es por trolear ni nada de eso(dios me libre), pero , que le veis al trailer del metal gear 4 aparte de la espectacularidad de la puesta en escena? porque tecnicamente me parece de lo mas normalucho (las texturas son flojillas, la iluminación no me gusta, los modelados estan bien, pero no son superrealistas....

aclaradme esto, pq todo el mundo habla del trailer del metal gear como si fuera la panacea y yo lo veo de lo mas normal (tecnicamente me refiero)



otra cosa, yo creo que killzone 2 sera perfectamente posible en esta generación (usando LOD a saco, claro y cambiando los modelos en las cutscenes). probad a ver el video otra vez y comparar los modelos que salen con los del fight night o el table tennis (ya se que no son comparables, por el nº de personajes en pantalla pero creo que en un par de años veremos cosas muy parecidas)

salu2
Yo tampoco veo mucho de maravilla tecnica el MGS4 en general, el trailer del E3 es un tanto normalito excepto un par de escenas muy logradas pero más por los esfuerzos artisticos para hacer que todo encaje.

Si consiguen meter lo de los entornos destruibles, sin que se vaya a la mierda el framerate como pasa en el trailer, puede ser interesante.
Iba a responder, pero cuando leí lo de que los modelados de los personajes no son realistas, pues paso, porque son de los más realistas que me he encontrado aunque sólo sea por la animación.

Supongo que también sabreis que el trailer está a menos res que el juego y eso, no? XD

No es el juego tecnológicamente más avanzado, ese probablemente sea el crysis, pero está muy bien y está en un estado inicial.
no jodas, compara esos personajes con los del tabla tennis o los del fight night , incluso con los videos que salieron del BIA...

la animacion en cutscenes me da casi que lo mismo (mira las cutscenes de MGS:TTS )
zheo escribió:Iba a responder, pero cuando leí lo de que los modelados de los personajes no son realistas, pues paso, porque son de los más realistas que me he encontrado aunque sólo sea por la animación.
Si claro. Como si unas animaciones de PM mejoraran el modelado. XD

Ademas, como dice Gooseman, la animacion que se vea en las cinematicas no es indicativo de nada.

Yo este modelado lo veo mucho mejor que el de MGS4 a nivel de realismo.

Imagen

A mi parecer, tecnicamente solo destaca la iluminacion, que me gusta mucho, lo demas es muy bueno, o solo bueno, pero nada excepcional.

Desde luego, si no fuese por el apartado artistico, el juego no destacaria ni seria referente de nada.
Esta imagen muestra mejor el fotorealismo de Mass Effect:
Imagen
Diskun escribió:Pues hace ya varios meses el mismísimo Kojima dijo que Metal Gear Solid 4 es perfectamente posible en Xbox 360, así que muy "increíble y nunca visto hasta ahora" tampoco resulta, vamos.

A lo que me refiero es a que PS3 es una máquina realmente potente, pero tampoco nos flipemos, que es un procesador, no el Santo Grial.

Saludos

Hombre es que si un juego que va a salir en 2007 (corregidme si me equivoco), y que es de los "primeros" de PS3 ( lo pongo entre comillas porque habran salido algunos antes :D) no va en XBOX 360, apaga y vámonos.

Por muy pontente que fuera el Cell es imposible que haya tanta diferencia como para que uno de los primeros juegos de la consola ya no pueda ir en 360.



Sinceramente yo creo que si un juego no es posible en otra plataforma (sea un juego de PS3 en 360 o viceversa) seran de los últimos años de vida de la consola, cuando esten aprovechando muchísimo más su potencia.


Saludos!
Imagen

Imagen


Debe ser cosa de mi monitor ... ein?
Un juego siempre se puede convertir y reducir su calidad
si hace falta (¿RE4?)

Lo único que realmente puede hacer que un juego no sea convertible
es cosas del tipo memoria/HD (que implique recortar escenarios)
Diferencias grandes de computo de IA, Física, etc ...
que para recortarlas impliquen cambiar mucho la jugabilidad
o estructura del juego.


Sobre el tema del hilo yo al menos no creo que el EIB vaya a ser un
cuello de botella en Cell o de Ps3.
Sigo pensando que el cuello de botella de Ps3 esta en la velocidad
de la RAM de vídeo o en el tamaño de la memoria principal.
(no puedo valorar la GPU cuando apenas hay datos al respecto)

Más o menos lo mismo que decía en el otro hilo que hicieron sobre el
EIB

Edit:
Por mucho que nos quieran convencer algunos las diferencias entre
Ps3 y 360 serán iguales menores que las que hay por ejemplo entre la
cube y X
(ya veremos si demuestran lo contrario en uno u otro sentido)
maesebit escribió: Si claro. Como si unas animaciones de PM mejoraran el modelado. XD

Me refería a modelado general. Y si, las animaciones -incluyendo las faciales- le dan mucho más realismo al modelo que 10mil polígonos y 4 capas de normal.

Yo este modelado lo veo mucho mejor que el de MGS4 a nivel de realismo.

Imagen

Pues discrepo. Las del MGS tienen un aspecto más realista aunque las del mass effect son muy buenas. ¿Pero eso no es una cinemática? XD
En cualquier caso el mass effect lo que tiene son texturas fotorealistas y está claro que el MGS4 no tiene un texturizado tan bueno.
Eso si, el Mass me parece que se les acabó el presupuesto con la textura de la cara, porque la de la armadura es también un pelín difusa XD

Beat Kakashi no es sólo tu monitor, a mi también me pasa:
http://media.ps3.ign.com/media/714/714044/img_3587117.html


A mi parecer, tecnicamente solo destaca la iluminacion, que me gusta mucho, lo demas es muy bueno, o solo bueno, pero nada excepcional.

No pido un juego excepcional, sino un juego con todos sus apartados buenos o que al menos lo parezcan. Y seguro que ese juego en conjunto pintará mejor.
Como ya digo, en esta gen busco más animación y física realista que gráficos, porque gráficos increibles ya se que se pueden conseguir (GOW) pero ¿a qué precio?
Pero parece que hay diversidad de opiniones para unos la iluminación es buena y para otros mala.

Desde luego, si no fuese por el apartado artistico, el juego no destacaria ni seria referente de nada.

Veremos a ver si consigue los escenarios destruibles (y se que no sería el primer juego)
Y de todas maneras eso se podría aplicar sólo al apartado técnico, y con salvedades...
Yo, es que creo, que se ha entrado en eso que llaman el "uncanny valley " con respecto al tema de los modelos humanos el los videojuegos, y todos, tanto los del MGS4 como los del Mass Effect me producen un poco de tirria ( bueno del MGS4 Raiden y Otacon se salvan... pero creo que esto tiene más que ver con la dirección artística, que con la potencia del modelado y la animación que puedan poner ambas consolas... )

Contesto las réplicas que me dio Deathkiller:

Lo del tema que no se colapsa el EIB mediante la explicación que has dado, es un poco relativo... ¿ No crees que si debido a una mala programación, momentos en los que se estén realizando 8 transferencias de datos ( no te pongo ya ni las 12 teóricas, porque son una entelequia ) si la velocidad del bus pasa de las 204,8 GB/s a los 78 GB/s el tema es lo suficientemente preocupante como para que esto afecte al rendimiento del juego ? Sí, ya se que me vas a decir que dependiendo del caso, ya que con los 78 GB/s te da de sobra para las parcelas de los juegos que conocemos hoy ( resolver microprogramas POR SEPARADO, para que gestionen las físicas o el sonido o filtrados de video )... Por eso quiero poneros un ejemplo más concreto... un ejemplo de algo "inimaginable hasta ahora" y me dices como lo resolverías y si en este caso, la mala gestión del EIB no sería un punto crítico:

Vamos a imaginar el siguiente escenario. Somos unos desarrolladores que estamos creando un juego cuyo punto fuerte se basa en un sistema de IA dependiente de las físicas del juego y que además lleva un motor de animaciones basado en cinemática inversa que permite que las animaciones dentro de lo que vamos a proponer sean "realistas" y no canten demasiado... Vamos a la productora a llevarles nuestro boceto, y los tios se nos quedan mirando con cara de locos, porque con esa frase que les hemos soltado no han entendido nada, así que les damos unos ejemplos más concretos del uso de este sistema, en una situación del juego.

Les decimos que los escenarios son casi enteramente destruibles, para que se vayan metiendo en el tema... Estamos en un escenario que es un risco de piedras con vegetación y hay tres enemigos dentro de este escenario... vemos que dos de los enemigos están situados en la ladera del risco, en un camino a unos 2,5 metros sobre nuestras cabezas, y uno en el mismo plano de suelo que estamos nosotros. Uno de los enemigos que hay encima del risco se ha percatado de nuestra presencia y vemos como pone su fusil en posición y nos intenta apuntar a través de su mira telescópica... Nosotros, con el poco tiempo de reacción que nos queda, dado que el nos ha tomado la delantera con su acción, decidimos disparar a las piedras del risco inmediatamente inferiores a su posición (un blanco mucho más fácil para apuntar rápido y reaccionar antes de que nos dispare...), esperando que se produzca un pequeño desprendimiento, que impida su propósito... y efectivamente... primero, unos pequeños pequeños cantos se empiezan a desplazar ladera abajo... luego unos más grandes... más grandes, hasta que las piedras que soportan su posición se desprenden, y el enemigo comienza a caer ladera abajo... Son 2,5m... luego a menos que haya caido en una malísima posición, sabemos que ese enemigo aún no ha sido derrotado y vendrá a atacarnos... Su compañero, el otro que queda arriba en la ladera pero en otra posición, se ha dado cuenta del estruendo del desprendimiento y nos tira una granada de humo para que el otro se pueda reponer y situarse en una posición más estratégica... bien, hasta aquí todo más o menos fácil... podría ser el Crysys... Pero lo que nos importa del juego que estamos creando, son los "peros" y sobretodo, los "y si"... Lo que no os he contado aún es que estos tios, son unos ninjas bastardos que nos van a hacer la vida imposible... en la anterior cadena de acontecimientos en lugar de ocurrir lo que hemos descrito, retomamos el momento en el que estamos disparando a las piedras para que el tío caiga... En ese momento la IA encargada de gestinonar las acciones de ese enemigo, coge y le pregunta al motor de físicas si va a existir rodadura de la piedra en la que se encuentra el personaje y que velocidad va a alcanzar la piedra deslizandose a la salida de su trayectoria, a 2,5m de altura sobre la ladera... La IA al recibir los datos del motor de físicas, evalúa que la rodadura va a ser mínima y que si el personaje desciende su centro de masa, va a ser casi inapreciable... además, debido al rozamiento, el movimiento de deslizamiento del risco va a tener una aceleración muy pequeña, por lo cual la IA decide que lo que va a hacer, es que el personaje se mantenga en su posición, que se agache, para hacer descender su centro de masa y poder seguir apuntando de forma eficiente e intentar abatirnos... GAME OVER... pero no, aún hay más... ya que, durante el desprendimiento, nosotros seguimos disparando a la piedra tocha, antes de que el tío nos consiga disparar y conseguimos desmenuzarla en pedazos, aún más pequeños... La IA del personaje vuelve a evaluar las físicas y antes de que se llegua a desmenuzar la piedra del todo, decide de va a ser más seguro para no perder toda la situación de ventaja que tenía, saltar directamente a la ladera y descender sobre ella antes de que se destruya completamente la piedra... como ha perdido completamente la posición de tiro con el fusil, decide tirarlo al suelo y la IA avisa al otro compañero suyo que estaba encima de la ladera para que le pase una automática... y así podríamos seguir indefinidamente planteando distintas hipóltesis... por ejemplo, volver al principio cuando estamos disparando inicialmente a la piedra y la IA preguntarle al motor de físicas y esta "darse cuenta" que simplemente dando un paso atrás va a poder seguir manteniendo su posición... Creo que más o menos, queda clara donde está la gracia del tema... ¡ah! no olvidéis que todo esto ocurre con unas animaciones creibles y bien resueltas...

Bueno... yo creo que en este caso, el motor de físicas tendrá que estar preevaluando constantemente cual pueden ser nuetras posibles interacciones con el escenario y las de los personajes manejados por la IA y esta última, mientras tanto, ir preevaluando también las reacciones más efectivas, a tenor de los datos ofrecidos, para que llegado el momento de la ejecución de las acciones que se tomen, el motor de animación pueda calcular la cinemática inversa de los personajes resultante de todo ese proceso... Eso si seria algo espectacular, "algo inimaginable hasta hoy"... Te he puesto un ejemplo que requiere un huevo de "branching", para que veas, que, precisamente el Cell va a fallar en eso, debido a la gestión de datos, consecuencia del EIB. Como bien habéis dicho, va a ser muy potente al ejecutar microprogramas dentro de los SPEs, es decir que, nos calculará como caen las rocas del risco como nadie... pero de nada sirve si no existen consecuencias dentro de la jugabilidad de eso. El ejemplo que has puesto del uso de los SPEs para hacer raytracing es completamente trivial... no se requiere ir trajinando con los resultados de un SPE a otro para poder seguir el proceso, de hecho, como bien sabrás, es una de las cosas más sencillas de implementar en una arquitectura mutiprocesador o de varios nucleos, precisamente por eso.

Por otro lado, tengo que decirte que si no existe una comunicación directa entre los cores de X360, tampoco existe entre los del Cell... es cierto lo de que se comunican a través de la Caché de L2, claro, es que es necesario que sea así para una conexión punto a punto mediante crossbar... si no, ¿ que usas de Buffer, directamente la memoria de cada core ?... y te digo lo de que entonces en el Cell tampoco existiría, ya que las memorias que portan cada SPE se usan exactamente, también, para lo mismo... precisamente es el "equivalente" a una cache de L1 y L2 simultaneamente en esa arquitectura. Está claro que las nomenclaturas de una arquitectura tan novedosa pueden discutirse, hasta casi llegar a términos filosóficos... pero eso en cualquier caso, no nos tocaría a nosotros sino, más bien, a los diseñadores y a los programadores... por eso, no te tomes muy a rajatabla este último párrafo, ya que sé que me puedes dar razones para argumentar que no es lo que yo digo y yo otras para defender que no es del todo como tu dices...

Un Saludo
Beat escribió:Debe ser cosa de mi monitor ... ein?
Sera, porque esos en mi monitor parece que esten muertos y embalsamados. Para mi Mass Effect sigue ganando en realismo.


zheo escribió:Y si, las animaciones -incluyendo las faciales- le dan mucho más realismo al modelo que 10mil polígonos y 4 capas de normal.
Si, claro. Aceptamos barco como animal acuatico, y animacion como modelado. :-|


zheo escribió: ¿Pero eso no es una cinemática?
¿Pero no la he puesto para mostrar algo que no tiene nada que ver con las animaciones? ein?

En serio. Empieza a preocuparme que os perdais en las conversaciones tan amenudo.

Repasa los post anteriores.
Sobre lo que estais comentando de las imagenes del Mas Efect no son cinematicas,ya que tengo el video de donde fueron tomadas las fotos y se ve claramente que hay un tio controlando la camara y al personaje en cuestion
Es curioso, que se planteen tantas dudas acerca del CELL cuando ya se ha dicho tropocientas veces que PS3 sera mucho mas facil la programacion que en PS2. Y recordad que los kits de dsesarrolo finales no se entregan hasta Junio/Julio.

Es que creo que se le da demasiada importancia al dichoso procesador dado su complejidad y al ser totalmente diferente al de la 360 ( que se puede exprimir mucho mas facilmente ).

Desde luego, pese a que MGS4 no sea una marabilla como dicen muchos... si da un buen meneo (grafico) a muchos titulos de lanzamiento de la 360. Y que conste que no lo digo para picar ni para demostrar fanboyerismo... simplemente hay que ser realistas y aceptar y reconocer, que PS3 a diferencia de PS2 el dia de su lanzamiento, esta si parece que esta a la altura de las circunstancias.

Pocos juegos por el momento han resultado ser bazofioas.. (muchos han causado decepcion debido al HYPE E3 2005 en forma de CG) y que luego han resultado ser inferiores a lo mostrado. Tenemos un heavenly Sword bastante curradete, un Project Naughty Dog bastante impactante, un Assasins Creed que parece ser que si es bastante parecido con la intro de E3 2006, el ya tan famoso MGS4, y un largo etc que seguramente se muestre en el TGS.

Lo unico decepcionante que mas se oie despues de todo este rebuelo de noticias, videos, fotos y demas, es el tema del precio de la consola, ciertas actitudes por parte de sony a la hora de vender su consola, la vibracion etc etc, pero en temas graficos/tecnicos todavia no ha sido decepcionante como se pensaba.

Dejando a un lado todo esta OFFTOPIQUEADA, veo en algunos de vosotros mucha incertidumbre acerca del potencial de la PS3 y cuando demostrara realmente que superara con creces todo lo visto hasta ahora.

Demosle tiempo, quedan casi 6 meses para su lanzamiento, y aun quedan muchas cosas por saber sobre ella (de la GPU aun no se sabe todo), lo que si esta claro esque CELL al igual que el procesador de PS2 fue y sera el porcesador mas avanzado de esta generacion pueda tener. Otra cosa es que la GPU no este a la altura de dicho procesador como la PS2 y aun asi mirad que autenticas joyas han salido.

Lo dicho, menos pajas mentales y mas confianza en el buen hacer, 10 años triumfando es suficiente motivo como para que esta vez sea una excepcion ;)

Salu2
¿el project naughty dog impactante? [agggtt]
Sobre lo de que MGS4 supera a lo visto de primera hornada de 360...joder,mas le vale no? teniendo una maquina supuestamente superior y mucho mas tiempo para programarlo si no lo fuera seria pa darles de ostias con una piedra en los piños al kojima y su equipo ! hay que tener en cuenta que se hicieran aprisa y corriendo,muchos en realidad eran de xbox y les hicieron un lavado de cara...

La cpu es potente,pero eso de que sea la ostia en verso,inimaginable y supermegachhupi pueeeeeeeesss...XD
Y a mi que triunfé 10 años me la trae floja y pendulona, si me quiere como usuario tendra que currarselo(empezando por bajar el precio ;) )


Saludos
Imagen

Mirada arrebatadora [qmparto]

Sera cosa del monitor pues ... la verdad es que en el mio los del Mass Effect embalsamados no, pero plastificados es probable (menos que en muchos otros juegos, tambien es verdad).

Aunque debe ser que me he perdido yo tambien. De que estamos hablando? Modelado o texturizado ?

En cualquiera de los dos casos me quedo con la imagen de Ocelot, sobre todo en el primero de ellos ... y que en las texturas se aprecien imperfecciones o los poros de la piel pues tambien tiene su aquel.

Lo concerniente al pelo y al vello facial tambien lo veo mas currado en el MGS4. Ademas, tener pestañas es realista, no tenerlas no lo es ... a no ser que se las haya quemado, aunque no creo que eso lo hayan contemplado en el argumento.

Y tambien estoy de acuerdo con zheo en lo que comenta sobre las animaciones faciales vs. modelado ... en la imagen de Ocelot se puede apreciar porque esta gesticulando.

Sin embargo otro personaje en una imagen estatica puede parecer muy realista, pero al verlo en movimiento y si esta mal modelado ... pues tambien puede tener un realismo increible, siempre y cuando establezcamos comparaciones con Macario, Monchito o cualquiera de los muñecos de JL Moreno.

De todos modos que conste que lo visto de Mass Effect tambien tiene mucho nivel, pero mi monitor en este caso prefiere al MGS4.


Con respecto a lo tratado en el hilo ... nada que aportar [+risas]

Seguid "discutiendo" que queremos aprender.
Después de leer todo el hilo...... ¿alguien tiene una Aspirina? XD

Ahora en serio, yo creo que en esta generación las fuerzas van a estar mucho más equilibradas que en la anterior, es más creo que los juegos tendrán la misma calidad gráfica en una que en otra.
Y eso será bueno para todos, así no tendremos que tragarnos cutre-ports de una a otra plataforma, los ports tendrán la misma calidad vengan de donde vengan, y así todos contentos.
delone escribió:¿el project naughty dog impactante? [agggtt]
Sobre lo de que MGS4 supera a lo visto de primera hornada de 360...joder,mas le vale no? teniendo una maquina supuestamente superior y mucho mas tiempo para programarlo si no lo fuera seria pa darles de ostias con una piedra en los piños al kojima y su equipo ! hay que tener en cuenta que se hicieran aprisa y corriendo,muchos en realidad eran de xbox y les hicieron un lavado de cara...

La cpu es potente,pero eso de que sea la ostia en verso,inimaginable y supermegachhupi pueeeeeeeesss...XD
Y a mi que triunfé 10 años me la trae floja y pendulona, si me quiere como usuario tendra que currarselo(empezando por bajar el precio ;) )


Saludos


Pero aqui lo que se debate precisamente es la supuesta potencia bruta del CELL, no el precio, no de que te la ponga pendulona los 10 años de triumfo de Sony xDDDDD.

Y que yo sepa PGR3 no estaba hecho para la xbox1, y tampoco es la repanocha.

De todas formas, al igual que aqui especulamos y tenemos fé algunos en la supuesta potencia bruta del CELL ( que de momento lo esta demostrando aunque sea poquito), en que te basas tu para poner en entredicho la potencia del mismo y decir que no sea la ostia en verso?

Porcierto, el GOW de 360 ya dicen los programadores que ha tocado techo tecnico ( de ahi los famosos 30 fps), y tampoco es que sea la ostia en verso, porque fallos los hay a patadas, y si quieres un ejemplo solo tienes que ver como salpica siempre la misma sangre en el mismo sentido cada vez que le disparan al personage que tu controlas. O esa animacion super tosca cuando esta escondido detras de una pared y se asoma para disparar, (parece que solo haiga 2 fps desde que esta de espaldas contra la pared hasta que esta disparando al enemigo de enfrente). El juego para mi es la ostia en verso, los limites en parte los ponemos nosotros, y aunke a ti no te pueda sorprender el nivel de detalle y animacion del Naughty Dog (impresionante) ami por ejemplo me parece el GOW una marabilla de juego, pero puestos a ser pijoteras te he puesto el ejemplo de la sangre salpicando siempre de la misma manera, o la escasez de animaciones en ciertos momentos.

Que conste que lo digo con todo el buen rollo del mundo, este hilo me parece de los mas interesantes que se han puesto en bastante tiempo.

Tambien pido disculpas por los tecnicismos que he puesto para comparar, solo los he utilizado como base de discusion ( de buen rollo ) para que se vean las virtudes y las carencias de un procesador hasta ahora tan desconocido y complicado como pueda ser el CELL o el DE LA 360.

Sabemos de sobras que eso se superara facilmente cuando empiecen a aprobechar mas nucleos ;)

Lo dicho, la pericia la ponen los desarrolladores, pero el limite en parte tambien lo ponemos nosotros. Al igual que sin potencia de poco sirve la pericia de un desarrollador. Si un procesador no da para mas no esperemos un Killzone 2 o parecidos hasta la siguiente generacion ;)

Salu2 y wen rollito ;)
la verdad que desde mi punto de vista como informatico y tras leer el buen documento tecnico de nuestro compañero, tengo una cosa que decir el CELL a mi parecer esta mal diseñado, sería algo asi como para que quieres un motor ferrari sino tienes gasolina, ... muchos nucleos (motor ferrari) y una cagada de bus (gasolina).

el diseño de CELL para nada está pensado para videojuegos, es un procesador de proposito general, aunque para manejar vectores sea una bestia parda (pues parece un procesador vectorial x lo menos a mi me recuerda eso su arquitectura), no creo que se aprovechen tanto esos nucleos por lo menos en materia de videojuegos.

eso si sony se tendra que currar unos kits acojonantes, porque sino creo que mas de uno dejara de programar en esta plataforma, acordaros de saturn :-).

Sin duda la arquitectura de 360 es mucho mas acertada


un saludo
desert_fan_club, una buena explicación.

Has sabido comunicar lo que a mi por mi manera de explicarlo me costó las reprimendas de una parte grandes del EOL. Enhorabuena.

Cell es un chip basicamente IBM, TOSHIBA y que SONY Videojuegos pinta menos que una mona, osea bien poco (opinión personal).

IBM lo imagina y lo crea para calculo intensivo (grandes servidores).
TOSHIBA pone sus ideas y lo enfoca al sector imagen (dispositivos).
SONY al igual que TOSHIBA mas de los mismo.
Con este pastel Sony lo mete en su consola ... porque aun así es un buen bicho ... si se hacen las cosas bien.
CELL es brutal, para programaciones digamos sencillas y sistematicas para que cada "procesador" (entrecomillado ¡eh!) cocine la patata y se la pase al siguiente como dictan sus caminos.
En cuanto lo saques de ahí, puede llegar a ser uno mas.
Y creo que muy pocas compañias en los dos primeros años van a sacar algo relamente bueno.

Por cierto para los que dicen que MGS4 es la bomba y que la 360 en su primera hornada caca de la mala. MGS4 se enseño en el E3 2005 ... osea cuando salga 2007 ... dos años. Gears of Wars para mi superior graficamente, se enseño en el E3 2005 y saldrá medio años antes por lo menos. Ya me diras que querias decir porque yo no lo entiendo.
CapiXbox2 escribió:Por cierto para los que dicen que MGS4 es la bomba y que la 360 en su primera hornada caca de la mala. MGS4 se enseño en el E3 2005 ... osea cuando salga 2007 ... dos años. Gears of Wars para mi superior graficamente, se enseño en el E3 2005 y saldrá medio años antes por lo menos. Ya me diras que querias decir porque yo no lo entiendo.


Pues tu mismo lo has dicho, antes del E3 2005 se estaba programando no? ha pasado 1 año y tiene carencias que a muchos no les acabara de gustar, pero que igualmente se compraran el juego, primero por ser de los pocos en aprobechar la maquina, y segundo como JUEGO en sí, que es bastante pepinillo.

Entonces, cuanto tiempo de desarrollo lleva el MGS4? la cosa anda bastante pareja no?

Lo que quiero decir es que si a estas alturas la 360 ya esta tocando techo (pese que GOW es la polla), entonces que podemos esperar de PS3? mas de lo mismo? Oooh, pues entonces menuda mierda de generacion, porque Crysis se menea al GOW a nivel técnico y de IA.

No se, es mi punto de vista, pero si la 360 en teoria es parecida en potencia a PS3, estoy bastante decepcionado la verdad, porque yo me esperaba que consiguieran cosas mas brutales.

Espero equivocarme ( que va a ser que si ) esta generacion debe y puede ser muchissimo mejor de lo que hemos visto.

Salu2
Joder,y yo que me iva a dormir( o a ver porno)...en fin

Pero aqui lo que se debate precisamente es la supuesta potencia bruta del CELL, no el precio, no de que te la ponga pendulona los 10 años de triumfo de Sony xDDDDD.


dices algo con lo que no estoy de acuerdo y no puedo discutirtelo? [tomaaa] ya de paso tampoco venia a cuento naughty dog,ni MGS4 ni pollas en vinagre...:-|

Y que yo sepa PGR3 no estaba hecho para la xbox1, y tampoco es la repanocha.

no,creo que no,y si es la repanocha,por lo menos para lo que se esta viendo y teniendo en cuenta el tiempo que llevará en la calle ese juego

De todas formas, al igual que aqui especulamos y tenemos fé algunos en la supuesta potencia bruta del CELL ( que de momento lo esta demostrando aunque sea poquito), en que te basas tu para poner en entredicho la potencia del mismo y decir que no sea la ostia en verso?


en los resultados.


Porcierto, el GOW de 360 ya dicen los programadores que ha tocado techo tecnico ( de ahi los famosos 30 fps), y tampoco es que sea la ostia en verso, porque fallos los hay a patadas, y si quieres un ejemplo solo tienes que ver como salpica siempre la misma sangre en el mismo sentido cada vez que le disparan al personage que tu controlas. O esa animacion super tosca cuando esta escondido detras de una pared y se asoma para disparar, (parece que solo haiga 2 fps desde que esta de espaldas contra la pared hasta que esta disparando al enemigo de enfrente). El juego para mi es la ostia en verso, los limites en parte los ponemos nosotros, y aunke a ti no te pueda sorprender el nivel de detalle y animacion del Naughty Dog (impresionante) ami por ejemplo me parece el GOW una marabilla de juego, pero puestos a ser pijoteras te he puesto el ejemplo de la sangre salpicando siempre de la misma manera, o la escasez de animaciones en ciertos momentos.


¿alguien lo tiene a tiro?¿a que esperas?XD es decir,segun tú un juego va a 30 fps y ya es el techo tecnico del hardware? joooooooder,como esta el personal...y si el gow es la polla,y sí,tiene fallos,como todo.El juego de naughty dog tiene animaciones suaves y en nivel de detalle pueeeeees,no me llama nada...por otra parte,que tiene que ver lo bien hechas que esten las animaciones con la potencia del procesador? y....que coño pinta esto aqui? :-|


Que conste que lo digo con todo el buen rollo del mundo, este hilo me parece de los mas interesantes que se han puesto en bastante tiempo.

eso que no falte [beer]

joder....como puede alguien creer que gow es el techo tecnico... [tomaaa]
fidillo
Eres de esos pocos afortunados que ha podido jugar al GOW (Gear of War), un juego que aún no se sabe la fecha de salida.

De mayor quiero ser como tu [inlove] .

Que la 360 ha tocado techo con GOW, un juego que se empezó a programar con un kit beta. NO COMENT. Oooh

Por cierto, ¿este hilo no iba sobre el CELL?
delone escribió:¿alguien lo tiene a tiro?¿a que esperas?XD es decir,segun tú un juego va a 30 fps y ya es el techo tecnico del hardware? joooooooder,como esta el personal...


No es que lo diga yo, esque lo dicen los propios programadores, que han tocado techo, que no da pa mas xDDD, aunque yo tambien lo pongo en duda, es imposible en 6 meses de vida de la consola que se haiga tocado techo tan rapido, por mucho que digan los programadores cuesta de creer.

Cierto es que cada vez que se hacen las cosas mas perfectas mas intentamos buscar los fallos por algun lado, sea a nivel de programacion o a nivel artistico o anivel historia etc etc...

Alguien buscaba los fallos en la epoca de ATARI o NES? seguramente ni una decima parte de lo que ahora xDDDDD.

PD: pido disculpas de nuevo, he desvariado un poco el tema y he mezclado CELL con otras cosas xDDD, esque cuesta bastante el no poder hacer comparaciones para ver los pros y contras de un procesador a otro. :-p

Salu2
Yo creo que aqui muchos hablais mas de deseos personales que de la realidad de los hechos, empezemos....

Todavia no he leido el comentario de NINGUN desarrollador que diga que programar para PS3 sea mas dificil que para PS2, es mas SIEMPRE he leido lo contrario, pero es de dominio publico que todo el mundo dejo de programar para PS2 dada su complejidad y que a esa maquina nadie la ha exprimido... [agggtt]

Mucho se habla aqui de la conveniencia del CELL en el mundo de los videojuegos...uhmmm, desde luego si lo que se quiere es no cambiar ni una coma del metodo de trabajo que se ha seguido hasta ahora y de la forma de desarrollar para procesadores 'generalistas' efectivamente el CELL no vale de nada, otra cosa es que el CELL merezca un estudio profundo por parte de los desarrolladores y que se adecuen los metodos de trabajo a su especial arquitectura.

La mayoria de los comentarios hablan de una superioridad del CELL ante la competencia (y hablo del mundo del videojuego), quizas aqui hay mucho guru que sabe mas que los que desarrollan videojuegos.

El CELL no es la panacea y tendra sus puntos fuertes y sus puntos debiles, pero la verdadera piedra de toque son los juegos....algunos preferiran las increibles texturas y los graficos del GOW, otros los suaves movimientos, las animaciones y la iluminación del HS....para gustos los colores.

Y por ultimo, tanto para XTS como para la PS3 no estamos mas que viendo la punta del iceberg.....creo que fue Harl quien dijo que si en realidad cada maquina tiene VERDADEROS puntos fuertes sobre la otra habra que demostrarlo sacando juegos que en la otra maquina no 'funcionen' al mismo nivel....
takeda escribió:Y por ultimo, tanto para XTS como para la PS3 no estamos mas que viendo la punta del iceberg.....creo que fue Harl quien dijo que si en realidad cada maquina tiene VERDADEROS puntos fuertes sobre la otra habra que demostrarlo sacando juegos que en la otra maquina no 'funcionen' al mismo nivel....


IDEM [tadoramo]

Joder tio, te ha quedado al pelo, estoy por ponerlo en mi firma xDDDDDDDDDDDD

Salu2
115 respuestas
1, 2, 3