PS3 a 1 TeraFlop? NAAAAA, compra 1000 y quizas...

Bueno, el mismo ken kutaragui acaba de tirar el mito al rio... ese mito por el que yo mismo (y muchos) nos preguntabamos de que coño seríamos capaces de ver en nuestras tv's antes de 7 años con 1024GigaFlops de potencia...

Bueno, el enlace: http://www.theregister.co.uk/content/3/33791.html

y aquí el texto directamente en inglés:

Sony Cell CPU to deliver two teraflops in 64-core config
By Tony Smith
Posted: 05/11/2003 at 12:10 GMT

'Cell', the massively parallel processing chip currently being designed by Sony and IBM, will scale from single-chip systems through to entire server rooms packed with thousands of them, Sony's executive deputy president Ken Kutaragi told attendees of the company's Transformation 60 conference yesterday.

That's always been the goal, of course, since Cell was first announced back in March 2001. But yesterday Kutaragi put some numbers onto the chart.

A four-core chip home server system will be able to deliver one billion floating-point operations per second, apparently. Move up to a 32-core chip - in, say, a blade server module - and you'd get 32 gigaflops of processing power, while a 64-core slab of silicon inside a rack-mount unit doing graphics work would churn out two teraflops, according to Kutaragi's presentation foils.

Ultimately, Kutaragi suggested, we'll see 16 teraflop supercomputer 'cabinets' and one petaflop (a million billion flops, in other words) server rooms - the latter delivering enough raw power for true AI systems, he said.

Kutaragi likened a single Cell chip to IBM's 32-node RS/6000-based chess supercomputer Deep Blue. The exponential scaling rate suggests Cell really doesn't come into its own until you use lots of them together.

That's certainly the design philosophy: "With built-in broadband connectivity, microprocessors that currently exist as individual islands will be more closely linked, making a network of systems act more as one, unified 'supersystem'. Just as biological cells in the body unite to form complete physical systems, Cell-based electronic products of all types will form the building blocks of larger systems," was how Kutaragi described the Cell concept back in 2001.

Since it takes 2200 PowerPC 970 chips - aka the G5 - to yield just over ten teraflops - much the same as you get from 2000 Athlon 64s - getting similar performance out of just 64 Cell cores is impressive, if Sony and co. can deliver.

Right now, they're just a little way past half way through the five-year Cell research project, so they have a few more years yet to demonstrate the device in action. We'd expect the successors to today's chips to have got a little closer to those kinds of figures by 2006, but not that close.

Others are not so far behind. ClearSpeed's recently announced CS301 chip, for example, can deliver 25 gigaflops peak, the company claims. The CS301 is a 64-way parallel processing co-processor designed to work alongside an x86 or other general purpose CPU. The downside is that it's expected to cost over $16,000 per chip. We suspect Sony and IBM are aiming for something a little more mass-market. ®



Bien, basicamente dice, que si queres 1TeraFlop de potencia mediante Cell, tendras que comprar un "Blade server" con 32 "cores" en el propio CELL, obtendras... ohhhhhh... 32 "miserables" GIGAFlops, y si quieres 1 o 2 TERAFLOPS, tendras que montar un puto cluster/rack en plan animal con decenas y decenas de teraflops...

Lo más interesante, es que si no recuerdo mal, la patente que se suponia era "PS3" en USA, era una configuración con un CELL basado en 4 nucleos... bien, según la presentación, ESA CONFIGURACION, solo es capaz de ofrecer 1GIGAFlop (6 veces menos que el Emotion Engine actual). Espero que haya algo más que todo este "despierta, que el CELL no es el santo grial"


Bueno, lo leeis vosotros mismos.

Viendo esto... creo que PS3 va a terminar siendo algo así como una PS2, una consola corrientita sin más, a la zaga (aunque con mucha menor desventaja) de Xbox 2 y GC2, las cuales, muy seguramente usen como CPU's las nuevas G5 (se dice, se comenta, se rumorea que el Xbox "team" ha recibido varias G5's pepinazas para "trastear") a 64bits, y tirando, de nuevo, tanto MS como Nintendo, del apoyo de un chip gráfico que libere casi al completo de las tareas gráficas (al menos las más complejas como los efectos y demás) al procesador central.

Bueno, a Kutaragui parece que en su momento se le lleno la boca de mierda... digo... de mentiras. Bueno... mentir no minitio, la cosa es que tampoco dijo que configuración haría falta para pillar 1TeraFlop en una sola CPU...

Y es que, cuando un FPU suelto con 25GIGAFlops de calculos vectoriales (a lo Emotion Engine) para servidores y derivados, puede costar hasta 10000$ la unidad... quien pensaba en PS3 con 1 TeraFlop?

Salu2

PD: Lo acabo de leer por beyond3d.com

PD1: Lo que voy a flipar es con Cell dentro de 10 años, y cuando aumenten las capacidades de esas "vpu's".

PD 2: Contra mas lo leo, más flipo... acabo de leer, q PS3 se basa inicialmente en "2 cores", o sea, 0,5GigaFlops de potencia... empiezo a no entender nada... nada de nada, o eso, o me he vuelto gilipollas perdido de repente... :Ð Aquí tienen que faltar las APU/FPU o algo, por que esto es 100% anormal
Sí, precisamente hoy lo hablaba con un amigo en la clase de cine ante las atentas miradas de la gente de letras...Les interesaba mucho creo... ¬¬'

Ayer un tío que ha currado en el desarrollo de CELL estaba dando un ruedo de preguntas en unos foros.
Al preguntarle yo a cuando correrá cada APU, me contestó que de momento 32 GFLOPS.
Teniendo en cuenta que se dice que la PS3 usará 8 APUS esto nos da un total de 256 FLOPS.


Esto hace que todo cuadre y que el chip que ARM y NEC tienen a punto a 64 GFLOP ya no sea tan mierda en comparación al de PS3, que tenía que alcanzar el TERAFLOP.
Escrito originalmente por ourumov
Sí, precisamente hoy lo hablaba con un amigo en la clase de cine ante las atentas miradas de la gente de letras...Les interesaba mucho creo... ¬¬'

Ayer un tío que ha currado en el desarrollo de CELL estaba dando un ruedo de preguntas en unos foros.
Al preguntarle yo a cuando correrá cada APU, me contestó que de momento 32 GFLOPS.
Teniendo en cuenta que se dice que la PS3 usará 8 APUS esto nos da un total de 256 FLOPS.


Esto hace que todo cuadre y que el chip que ARM y NEC tienen a punto a 64 GFLOP ya no sea tan mierda en comparación al de PS3, que tenía que alcanzar el TERAFLOP.


es decir, que cada "APU CELL" que monte PS2 (dices q 8), sacará 32GIGAFlops, dando un total "teórico" de 256GIGAFlops, pero según la noticia esta, pasar de 32 a 64 multiplica MUCHAS veces la potencia de dicho chip...

me sigo perdiendo algo... creo que el kutaragui se ha olvidad de decir q ahí no se incluian las FPU's completas y que esos datos solo correspondian a lo qu epodríamos llamar la "net part" del chip, es decir, lo que reparte la carga entre las diferentes unidades...

no se, lo veo todo muuuuuuuyyy raro.

Salu2
Dejando a un lado los tecnicismos, los FLOPS y FLIPadas varias, ¿eso quiere decir que Sony volverá a lanzar otra consola-lastre?

Pues vaya... [enfado1]
Por ahora en foros de techies y tal he visto 2 tendencias: los que creen que llegará a 1TeraFLOP y los que dicen que se quedará en 256.
Pase lo que pase es una brutalidad de potencia.

Para que tengais una idea, Ps2 da un máximo de 6.2GFLOP que le sirven para hacerlo todo. El procesador de GC da 1.9 GFLOP en comparación, claro que se sirve de una GPU para T&L.
Teniendo en cuenta esto, supongamos el peor de los casos. Supongamos que PS2 da 256 GFLOP para todo. Esto sigue siendo una brutalidad de potencia.
Será lo que querais, pero un lastre no.

Y Joyas, realmente crees que los resultados de PS2 son horribles ???
Ayer mismo en el mismo hilo dónde pregunté:

A small company like ClearSpeed ( the technology they used and the volume they can make those chips at [very low] explains the current price per chip ) is able to do 12.5 GFLOPS per Watt which means that with 80 Watts they could achieve 1 TFLOPS.

I expect IBM, Toshiba and SCE to do better than that.

PlayStation 2 had an over-all Power Consumption of 79 Watts already, when it came out.
Escrito originalmente por ourumov

Y Joyas, realmente crees que los resultados de PS2 son horribles ???



Me refiero a los multiplataforma no a la consola en sí, aunque eso es más culpa de la vaguería de los programadores que de la consola.
Creo recordar que la GC da en CPU 12GIGAflops totales, ya q tiene integrada la "Fixed T&L" si no me equivoco... de todas formas, el G4 es más que 2GIGAFlops, q es algo q hace un P3 sin menearse demasiado con las SSE (Xbox mismo mueve 3GIGAflops en CPU con las SSE y MMy demás "pendejadas").

De todas formas, por lo leido en el articulo, el aumento de potencia bruta, más q lineal, parece q es exponencial, ya que dupliando el numero de chips, multiplican varias veces la potencia "teórica" del chip.

De todas formas, si PS3 sale al mercado con 256GIGAFlops, me sigue sin parecer en conjunto nada del otro jueves, y más, teniendo en cuenta, q el GeForce 4 de Xbox (el solito) se clava casi 100GIGAFlops/seg. Sumale los 10GIGAFlops del MCPX (todo el I/O y demás paranoias) y los 3GIGAFlops de la CPU, y ahí tienes la Xbox... la cosa es que en las 3D, para duplicar el resultado final, tienes que multiplicar varias veces la potencia necsaria...

YA veremos donde termina todo esto... una CPU de 256GFlops sigue siendo barbaro... y puede hacer muchas cosas, pero me huelo otra "ps2".

Y si ourumov, personalmente creo que PS2 no hace nada del otro jueves, todo son texturas y algúna luz dinamica suelta, y MUCHOS polígonos, nada más. Si a los juegos de PS2 le metemos algún efecto "tipo" de GC o Xbox se caga en las bragas, seamos francos. Solo hay q ver el PES 3, en la PS2 parece q va justito, y la demo de PC, va a toda leche a 4 veces más de resolución en un equipo "medio"...

Salu2
Escrito originalmente por Joyas



Me refiero a los multiplataforma no a la consola en sí, aunque eso es más culpa de la vaguería de los programadores que de la consola.


te recuerdo que los programadores son moratales como tu y como yo, no dioses que todo lo pueden.

Salu2
Creo recordar que la GC da en CPU 12GIGAflops totales, ya q tiene integrada la "Fixed T&L" si no me equivoco


Estoy hablando de CPUS en función normal, es decir para cualquier cosa menos T&L. Aunque de todos es sabido que el Gekko puede ayudar al Flipper con su capacidad que es exactamente en SIMD de:

485Mhz*4fpi por ciclo=1.940 GFLOPS.

Xbox mismo mueve 3GIGAflops en CPU con las SSE y MMy demás "pendejadas").

Que no le sirven para nada ya que no puede crear vertices el Celeron de la "equixbos".
Pero de todas formas es muy meritorio, ya que como bien dices de T&L se encarga la XGPU.

733*4fpi por ciclo( 8 flops por 2 ciclos ( alternando 4 FMUL y 4 FMADD ))=2.923GFLOP

q el GeForce 4 de Xbox (el solito) se clava casi 100GIGAFlops/seg

Creo que son 80...
Sumale los 10GIGAFlops del MCPX

Que yo sepa el MCPX da 4GOPS...

Si a los juegos de PS2 le metemos algún efecto "tipo" de GC o Xbox se caga en las bragas, seamos francos.

Lo mismo puede decir la PS2 cuando usa partículas a piñón...Alguien dijo Tanker del MGS2:S ???

Solo hay q ver el PES 3, en la PS2 parece q va justito, y la demo de PC, va a toda leche a 4 veces más de resolución en un equipo "medio"...

Cuando salió PS2 ?¿ Y que entiendes por equipo medio ?


A ver, cada máquina tiene sus puntos fuertes, pero no me negarás que ha habido equipos de programación que han sacado un fantástico rendimiento de PS2 y que aún hoy sigue dando guerra con títulos com SH3, MGS3, Jak 2 o el inminente Ratchet & Clank 2.
Escrito originalmente por ourumov


Estoy hablando de CPUS en función normal, es decir para cualquier cosa menos T&L. Aunque de todos es sabido que el Gekko puede ayudar al Flipper con su capacidad que es exactamente en SIMD de:

485Mhz*4fpi por ciclo=1.940 GFLOPS.


Que no le sirven para nada ya que no puede crear vertices el Celeron de la "equixbos".
Pero de todas formas es muy meritorio, ya que como bien dices de T&L se encarga la XGPU.

733*4fpi por ciclo( 8 flops por 2 ciclos ( alternando 4 FMUL y 4 FMADD ))=2.923GFLOP


4 fpi? a que te refieres con 4 fpi? a "4 float point instructions"? y del G4, simplemente no me creo esa capacidad de calculo, es simplemente ridicula, teniendo en cuenta lo que consigue cualquier G4 en los mac.

Del P3 si, ronda por ahí. Pero te recuerdo que no todo en este mundo sirve para mover vertices, ni todo lo que no son 3D se hacen con "enteros"...


Escrito originalmente por ourumov
Creo que son 80...

Que yo sepa el MCPX da 4GOPS...


El NV2A ronda por ahí en funciones gráficas, si... pero yo he leido en diversas fuentes más o menos ambas cifras, eso si, todas coinciden que es más potente polígonalmente q cualquier GF4 estandar.

El MCPX hablo en total, sumando todo en plan animal, si dejamos sueltas las funciones... llamemosle... "programables" tipo DSP de sonido y tal, quedará algo así... ya sabemos que lso "Flops" es demasiado elastico... siempre será mejor hacer una unidad de calculo vectorial en coma flotante, q unaFPU a pelo... pero bueno, esto es demasiado elastico...


Escrito originalmente por ourumov
Lo mismo puede decir la PS2 cuando usa partículas a piñón...Alguien dijo Tanker del MGS2:S ???


Me estas diciendo q MGS 2 se ralentiza en el "tanket" en PS2? por que si lo dices por xbox (si, se ralentiza, y el juego esta tan mal echo, que hasta varian la velocidad de reloj de eventos :S), el engine esta portado por algún novato que te cagas, por que no es normal... aunque viendo la versión PC, q en el 95% de PC's del mundo con ATi, no funcionaba correctamente mostrando solo 256 colores y burradas por el estilo... cualquier cosa.


Escrito originalmente por ourumov
Cuando salió PS2 ?¿ Y que entiendes por equipo medio ?


ahora mismo entiendo por medio una GeForce 4 Ti4200 o Radeon 8500. Pero he visto este juego en una GeForce 2 funcionar perfectamente a 800x600.


Escrito originalmente por ourumov
A ver, cada máquina tiene sus puntos fuertes, pero no me negarás que ha habido equipos de programación que han sacado un fantástico rendimiento de PS2 y que aún hoy sigue dando guerra con títulos com SH3, MGS3, Jak 2 o el inminente Ratchet & Clank 2.


si, si yo no lo quito merito a los equipos de desarrollo. Pero te recuerdo, que se limitan a texturas y puntos de luz fijos y poco más, que teniendo en cuenta que PS2 esta pensada para calculos vectoriales a saco, no es tan descabeyado. Tiene merito, pero tiene más merito el señor kutaragi diciendo quelas T&L y los Shaders no sirven ni para cagar... supongo que se habrá dado ya varias sesiones de cabezazos contra la pared...

Por cierto, que le ves de espectacular a MGS 3? por que yo no le veo nada que no haya visto ya en MGS 2... y mgs 2 gráficamente, no me parece NADA del otro jueves, una excelente dirección artística que oculta muchisimas cosas a ojos inexpertos, pero nada más... lo mismo con SH3 o JAK 2...

Salu2
Escrito originalmente por shadow land

Me estas diciendo q MGS 2 se ralentiza en el "tanket" en PS2? por que si lo dices por xbox (si, se ralentiza, y el juego esta tan mal echo, que hasta varian la velocidad de reloj de eventos :S), el engine esta portado por algún novato que te cagas, por que no es normal... aunque viendo la versión PC, q en el 95% de PC's del mundo con ATi, no funcionaba correctamente mostrando solo 256 colores y burradas por el estilo... cualquier cosa.

PS2 se merienda a cualquier otro sistema a la hora de mover partículas, de ahí que MGS2 sufra ralentizaciones en Xbox, porque se nota que no se ha adaptado absolutamente NADA a su hard específico, y esa cantidad de partículas "pesa" (máxime sin optimizaciones y portando el código a saco) en Xbox.

Por cierto, que le ves de espectacular a MGS 3? por que yo no le veo nada que no haya visto ya en MGS 2... y mgs 2 gráficamente, no me parece NADA del otro jueves, una excelente dirección artística que oculta muchisimas cosas a ojos inexpertos, pero nada más... lo mismo con SH3 o JAK 2...

MGS3 no lo veo nada espectacular, normalillo si acaso.

En cambio hay detalles en SH3 ó Jak2 que sí me parecen loables (teniendo en cuenta la máquina sobre la que corren).
Sí, claro que no van a tener un mísero efecto, porque PS2 no se puede permitir hacer bump-mapping o multitextura por soft, porque no se puede hacer hoy en día por soft una cosa que "debería" hacerse por hard sin menguar mucho la cantidad de recursos asignados al resto del juego.
Y aunque PS3 haga estos efectos por soft y sin despeinarse, seguirá siendo una aproximación equivocada.

Y sobre lo que ha posteado shadow (PS3 a 1GFLOP)... pues me he quedado así ¬_¬.

La verdad es que desde que se hizo público el TFLOP de PS3 he sido (muy) escéptico al respecto (casi 200 veces la capacidad de PS2, cuando en un salto generacional se dobla o triplica la potencia normalmente... ¬_¬ again). Pero esto... es un tema misterioso y oscuro, del que puede salir cualquier cosa (puede que lleguen al TFLOP o puede que se coman los mocos con un Cell de "gama baja"). Creo que ni en Sony saben por dónde les da el aire, y estan viviendo una incertidumbre, ya que, hasta que no sepan el alcance REAL de la tecnología CELL en una máquina de sus características (potencia, precio, consumo, escalabilidad...) no sabrán qué va a ser PS3.
Joder, no me entero de nada :-p

Estos tecnicismos no son lo mio [sonrisa]

Fdo- An0n1m0
Joder, no me entero de nada


Pues ya somos dos, como si me hablaran en chino , pero bueno supongo que para gente como yo solo vale ver los resultados, todos estos datos y nombres raros no me dicen mas que para ser ingeniero informatico hay que estudiar mucho ;-) .
Saludos.
La verdad es que desde que se hizo público el TFLOP de PS3 he sido (muy) escéptico al respecto (casi 200 veces la capacidad de PS2, cuando en un salto generacional se dobla o triplica la potencia normalmente... again). Pero esto... es un tema misterioso y oscuro, del que puede salir cualquier cosa (puede que lleguen al TFLOP o puede que se coman los mocos con un Cell de "gama baja"). Creo que ni en Sony saben por dónde les da el aire, y estan viviendo una incertidumbre, ya que, hasta que no sepan el alcance REAL de la tecnología CELL en una máquina de sus características (potencia, precio, consumo, escalabilidad...) no sabrán qué va a ser PS3.


Se ha dicho que PS3 tendrá 8 APUs en el EE3 , pero el GS es todo un misterio. Si añade 8 APUS más entonces tendremos 512 GFLOPs.

Con esto quiero decir que Sony suelta las cosas con cuentagotas y puede que al final tengamos más de una sorpresa. Ya sea una GPU/GS no del todo inútil o unas APUs que dan más de 32 GFLOPs cada una.
Escrito originalmente por Zhul

PS2 se merienda a cualquier otro sistema a la hora de mover partículas, de ahí que MGS2 sufra ralentizaciones en Xbox, porque se nota que no se ha adaptado absolutamente NADA a su hard específico, y esa cantidad de partículas "pesa" (máxime sin optimizaciones y portando el código a saco) en Xbox.


en particulas, si las hiciesemos bien (DirectX 8 en particulas por hard va "bien", aunque es mejor mandarlas a la cpu si no me equivoco)... pero nada que haga ps2, no pueden hacerlo cualquiera de las otras dos maquinas...


Escrito originalmente por Zhul

MGS3 no lo veo nada espectacular, normalillo si acaso.

En cambio hay detalles en SH3 ó Jak2 que sí me parecen loables (teniendo en cuenta la máquina sobre la que corren).
Sí, claro que no van a tener un mísero efecto, porque PS2 no se puede permitir hacer bump-mapping o multitextura por soft, porque no se puede hacer hoy en día por soft una cosa que "debería" hacerse por hard sin menguar mucho la cantidad de recursos asignados al resto del juego.
Y aunque PS3 haga estos efectos por soft y sin despeinarse, seguirá siendo una aproximación equivocada.


lo vuelvo a decir, son juegos meritorios para tener que hacerlo TODO via software, pero es lo que digo y repito... es todo dirección artística, es como Gran Turismo, si en vez de un equipo con tropocientos artistas gráficos, lo hiciera DMA Design, sería gráficamente feo, pero el mismo juego... y bueno, solo hay que ver el GTA en Xbox y en PS2, va un mundo, y sigue siendo, "casi" la misma mierda... y en PS2 estaba "optimizado..." en xbox solo lo han portado bien, sin tirar cohetes tampoco... PS2 no tiene merito, tienen merito los programadores y equipos de arte q estan dejandose los cuernos gracias a una mala R&D de hardware en Sony...

Escrito originalmente por Zhul
Y sobre lo que ha posteado shadow (PS3 a 1GFLOP)... pues me he quedado así ¬_¬.

La verdad es que desde que se hizo público el TFLOP de PS3 he sido (muy) escéptico al respecto (casi 200 veces la capacidad de PS2, cuando en un salto generacional se dobla o triplica la potencia normalmente... ¬_¬ again). Pero esto... es un tema misterioso y oscuro, del que puede salir cualquier cosa (puede que lleguen al TFLOP o puede que se coman los mocos con un Cell de "gama baja"). Creo que ni en Sony saben por dónde les da el aire, y estan viviendo una incertidumbre, ya que, hasta que no sepan el alcance REAL de la tecnología CELL en una máquina de sus características (potencia, precio, consumo, escalabilidad...) no sabrán qué va a ser PS3.


Según comenta Ourumov, y por lo que he ido leyendo más en beyond3d, un "chip cell" consta de varios "nucleos"... si extrapolamos el proyecto "big-blue" (o como se llame para macroservidores de IBM basado en cell), 32 nucleos crean un chip, dando 32 gigaflops de potencia... y ps2 tiene "8 chips", lo cual da, 32*8=256GigaFlops, q no es moco de pavo para una CPU... pero habra que ver de lo que es capaz gráficamente respecto a las R500 de MS y al custom de Nintendo... por que seguramente sea eso más o menos lo que se meriende en potencia una GPU dentro de dos añitos... aunque por la senda que vamos, importan más las operaciones por segundo via "shaders", q el resto... pero bueno, DirectX 10 serán "cpuses gráficas"... ya veremos en que queda todo esto, pero si PS3 se queda en 256GIGAFlops... creo que vamos a estar ma o meno como en esta generación, pero sin tanta diferencia total... amos, q estaremos mas igualados...

De todas formas, no somos los unicos que pensamos que "aquí falta algo".

Salu2
Escrito originalmente por ourumov


Se ha dicho que PS3 tendrá 8 APUs en el EE3 , pero el GS es todo un misterio. Si añade 8 APUS más entonces tendremos 512 GFLOPs.

Con esto quiero decir que Sony suelta las cosas con cuentagotas y puede que al final tengamos más de una sorpresa. Ya sea una GPU/GS no del todo inútil o unas APUs que dan más de 32 GFLOPs cada una.


256*2 la harían imbatible tecnicamente, si es acompañada de una buena cantidad de RAM en el conjunto...

pero creo, q todo eso no es efectivo respecto a su costo de producción/"waffers basura"/precio venta.

No creo que Sony ahora mismo este en posición de tener otra caida a lo, PS2, en plan vender varios millones de consolas a casi un 50% del precio de fabricacion... Sony casi no tiene ganancias, estos chips serán carisimos de fabricar... y bueno, si llega pronto o a la vez no pasará nada, pero si llega un año o más tarde... sony se ira a medio-caput en ventas... y lo saben.

Salu2
Escrito originalmente por shadow land

en particulas, si las hiciesemos bien (DirectX 8 en particulas por hard va "bien", aunque es mejor mandarlas a la cpu si no me equivoco)... pero nada que haga ps2, no pueden hacerlo cualquiera de las otras dos maquinas...

Se mire por donde se mire, PS2 mueve bastantes más partículas que Xbox ó GC (estoy buscando pero no encuentro los datos exactos, aunque es de cajón pensar que algo como las partículas, física pura y dura, va a moverse "mejor" en una CPU superior).
Todo lo que hace PS2 lo hacen Xbox y GC, por supuesto, pero en este caso PS2 tiene más capacidad (aunque no es que le vaya a servir de mucho :-|).

Con esto no digo que Xbox no pueda con la cantidad de partículas que aparecen, por ejemplo, en las escenas de ralentización de MGS2. Achaco las ralentizaciones a la mayor capacidad de PS2 para estos menesteres y a la nula adaptación de código. Es decir, Xbox llega de sobra para mover la escena del tanker, pero usando la misma aproximación que en PS2 es normal que le "pese" un poco. Si se hubiese rehecho, o al menos adaptado el código... (leí una entrevista en la que Kojima afirmaba, a 2 meses de publicar el juego, que habían hecho mejoras gráficas, con bumpmapping y tal, que querían haber metido en PS2, pero que por temas de potencia no pudieron... :?) pero bueno, ya se sabe que muchas veces se opta por la ley del mínimo esfuerzo.


lo vuelvo a decir, son juegos meritorios para tener que hacerlo TODO via software, pero es lo que digo y repito... es todo dirección artística, es como Gran Turismo, si en vez de un equipo con tropocientos artistas gráficos, lo hiciera DMA Design, sería gráficamente feo, pero el mismo juego... y bueno, solo hay que ver el GTA en Xbox y en PS2, va un mundo, y sigue siendo, "casi" la misma mierda... y en PS2 estaba "optimizado..." en xbox solo lo han portado bien, sin tirar cohetes tampoco... PS2 no tiene merito, tienen merito los programadores y equipos de arte q estan dejandose los cuernos gracias a una mala R&D de hardware en Sony...

A eso voy. Juegos como SH3 o Jak2 no tienen nada que hacer contra la crême en materia de gráficos. Sólo digo que es un trabajo muy meritorio, con resultados bastante espectaculares, y que cosas como éstas hacen que me sorprenda de que "eso" pueda moverlo una máquina como PS2.


Según comenta Ourumov, y por lo que he ido leyendo más en beyond3d, un "chip cell" consta de varios "nucleos"... si extrapolamos el proyecto "big-blue" (o como se llame para macroservidores de IBM basado en cell), 32 nucleos crean un chip, dando 32 gigaflops de potencia... y ps2 tiene "8 chips", lo cual da, 32*8=256GigaFlops, q no es moco de pavo para una CPU... pero habra que ver de lo que es capaz gráficamente respecto a las R500 de MS y al custom de Nintendo... por que seguramente sea eso más o menos lo que se meriende en potencia una GPU dentro de dos añitos... aunque por la senda que vamos, importan más las operaciones por segundo via "shaders", q el resto... pero bueno, DirectX 10 serán "cpuses gráficas"... ya veremos en que queda todo esto, pero si PS3 se queda en 256GIGAFlops... creo que vamos a estar ma o meno como en esta generación, pero sin tanta diferencia total... amos, q estaremos mas igualados...

De todas formas, no somos los unicos que pensamos que "aquí falta algo".

Sí, sí. Si no digo que no se pueda alcanzar el TFLOP ni nada de eso.

Lo que digo es que, una de dos: o la tecnología Cell es una panacea que ofrece un aumento exagerado de rendimiento con un coste/consumo ridículo, o Sony pretende vendernos macroservidores en carcasas de diseño.

Lo que me parece descabellado es que, de buenas a primeras, con la tecnología Cell "en pañales", Sony pretenda producir (en masa) una máquina de semejantes características a un precio razonable. Más aún conociendo la política de Sony en lo que se refiere a costes de producción vs beneficios [tomaaa] .
Porque esta vez la cosa no va "desde dentro", y van a tener que depender de IBM y de Nvidia, amén del resto de la máquina (sistema de sonido, de almacenamiento secundario, memoria, red...). Porque el tema no está en hasta dónde pueden llegar, la cuestión es hacerlo bajo las condiciones que dicta el mercado, a precio de consola.

Ojalá nos den todo lo que prometen y algo más, pero sabiendo cómo hace Sony las cosas, voy a optar por ser muy escéptico al respecto.
De hecho esta vez de quien depende Sony es otra vez de Toshiba...
Escrito originalmente por ourumov
De hecho esta vez de quien depende Sony es otra vez de Toshiba...


Y de sus propias fábricas.

Dos cosas:

¡¡¡¡¡¡JODO¡¡¡¡¡

Y dos: Ourumov: link al hilo ese que mencionas, por favor...
Me he agregado a un entendido en el MSN (el mítico Panajev2001a) y le he estado preguntando como sería al final el CELL que llevará Ps3.

Según él estaríamos hablando de 32 APUS(yo creía que eran 8, iluso de mi) funcionando a 2-2.5Ghz. Teniendo en cuenta que cada APU puede hacer 8 instrucciones en coma flotante por ciclo, él cree que llegaríamos a:

32*2.0*8=512
32*2.5*8=640

Según él esas son las 2 posibilidades. Si por algún caso se quisiese el Teraflop, tendríamos que llegar a 4Ghz !!! Pero esto repercutiría en grandes cantidades de calor difíciles de disipar.

Según Panajev2001a el sistema de control de calor será el famoso SOI, que interopera para dar más potencia(clockspeed) o menos calor. Es evidente que por lo tanto esos GFLOPS no son nada más que el peak.

Pero np acaba aqui el tema. Según Panajev, el GS/Vysualizer contaría con 128 GFLOP extras provinentes de 16 APUS.
Así que lo más probable serán 640 GFLOP repartidos entre EE3/GS2.


640 GFLOP es mucho por una máquina que es totalmente programable, en el sentido que tu decides lo que quieres hacer al 100%. La misma programabilidad que ha hecho PS2 difícil de programar pero al mismo tiempo capaz de aguantar el tirón de 2 máquinas con unas GPUS que le superan (de hecho los GFLOPS de estas son únicamente los GFLOPS que serían necesarios para emularlas en software, los VS das uno 8 GFLOPS únicamente).

No quiero acabar este post pareciendo un fanático de Ken Kutaragi porque no es que considere la filosofía más acertada pero si muy curiosa.
Desde luego no me gustaría estar en la piel de quien haga middleware, compiladores, debuggers y demás herramientas para el desarrollo de Ps2. 32 unidades vectoriales es MUCHO. Si en Ps2 ya las pasaron canutas durante un buen tiempo y se tuvo que esperar más de un año para ver el primer juego que usaba V0 no quiero ni imaginar cuanto tardaremos en ver esto funcionando al 100%.
Por otro lado tened en cuenta que esto sólo es la punta del iceberg, todo explicado muy superficialmente y de manera entendedora. CELL es mucho más complejo y debe ser mucho más complicado de lo que mi nivel de comprensión abastecería.
interesrantes datos, solo se, que si PS3 alcanza esa capacidad, y viene con una cantidad de memoria merecedora y igual cuando menos que la competencia, estaremos ante caballo ganador en cuanto a tecnología...

y por la filosofia CELL, me da en el morro qe no va a ser tan complicada de programar como PS2. La gracia del CELL, es que CELL propiamente dicho es un procesador de ejecución en red, que se autodistribuye la carga a si mismo entre las diferentes APU's. Aquí entran dos factores en juego.

El crear un sistema "enredado" que procese "en serie" como si de un P4 o PowerPC estandar se tratase, o crear X APU's independientes y que fuesen capaces de trabajar perfectamente en paralelo entre si, daría a una vaca burra, relativamente complicada de empezar a programar, pero que debido al tener 8 uniddaes, todos los equipos de desarrollo podrían realizar todas las tareas en paralelo mediante hilos separados pero a la vez sincronizados entre si mediante llamadas al SO y timmmings (algo así pero en cutre, lo realice yo en clase de programación avanzada en el ciclo formátivo. Matener distintos programas en sincronizado bajo linux, para obtener al final un unico resultado).

Si logran ser capaces de acceder a la misma memoria diferentes apu's, haceros a la idea, que tendrían 8 APU's con 32GIGAFlops independientes que podrían ser dedicados a:
1er APU: Gráficos 3D. Calculo, posicion y movimiento/anim/deformacion
2º APU: Sonido 3D 7.1 con recreación de superficies y demás.
3er APU: Físicas
4º APU: IA
5º APU: Rutinas estandar de cualquier videojuego

Todavía nos quedarían 3 APU's para cualquier cosa, como colisiones, aumentar de forma paralela la capacidad de calculo de alguna de las otras, y despues, el GS, que si sony solo tiene medio dedo de frente, hará una GPU medianamente programable, quizas no tanto como las de nintendo y MS, pero si lo suficiente para hacer las tareas más dolorosas solo mediante GPU, y dejar a la CPU hacer el resto de tareas gráficas, que es por anda según parece las ganas de Sony.

Salu2
La gracia está en la cache que tiene cada APU cosa que a su vez acelerará más las cosas.
Es sabido que cuando la migración de datos entre RAM y cache es poca, el rendimiento se dispara. De ahí a que por ejemplo el P4 Extreme tubiera esa cantidad de caché.

Respecto lo que dices de distribución transparente de tareas esto es lo que pensaba (Compilador inteligente, JIT compiler o distribución automática)...Pues bien, Fafalada (el desarrollador del Axel Impact) no lo ve tan claro y sigue pensando que se tendrán que mojar y bajar hasta los mismos infiernos para hacer esta distribución eficiente.

Todavía nos quedarían 3 APU's

Te quedan 27.
Escrito originalmente por ourumov
La gracia está en la cache que tiene cada APU cosa que a su vez acelerará más las cosas.
Es sabido que cuando la migración de datos entre RAM y cache es poca, el rendimiento se dispara. De ahí a que por ejemplo el P4 Extreme tubiera esa cantidad de caché.

Respecto lo que dices de distribución transparente de tareas esto es lo que pensaba (Compilador inteligente, JIT compiler o distribución automática)...Pues bien, Fafalada (el desarrollador del Axel Impact) no lo ve tan claro y sigue pensando que se tendrán que mojar y bajar hasta los mismos infiernos para hacer esta distribución eficiente.


Sobre la cache... te recuerdo, que meter mucha cache, en juegos que cambian rapidamente el tipo de datos a usar, lo unico que provoca, es reducir el rendimiento real del procesador, por que en princpio, la cache si no hay un dato, hay que llenarla de nuevo con los datos q la CPU cree que va a necesitar. Lo cual en el P4 EE hace q en unas cosas rinda tan bien, y en otras sea igual "de torpe". Todavía me acuerdo de la salida del Athlon XP, donde un miserable duron con 64kb en muchas tareas se cepillaba al AthlonXP siendo más lento y teniendo menos bus... q por cierto, el P4 EE en grandes cantidades a distribuidores o OEM's, costará no menos de 1000$, casi na

La cache es un arma de doble filo muy peligrosa... poner mucha es bueno si noactua como cache, si no como memoria al uso, si actua como cache, yo no ponia los 4/8MB que pensaban poner por CPU (o era más? creo q rondaban los 64Mbits por CPU, no?). Di que viendo la patente y la RamBUS que quieren usar, no me extrañaría que más que cache, fuese memoria RAM al uso ultrarapida (100GB/s) que hiciese las veces de cache. Si dicha cache funciona como ram, seria una bestia, si no, puede perjudicar mucho el rendimiento... aunque claro, siempre que se usen más datos q cache hay...



sobre fafalada y conociendo a los "patanes" de la sección de software dentro de sony (tardaron 2 años largos en dar compresion de texturas via software XD), no me extraña que piense eso. Pero creo q esta vez el tema de compiladores y demás estará más simple, y lo llevará IBM. Pero todo esta por ver, hasta q no sepamos algo de los primeros prototipos reales, solo podemos hacer un poco de rappel...


Escrito originalmente por ourumov
Te quedan 27.


me equivoque, me refería a CPU's XD
colecconsolas está baneado por "troll"
Me voy al Badulaque, con Hommer a ver a APU .
Escrito originalmente por colecconsolas
Me voy al Badulaque, con Hommer a ver a APU .


[mad]


la proxima echale más gracia anda [sonrisa]
colecconsolas está baneado por "troll"
Shadow TU como siempre igula... [decaio]

Si logran ser capaces de acceder a la misma memoria diferentes apu's, haceros a la idea, que tendrían 8 APU's con 32GIGAFlops independientes que podrían ser dedicados a:
1er APU: Gráficos 3D. Calculo, posicion y movimiento/anim/deformacion
2º APU: Sonido 3D 7.1 con recreación de superficies y demás.
3er APU: Físicas
4º APU: IA
5º APU: Rutinas estandar de cualquier videojuego

Todavía nos quedarían 3 APU's para cualquier cosa, como colisiones, aumentar de forma paralela la capacidad de calculo de alguna de las otras, y despues, el GS, que si sony solo tiene medio dedo de frente, hará una GPU medianamente programable, quizas no tanto como las de nintendo y MS, pero si lo suficiente para hacer las tareas más dolorosas solo mediante GPU, y dejar a la CPU hacer el resto de tareas gráficas, que es por anda según parece las ganas de Sony.

Mmm... como dice ourumov, no lo veo tan sencillo, sencillamente porque si distribuyes tareas en paralelo te puedes crear unos cuellos de botella muy gordos, si, por ejemplo, un juego tira mucho más de física que de, digamos, IA, pasarían dos cosas: o bien se infrautiliza el APU de la IA, o bien se produce un cuello de botella en el APU de la física.
Supongo que la cosa irá mediante organizadores y distribuidores internos, bien mediante compiladores o de forma interna (el propio sistema va distribuyendo el trabajo como mejor le conviene). En cualquier caso estoy convencido de que más de uno va a perder la cordura ante la tarea de crear distribuidores eficientes en un entorno con 32 APU's.

Escrito originalmente por shadow land
todos los equipos de desarrollo podrían realizar todas las tareas en paralelo mediante hilos separados pero a la vez sincronizados entre si mediante llamadas al SO y timmmings (algo así pero en cutre, lo realice yo en clase de programación avanzada en el ciclo formátivo. Matener distintos programas en sincronizado bajo linux, para obtener al final un unico resultado).

No es una mala aproximación, pero tiene inconvenientes.
De hecho, el primer juego que hice fue un matamarcianos, en el que cada elemento del juego (cada enenigo, disparo, item, cada gráfico del scroll... todo) se ejecutaba de forma independiente y paralela (cada una en un hilo). Y claro, está el problema de la sincronización, porque no todos los elementos requieren la misma cantidad de proceso... en fin... errores de novato XD.
Supongo que eso, para el programador final de PS3, será transparente y se distribuirá, preveo, desde dentro, porque de lo contrario, la capacidad total de la máquina no sería la suma de las capacidades de sus componentes, sino que dependería mucho de cada caso.
Escrito originalmente por colecconsolas
Shadow TU como siempre igula... [decaio]



tranquilo, ahora el que se va a ver a APU soy yo [looco]

era coña joder, solo quería decir q era un chiste a huevo, na más XD
Escrito originalmente por Zhul

Mmm... como dice ourumov, no lo veo tan sencillo, sencillamente porque si distribuyes tareas en paralelo te puedes crear unos cuellos de botella muy gordos, si, por ejemplo, un juego tira mucho más de física que de, digamos, IA, pasarían dos cosas: o bien se infrautiliza el APU de la IA, o bien se produce un cuello de botella en el APU de la física.
Supongo que la cosa irá mediante organizadores y distribuidores internos, bien mediante compiladores o de forma interna (el propio sistema va distribuyendo el trabajo como mejor le conviene). En cualquier caso estoy convencido de que más de uno va a perder la cordura ante la tarea de crear distribuidores eficientes en un entorno con 32 APU's.


el problema, como bien dices, es distribuir correctamente la tarea, pero tb hay q pensar, que una misma CPU se podría usar para más de 1 tarea "en serie"... es decir, si la carga de física es "poca", podrias usar una CPU para rutinas, física y sonido y te sobraria potencia de calculo... eso ya va para cada caso. Y bueno, lo mio no deja de ser nada más que una hipotesis ;)

Escrito originalmente por Zhul

No es una mala aproximación, pero tiene inconvenientes.
De hecho, el primer juego que hice fue un matamarcianos, en el que cada elemento del juego (cada enenigo, disparo, item, cada gráfico del scroll... todo) se ejecutaba de forma independiente y paralela (cada una en un hilo). Y claro, está el problema de la sincronización, porque no todos los elementos requieren la misma cantidad de proceso... en fin... errores de novato XD.
Supongo que eso, para el programador final de PS3, será transparente y se distribuirá, preveo, desde dentro, porque de lo contrario, la capacidad total de la máquina no sería la suma de las capacidades de sus componentes, sino que dependería mucho de cada caso. [/B]


ese matamarcianos me vendría bien como ejemplo para mi proyecto de programcaión II XD Que me quiero hacer un juego cutre (un matamarcionos tipo Space invaders, o algo más simple todavía como un arcanoid o un pong llevandolo al extremo... me vendría bien ese codigo, zi zeño :P Por cierto, en windows no se como funciona, pero en linux es algo tan simple como poner en espera a cada hilo, y que no se vuelva a ejecutar su bucle hasta que el programa principal les envie la señal. En linux es algo bastante simple... en windows no se si será igual de simple, la verdad...

Lo que esta claro, es que la capacidad total de PS3 no será equivalente a la capacidad en bruto de todas sus apu's si estan funcionan en paralelo, y si funcoinan en serie, tampoco, por que siempre habrá hueco para más, ya sea por "ineficiencia" del distribuidor, o por que por algúan extraña razon, no se puede optimizar más cierta parte del codigo respecto al uso de cache/memoria (lo que más importa en PS2 por ejemplo para q rindan al maximo las VUx).

Salu2
29 respuestas