Primeros datos oficiales de la arquitectura CELL

1, 2, 3
No todo es tan sencillo y hay muchos intereses...



Warner's announcement came as little surprise, since Time Warner holds some of the patents and copyrights behind the HD DVD format, along with Toshiba and others. In addition, the format was championed by former Warner Home Video president Warren Lieberfarb, now a consultant to Toshiba.

It's widely believed that Par and U were seeking cash and other incentives from both groups and that at least one of the uncommitted studios is still holding out for a more lucrative incentive. Insiders suggested that more than one studio was offered as much as $30 million, but the three studios involved in the announcements Monday say they did not receive any cash incentives.

One studio exec suggested that his studio did, however, receive a break on royalty fees. And according to one player close to the negotiations, Par and U almost certainly won either financial consideration or a change in the technology to their liking in order to make an early commitment.

Leveraging both sides

Many believe Fox and Disney are hoping to use the leverage of an undecided position to push both technologies to adopt features they prefer. Fox is currently working with the organizations developing both formats.

"Fox and Disney don't want to endorse a format until they have used up all of their political capital to influence it coming out the way they want," observed Paul Kocher, prexy of content protection company Cryptography Research.
tzare está baneado por "utilizar clon para saltarse baneo"
todo es tan sencillo como esto : $$$$$$$$

es lo k mueve el mundo, aunke a veces hay otras razones ke lo disimulen, la final siempre es la misma
Quisiera compartir algunas apreciaciones antes de que se hagan especulaciones, asi podemos tener una idea más clara de la situación del PS3.

Primero, que es el procesador cell? En realidad consta de una picina de varios nucleos RISC o SIMD (simple instruccion, multiples datos) que pueden ser o no iguales (la ultima la más probable), los cuales pueden encargarse de una compleja tarea como por ej. compleja simulacion física o de operaciones especificas (individualmente o en grupos). Seguramente tendrán "equipos", como los encargados del procesamiento de audio, renderización de gráficos, I.A., etc.
Lo bueno de este diseño es que es escalable, podrían aumentarse más PS3 en una red para cómputo distribuido, de ser esto necesario.

El problema con esta arquitectura, es que requiere una carga de trabajo de software enorme, y aun peor de ancho de banda que permita la interoperación de estos componentes. Según el diseño de los procesadores Dual Core de Intel y AMD, que saldrán el 2005, el ancho de banda que permitirá dicha comunicación, en el caso de AMD es de 8GB/s entre los dos nucleos, mas para un procesador cell se necesitaría un ancho de banda mucho mayor entre todos los componentes. Las tarjetas de video modernas tienen cerca a 32GB/s del GPU a su memoria dedicada, por lo que podrían obtenerse mayores velocidades, mas seguramente los requerimientos del procesador cell serían aun mayores.

Ahora, este diseño de alto paralelismo, puede competir con los procesadores de intel y AMD? bueno, dichos procesadores son de propósito general, por lo que una aplicación típica no rendiría mejor, más si lo harían aplicaciones científicas, de renderización de gráficos 3D y cualquier aplicación que sea optimizada para aprovechar este gran nivel de paralelismo.
Los juegos del PS3 serán dificiles de programar al principio (alguien recuerda los inicios del PS2?), asi que depende de los SDK que sony pueda proveer. Una pista, Intel lanzó el HT asi casi 2 años, y todavía no se tienen aplicaciones dedicadas a esto, mas, al ser el PS3 una arquitectura cerrada, a los desarrolladores no les queda otra que adecuarse a lo que tienen, que es una ventaja de las consolas.

Dependiendo si la memoria de video es compartida (como el XBOX), los 6.4GB/s de ancho de banda externo podrían resultar insuficientes, por lo cual supongo que el GPU del PS3 tendría memoria dedicada a altísima velocidad (DDR3 es una posibilidad, dependiendo de los precios, no tengo los detalles del subsistema gráfico, si alguien podría complementar....)

Luego, lo que aparentemente genera más polémica, la temperatura y frecuencia del procesador.
Si bien el modelo del que se dieron las especificaciones corre a 4.6GHz y a 85ºC, me parece improbable que el PS3 sea fabricado con tales características.

Para empezar, una consola no debería generar mucho calor, ruido ni necesitar mucho espacio (para un disipador y ventilador adecuado), por lo que se tendrían muchos problemas en soporte técnico. Luego, los costos son altísimos, a medida que sube la frecuencia el precio también lo hace, mas no linealmente, y además, por citar el ejemplo de intel, cuyo procesador más reciente (codigo prescott) tiene muchos problemas de disipación. Su procesador doble núcleo (que inicialmente utilizará 2 prescott) tendra frecuencias algo bajas, desde 2.8GHZ a 3.2GHz con proceso de manufactura de 90nm para evitar dichos problemas de calor.

Sería apropiado pensar que el procesador del PS3 no sobrepasará los 2GHz (o no tenga 16 nucleos, sino 8 como se especula) de esta manera los costos se reducirían. De todas maneras el poder de procesamiento sería con creces superior al de un procesador Intel o AMD en cuanto a operaciones de punto flotante se refiere, de eso no hay duda. Sony e IBM indican que un Rack compuesto de cell procesors podría llegar a 16 teraflops [Alaa!] (no especifican el número de procesadores...) Gran parte del negocio esta ahi (para IBM), en poderosos workstations , capaces un gran poder de procesamiento de punto flotante.

Esta misma lógica de costos, es la que me inclina a pensar que el GPU ATI que utilizará el XBOX 2 no tendrá las especificaciones máximas posibles, dado que las mejores tarjetas de ATI X800, estan alrededor de $us 500 y el XBOX utilizó la geforce 3, cuando ya se encontraba la geforce 4 en el mercado, tiene que haber un límite en los costos.
Por supuesto que sony perderá dinero inicialmente con cada venta del PS3 (ya lo hizo con el PS2), ya que no podrá cobrar mucho y tendrá que subvencionar a los jugadores en el precio de la consola. Pero su estrategia es buena, recupera el dinero con creces con la venta de software, estableciendose firmemente en el mercado.

Supongo que solo tendremos detalles exactos en febrero, cuando IBM, Sony y Toshiba presenten el procesador oficialmente en una conferencia de microprocesadores (lo siento, no recuerdo el nombre). Mientras tanto, solo queda soñar...
como le gusta a la gente hacerse pajas mentales y creer que sabe mucho cuando ni siquiera hay datos de nada :-|
tzare está baneado por "utilizar clon para saltarse baneo"
como le gusta a la gente hacerse pajas mentales


la mayoria de veces es mas divertido el antes ke el durante (y ya no digamos el despues) la gente se hace ilusiones se imagina lo ke kisiera ver.. no es tan malo, siempre ke se tengan los pies en el suelo.
Y mas kuando la realidad eske solemos decidir por factores bastante mas subjetivos excepto 1, ke es el precio.
tzare escribió:
la mayoria de veces es mas divertido el antes ke el durante (y ya no digamos el despues) la gente se hace ilusiones se imagina lo ke kisiera ver.. no es tan malo, siempre ke se tengan los pies en el suelo.
Y mas kuando la realidad eske solemos decidir por factores bastante mas subjetivos excepto 1, ke es el precio.


la realidad es que si es bastante malo especular sobre productos cuando solo se tiene un pequeño minimo de conocimientos sobre el tema en cuestion.

la verdad sobre el terreno, ahorra dolores de cabeza. ;)

saludos.
tzare está baneado por "utilizar clon para saltarse baneo"
la verdad sobre el terreno, ahorra dolores de cabeza


Absolutamente cierto.. lo ke pasa eske la verdad a lo mejor es demasiado compleja para algunos y funciona igual ke una suposicion: el rendimiento del CELL pinta estupendo, pero como shadow dice, eso necesita un compilador a la altura.
Se puede enseñar la foto de un ferrari, pero falta saber si lleva gasolina....
A mi personalmente estos hilos me encantan ya k no tengo ni pajolera de ALUS CPUS ni anchos de banda y solo x las aportaciones de gente mas enterada ya me valen la pena.
[fies]
halo2 está baneado por "utilizar clon para saltase baneo"
Parhelion escribió:Dependiendo si la memoria de video es compartida (como el XBOX), los 6.4GB/s de ancho de banda externo podrían resultar insuficientes


las 3 consolas actuales comparten memoria, eso sin olvidar que mientras "una" tiene doble controlador con acceso segmentado, y otra consola que no dire usa dual chanel con un solo controlador de 128bits [reojillo]

Parhelion escribió:, por lo cual supongo que el GPU del PS3 tendría memoria dedicada a altísima velocidad (DDR3 es una posibilidad, dependiendo de los precios, no tengo los detalles del subsistema gráfico, si alguien podría complementar....)


el GS de PS2 tiene unos 40GB/s +o-, pero para lo que se usa es un ancho de transferencia que no sirve de mucho y mal aprobechado
halo2 escribió:

las 3 consolas actuales comparten memoria, eso sin olvidar que mientras "una" tiene doble controlador con acceso segmentado, y otra consola que no dire usa dual chanel con un solo controlador de 128bits [reojillo]

el GS de PS2 tiene unos 40GB/s +o-, pero para lo que se usa es un ancho de transferencia que no sirve de mucho y mal aprovechado


Gracias por tus datos Halo2, cualquier contribucion al conocimiento general es apreciada.

Bueno, en realidad el PS2 tiene memoria embebida en el GS (Graphic Synthesiser), 4MB para ser exactos y es ese el gran ancho de banda de 48GB/s que tiene. (mediante varios buses a 16 unidades de pixeles)

El problema con la dirección que tomo sony, es que al tener este alto fill rate ( 2.4Gpixels/s, aun decente para nuestros tiempos, aunque solo puede hacer una pasada por ciclo de reloj, al ser multitexturas reduce performance) tuvo que sacrificar la memoria de video. Considerando que estos 4 MB comparten el frame buffer y las texturas, pues resulta insuficiente. Es por eso que generalmente no vemos texturas muy detalladas en el PS2, y tiene que recurrir al bus principal para el acceso a mas texturas y ponerlas en el cache del GS, dicho bus solo tiene 3.2GB/s para acceso a memoria principal (32MB), ademas que es compartido para el sonido y el CPU

Otro problema con el GS es que no utilizó T&L (transform & lighting en el chip grafico) cuando la arquitectura podia permitirlo, de todas maneras el EE hace un buen trabajo al generar polígonos (y es evidente aun hoy). Aun asi el GS puede generar particulas y ciertos efectos especiales muy facilmente y es notorio en algunos juegos.

Del procesador del PS2 no tengo mayores quejas, pero su GS no me gusto mucho por esto. Seria interesante ver que solucion (de bajo precio) encuentra sony para brindarnos un buen GPU.
halo2 está baneado por "utilizar clon para saltase baneo"
Parhelion escribió:mediante varios buses a 16 unidades de pixeles)


tu te revieres a los Pipelines X-D

los Chips graficos de GC/Xbox tienen 4 y el GS de PS2 16 pero eso no tiene que ver con la memoria del chip, son cosas diferentes

=ParhelionEl problema con la dirección que tomo sony, es que al tener este alto fill rate ( 2.4Gpixels/s, aun decente para nuestros tiempos, aunque solo puede hacer una pasada por ciclo de reloj


son mas bien 1.2Gigatextels (usando solo una capa para texturas)

Parhelion escribió:al ser multitexturas reduce performance)


pues como GC o Xbox si quieres usar mas capas de las que puede hacer por pasada (aunque Xbox de usar 2 capas en multitexturizado de una pasada)

Parhelion escribió:dicho bus solo tiene 3.2GB/s para acceso a memoria principal (32MB


aunque acceda via DMA para acceder directamente a la Ram los 2 modulos tienen un ancho real de 1.6GB/s cada uno y usar Dual chanel no hace milagros como muchos creen, y su saturado controlador debe tener problemillas de latencia

Parhelion escribió:Aun asi el GS puede generar particulas y ciertos efectos especiales muy facilmente y es notorio en algunos juegos


mas que aceleracion por Hard como dices, casi todo se hace via Soft
Ark del KAOS escribió: * Soporte de varios SO's al mismo tiempo
Oh...gran importancia hacia una consola...
Lo de que lo soporte esta genial...de veras...imagina un windows y un linux a la vez. Sin tener que reiniciar cada vez.

Veamos, están haciendo un chip para muuuchas cosas (Ordenadores de casa, Servidores, consolas, neveras, .....)

Que esa parte no sirva para una consola, bien ya lo afinarán luego ;-)
NetVicious escribió:Veamos, están haciendo un chip para muuuchas cosas (Ordenadores de casa, Servidores, consolas, neveras, .....)

Que esa parte no sirva para una consola, bien ya lo afinarán luego ;-)


Je...anda que sacarmelo ahora XD
Despues de toda la informacion adicional que hay en este hilo ya me he enterado de eso!
Aun así, no digo yo que este mal...quizas este anclado al pasado...pero no veo la utilidad de poner un procesador a 80º por muy potente que sea usando 2 (o mas) SO a la vez.
Lo que haga un SO bien puede hacerlo el otro si se programa para eso. Siempre sera mejor un solo SO corriendo que 2 a la vez.
No?
ark, pon tu cpu con un solo disipador (sin ventilador) y luego me dices otra vez lo de la temperatura. ;)
shadow land escribió:ark, pon tu cpu con un solo disipador (sin ventilador) y luego me dices otra vez lo de la temperatura. ;)


Y dale...que no me estoy metiendo con la temperatura!!!
Lo que digo es que no veo inteligente lo de "2 SO a la vez", cuando a mi modo de ver es mejor uno solo con toda la potencia posible, por mucha que esta sea!
Ark del KAOS escribió:
Lo que digo es que no veo inteligente lo de "2 SO a la vez", cuando a mi modo de ver es mejor uno solo con toda la potencia posible, por mucha que esta sea!


yo si, y no tiene nada que ver con la potencia. En casa tengo un Centrino, y de 1,5GHz que tiene, el 95% del tiempo se lo pasa a 500MHz, así que si pudiese enganchar otro SO a la vez diferente, para que lo use otro usuario a la vez y aproveche su recurso, sería estupendo, y si yo pienso esto con un monoprocesador de unos 4 GIGAFlops de pico, imaginate con uno de 300GigaFlops multiprocesador y multi-hilo.
lo de los 2 SO es una pollada por lo que concierne a PS3, eso sera util en mainframes y tal, donde a lo mejor un servidor (de IBM logicamente) podria darse el caso de que sostiuviera dos SOs concurrentemente. Pero para el caso de PS3 eso no tiene utilidad...a no ser que lo usen para el modelo PSX (para disponer de la grabacion de video mientras se juega) o para la ejecucion de PS2.

aunque para esto ultimo, si se confirma de que "la grafica" de PS3 seria un EE (O_o) opto mas por hacer a este el ejecutor de los juegos, mediante la implementacion en BIOS de tal facilidad, y contando con que los actuales EE incluyen el GS "on die"...pues ya tenemos ejecucion de PS2 por hard, mediante el chipset, igual q la de PS1 en las actuales PS2 (O_o)

aunque para mi gusto el parrafado de arriba esta cercano a ser la chapuza mas grande de todos los tiempos en materia de soluciones de ingenieria orientada a videojuegos, en dura competencia con la 3dfx voodoo banshee y las placas madre con graficas integradas de PC Chips [agggtt]

salu2
shadow land escribió:
yo si, y no tiene nada que ver con la potencia. En casa tengo un Centrino, y de 1,5GHz que tiene, el 95% del tiempo se lo pasa a 500MHz, así que si pudiese enganchar otro SO a la vez diferente, para que lo use otro usuario a la vez y aproveche su recurso, sería estupendo, y si yo pienso esto con un monoprocesador de unos 4 GIGAFlops de pico, imaginate con uno de 300GigaFlops multiprocesador y multi-hilo.


Y porque tienes que enganchar otro SO?
Con LINUX sin ir mas lejos puedes conectar tantos usuarios como desees y que le metan la caña que les de la gana.
Sigo sin verle la utilidad fuera de "no tener que reiniciar entre windows y otros" y eso es un fallo de software...un SO puede hacer de sobra lo que 2 si esta preparado para ello.
Creo... [carcajad]
errrmmm... yo no quiero conectar una terminal "tonta" o tener otro pc "muerto" que trabaje via telnet, me parece estupido, independientemente de linux, windows o la madre que pario a ambos y a los frikis de ambos.

Aquí la cosa es que dos artistas 3D puedan trabajar sobre la misma maquina (por ejemplo), con su entorno gráfico y su todo, y no mediante terminales, telnets y polladas varias que fuera del modo texto sirven más bien para poco, por no decir para nada.
shadow land escribió:errrmmm... yo no quiero conectar una terminal "tonta" o tener otro pc "muerto" que trabaje via telnet, me parece estupido, independientemente de linux, windows o la madre que pario a ambos y a los frikis de ambos.

Aquí la cosa es que dos artistas 3D puedan trabajar sobre la misma maquina (por ejemplo), con su entorno gráfico y su todo, y no mediante terminales, telnets y polladas varias que fuera del modo texto sirven más bien para poco, por no decir para nada.


Ok...veo que o no me has entendido.
Para que se conecten los 2 tios...¿como?
¿Les pones 2 pantallas, 2 teclados, y 2 ratones al mismo pc?

Sea como sea da lo mismo...algo tendria que elejir que SO sale por cada pantalla y que hard usa o no...vamos, otro SO

Pero si un usuario quiere usar un programa grafico en llamalo x SO, se conecta desde donde quiere al PC ese. Lo que el pc donde esta hace es tan solo enviar al otro lo que pulsa o deja de pulsar. El prcesamiento de la informacion se hace en el pc donde este rulando el programa.
Si ahora no se puede hacer en linux (que en otros creo que si), que no lo se, es porque no se ha programado...pero no necesitas 2 SO para hacer eso, con 1 vas que chutas si esta preparado para eso XD
Ark del KAOS escribió:
Ok...veo que o no me has entendido.
Para que se conecten los 2 tios...¿como?
¿Les pones 2 pantallas, 2 teclados, y 2 ratones al mismo pc?

Sea como sea da lo mismo...algo tendria que elejir que SO sale por cada pantalla y que hard usa o no...vamos, otro SO

Pero si un usuario quiere usar un programa grafico en llamalo x SO, se conecta desde donde quiere al PC ese. Lo que el pc donde esta hace es tan solo enviar al otro lo que pulsa o deja de pulsar. El prcesamiento de la informacion se hace en el pc donde este rulando el programa.
Si ahora no se puede hacer en linux (que en otros creo que si), que no lo se, es porque no se ha programado...pero no necesitas 2 SO para hacer eso, con 1 vas que chutas si esta preparado para eso XD


a ver si lo entiendes...

sabes lo que es un procesador multi-nucleo? espero que si...
sabes lo que es un procesador multi-hilo en tiempo real? espero que si...

ahora, añadele dos o más monitores a una workstation, añadele dos o más teclados, dos o más ratones...

y tienes 2 PC's independientes en el espacio de uno, maximizando el aprovechamiento de la potencia.

Lo entiendes o no? esto no se trata de usar el FireFox en dos equipos diferentes....

lo entiendes o te sigues haciendo pajas mentales con lasposibilidades multiusuario de "yo mando click, recibo click", fijate, eso es maravillosamente rapido para trabajar en 3D, por ejemplo.
shadow land escribió:
a ver si lo entiendes...

sabes lo que es un procesador multi-nucleo? espero que si...
sabes lo que es un procesador multi-hilo en tiempo real? espero que si...

ahora, añadele dos o más monitores a una workstation, añadele dos o más teclados, dos o más ratones...

y tienes 2 PC's independientes en el espacio de uno, maximizando el aprovechamiento de la potencia.

Lo entiendes o no? esto no se trata de usar el FireFox en dos equipos diferentes....

lo entiendes o te sigues haciendo pajas mentales con lasposibilidades multiusuario de "yo mando click, recibo click", fijate, eso es maravillosamente rapido para trabajar en 3D, por ejemplo.


Oye...yo en ningun momento he dicho nada de mierda pro-linux ni pro-windows ni pro-leches.
Desde hace un par de mensages no haces mas que increparme con eso y no veo porque lo haces.
Solo he puesto el ejemplo de linux porque es mas multiusuario que windows y lo conozco mejor.

Y vuelvo a lo mismo...no entiendo que necesites 2 SO para eso.
Uno solo deberia de poder hacer "como si fuesen 2 ordenadores independientes" sin los problemas.

Problemas como orden de acceso a un dispositivo, distintas configuraciones de hard en los SO, ect ect
Como bien dices es "como si fuesen 2 distintos", pero sigue siendo solo uno.
¿Tambien vas a poner 2 hd, 2 disqueteras, 2 cdrom...?
Y aun así un solo SO podria hacer de sobra ese trabajo de una manera mucho mas comoda que varios!!!

Y con un solo SO, cuando un usuario no este gastando ltanta potencia, y el otro necesite mas, el mismo SO dejara masyor margen al que mas lo necesita.
Si para hacer esto necesitas oro SO que interfiera entre los 2 SO de los que hablamos, esos 2 bien podrian ser aplicaciones del primero que se encarguen de esas funciones.
te pongo un ejemplo estúpido pero viable.


Una empresa de render 3D, pongamos, que tiene el software de render programado bajo linux, y usa el software de animación y modelado bajo Windows. Ambos SO's pueden correr bjo el mismo sistema repartiendose el 50% de los recursos para cada uno.

Por ejemplo, en un sistema con cuatro PE's (4 cores Power IBM + 4x8Copros), cada SO se podría llevar 2 PE's completos, y en caso de haber libre parte de los recursos de otro, repartirse esos recursos para maximizar la experiencia, siguiendo siendo "un unico sistema con dos clientes diferenciados" No es tan dificil como parece, lo que es "repartible" son las cpus, no el resto por necesidad.


2HD... 2CD... en fin... y 10HD en un sistema tb si hacen falta.
shadow land escribió:
a ver si lo entiendes...

sabes lo que es un procesador multi-nucleo? espero que si...
sabes lo que es un procesador multi-hilo en tiempo real? espero que si...

ahora, añadele dos o más monitores a una workstation, añadele dos o más teclados, dos o más ratones...

y tienes 2 PC's independientes en el espacio de uno, maximizando el aprovechamiento de la potencia.

Lo entiendes o no? esto no se trata de usar el FireFox en dos equipos diferentes....

lo entiendes o te sigues haciendo pajas mentales con lasposibilidades multiusuario de "yo mando click, recibo click", fijate, eso es maravillosamente rapido para trabajar en 3D, por ejemplo.


no es por nada, pero eso se hace en cualquier PC (AMD o intel) con un software, y a no ser que ambos tiren a la vez (y a lo bestia) por ejemplo con juegos bestias, el tinglado va estupendamente.

creia q el quid estaba en tener 2 SO a la vez, y que cada uno de ellos pueda atender N usuarios (quiza localmente, pero lo normal seria remotamente)...no en atender 2 usuarios locales con un solo SO. XD

Saludos.
GXY escribió:
no es por nada, pero eso se hace en cualquier PC (AMD o intel) con un software, y a no ser que ambos tiren a la vez (y a lo bestia) por ejemplo con juegos bestias, el tinglado va estupendamente.

creia q el quid estaba en tener 2 SO a la vez, y que cada uno de ellos pueda atender N usuarios (quiza localmente, pero lo normal seria remotamente)...no en atender 2 usuarios locales con un solo SO. XD

Saludos.


la cosa es usar dos SO's diferentes (o más) de forma local y maximizar el aprovechamiento de la maquina. Por ejemplo, un grafista usa Windows para realizar pruebas complejas de shaders, y otro, usa MacOS para realizar unas animaciones en maya.

"po ejempo". Es extremo y probablemente irreal (por los OS y donde correrian) pero plausible al 100%
Para una consola el tema de tener varios SO's corriendo de forma simultánea puede tener su intringulis, especialmente en una con procesamiento en paralelo.

Al fin y al cabo, un SO no es más que una visión lógica de la máquina, con una serie de métodos para interactuar con ella.
Se me ocurre que sería interesante tener un SO específico para el manejo de físicas, otro para el renderizado, otro para los efectos tipo shader... todos corriendo de forma paralela pero independiente, de forma que cada módulo o SO (manejador independiente del hardware a bajo nivel) implementase funciones sencillas y concretas, mucho más optimizadas que si se hiciese lo mismo con un macro-SO (o microkernel con docenas de librerías, que para el caso...).

Aunque supongo que serán sólo pajas mentales mías, y que PS3 no implementará sistemas tan bizarros. Todo esto, para las workstations a las que realmente va destinada la tecnología CELL.

Saludos.
El Cell era una idea innovadora en el 2000 o 2001. Hoy es simplemente la corriente que siguen todos los diseñadores de procesadores.

La revolución en el Cell podria llegar si ha encontrado la manera de que el proceso en paralelo sea efectivo y transparente para el desarrollador, de manera que no tenga que preocuparse en su optimización.

Si este fuera el caso, y sería lógico que así fuera pues no creo que Sony quiera repetir el fracaso del EE con sus unidades de proceso vectorial, estariamos delante de lo que podria ser una revolucion.

Pero como dicen los ingleses, tendremos que estar en wait and see, para ver como acaba finalmente todo esto.

La lógica me dice que Xbox2 y PS3 no estarán en la practica muy lejos, a no ser que ahora si la potencia de calculo vectorial suponga una diferencia en la nueva consola de Sony...

Lo curioso de todo esto, es que la gran ganadora de la nueva generación va a ser IBM, pues es la desarrolladora de los chips para las 3 consolas de nueva generación.

No se que diferencia abismal pueda haber entre los 3 powerpc multicore de Xbox2, y los de PS3 tambien basados en powerpc....

Esta alianza estratégica de Sony, Toshiba y IBM me recuerdan a la que en su dia tuvieron Apple, Motorola e IBM para crear el primer PowerPC.

Me pregunto si el diseño de PS3 esta pensado para el supuesto de conectarse a otras PS3 o dispositivos con Cell, y tener suficiente ancho de banda para un proceso en paralelo...las aplicaciones (en videojuegos o no) podrian ser interesantes...

No hay que olvidar en todo esto, que la CLAVE de la futura generación es crear una especie de Centro multimedia digital, por donde pasaran nuestras peliculas, juegos, fotografias, musica, y quien sabe si controlar procesos de nuestros electrodomesticos como programar la lavadora o programar la grabación de un programa de TV comprimiendolo en tiempo real en MPEG4 para visualizarlo con posterioridad.

Esto ultimo (la compresion en tiempo real de contenidos), es la posible aplicacion del Cell en televisores, puesto que en el futuro, y con la televisión digital terrestre, tendremos acceso a mucho material digital manipulable.

Sony quiso con el Betamax, estar en todos los hogares y televisores del mundo, y con PS3 la cosa va un poco por ahi, usando la fama de playstation como escalón al procesado del mundo digital hasta nuestro televisor.

Con Xbox2 sucede algo parecido, y de ahi sus planes de lanzar modelos de xbox2 con teclado y ratón y Windows.

Y todo esto lleva a Nintendo a Revolution, ya que en sus planes no entra el competir en el mundo multimedia y requerirá de una consola que ofrezca capacidades novedosas de juego, para simplemente (y nada menos) que jugar.
SObre el lanzamiento de PS3, creeis que va a ser tan espectacular sus ventas, no me refiero al millon de la PS2 en japon, si no a nivel mundial en unos meses, me explico.

Hubo mucha gente que se la pillo por ser DVD, era la excusa perfecta , te vendian un DVD y una PS2 por menos dinero que un DVD de sobremesa, eso ayudo muchisimo y asi lo demuestra el incremento de ventas de DVD con el lanzamiento de PS2, pero en la siguiente ya no tendra esa baza y gastarse esos 400 o 500 euros ya no sera tan buena idea en un principio y bueno como se les ocurra venderla como el sustituto del DVD las ostias pyueden ser de ordago, hay gente que no tiene el DVD ni 2 años y que le vengan diciendo que ya no vale [enfa] [enfa] [enfa] .


Y sobre la potencia de las consola yo creo que estaran muy parejas entre si, aunque creo que por primera vez desde que salio SONY tiene una competencia real en la proxima Xbox , al menos en America y Europa , no me extrañaria un futuro con Xbox2 dominando en USA, PS3 en Japon y una Europa equilibrada, a la espera de lo que pueda hacer Nintendo, aunque visto el poco reconocimiento que se le esta dando a su maravillosa consola y el total desconocimiento que tiene la gente de ella [decaio] [decaio] , en fin.

Un saludo.
[quote="Ashtyr"]SObre el lanzamiento de PS3, creeis que va a ser tan espectacular sus ventas, no me refiero al millon de la PS2 en japon, si no a nivel mundial en unos meses, me explico.

Hubo mucha gente que se la pillo por ser DVD, era la excusa perfecta , te vendian un DVD y una PS2 por menos dinero que un DVD de sobremesa, eso ayudo muchisimo y asi lo demuestra el incremento de ventas de DVD con el lanzamiento de PS2, pero en la siguiente ya no tendra esa baza y gastarse esos 400 o 500 euros ya no sera tan buena idea en un principio y bueno como se les ocurra venderla como el sustituto del DVD las ostias pyueden ser de ordago, hay gente que no tiene el DVD ni 2 años y que le vengan diciendo que ya no vale [enfa] [enfa] [enfa] ./QUOTE]
Ps3 tiene lector blue ray asi que me imagino que intentaran hacer la misma jugada que en ps2 pero con este nuevo formato.
franaloper escribió:
Ashtyr escribió:SObre el lanzamiento de PS3, creeis que va a ser tan espectacular sus ventas, no me refiero al millon de la PS2 en japon, si no a nivel mundial en unos meses, me explico.

Hubo mucha gente que se la pillo por ser DVD, era la excusa perfecta , te vendian un DVD y una PS2 por menos dinero que un DVD de sobremesa, eso ayudo muchisimo y asi lo demuestra el incremento de ventas de DVD con el lanzamiento de PS2, pero en la siguiente ya no tendra esa baza y gastarse esos 400 o 500 euros ya no sera tan buena idea en un principio y bueno como se les ocurra venderla como el sustituto del DVD las ostias pyueden ser de ordago, hay gente que no tiene el DVD ni 2 años y que le vengan diciendo que ya no vale [enfa] [enfa] [enfa] ./QUOTE]
Ps3 tiene lector blue ray asi que me imagino que intentaran hacer la misma jugada que en ps2 pero con este nuevo formato.


pues entonces lamento decirte que nos les saldra bien la jugada, al menos en españa...

PD: al menos, claro, que saque grabadoras bluray [sati]
franaloper escribió:
Ashtyr escribió:Hubo mucha gente que se la pillo por ser DVD, era la excusa perfecta , te vendian un DVD y una PS2 por menos dinero que un DVD de sobremesa, eso ayudo muchisimo y asi lo demuestra el incremento de ventas de DVD con el lanzamiento de PS2
Como bien dice f5inet aquí en España no les saldrá bien la jugada si tiran por ahí. Pero en países que tienen HDTVs igual si que cuela. Pero bueno supongo que a la salida le acompañaran unos cuantos juegos para que vayamos babeando, y al cabo del tiempo cuando esté a un precio digno y con bastantes juegos en el mercado ya será cosa de comprarsela.
Bueno, he de aclarar algunas cosas.

Para empezar Cell no es el PowerPC multicore, ese honor le pertenece al Antares que esta basado en Power5 y tiene todos los numeros de ir a parar a Xenon y a los proximos PowerMac.

Llamar al Cell multicore es tener mucho morro, una core esta formada por:

-Unidad "Prefetch"
-Unidades de ejecución
-Registros.
-Cache
-Set de Instrucciones.

La unica core del Cell que corresponde con eso es el PPE que no es más que un PowerPC G5.

¿Entonces pq las SPU no cuadran?

Las SPU no funcionan al mismo tiempo ni de la misma forma que el PPE, sencillamente son CPU aisladas:

-No tienen acceso a la memoria principal, pero si a 256K de memoria embedida que tienen asignada.

-Para ir a la memoria principal tienen que pedirle permiso al VMX de la core principial (PPE).

-No tienen unidad Prefetch

Lo que pasa es que las SPU tienen el enorme fallo de que ha de ser el programador el que asigne 256KB de codido en C++ (curiosamente puede leer directamente C++) a una SPU especifica, sino no van.

Otra cosa de la que me gustaria hablar es la de los FLOPS, cuidado con esto pq Sony suele meterla doblada y por lo visto han contado los FLOPS en precisión de 16 bits, no de 32 bits como hace todo el mundo.
131 respuestas
1, 2, 3