Articulo sobre la GPU de x360

17, 8, 9, 10, 11
oestrimnio escribió:
si pero muy mucho se lo pensaron, porque la cosa la anunciarón hace 6 meses solamente, no se cuanto tiempo llevarían ya currando pero me da que mocosoft les lleva un añito mínimo de ventaja de I+D

anuncio de diciembre del 2004


un año. Pero si una diferencia notable, RSX es una adaptación de un chip para pcs normales y corrientes (con lo bueno y malo de estos) y Xenos es un chip 100% consola creado desde 0 y reaprovechando cierta tecnología sin más. Es una diferencia notable. Sony ha metido lo que le ha dado tiempo, MS lo que ha creido necesario desde el primer minuto...



oestrimnio escribió:y pensar que algun directivo de sony se jactaba de NO necesitar la ayuda de ninguna compañía para el desarrollo de la gpu, que ellos tenian los mejores equipos humanos bla bla bla...

¿le verían las orejas a un lobo de ATI? [hallow]


a ATi no, a la mierda de gráfica que estaban haciendo, como la misma mierda que hicieron con el GS en PS2.
es que no llegan a fichar a nvidia, y se estaban ahora mismo jugando el predominio al tute contra MS

habiendo fichado a nvidia al menos el enfrentamiento es igualado.

saludos cordiales.
otro dato más, no esta oficialmente confirmado, peor Deano Calver (Programador de Ninja Theory) y Dave Baumann (insider y "jefe" de Beyond3D) lo "confirman".

Xenos es capaz de escribir a CUALQUIER parte de la memoria del sistema de forma totalmente aleatoria y a disposición del programador, pudiendo escribir una misma ALU un dato en la EDRAM para su postprocesado, y el siguiente en la memoria principal.

Sorpresa, primera GPU en hacerlo (la única función teóricamente de DirectX en implementarse junto con los shaders unificados) y nVIDIA no lo implementa en principio (DirectX 9). Esto abre las puertas a otras funcionalidades, como hacer calculos físicos a saco en la propia GPU (por ejemplo).

Para más info buscar en google por GPGPU
shadow land escribió:... Esto abre las puertas a otras funcionalidades, como hacer calculos físicos a saco en la propia GPU (por ejemplo).
...


[666]
como se suele decir "que fuerte!!!!"

por favor, no me digas que la gpu puede hacer de ¿co-procesador? porque de cuanto estariamos hablando ¿de un teraflop...?

[boing]
oestrimnio escribió:
[666]
como se suele decir "que fuerte!!!!"

por favor, no me digas que la gpu puede hacer de ¿co-procesador? porque de cuanto estariamos hablando ¿de un teraflop...?

[boing]


si, puede hacer de coprocesador. no se de cuanto estaríamos hablando, pero si, sería como un cell con 48+7 SPEs diciendolo rapido y mal.

ya se hacen mini juegos completos (q salvo rutinas como el manejo de teclado, corren enteros en tarjetas gráficas) como experimentos en una gráfica, pero bueno, podrías usar parte de esa potencia para asistir las físicas en un juego por ejemplo.
Shadow land, a mi esto ya me suena demasiado fuerte.¿Hay patentes de esto ultimo?. Porque entonces creo que esta claro que X360 pasaria de largo el diseño de PS3 si este es como se supone a dia de hoy.
Es basicamente una burrada lo que os estais imaginando.

En un procesador in-order como los de la Xbox 360 si utilizas algo con tanto retardo como la GPU como coprocesador la CPU se quedaria sin hacer absolutamente nada el 90 % del tiempo cada vez que le pide un calculo.

Aparte de que las GPUs no son capaces ni de lejos de hacer operaciones matematicas convencionales como las que usan las CPUs, pues no estan optimizadas para esto.

Lo que dicen es que es más flexible de lo normal a la hora de el envio de datos de un lugar a otro. Por lo demas sigue siendo tan "coprocesador" como cualquier otra GPU. Si intentas hacer lo que proponeis dañarias brutalmente el rendimiento de la GPU a la hora de procesar graficos que es lo suyo.

La utilidad de todo esto tiene que ver con el articulo que se puso sobre la generación dinamica de contenidos. Es decir la CPU puede generar mediante un algoritmo un modelo o una textura y la GPU lo leeria directamente de esta en vez de que tubiera que pasar por la memoria principal. Esto es para que la CPU pueda ayudar a la GPU no al reves.
deathkiller escribió:En un procesador in-order como los de la Xbox 360 si utilizas algo con tanto retardo como la GPU como coprocesador la CPU se quedaria sin hacer absolutamente nada el 90 % del tiempo cada vez que le pide un calculo


Hace poco lei que un desarrollador confirmó en b3d que son out of order.
Bueno he aquí algo que salió en el reportaje de aristechnia, según el cual el diseño de la CPU de X360, y es que ha sido pensada para que se pueda hacer Procedural Syntesis, que es algo que M$ lleva mucho tiempo queriendo implementar en los juegos y que según parece ya lo han patentado.
Un ejemplo de juego que hace uso de estas técnicas, es Oblivion que usa procedural graphics en los rostros de los personajes y en la vegetación, pero X360 estaría capacitada para poder aplicarlo a todo el juego en general no sólo a ciertos elementos.
Si se consigue implementar bien, creo que estaríamos hablando de un gran avance en el mundo de los videojuegos.
Molonator, no es muy fuerte, es lo que se supone que se perimtira a partir de DirectX 10 (WGF 2.0 para longhorn), el problema es que la especificación no esta finalizada, por lo que Xenos solo ciertos detalles de DirectX 10. Mientras, PS3 no deja de tener una "simple" gráfica para DirectX 9.0, q habrá que ver si es capaz de ejecutar shaders triviales son saltos, bucles y condicionales como Xenos, lo cual no lo aseguro por que no lo se seguro, pero diría que no es capaz.


Fraludio escribió:
Hace poco lei que un desarrollador confirmó en b3d que son out of order.


sip.
Fraludio escribió:
Hace poco lei que un desarrollador confirmó en b3d que son out of order.


Pues yo leo ese foro y siempre he leido in-order. De hecho al parecer esta en la patente ¿tienes un link?.

Aun si fuera out-order acabaria bloqueandose. No puedes utilizarlo como un coprocesador, si no como entrada salida que es no bloqueante al tratarse con interrupciones hardware.
deathkiller escribió:
Pues yo leo ese foro y siempre he leido in-order. De hecho al parecer esta en la patente ¿tienes un link?.

Aun si fuera out-order acabaria bloqueandose. No puedes utilizarlo como un coprocesador, si no como entrada salida que es no bloqueante al tratarse con interrupciones hardware.



¿?
Las entrada salida siempre paran la CPU, por eso se llaman interrupciones.

Por lo que os estoy leyendo, parece que la GPU de NVIDIA está una generación por debajo que la GPU de ATI.

Entonces parece que se confirma lo que decía Microsoft en IGN hace unos días. Que las máquinas son muy parecidas en potencia. PS3 gran capacidad de proceso en coma flotante, y "zrisisti" en GPU y proceso general.

Aún asi sigo sin tener claro una cosa:

La GPU de ATI que monta la 360, cuando está previsto que salga para PC? Y la de NVIDIA que monta la PS3?
Luji escribió:Las entrada salida siempre paran la CPU, por eso se llaman interrupciones.


eso ya lo se.



Luji escribió:Por lo que os estoy leyendo, parece que la GPU de NVIDIA está una generación por debajo que la GPU de ATI.

Entonces parece que se confirma lo que decía Microsoft en IGN hace unos días. Que las máquinas son muy parecidas en potencia. PS3 gran capacidad de proceso en coma flotante, y "zrisisti" en GPU y proceso general.

Aún asi sigo sin tener claro una cosa:

La GPU de ATI que monta la 360, cuando está previsto que salga para PC? Y la de NVIDIA que monta la PS3?


Si, ya se sabía desde q se anuncio el acuerdo Sony-nVIDIA que x360 iria una generación gráfica por delante si ATi no la cagaba.

La tecnología (parte solo) ira a parar a la futura R600, q se espera que aparezca con Longhorn si no se retrasa. La equivalente a RSX (G70) saldra como mucho a fin de año en PC's o a inicios de año a más tardar, sigue siendo un "refresco" de las 6800 sin más
shadow land escribió:Si, ya se sabía desde q se anuncio el acuerdo Sony-nVIDIA que x360 iria una generación gráfica por delante si ATi no la cagaba.

La tecnología (parte solo) ira a parar a la futura R600, q se espera que aparezca con Longhorn si no se retrasa. La equivalente a RSX (G70) saldra como mucho a fin de año en PC's o a inicios de año a más tardar, sigue siendo un "refresco" de las 6800 sin más


Está claro entonces. La RSX es una 6800 pasada de vueltas (para entendernos), y sacada de prisa para la PS3.

Por lo que deduzco:

Sony ha sentido el aliento en el cogote de MS, y ha decidido adelantar el lanzamiento de PS3 con lo que había, es decir un CELL y la última tarjeta de NVIDA en el mercado. Por tanto parece que en cuestión gráfica PS3 se va a quedar por detrás. De ahí que hayan metido un CELL con tantísima capacidad de proceso, para poder equiparar la potencia gráfica.

Microsoft y su colaboracion con ATI (directX 10, drivers Catalyst, nueva GPU), han dado en el clavo, y con una CPU bastante inferior al CELL es capaz de igualar su máquina con la PS3.

Asique parece que MS ha golpeado primero y más fuerte. Y parece que va a tomar la delantera. Solo falta que el software le acompañe, y viviremos estanterías plagadas de juegos de 360 y PS3, no solo de juegos de Sony.
Luji escribió:

Está claro entonces. La RSX es una 6800 pasada de vueltas (para entendernos), y sacada de prisa para la PS3.


basicamente, con algúna optimización basica y tal, pero el G70 siempre ha sido el refresco de las 6800, nvidia funciona así "nueva arquitectura" y luego un refresco, y repetimos



Luji escribió: Por lo que deduzco:

Sony ha sentido el aliento en el cogote de MS, y ha decidido adelantar el lanzamiento de PS3 con lo que había, es decir un CELL y la última tarjeta de NVIDA en el mercado. Por tanto parece que en cuestión gráfica PS3 se va a quedar por detrás. De ahí que hayan metido un CELL con tantísima capacidad de proceso, para poder equiparar la potencia gráfica.

Microsoft y su colaboracion con ATI (directX 10, drivers Catalyst, nueva GPU), han dado en el clavo, y con una CPU bastante inferior al CELL es capaz de igualar su máquina con la PS3.

Asique parece que MS ha golpeado primero y más fuerte. Y parece que va a tomar la delantera. Solo falta que el software le acompañe, y viviremos estanterías plagadas de juegos de 360 y PS3, no solo de juegos de Sony.


A lo primero no me atrevería a decirlo tan categóricamente.

A lo ultimo, MS siempre barrera a Sony en herramientas de desarrollo. MS es una empresa de software con unos cuantos ingenieros de hardware, Sony cada vez que intenta sacar un software del tipo que sea siempre la caga, son una panda de ingenieros locos con "3 programadores" en medio. Son lo opuesto a MS.

Luego dicataran los juegos, como siempre.
Luji escribió:Las entrada salida siempre paran la CPU, por eso se llaman interrupciones.

La entrada y salida no para la CPU cuando se usan interrupciones, lo que haces es usar una instrucción de E/S seguir con otras cosas y cuando esta se termina de ejecutar el procesador interrumpe lo que estubiera haciendo la CPU para que esta ejecute la rutina de tratamiento de la interrupción.

Esto evita la espera activa. En los coprocesadores como los VMX de la Xbox 360 si se les espera por que los resultados son casi inmediatos mientras que la entrada salida puede ser muy lenta y de duración variable.
O soy yo, me parece que a Death tiene una benda en los ojos y se quiere creer todo lo que dice Sony, pero vamos que yo del Cell no le veo gran aplicación al mundo de los videojuegos (confirmado por IBM dicho sea de paso), bueno sí que le veo una, y es hacer lo que hizo Sony en el E3, enseñar videos CG a resoluciones impresionantes [qmparto] [qmparto]
Phellan_Wolf escribió:O soy yo, me parece que a Death tiene una benda en los ojos y se quiere creer todo lo que dice Sony, pero vamos que yo del Cell no le veo gran aplicación al mundo de los videojuegos (confirmado por IBM dicho sea de paso), bueno sí que le veo una, y es hacer lo que hizo Sony en el E3, enseñar videos CG a resoluciones impresionantes [qmparto] [qmparto]


la tiene, la tiene.



La única E/S que no para la CPU es aquella que va vía DMA, el resto para la CPU siempre.
Shadow Land estas diciendo una estupidez, yo estoy terminando 4º de Ingieneria Informatica y se perfectamente lo que digo sobre eso (no hubiera pasado de 2º si me creyera lo que dices).

Se que es imposible que os convezca pero yo no soy un fanatico ciego de Sony.

Bueno dejare de intervenir en vuestras sesiones de autoconvencimiento en las que pretendeis tener realmente conocimientos de Arquitectura de Computadores.
deathkiller escribió:Shadow Land estas diciendo una estupidez, yo estoy terminando 4º de Ingieneria Informatica y se perfectamente lo que digo sobre eso (no hubiera pasado de 2º si me creyera lo que dices).


Diciendo eso no aumentas demasiado tu credibilidad, que si tu pedanteria.
deathkiller escribió:Se que es imposible que os convezca pero yo no soy un fanatico ciego de Sony.



Pues como sonyer te has indentificado por otros lares asi que no se yo si es contrario a lo que aqui manifiestas.


Salu2
deathkiller escribió:Shadow Land estas diciendo una estupidez, yo estoy terminando 4º de Ingieneria Informatica y se perfectamente lo que digo sobre eso (no hubiera pasado de 2º si me creyera lo que dices).


si te sirve de ayuda, doy clases de programación a amigos que tb estan entre 3º y 5º de informática.

Y eso no te garantiza nada, solo que has leido mucho sobre cosas totalmente "Desfasadas".


Y yo solo soy tecnico superior en Admin de sistemas. No voy pregonandolo por que no es nada de que vanagloriarse, y tampoco lo es el ser ing. informático. Conozco a demasiados inutiles con dicho titulo (y otros titulos).


Pero tu a lo tuyo...

así nos va en españa :(
Ains... yo creo que os estais liando un poco con el tema de interrupciones ¿no os parece?

Interrupcion es cuando el procesador atiende a una señal hardware de interrupción para ejecutar una rutina de tratamiento de dicha interrupción.

Cuando se accede directamente a una I/O lo que se produce en realidad es una señal de espera para que el procesador se sincronize con el dispositivo al que intenta acceder, pero eso no significa que el procesador se quede detenido al completo, ya que podria estar ejecutando otras instrucciones que no hagan acceso al bus de datos.

Por supuesto: quien controla esa señal de espera es el dispositivo al que intentamos acceder, ya que es éste el que debe indicarle al procesador que aun no ha recibido o emitido el dato solicitado,

Dicho esto, lo primero que hay que entender, es que eso no significa directamente, que si un procesador de 3,2 Ghz accede a un puerto que tienen una velocidad de acceso 4Mhz, el procesador vaya a 4Mhz si no que mas bien, cada vez que se acceda a ese puerto, en el peor de los casos, seria como si trabajara a 4Mhz, pero es solo un instante.

Evidentemente: si lo que pedimos es un dato instantaneo, como por ejemplo, el status de un dispositivo, fale, pero si lo que solicitamos es una tarea que lleva tiempo, ahí es donde intervienen las interrupciones, DMAS, etc, para evitar una demora excesiva y tener ocupado al procesador inutilmente.

La interrupcion se usaría para indicar al procesador, que los datos han sido transferidos desde o hacia el dispositivo o que éste está aguardando, etc.

Y ya deberíais saber que la memoria es un dispositivo I/O TAMBIEN. Si el procesador de XBOX 360 accede a la memoria DDR, accede a 700Mhz, no a 3,2Ghz ¿y por qué no se para? Ya lo he dicho antes:
porque el procesador puede ejecutar otras instrucciones siempre y cuando no tenga que acceder al bus de datos y para eso cuenta cn una caché interna.

PD: Evidentemente, esto es así desde el principio de los tiempos y ahora se incorporan muchos trucos que mejoran la eficacia de los procesadores
pues eso, que la cpu "se para", siempre ha sido así,y siempre lo será por la naturaleza inerente del sistema de interrupciones.

Pero obviamente el "se para" no significa "que muere".

Eso lo sabemos todos, o creo que lo sabemos todos en este hilo, al menos estoy convencido en tu caso, el mio y en el de fraludio... [tomaaa]
shadow land escribió:pues eso, que la cpu "se para", siempre ha sido así,y siempre lo será por la naturaleza inerente del sistema de interrupciones.

Pero obviamente el "se para" no significa "que muere".

Eso lo sabemos todos, o creo que lo sabemos todos en este hilo, al menos estoy convencido en tu caso, el mio y en el de fraludio... [tomaaa]


Sip. Y para entender ese concepto no hay nada mejor que estudiar un Z80 por ejemplo.

Por cierto, mi ahi va mi titulación: Auxiliar Tecnico de Electrónica y oficial de 1ª Yesaire [carcajad] [carcajad] [carcajad] (asi va España....)
Jur...

Sobre el tema de que Cell no está diseñado para videojuegos es cierto, porque es un procesador para su uso en otras muchas características.

Lo que no valga para videojuegos es mentira, porque cualquier videojuego necesita de un procesador, y cuanto más potente, mejor.

Es como decir que el Pentium de la Xbox no tiene gran aplicación al mundo de los videojuegos.

Cuando IBM, ATI, MS, Sony, Nvidia o cualquier compañía hacen declaraciones, muchas veces los "pseudoperiodistas" no los escriben exactamente, o los interpretan y transcriben de manera incorrecta.

Un saludo.
Hermes escribió:
Sip. Y para entender ese concepto no hay nada mejor que estudiar un Z80 por ejemplo.

Por cierto, mi ahi va mi titulación: Auxiliar Tecnico de Electrónica y oficial de 1ª Yesaire [carcajad] [carcajad] [carcajad] (asi va España....)


po zi po zi

yo he pensado muy seriamente hacerme "soldador de 1ª" o fresador, se gana un paston y no te matas la cabeza [qmparto]




Ferdopa, IBM ha dicho que CELL no sirve para un ordenador "corriente y moliente" lo que no quiere decir que no sirva para juegos, pero por lo bajini, ellos también dicen que tienen serias dudas del rendimiento que dará CELL en ciertas secciones de un videojuego, ya que el chip esta diseñado para lo que esta (crujir numeros a saco) y no para otro cierto tipo de tareas tan o más importantes en un juego que crujir numeros sin más.

Una cosa no quita la otra. Una cpu siempre hará unas cosas mejor que otra cpu, por que si no, solo existiria un tipo de cpu y un solo fabricante ;)
Bueno tras los ultimos post que no he entendido na de na :? :? :? :? , sobre interrupciones , out order , in order ( a ver si alguien me explica eso please , y demas rencillas sobre a ver quien tiene mas cromos solo he de decir una cosa.


MI PENE MIDE 24 cm, [fumando] [fumando] [fumando] , asi que yo tengo razon



























P.D. es broma mide 23 :p :p :p :p
shadow land te equicocas con lo del dma.

1. Toda E/S produce interrupcion de la ejecucion de algun proceso.

2. El DMA lo que hace no es evitar la interrupcion de algun proceso si no reducirla al minimo posible, siempre debera de interrumpirse algun proceso cuando la CPU recibe la interrupcion del controlador de DMA de que el dato ya esta disponible y espera nuevas instruciones. Esto lo que hace es liberar a la CPU de dos tareas que chupan mucho ancho de banda o tiempo: Sincronizar la tranferencia entre dispositivos de distintas velocidades, mover bloques de memoria completos.
Elohe escribió:shadow land te equicocas con lo del dma.

1. Toda E/S produce interrupcion de la ejecucion de algun proceso.

2. El DMA lo que hace no es evitar la interrupcion de algun proceso si no reducirla al minimo posible, siempre debera de interrumpirse algun proceso cuando la CPU recibe la interrupcion del controlador de DMA de que el dato ya esta disponible y espera nuevas instruciones. Esto lo que hace es liberar a la CPU de dos tareas que chupan mucho ancho de banda o tiempo: Sincronizar la tranferencia entre dispositivos de distintas velocidades, mover bloques de memoria completos.



En realidad el DMA no es mas que OTRO dispositivo que se encarga de transferir los datos desde un dispositivo I/O a memoria o viceversa

¿que pasa si acceden a la vez, la DMA y el procesador a la misma memoria? Si la cosa está bien diseñada, uno de los dos accesos debera tomar preferencia... si no lo está, pasará como en PS2 cuando el IOP escribe por error la memoria usada en la transferencia de datos hacia SPU2 (audio): que se cuelga el sistema con un ruido horripilante [mad]

El caso es que nadie está a salvo de eso: Cell tendrá ese problema tambien, pero el tiempo de demora es tan corto, que hablar de ello es un poco estúpido ¿verdad?

Ahora yendo por otras tornas, no cabe duda de que XBOX 360 está mejor equilibrada, sobre todo para la mentalidad occidental (es que los japos son muy raros [tomaaa] ).

A mi me gusta mucho eso de que tenga 3 cores: uno para manejar el juego, otro para I/O (desde leer el DVD hasta recargar texturas) y el último para efectos/físicas, así los divido yo [fies]

Por cierto, mucho se habla de la retrocompatibilidad de XBOX360 y la gente da por hecho la retrocompatibilidad de PS3... Bueno, que sepais que PS3 tiene el MISMO (o peor) problema técnico que XBOX360 para emular una XBOX.
Elohe escribió:shadow land te equicocas con lo del dma.

1. Toda E/S produce interrupcion de la ejecucion de algun proceso.

2. El DMA lo que hace no es evitar la interrupcion de algun proceso si no reducirla al minimo posible, siempre debera de interrumpirse algun proceso cuando la CPU recibe la interrupcion del controlador de DMA de que el dato ya esta disponible y espera nuevas instruciones. Esto lo que hace es liberar a la CPU de dos tareas que chupan mucho ancho de banda o tiempo: Sincronizar la tranferencia entre dispositivos de distintas velocidades, mover bloques de memoria completos.


eso es de cajón [mad]
Mi primer mensaje en este pedazo hilo y no es mas que para preguntar (ya que de todo lo que hablais me pierdo un poco, ya que lo que mas se de arquitectura de computadores son las bases del 8086, y hacer iterrupciones y demas lo suficiente para hacer un juego de naves uno contra uno)

Hermes escribió:Por cierto, mucho se habla de la retrocompatibilidad de XBOX360 y la gente da por hecho la retrocompatibilidad de PS3... Bueno, que sepais que PS3 tiene el MISMO (o peor) problema técnico que XBOX360 para emular una XBOX.


La ps3 no va a llevar "intregrada" la ps2 para hacer la "emulacion" como la ps2 con la ps1? (aunque como has dicho Hermes intente hacerlo por emulacion, ya que si ya se dice que la ps3 va a ser cara ya ni mi imagino si esta tiene que llevar hardaware de la ps2)

Respecto al hardware de la xbox360 cada vez que leo mas en este hilo me impresiono mas.

Sadow land escribió:Sorpresa, primera GPU en hacerlo (la única función teóricamente de DirectX en implementarse junto con los shaders unificados) y nVIDIA no lo implementa en principio (DirectX 9). Esto abre las puertas a otras funcionalidades, como hacer calculos físicos a saco en la propia GPU (por ejemplo).

si, puede hacer de coprocesador. no se de cuanto estaríamos hablando, pero si, sería como un cell con 48+7 SPEs diciendolo rapido y mal.


Esto "seria" como se supone que ivan a incluir los ultimos kit de desarrollo para la saturn (el pedazo procesador de sonido que llevaba (simplemente hay que oir los panzer dragon) iva a ayudar a la gpu en algunas tareas de graficos, creo que algo relacionado los vertices) solo que en vez del chip de sonido, la gpu se encargaria de ayudar a la cpu?

Saludos a todos.
entiendelo como que si un juego no exprime al 100% la gpu (digamos al 90%) y el programador es capaz de usar ese 10% correctamente, podría ayudar a la cpu a realizar ciertos calculos de tipo vectorial, si.

No es lo que se debería hacer de forma masiva, pero sirve, si. Incluso para realizar un juego donde el 99% del mismo se ejecute en la GPU
pues espero que sony haga los graficos mas redondeados como xplico en el E3 con lo de spiderman....¿hara eso sony con su ATI?
es mas.....¿hara eso 360 con su ati?

tipo los de RIDDICK....LOS MEJORES QUE HE VISTO.



en resumen.......la 360 movera lo de riddick sin pestañear,y cualquier juego que salga hara que el susodicho riddick parezca uno de dreamcast comparado con lo que se supone que nos espera por parte del tito billy.


al menos creo yo eso.

GRAFICOS REDONDITOS POR FAVOR.
CESILLAS escribió:pues espero que sony haga los graficos mas redondeados como xplico en el E3 con lo de spiderman....¿hara eso sony con su ATI?
es mas.....¿hara eso 360 con su ati?
.


eso no depende de el hardware d una y de otra en primera instancia, si no de los programadores y diseñadores graficos.
nu_kru escribió:ç
La ps3 no va a llevar "intregrada" la ps2 para hacer la "emulacion" como la ps2 con la ps1? (aunque como has dicho Hermes intente hacerlo por emulacion, ya que si ya se dice que la ps3 va a ser cara ya ni mi imagino si esta tiene que llevar hardaware de la ps2)


Que yo sepa no (de ser así el EE seria usado como I/O de PS3)

Veamos, asi a bote pronto, para emular una PS2 necesitas:

- Emular el EE (~ 300MHz)
- Emular IOP (~ 37Mhz y 33Mhz en modo PS1)
- Emular VU0 y VU1 (proceso vectorial)
- Emular IPU (descompresor de MPEG2)
- Emular GS ( NVIDIA le mea [sati])
- Emular DMAC
- Emular SPU2

A mi lo que me preocupa de estas emulaciones, es que no basta con emular las instrucciones tal cual: estas instrucciones en la maquina real, consumen ciclos de reloj que deberian ser respetados para evitar que los juegos se aceleren y evitar posibles conflictos con el 'hardware'. El soft en una consola, como siempre trabaja a la misma velocidad se puede tomar ciertas licencias.

Por ejemplo, el PS2R Mediaplayer 1.50, usa un sistema de 4 hilos en el EE y uno de ellos está ligado al IOP, con la interrupcion de audio... si desfasas la ejecución mas de n ms, se producirá el famoso cuelgue del que hablaba antes, en este caso de una manera mas bruta, porque los datos de sonido son transferidos a la memoria de IOP que es usada como loop de audio por SPU2 directamente via DMA (osea, DMA de escritura y DMA de lectura coincidiendo...)

Por otro lado, si es afectado el hilo controlado por la interrupcion VSYNC, podria ocurrir que se intentara mostrar el frame de video, justo cuando estamos subiendo al GS mediante DMA, la textura de video procedente de IPU para la conversión de color... con resultados imprevisibles.

Eso por poner un ejemplo. No se lo que hara SONY, pero piensa que no todos los juegos de PS1 iban y eso que IOP es el MISMO procesador que en PS1 y la emulacion se limita al chip de video y cosas asi (de ahi viene el famoso exploit, de la necesidad de meter un fichero para configurar los posibles juegos problematicos)
pues yo estaba en la idea de que la ps2 iría integrada de algun modo en la ps3, y que la ps1 sería emulada

ein?

Edito:

El hilo es muy largo, no se si esto ya ha sido comentado:

Bueno, mi ignorancia no me permite digerir/disfrutar como yo quisiera esta información, por lo que pido opinión experta:

The 48 ALUs are divided into three SIMD groups of 16. When it reaches the final shader pipe, each of the 16 ALUs has the ability to write out two samples to the 10MB of EDRAM. Thus, the chip is capable of writing out a maximum of 32 samples per clock. At 500MHz, that means a peak fill rate of 16 gigasamples. Each of the ALUs can perform 5 floating-point shader operations. Thus, the peak computational power of the shader units is 240 floating-point shader ops per cycle, or 120 billion shader ops per second at 500MHz.

fuente

la noticia al principio del hilo habla de "Shader Performance of the Xbox 360 GPU is 48 billion shader operations per second" y ahora me encuentro con "120 billion shader ops per second at 500MHz"

¿¿ en que quedamos 48 o 120 ??

que cojo*** es eso de que "Each of the ALUs can perform 5 floating-point shader operations"

me estoy haciendo la picha un lio.
Contestad al chaval ... ;)
pues dice exactamente eso, que cada ALU de las 48 que hay (se supone) es capaz de hacer 5 operaciones de coma flotante por ciclo de reloj. O sea, un dot-product "complejo".

Salu2
shadow land escribió:pues dice exactamente eso, que cada ALU de las 48 que hay (se supone) es capaz de hacer 5 operaciones de coma flotante por ciclo de reloj. O sea, un dot-product "complejo".


Dot-product = Producto puntero ???
mecro escribió:

Dot-product = Producto puntero ???


Producto vectorial.
cita de mecro:


Dot-product = Producto puntero ???


Producto vectorial.



"Dot-product" ----- >(googlecion) -----> "producto punto"

Este google y mis malas interpretaciones. :-P

Un saludo.
dejaros de dots y aclarar esto, que para eso estais [666]

la noticia al principio del hilo habla de:

"Shader Performance of the Xbox 360 GPU is 48 billion shader operations per second"

y ahora me encuentro con "120 billion shader ops per second at 500MHz"

¿¿ en que quedamos 48 o 120 ??

¿¿ posible errata, o es que la Xenos crece por momentos ??




enlace
nadie lo asegura a ciencia cierta, se puede entener que son 5 operaciones por cada ALU (de las 48 que hay) o que cada grupo de 16 alus es capaz de hacer 5 operaciones, lo cual tb sale un poco... por lo suelos.
shadow land escribió:nadie lo asegura a ciencia cierta, se puede entener que son 5 operaciones por cada ALU (de las 48 que hay) o que cada grupo de 16 alus es capaz de hacer 5 operaciones, lo cual tb sale un poco... por lo suelos.


No lo entiendo, hace unos dias estabamos diciendo que era un tarjeton y ahora que "sale un poco... por los suelos"?

Necesito una aclaracion. :-D

Thx

Nos Vemos. O_o.
pues emplea tu comprension lectora, xq mas claro no puedo decirlo
oestrimnio escribió:The 48 ALUs are divided into three SIMD groups of 16. When it reaches the final shader pipe, each of the 16 ALUs has the ability to write out two samples to the 10MB of EDRAM. Thus, the chip is capable of writing out a maximum of 32 samples per clock. At 500MHz, that means a peak fill rate of 16 gigasamples. Each of the ALUs can perform 5 floating-point shader operations. Thus, the peak computational power of the shader units is 240 floating-point shader ops per cycle, or 120 billion shader ops per second at 500MHz.

fuente

la noticia al principio del hilo habla de "Shader Performance of the Xbox 360 GPU is 48 billion shader operations per second" y ahora me encuentro con "120 billion shader ops per second at 500MHz"



Los 48 ALUS estan divididos en tres SIMD en grupos de 16.
Cuando alcanzan el final del Shader pipe, cada grupo de 16 ALUS tiene la capacidad de escribir 2 samples en los 10 MB EDRAM. Lo que resulta en que el chip es capaz de un maximo de 32 samples por clock, a 500 MHz esto significa un fill rate maximo de 16 gigasamples.
Cada ALU puede procesar 5 floating-point shader operations ( lo dejo asi), lo que significa que el pico maximo de potencia computacional de los shaders es 240 floating-point shader operations o bien 120 Billones de operaciones shaders por segundo a 500 Mhz.


48 ALUS repartidos en 3 SIMD, cada SIMD es capaz de escribir 2 samples en la memoria EDRAM.

48 ALUS, 5 operaciones por cada ALU 240 operaciones/segundo.


Como esto siga asi dentro de un mes hara 400 [tomaaa] .

O bien Microsoft se callo demasiadas cosas para que Nvidia y SONY se confiasen y ATI viendo que su imagen podria salir dañada anta la avalancha Nvidia y sus TFLOPS, ha salido y se ha soltado el pelo diciendo lo que Microsoft no queria decir, o no lo entiendo
501 respuestas
17, 8, 9, 10, 11