oestrimnio escribió:
si pero muy mucho se lo pensaron, porque la cosa la anunciarón hace 6 meses solamente, no se cuanto tiempo llevarían ya currando pero me da que mocosoft les lleva un añito mínimo de ventaja de I+D
anuncio de diciembre del 2004
oestrimnio escribió:y pensar que algun directivo de sony se jactaba de NO necesitar la ayuda de ninguna compañía para el desarrollo de la gpu, que ellos tenian los mejores equipos humanos bla bla bla...
¿le verían las orejas a un lobo de ATI?![]()
shadow land escribió:... Esto abre las puertas a otras funcionalidades, como hacer calculos físicos a saco en la propia GPU (por ejemplo).
...
oestrimnio escribió:
![]()
como se suele decir "que fuerte!!!!"
por favor, no me digas que la gpu puede hacer de ¿co-procesador? porque de cuanto estariamos hablando ¿de un teraflop...?
![]()
deathkiller escribió:En un procesador in-order como los de la Xbox 360 si utilizas algo con tanto retardo como la GPU como coprocesador la CPU se quedaria sin hacer absolutamente nada el 90 % del tiempo cada vez que le pide un calculo
Fraludio escribió:
Hace poco lei que un desarrollador confirmó en b3d que son out of order.
Fraludio escribió:
Hace poco lei que un desarrollador confirmó en b3d que son out of order.
deathkiller escribió:
Pues yo leo ese foro y siempre he leido in-order. De hecho al parecer esta en la patente ¿tienes un link?.
Aun si fuera out-order acabaria bloqueandose. No puedes utilizarlo como un coprocesador, si no como entrada salida que es no bloqueante al tratarse con interrupciones hardware.
Luji escribió:Las entrada salida siempre paran la CPU, por eso se llaman interrupciones.
Luji escribió:Por lo que os estoy leyendo, parece que la GPU de NVIDIA está una generación por debajo que la GPU de ATI.
Entonces parece que se confirma lo que decía Microsoft en IGN hace unos días. Que las máquinas son muy parecidas en potencia. PS3 gran capacidad de proceso en coma flotante, y "zrisisti" en GPU y proceso general.
Aún asi sigo sin tener claro una cosa:
La GPU de ATI que monta la 360, cuando está previsto que salga para PC? Y la de NVIDIA que monta la PS3?
shadow land escribió:Si, ya se sabía desde q se anuncio el acuerdo Sony-nVIDIA que x360 iria una generación gráfica por delante si ATi no la cagaba.
La tecnología (parte solo) ira a parar a la futura R600, q se espera que aparezca con Longhorn si no se retrasa. La equivalente a RSX (G70) saldra como mucho a fin de año en PC's o a inicios de año a más tardar, sigue siendo un "refresco" de las 6800 sin más
Luji escribió:
Está claro entonces. La RSX es una 6800 pasada de vueltas (para entendernos), y sacada de prisa para la PS3.
Luji escribió: Por lo que deduzco:
Sony ha sentido el aliento en el cogote de MS, y ha decidido adelantar el lanzamiento de PS3 con lo que había, es decir un CELL y la última tarjeta de NVIDA en el mercado. Por tanto parece que en cuestión gráfica PS3 se va a quedar por detrás. De ahí que hayan metido un CELL con tantísima capacidad de proceso, para poder equiparar la potencia gráfica.
Microsoft y su colaboracion con ATI (directX 10, drivers Catalyst, nueva GPU), han dado en el clavo, y con una CPU bastante inferior al CELL es capaz de igualar su máquina con la PS3.
Asique parece que MS ha golpeado primero y más fuerte. Y parece que va a tomar la delantera. Solo falta que el software le acompañe, y viviremos estanterías plagadas de juegos de 360 y PS3, no solo de juegos de Sony.
Luji escribió:Las entrada salida siempre paran la CPU, por eso se llaman interrupciones.
Phellan_Wolf escribió:O soy yo, me parece que a Death tiene una benda en los ojos y se quiere creer todo lo que dice Sony, pero vamos que yo del Cell no le veo gran aplicación al mundo de los videojuegos (confirmado por IBM dicho sea de paso), bueno sí que le veo una, y es hacer lo que hizo Sony en el E3, enseñar videos CG a resoluciones impresionantes![]()
![]()
deathkiller escribió:Shadow Land estas diciendo una estupidez, yo estoy terminando 4º de Ingieneria Informatica y se perfectamente lo que digo sobre eso (no hubiera pasado de 2º si me creyera lo que dices).
deathkiller escribió:Se que es imposible que os convezca pero yo no soy un fanatico ciego de Sony.
deathkiller escribió:Shadow Land estas diciendo una estupidez, yo estoy terminando 4º de Ingieneria Informatica y se perfectamente lo que digo sobre eso (no hubiera pasado de 2º si me creyera lo que dices).
shadow land escribió:pues eso, que la cpu "se para", siempre ha sido así,y siempre lo será por la naturaleza inerente del sistema de interrupciones.
Pero obviamente el "se para" no significa "que muere".
Eso lo sabemos todos, o creo que lo sabemos todos en este hilo, al menos estoy convencido en tu caso, el mio y en el de fraludio...![]()
(asi va España....) Hermes escribió:
Sip. Y para entender ese concepto no hay nada mejor que estudiar un Z80 por ejemplo.
Por cierto, mi ahi va mi titulación: Auxiliar Tecnico de Electrónica y oficial de 1ª Yesaire![]()
![]()
(asi va España....)
, sobre interrupciones , out order , in order ( a ver si alguien me explica eso please , y demas rencillas sobre a ver quien tiene mas cromos solo he de decir una cosa.
, asi que yo tengo razon
Elohe escribió:shadow land te equicocas con lo del dma.
1. Toda E/S produce interrupcion de la ejecucion de algun proceso.
2. El DMA lo que hace no es evitar la interrupcion de algun proceso si no reducirla al minimo posible, siempre debera de interrumpirse algun proceso cuando la CPU recibe la interrupcion del controlador de DMA de que el dato ya esta disponible y espera nuevas instruciones. Esto lo que hace es liberar a la CPU de dos tareas que chupan mucho ancho de banda o tiempo: Sincronizar la tranferencia entre dispositivos de distintas velocidades, mover bloques de memoria completos.
).
Elohe escribió:shadow land te equicocas con lo del dma.
1. Toda E/S produce interrupcion de la ejecucion de algun proceso.
2. El DMA lo que hace no es evitar la interrupcion de algun proceso si no reducirla al minimo posible, siempre debera de interrumpirse algun proceso cuando la CPU recibe la interrupcion del controlador de DMA de que el dato ya esta disponible y espera nuevas instruciones. Esto lo que hace es liberar a la CPU de dos tareas que chupan mucho ancho de banda o tiempo: Sincronizar la tranferencia entre dispositivos de distintas velocidades, mover bloques de memoria completos.
Hermes escribió:Por cierto, mucho se habla de la retrocompatibilidad de XBOX360 y la gente da por hecho la retrocompatibilidad de PS3... Bueno, que sepais que PS3 tiene el MISMO (o peor) problema técnico que XBOX360 para emular una XBOX.
Sadow land escribió:Sorpresa, primera GPU en hacerlo (la única función teóricamente de DirectX en implementarse junto con los shaders unificados) y nVIDIA no lo implementa en principio (DirectX 9). Esto abre las puertas a otras funcionalidades, como hacer calculos físicos a saco en la propia GPU (por ejemplo).
si, puede hacer de coprocesador. no se de cuanto estaríamos hablando, pero si, sería como un cell con 48+7 SPEs diciendolo rapido y mal.
CESILLAS escribió:pues espero que sony haga los graficos mas redondeados como xplico en el E3 con lo de spiderman....¿hara eso sony con su ATI?
es mas.....¿hara eso 360 con su ati?
.
nu_kru escribió:ç
La ps3 no va a llevar "intregrada" la ps2 para hacer la "emulacion" como la ps2 con la ps1? (aunque como has dicho Hermes intente hacerlo por emulacion, ya que si ya se dice que la ps3 va a ser cara ya ni mi imagino si esta tiene que llevar hardaware de la ps2)
)
shadow land escribió:pues dice exactamente eso, que cada ALU de las 48 que hay (se supone) es capaz de hacer 5 operaciones de coma flotante por ciclo de reloj. O sea, un dot-product "complejo".
cita de mecro:
Dot-product = Producto puntero ???
Producto vectorial.
shadow land escribió:nadie lo asegura a ciencia cierta, se puede entener que son 5 operaciones por cada ALU (de las 48 que hay) o que cada grupo de 16 alus es capaz de hacer 5 operaciones, lo cual tb sale un poco... por lo suelos.
oestrimnio escribió:The 48 ALUs are divided into three SIMD groups of 16. When it reaches the final shader pipe, each of the 16 ALUs has the ability to write out two samples to the 10MB of EDRAM. Thus, the chip is capable of writing out a maximum of 32 samples per clock. At 500MHz, that means a peak fill rate of 16 gigasamples. Each of the ALUs can perform 5 floating-point shader operations. Thus, the peak computational power of the shader units is 240 floating-point shader ops per cycle, or 120 billion shader ops per second at 500MHz.
fuente
la noticia al principio del hilo habla de "Shader Performance of the Xbox 360 GPU is 48 billion shader operations per second" y ahora me encuentro con "120 billion shader ops per second at 500MHz"
.