Curiosidades y datos detallados sobre el hardware de 3DS

1, 2, 3, 4
DarthSnake escribió:A ver que creo que os estáis haciendo un lío, y al final vais a confundir a la gente. Lo que se ha dicho no es que no se pueda hacer efectos post-procesado en 3D, si no que no se pueden hacer todos a la vez (por lo menos no sin que afecte al framerate). De hecho Capcom ya demostró hace tiempo lo que se puede hacer, o más bien dicho, lo que habían conseguido hacer:

Efectos técnicos posibles en Nintendo 3DS con el MT Framework (Normal mapping, profundidad de campo, motion blur o HDR)

Tras la incertidumbre levantada por el tráiler y las imágenes de Resident Evil Revelations en Nintendo 3DS, Capcom ha salido al paso para reiterar que se trata de un trabajo original que corre sobre la portátil. En concreto, sobre la versión MT Framework Mobile de su último motor, que es capaz de sacar adelante efectos gráficos como los de las actuales consolas de alta definición.

Han presentado una secuencia de imágenes de Resident Evil Revelations en las que se compara el juego con y sin efectos como normal mapping, profundidad de campo, motion blur o HDR. Todo con el juego corriendo a 30 fps cuando el efecto 3D está activado. Sin embargo, algunos como el anti-aliasing, se desactivan con la visión estereoscópica y otros como el motion blur siguen en fase de pruebas, aunque Capcom garantiza una calidad de imagen muy semejante.

"Desde la revelación del juego en el E3, las imágenes han sido todas renderizadas en tiempo real en el hardware de desarrollo de 3DS. Al principio parecía que la gente no se lo creía, pero nos gustaría que supieseis que la 3DS es capaz de este nivel de poder expresivo".

Jun Takeuchi, jefe de producción de Capcom, ha recordado que se trata de "un proyecto totalmente nuevo que arrancó cuando supimos de Nintendo 3DS. No es un proyecto que fue progresando en un hardware aparte que después pasamos a la 3DS".


Aquí tenéis la secuencia de imágenes de Resident Evil Revelations:


HDR Rendering Off (left) and On (right):

Imagen Imagen


Color Correction Off (left) and On (right):

Imagen Imagen


Self Shadows Off (left) and On (right):

Imagen Imagen


Normal Maps Off (left) and On (right):

Imagen Imagen


Depth of Field Off (left) and On (right):

Imagen Imagen


Motion Blur Off (left) and On (right):

Imagen Imagen


Fuente


En fin en resumidas cuentas, que se pueden hacer efectos como motion blur, HDR, y demás en modo 3D, pero no tantos a la vez como en 2D así que hay que desactivar algunos, en el caso del MT Framework se desactiva el anti-aliasing (y otros como el motion blur estaban en fase de pruebas).

Pero eso no es lo que dice en el primer post. Dice que no se puede porque no hay edram suficiente para ambas pantallas.
Blue escribió:
DarthSnake escribió:A ver que creo que os estáis haciendo un lío, y al final vais a confundir a la gente. Lo que se ha dicho no es que no se pueda hacer efectos post-procesado en 3D, si no que no se pueden hacer todos a la vez (por lo menos no sin que afecte al framerate). De hecho Capcom ya demostró hace tiempo lo que se puede hacer, o más bien dicho, lo que habían conseguido hacer:

Efectos técnicos posibles en Nintendo 3DS con el MT Framework (Normal mapping, profundidad de campo, motion blur o HDR)

Tras la incertidumbre levantada por el tráiler y las imágenes de Resident Evil Revelations en Nintendo 3DS, Capcom ha salido al paso para reiterar que se trata de un trabajo original que corre sobre la portátil. En concreto, sobre la versión MT Framework Mobile de su último motor, que es capaz de sacar adelante efectos gráficos como los de las actuales consolas de alta definición.

Han presentado una secuencia de imágenes de Resident Evil Revelations en las que se compara el juego con y sin efectos como normal mapping, profundidad de campo, motion blur o HDR. Todo con el juego corriendo a 30 fps cuando el efecto 3D está activado. Sin embargo, algunos como el anti-aliasing, se desactivan con la visión estereoscópica y otros como el motion blur siguen en fase de pruebas, aunque Capcom garantiza una calidad de imagen muy semejante.

"Desde la revelación del juego en el E3, las imágenes han sido todas renderizadas en tiempo real en el hardware de desarrollo de 3DS. Al principio parecía que la gente no se lo creía, pero nos gustaría que supieseis que la 3DS es capaz de este nivel de poder expresivo".

Jun Takeuchi, jefe de producción de Capcom, ha recordado que se trata de "un proyecto totalmente nuevo que arrancó cuando supimos de Nintendo 3DS. No es un proyecto que fue progresando en un hardware aparte que después pasamos a la 3DS".


Aquí tenéis la secuencia de imágenes de Resident Evil Revelations:


HDR Rendering Off (left) and On (right):

Imagen Imagen


Color Correction Off (left) and On (right):

Imagen Imagen


Self Shadows Off (left) and On (right):

Imagen Imagen


Normal Maps Off (left) and On (right):

Imagen Imagen


Depth of Field Off (left) and On (right):

Imagen Imagen


Motion Blur Off (left) and On (right):

Imagen Imagen


Fuente


En fin en resumidas cuentas, que se pueden hacer efectos como motion blur, HDR, y demás en modo 3D, pero no tantos a la vez como en 2D así que hay que desactivar algunos, en el caso del MT Framework se desactiva el anti-aliasing (y otros como el motion blur estaban en fase de pruebas).

Pero eso no es lo que dice en el primer post. Dice que no se puede porque no hay edram suficiente para ambas pantallas.

Es eso lo que dice, que en 3D no se puede, que al fin y al cabo es por tener que hacer 2 imágenes al mismo tiempo.
Blue escribió:Pero eso no es lo que dice en el primer post. Dice que no se puede porque no hay edram suficiente para ambas pantallas.

Bueno, tampoco dice eso exactamente:

El motivo es que en modo 2D tenemos 2MB para los buffers (triple buffer de 18 bits, Stencil Buffer de 8 bits y Z-Buffering de 24 bits) y 2MB para almacenar la geometría de escena para el multitexturizado, en el modo 3D tenemos la mitad disponible para cada núcleo. Si usamos el HDR, el MSAA y demás efectos entonces la imagen no cabe en la eDRAM y entonces tenemos que mover la información a la RAM principal, la cual tiene una velocidad de acceso mucho más baja y por tanto una latencia mayor, lo que se traduce en una pérdida sustancial del rendimiento. Los buffers en la eDRAM y la geometría en la eDRAM toman un número determinado de ciclos dependiendo de la instrucción, pero en el caso del acceso a la RAM esos accesos se doblan y el rendimiento se parte por la mitad.


Ahí lo que yo leo es que si usas varios efectos (entiendo que a la vez) no caben en la eDRAM, y no que no se puedan usar efectos post-procesado, o por lo menos eso es lo que yo entiendo. En todo caso ya quedo demostrado por Capcom que si se pueden hacer.
DarthSnake escribió:
Blue escribió:Pero eso no es lo que dice en el primer post. Dice que no se puede porque no hay edram suficiente para ambas pantallas.

Bueno, tampoco dice eso exactamente:

El motivo es que en modo 2D tenemos 2MB para los buffers (triple buffer de 18 bits, Stencil Buffer de 8 bits y Z-Buffering de 24 bits) y 2MB para almacenar la geometría de escena para el multitexturizado, en el modo 3D tenemos la mitad disponible para cada núcleo. Si usamos el HDR, el MSAA y demás efectos entonces la imagen no cabe en la eDRAM y entonces tenemos que mover la información a la RAM principal, la cual tiene una velocidad de acceso mucho más baja y por tanto una latencia mayor, lo que se traduce en una pérdida sustancial del rendimiento. Los buffers en la eDRAM y la geometría en la eDRAM toman un número determinado de ciclos dependiendo de la instrucción, pero en el caso del acceso a la RAM esos accesos se doblan y el rendimiento se parte por la mitad.


Ahí lo que yo leo es que si usas varios efectos (entiendo que a la vez) no caben en la eDRAM, y no que no se puedan usar efectos post-procesado, o por lo menos eso es lo que yo entiendo. En todo caso ya quedo demostrado por Capcom que si se pueden hacer.

Sí que se pueden usar todos esos efectos a la vez, pero claro, los FPS caen porque cuando el framebuffer se llena, se pasa a usar RAM, que es más lenta. Lo suyo es desactivar los filtros que sobren para mantener 60 FPS en 3D.
Bueno, habrá que ver la optimización que hacen las compañias!.

Hoy en día ya se pueden ver que hay varios tipos de juegos, los que no se curran nada su desarrollo, como el ridge racer de namco, y otros como los de capcom, que tienen una pinta estupenda que algunos dan apariencia de ser juegos de consolas de sobremesa no muy alejados a los de esta generación actual.

Todo está en los desarrolladores, si capcom consigue eso en los inicios de la maquina, porque no otras compañias?.
Aun no ha salido y ya se le echa en falta eDram....con x360 paso años despues, q se soluciono bajando la resolucion para poder meter todo en el framebuffer, pero en este caso, q hacemos? juegos en 2D? y donde esta la gracia entonces? jaja
meloncito escribió:Aun no ha salido y ya se le echa en falta eDram....con x360 paso años despues, q se soluciono bajando la resolucion para poder meter todo en el framebuffer, pero en este caso, q hacemos? juegos en 2D? y donde esta la gracia entonces? jaja

En la cantidad de juegos marca nintendo que esperamos herede de su predecesora.
meloncito escribió:Aun no ha salido y ya se le echa en falta eDram....con x360 paso años despues, q se soluciono bajando la resolucion para poder meter todo en el framebuffer, pero en este caso, q hacemos? juegos en 2D? y donde esta la gracia entonces? jaja


No sé, yo cada vez veo más instaurada la moda de "yo la tengo más larga", y aquí lo que vende no es una consola buena o que ofrezca diversas funcionalidades. Aquí vende que en el lateral de la caja ponga: Chorrocientos Mhz, 5000 gigas de RAM, 40000000 teras de disco duro. Y cuantos más numerines ponga mejor.

Y los programadores, pues ahora la moda es hacerlo todo en entorno PC y usar el programa mágico de port a Xbox, PS3 o lo que se tercie. Y claro, si el hardware destino del port no tiene recursos a mansalva, el juego no tira. Y así nos ahorramos la optimización y el poder jugar al juego perfectamente con la mitad de recursos. Pa qué, si es más fácil hacerlo a lo chapuza y que consuma el doble.

En esto hay muchas compañías expertas. Porque no es normal ver algunos juegos lo que son y lo que piden para ir bien, y luego ver otros como Dead Space, que lo metes en un pentium III y te tira (vale que son entornos cerrados casi siempre pero el juego tiene una optimización de la leche). Y no hay diferencia apreciable en calidad gráfica.

Y esto se ve en Wii, la mayoría hacen mierda técnica porque "la consola no da para más" y luego se ve que sí, lo que pasa es que es más fácil programar desperdiciando recursos.
Paco20011 escribió:
meloncito escribió:Aun no ha salido y ya se le echa en falta eDram....con x360 paso años despues, q se soluciono bajando la resolucion para poder meter todo en el framebuffer, pero en este caso, q hacemos? juegos en 2D? y donde esta la gracia entonces? jaja


No sé, yo cada vez veo más instaurada la moda de "yo la tengo más larga", y aquí lo que vende no es una consola buena o que ofrezca diversas funcionalidades. Aquí vende que en el lateral de la caja ponga: Chorrocientos Mhz, 5000 gigas de RAM, 40000000 teras de disco duro. Y cuantos más numerines ponga mejor.

Y los programadores, pues ahora la moda es hacerlo todo en entorno PC y usar el programa mágico de port a Xbox, PS3 o lo que se tercie. Y claro, si el hardware destino del port no tiene recursos a mansalva, el juego no tira. Y así nos ahorramos la optimización y el poder jugar al juego perfectamente con la mitad de recursos. Pa qué, si es más fácil hacerlo a lo chapuza y que consuma el doble.

En esto hay muchas compañías expertas. Porque no es normal ver algunos juegos lo que son y lo que piden para ir bien, y luego ver otros como Dead Space, que lo metes en un pentium III y te tira (vale que son entornos cerrados casi siempre pero el juego tiene una optimización de la leche). Y no hay diferencia apreciable en calidad gráfica.

Y esto se ve en Wii, la mayoría hacen mierda técnica porque "la consola no da para más" y luego se ve que sí, lo que pasa es que es más fácil programar desperdiciando recursos.


Te aplaudo sinceramente. Tienes más razón que un santo. Coge el Call of duty black ops de pc, su pésima optimización que, usando el mismo motor que entregas anteriores, impide jugar en ordenadores potentes. Ya no se trabaja depurando el código como antes, ahora se va a sacar un juego en dos días y ganar una millonada con precios desorbitados. Poco esfuerzo pero muchas ganancias. Suerte que aún nos quedan los desarrolladores "indies" y sus joyas, y en 3DS los juegos de Nintendo, inimitables le pese a quién le pese.
capitanquartz escribió:
DarthSnake escribió:
Blue escribió:Pero eso no es lo que dice en el primer post. Dice que no se puede porque no hay edram suficiente para ambas pantallas.

Bueno, tampoco dice eso exactamente:

El motivo es que en modo 2D tenemos 2MB para los buffers (triple buffer de 18 bits, Stencil Buffer de 8 bits y Z-Buffering de 24 bits) y 2MB para almacenar la geometría de escena para el multitexturizado, en el modo 3D tenemos la mitad disponible para cada núcleo. Si usamos el HDR, el MSAA y demás efectos entonces la imagen no cabe en la eDRAM y entonces tenemos que mover la información a la RAM principal, la cual tiene una velocidad de acceso mucho más baja y por tanto una latencia mayor, lo que se traduce en una pérdida sustancial del rendimiento. Los buffers en la eDRAM y la geometría en la eDRAM toman un número determinado de ciclos dependiendo de la instrucción, pero en el caso del acceso a la RAM esos accesos se doblan y el rendimiento se parte por la mitad.


Ahí lo que yo leo es que si usas varios efectos (entiendo que a la vez) no caben en la eDRAM, y no que no se puedan usar efectos post-procesado, o por lo menos eso es lo que yo entiendo. En todo caso ya quedo demostrado por Capcom que si se pueden hacer.

Sí que se pueden usar todos esos efectos a la vez, pero claro, los FPS caen porque cuando el framebuffer se llena, se pasa a usar RAM, que es más lenta. Lo suyo es desactivar los filtros que sobren para mantener 60 FPS en 3D.

lo que no entiendo es si ponen dos gpu por que solo ponen un framebuffer y no dos ( uno para cada gpu ) , si ponen una segunda gpu solo para doblar frames para las 3d tambien tendrian que meter un segundo buffers y no compartir el mismo ,
por cierto para mi la ram y la eDRAM son memorias , por eso e dicho antes lo de la memoria [+risas]
nanoxxl escribió:lo que no entiendo es si ponen dos gpu por que solo ponen un framebuffer y no dos ( uno para cada gpu ) , si ponen una segunda gpu solo para doblar frames para las 3d tambien tendrian que meter un segundo buffers y no compartir el mismo ,
por cierto para mi la ram y la eDRAM son memorias , por eso e dicho antes lo de la memoria [+risas]

No cambiaría nada, la velocidad de acceso sería prácticamente la misma. Han puesto la cantidad que han visto conveniente. Si después ha sido insuficiente, eso es otra cosa.
capitanquartz escribió:
nanoxxl escribió:lo que no entiendo es si ponen dos gpu por que solo ponen un framebuffer y no dos ( uno para cada gpu ) , si ponen una segunda gpu solo para doblar frames para las 3d tambien tendrian que meter un segundo buffers y no compartir el mismo ,
por cierto para mi la ram y la eDRAM son memorias , por eso e dicho antes lo de la memoria [+risas]

No cambiaría nada, la velocidad de acceso sería prácticamente la misma. Han puesto la cantidad que han visto conveniente. Si después ha sido insuficiente, eso es otra cosa.

si cambiaria , el fallo es que solo tiene un buffers para las dos gpu , cuando usa una gpu ( 2d ) puede usar el 100% del buffers , cuando usa las dos gpu ( 3d ) solo puede usar el 50% del buffers para cada gpu , si cada gpu contase con su propio buffers no pasaria esto
nanoxxl escribió:
capitanquartz escribió:
nanoxxl escribió:lo que no entiendo es si ponen dos gpu por que solo ponen un framebuffer y no dos ( uno para cada gpu ) , si ponen una segunda gpu solo para doblar frames para las 3d tambien tendrian que meter un segundo buffers y no compartir el mismo ,
por cierto para mi la ram y la eDRAM son memorias , por eso e dicho antes lo de la memoria [+risas]

No cambiaría nada, la velocidad de acceso sería prácticamente la misma. Han puesto la cantidad que han visto conveniente. Si después ha sido insuficiente, eso es otra cosa.

si cambiaria , el fallo es que solo tiene un buffers para las dos gpu , cuando usa una gpu ( 2d ) puede usar el 100% del buffers , cuando usa las dos gpu ( 3d ) solo puede usar el 50% del buffers para cada gpu , si cada gpu contase con su propio buffers no pasaria esto

Eso tendría lógica si fuese un problema de velocidad en la transferencia de datos, el cual no es el caso. El problema es que no hay espacio para framebuffer (2MiB) en la eDRAM, y se pasa a usar la RAM principal, la cual es más lenta. Por tanto, no es un problema de la velocidad en las transferencias de datos sino en la capacidad.
Thorin_Saeba escribió:
Paco20011 escribió:No sé, yo cada vez veo más instaurada la moda de "yo la tengo más larga", y aquí lo que vende no es una consola buena o que ofrezca diversas funcionalidades. Aquí vende que en el lateral de la caja ponga: Chorrocientos Mhz, 5000 gigas de RAM, 40000000 teras de disco duro. Y cuantos más numerines ponga mejor.

Y los programadores, pues ahora la moda es hacerlo todo en entorno PC y usar el programa mágico de port a Xbox, PS3 o lo que se tercie. Y claro, si el hardware destino del port no tiene recursos a mansalva, el juego no tira. Y así nos ahorramos la optimización y el poder jugar al juego perfectamente con la mitad de recursos. Pa qué, si es más fácil hacerlo a lo chapuza y que consuma el doble.

En esto hay muchas compañías expertas. Porque no es normal ver algunos juegos lo que son y lo que piden para ir bien, y luego ver otros como Dead Space, que lo metes en un pentium III y te tira (vale que son entornos cerrados casi siempre pero el juego tiene una optimización de la leche). Y no hay diferencia apreciable en calidad gráfica.

Y esto se ve en Wii, la mayoría hacen mierda técnica porque "la consola no da para más" y luego se ve que sí, lo que pasa es que es más fácil programar desperdiciando recursos.


Te aplaudo sinceramente. Tienes más razón que un santo. Coge el Call of duty black ops de pc, su pésima optimización que, usando el mismo motor que entregas anteriores, impide jugar en ordenadores potentes. Ya no se trabaja depurando el código como antes, ahora se va a sacar un juego en dos días y ganar una millonada con precios desorbitados. Poco esfuerzo pero muchas ganancias. Suerte que aún nos quedan los desarrolladores "indies" y sus joyas, y en 3DS los juegos de Nintendo, inimitables le pese a quién le pese.


Acabo de ver los requisitos "mínimos" del Crysis 2 y se vuelve a confirmar mi teoría. No tienen ni zorra de aprovechar los recursos de una máquina. A no ser que con "mínimos" se refieran a poner todo el juego en calidad Alta.
capitanquartz escribió:Eso tendría lógica si fuese un problema de velocidad en la transferencia de datos, el cual no es el caso. El problema es que no hay espacio para framebuffer (2MiB) en la eDRAM, y se pasa a usar la RAM principal, la cual es más lenta. Por tanto, no es un problema de la velocidad en las transferencias de datos sino en la capacidad.

:-? pero que dices , lo que digo es que si en lugar de tener un framebuffer (2MiB) en la eDRAM para las dos gpu le hubieran metido dos framebuffer (2MiB) en la eDRAM uno para cada gpu no tendria que tirar de ram para pasar de 2d a 3d por falta de eDRAM , el problema es que cuando usa una gpu tiene la eDRAM completa , cuando usa las dos gpu tiene que compartir la eDRAM , si cada gpu hubieran tenido su propia eDRAM no pasaria esto
Arg me estoy empezando a rallar, al final, siempre suele pasar lo mismo cuando sale una maquina nueva, siempre se quejan los desarrolladores que tiene poca memoria o tiene poco de esto o de lo otro y la pericia de los desarrolladores es la que acaban sacando juegazos como los que se pueden disfrutar en psp, nds, xbox360, ps3 o wii que se creian imposibles!.

Aunque me interesa bastante saber que puede dar de sí teoricamente la maquina con las especificaciones técnicas.

A priorí parece ser bastante inferior a la psp2, pero viendo ya estas caracteristicas, a que maquina actual o de la pasada generación se podría equiparar? Entre una Ngc o Xbox1 y una Xbox360? a medio camino? o al nivel de las maquinas de la generación pasada o mas cercanas a estas que a las nuevas?.
nanoxxl escribió:
capitanquartz escribió:Eso tendría lógica si fuese un problema de velocidad en la transferencia de datos, el cual no es el caso. El problema es que no hay espacio para framebuffer (2MiB) en la eDRAM, y se pasa a usar la RAM principal, la cual es más lenta. Por tanto, no es un problema de la velocidad en las transferencias de datos sino en la capacidad.

:-? pero que dices , lo que digo es que si en lugar de tener un framebuffer (2MiB) en la eDRAM para las dos gpu le hubieran metido dos framebuffer (2MiB) en la eDRAM uno para cada gpu no tendria que tirar de ram para pasar de 2d a 3d por falta de eDRAM , el problema es que cuando usa una gpu tiene la eDRAM completa , cuando usa las dos gpu tiene que compartir la eDRAM , si cada gpu hubieran tenido su propia eDRAM no pasaria esto

El número de módulos de eDRAM aquí no tiene que ver, y lo que estabas diciendo era de meter otro módulo de eDRAM más (o al menos lo que se entendía). El problema parcialmente se solucionaría cambiando el tamaño del framebuffer de 2 MiB a 4 MiB, aunque claro, si pones 4 MiB de framebuffer, nadie te dice que CAPCOM no hubiese metido aún más filtros que llenasen esos 4 MiB solo en el 2D.
capitanquartz escribió:
nanoxxl escribió:
capitanquartz escribió:No cambiaría nada, la velocidad de acceso sería prácticamente la misma. Han puesto la cantidad que han visto conveniente. Si después ha sido insuficiente, eso es otra cosa.

si cambiaria , el fallo es que solo tiene un buffers para las dos gpu , cuando usa una gpu ( 2d ) puede usar el 100% del buffers , cuando usa las dos gpu ( 3d ) solo puede usar el 50% del buffers para cada gpu , si cada gpu contase con su propio buffers no pasaria esto

Eso tendría lógica si fuese un problema de velocidad en la transferencia de datos, el cual no es el caso. El problema es que no hay espacio para framebuffer (2MiB) en la eDRAM, y se pasa a usar la RAM principal, la cual es más lenta. Por tanto, no es un problema de la velocidad en las transferencias de datos sino en la capacidad.

Si no ha dicho nada de la velocidad xD. Ha dicho lo que es correcto, que si necesitan duplicar todo para la generación de dos imágenes distintas, tienen que duplicarlo todo, incluida la eDRAM que la consola debería tener una por GPU.

Y si que hay diferencia. Una diferencia gordisima: la calidad de la imagen no se vería reducida al pasar a modo 3D. Y otra todavía más grande: los programadores no tendrían que programar dos veces el procesado de imagen: una en 2D y otra en 3D yp odría n invertir ese esfuerzo en otras cosas.
Blue escribió:Si no ha dicho nada de la velocidad xD. Ha dicho lo que es correcto, que si necesitan duplicar todo para la generación de dos imágenes distintas, tienen que duplicarlo todo, incluida la eDRAM que la consola debería tener una por GPU.

Y si que hay diferencia. Una diferencia gordisima: la calidad de la imagen no se vería reducida al pasar a modo 3D. Y otra todavía más grande: los programadores no tendrían que programar dos veces el procesado de imagen: una en 2D y otra en 3D yp odría n invertir ese esfuerzo en otras cosas.

Mirémoslo de otro modo: Imagina que Nintendo llegó a la conclusión que para los juegos que ella iba a hacer, solo necesitaría 1 MiB de framebuffer, pero que por tener que renderizar 2 imágenes al mismo tiempo (3D) puso 2 MiB. En ese caso, sí que habrían puesto la cantidad que ellos vieron necesaria. Lo mismo podría ocurrir de ponerse 4 MiB de framebuffer: los programadores aprovecharían casi todos esos 4 MiB solo para el modo 2D, no quedando para el 3D.

Conclusión: Los programadores no pueden usar más de la mitad del framebuffer en el modo 2D, porque en el 3D esta se dobla. ¿Que no se pueden aplicar tantos filtros de postprocesado? Es lo que hay, sabíais desde el principio que para Nintendo lo primordial no son los gráficos.
capitanquartz escribió:
Blue escribió:Si no ha dicho nada de la velocidad xD. Ha dicho lo que es correcto, que si necesitan duplicar todo para la generación de dos imágenes distintas, tienen que duplicarlo todo, incluida la eDRAM que la consola debería tener una por GPU.

Y si que hay diferencia. Una diferencia gordisima: la calidad de la imagen no se vería reducida al pasar a modo 3D. Y otra todavía más grande: los programadores no tendrían que programar dos veces el procesado de imagen: una en 2D y otra en 3D yp odría n invertir ese esfuerzo en otras cosas.

Mirémoslo de otro modo: Imagina que Nintendo llegó a la conclusión que para los juegos que ella iba a hacer, solo necesitaría 1 MiB de framebuffer, pero que por tener que renderizar 2 imágenes al mismo tiempo (3D) puso 2 MiB. En ese caso, sí que habrían puesto la cantidad que ellos vieron necesaria. Lo mismo podría ocurrir de ponerse 4 MiB de framebuffer: los programadores aprovecharían casi todos esos 4 MiB solo para el modo 2D, no quedando para el 3D.

Conclusión: Los programadores no pueden usar más de la mitad del framebuffer en el modo 2D, porque en el 3D esta se dobla. ¿Que no se pueden aplicar tantos filtros de postprocesado? Es lo que hay, sabíais desde el principio que para Nintendo lo primordial no son los gráficos.


Si nintendo hubiese sido lista y necesitase 1 MB para sus juegos, hubiese puesto una eDRAM de 1Mb para una GPU u otra de 1MB para la otra. De esta forma cualquier desarrolladora por ingeniosa que sea dispondría de la misma edram para 2d y para 3d, y lo que hagan en 2D se verá también en 3D. Ya te digo que a mi los gráficos no me importan, lo que si me importa es la reducción de calidad del juego ingame. Si exageramos un poco el ejemplo nos damos cuenta de que es una barbaridad: te imaginas que para poder jugar con sonido tenemos que jugar en 256 colores porque a nintendo no le ha dado la gana separar el audio de otros procesos, y como el audio tiene que tener un proceso contínuo, cuando renderiza la imagen tiene que cortarse, así que si quieres sonido, hay que reducir la calidad gráfica a 256.

Por poner un ejemplo chorra, no te me tires al cuello :P
capitanquartz escribió:
nanoxxl escribió:
capitanquartz escribió:Eso tendría lógica si fuese un problema de velocidad en la transferencia de datos, el cual no es el caso. El problema es que no hay espacio para framebuffer (2MiB) en la eDRAM, y se pasa a usar la RAM principal, la cual es más lenta. Por tanto, no es un problema de la velocidad en las transferencias de datos sino en la capacidad.

:-? pero que dices , lo que digo es que si en lugar de tener un framebuffer (2MiB) en la eDRAM para las dos gpu le hubieran metido dos framebuffer (2MiB) en la eDRAM uno para cada gpu no tendria que tirar de ram para pasar de 2d a 3d por falta de eDRAM , el problema es que cuando usa una gpu tiene la eDRAM completa , cuando usa las dos gpu tiene que compartir la eDRAM , si cada gpu hubieran tenido su propia eDRAM no pasaria esto

El número de módulos de eDRAM aquí no tiene que ver, y lo que estabas diciendo era de meter otro módulo de eDRAM más (o al menos lo que se entendía). El problema parcialmente se solucionaría cambiando el tamaño del framebuffer de 2 MiB a 4 MiB, aunque claro, si pones 4 MiB de framebuffer, nadie te dice que CAPCOM no hubiese metido aún más filtros que llenasen esos 4 MiB solo en el 2D.


Exacto. Capcom lo que ha hecho es una demostracion de los filtros postprocesado que puede hacer, tampoco sabemos cuales de ellos no "entran" en los 2MiB, y que si hubiera tenido 4, mas filtros en 2D podrian meter y por lo cual en 3D entrarian menos.......el tema es, con cuantos filtros te conformas. Como todavia no sabemos cuales pueden entrar pues.......
Blue escribió:Si nintendo hubiese sido lista y necesitase 1 MB para sus juegos, hubiese puesto una eDRAM de 1Mb para una GPU u otra de 1MB para la otra. De esta forma cualquier desarrolladora por ingeniosa que sea dispondría de la misma edram para 2d y para 3d, y lo que hagan en 2D se verá también en 3D.

eso es lo que quiero decir , si en 2d usa una gpu y en 3d las dos para doblar frames , tambien tendria que tener una eDRAM para cada gpu , si es en 2d usa una gpu y una eDRAM , si es en 3d usa las dos gpu y las dos eDRAM , de esta forma creo que en 2d se desaprovecha la mitad de eDRAM y una gpu para que al poner en 3d no tenga ningun bajon :( , eso es lo que pienso yo , pero puedo esta equivocado [+risas]
nanoxxl escribió:
Blue escribió:Si nintendo hubiese sido lista y necesitase 1 MB para sus juegos, hubiese puesto una eDRAM de 1Mb para una GPU u otra de 1MB para la otra. De esta forma cualquier desarrolladora por ingeniosa que sea dispondría de la misma edram para 2d y para 3d, y lo que hagan en 2D se verá también en 3D.

eso es lo que quiero decir , si en 2d usa una gpu y en 3d las dos para doblar frames , tambien tendria que tener una eDRAM para cada gpu , si es en 2d usa una gpu y una eDRAM , si es en 3d usa las dos gpu y las dos eDRAM , de esta forma creo que en 2d se desaprovecha la mitad de eDRAM y una gpu para que al poner en 3d no tenga ningun bajon :( , eso es lo que pienso yo , pero puedo esta equivocado [+risas]

Por una parte os quejáis de que no dejan usar a los desarrolladores las 2 GPUs en el modo 2D.

Y por otra parte os quejáis de que sí dejan usar los 2 MiB de framebuffer en el 2D en vez de solo 1 MiB...

¿En qué quedamos entonces? Creo que los desarrolladores ya son mayorcitos como para saber que no deberían usar más de 1 MiB de framebuffer por el 3D

Por lo de poner 2 módulos de eDRAM sería un gasto inútil, y más con los precios en los que está cada módulo. Si un solo módulo de eDRAM tiene velocidad de transferencia suficiente para satisfacer ambas GPUs, sencillamente no se necesitan 2 módulos, sería solo aumentar los gastos por la incompetencia de los desarrolladores.
capitanquartz escribió:Por una parte os quejáis de que no dejan usar a los desarrolladores las 2 GPUs en el modo 2D.

Y por otra parte os quejáis de que sí dejan usar los 2 MiB de framebuffer en el 2D en vez de solo 1 MiB...

¿En qué quedamos entonces? Creo que los desarrolladores ya son mayorcitos como para saber que no deberían usar más de 1 MiB de framebuffer por el 3D

o bloquea las dos cosas o deja libre las dos cosas , claro que bloqueando la gpu tambien bloquea la eDRAM ( como tu dices por muchos 2 MiB que tenga solo pueden usar 1 MiB en 2d )
capitanquartz escribió:Por lo de poner 2 módulos de eDRAM sería un gasto inútil, y más con los precios en los que está cada módulo. Si un solo módulo de eDRAM tiene velocidad de transferencia suficiente para satisfacer ambas GPUs, sencillamente no se necesitan 2 módulos, sería solo aumentar los gastos por la incompetencia de los desarrolladores.

cuanto cuesta el modulo de eDRAM :-? , no es cuestion de velocidad , es cuestion de espacio , si bloqueas una gpu para las 3d por que no bloquear eDRAM para las 3d , el mismo gasto inútil es si juegas en 2d
nanoxxl escribió:
capitanquartz escribió:Por una parte os quejáis de que no dejan usar a los desarrolladores las 2 GPUs en el modo 2D.

Y por otra parte os quejáis de que sí dejan usar los 2 MiB de framebuffer en el 2D en vez de solo 1 MiB...

¿En qué quedamos entonces? Creo que los desarrolladores ya son mayorcitos como para saber que no deberían usar más de 1 MiB de framebuffer por el 3D

o bloquea las dos cosas o deja libre las dos cosas , claro que bloqueando la gpu tambien bloquea la eDRAM ( como tu dices por muchos 2 MiB que tenga solo pueden usar 1 MiB en 2d )
capitanquartz escribió:Por lo de poner 2 módulos de eDRAM sería un gasto inútil, y más con los precios en los que está cada módulo. Si un solo módulo de eDRAM tiene velocidad de transferencia suficiente para satisfacer ambas GPUs, sencillamente no se necesitan 2 módulos, sería solo aumentar los gastos por la incompetencia de los desarrolladores.

cuanto cuesta el modulo de eDRAM :-? , no es cuestion de velocidad , es cuestion de espacio , si bloqueas una gpu para las 3d por que no bloquear eDRAM para las 3d , el mismo gasto inútil es si juegas en 2d

Si la segunda GPU no es accesible en el 2D puede ser también por limitaciones técnicas. Además, tener 2 GPUs funcionando consume mucha batería. Por la eDRAM han hecho lo que tenían que hacer. Poner 2 módulos habría sido una estupidez.
capitanquartz escribió:Si la segunda GPU no es accesible en el 2D puede ser también por limitaciones técnicas. Además, tener 2 GPUs funcionando consume mucha batería. Por la eDRAM han hecho lo que tenían que hacer. Poner 2 módulos habría sido una estupidez.

Oooh , en fin ¬_¬ , la segunda gpu es solo para 3d por que la funcion que hace es doblar los frames , si el juego en 2d funciona a 30fps con una gpu en 3d con la segunda gpu funciona a 60fps con la misma calidad grafica , si se usaran las dos gpu en 2d el juego funcionaria a 60fps y al pasarlo igual en 3d bajaria a 30fps , ese es el motivo de no usar las dos gpu en 2d , solo es para darle mayor importancia y soporte a las 3d frente a las 2d , un juegos en 2d con las dos gpu seria imposible pasarlo a 3d sin perder rendimiento
nanoxxl escribió:
capitanquartz escribió:Si la segunda GPU no es accesible en el 2D puede ser también por limitaciones técnicas. Además, tener 2 GPUs funcionando consume mucha batería. Por la eDRAM han hecho lo que tenían que hacer. Poner 2 módulos habría sido una estupidez.

Oooh , en fin ¬_¬ , la segunda gpu es solo para 3d por que la funcion que hace es doblar los frames , si el juego en 2d funciona a 30fps con una gpu en 3d con la segunda gpu funciona a 60fps con la misma calidad grafica , si se usaran las dos gpu en 2d el juego funcionaria a 60fps y al pasarlo igual en 3d bajaria a 30fps , ese es el motivo de no usar las dos gpu en 2d , solo es para darle mayor importancia y soporte a las 3d frente a las 2d , un juegos en 2d con las dos gpu seria imposible pasarlo a 3d sin perder rendimiento

La función de la segunda GPU no es "doblar los frames", es crear una segunda imagen que será la usada en el 3D. Las cosas no funcionan así, por arte de magia, y no puedes hacer de forma tan sencilla que 2 GPUs procesen una misma imagen. En todo caso, podría servir como CPU de apoyo, pero puede que esto no fuese posible debido al diseño del circuito.
capitanquartz escribió:La función de la segunda GPU no es "doblar los frames", es crear una segunda imagen que será la usada en el 3D.

es lo mismo , en 2d a 30fps , en 3d 60fps ( 30fps para cada ojo )
capitanquartz escribió: Las cosas no funcionan así, por arte de magia, y no puedes hacer de forma tan sencilla que 2 GPUs procesen una misma imagen. En todo caso, podría servir como CPU de apoyo, pero puede que esto no fuese posible debido al diseño del circuito.

NVIDIA SLI http://www.nvidia.es/object/sli-technol ... ew-es.html
NVIDIA® SLI™ es una tecnología revolucionaria que permite aumentar drásticamente el rendimiento gráfico combinando varias GPUs NVIDIA en sistemas con una placa base certificada para SLI. SLI utiliza algoritmos de software exclusivos de NVIDIA y una lógica de escalabilidad especial en cada unidad de procesamiento gráfico (GPU) para duplicar el rendimiento (con 2 tarjetas) o multiplicarlo por 2,8 (con 3 tarjetas) en comparación con las soluciones basadas en un solo procesador gráfico

Imagen
ATI CrossFireX http://game.amd.com/us-en/crossfirex_about.aspx
ATI CrossFireX™ is the ultimate multi-GPU performance gaming platform. Enabling game-dominating power, ATI CrossFireX technology enables two or more discrete graphics processors to work together to improve system performance. For The Ultimate Visual Experience™, be sure to select ATI CrossFireX ready motherboards for AMD and Intel® processors and multiple ATI Radeon™ HD graphics cards.

Imagen
nanoxxl escribió:
capitanquartz escribió:La función de la segunda GPU no es "doblar los frames", es crear una segunda imagen que será la usada en el 3D.

es lo mismo , en 2d a 30fps , en 3d 60fps ( 30fps para cada ojo )

Creo que te estás haciendo un lío. Los FPS no se suman. Si en 2D son 30FP, al pasar a 3D no se duplican los FPS, continuarán los mismos FPS en cada imagen, por lo que siguen siendo 30FPS.

nanoxxl escribió:
capitanquartz escribió: Las cosas no funcionan así, por arte de magia, y no puedes hacer de forma tan sencilla que 2 GPUs procesen una misma imagen. En todo caso, podría servir como CPU de apoyo, pero puede que esto no fuese posible debido al diseño del circuito.

NVIDIA SLI http://www.nvidia.es/object/sli-technol ... ew-es.html
NVIDIA® SLI™ es una tecnología revolucionaria que permite aumentar drásticamente el rendimiento gráfico combinando varias GPUs NVIDIA en sistemas con una placa base certificada para SLI. SLI utiliza algoritmos de software exclusivos de NVIDIA y una lógica de escalabilidad especial en cada unidad de procesamiento gráfico (GPU) para duplicar el rendimiento (con 2 tarjetas) o multiplicarlo por 2,8 (con 3 tarjetas) en comparación con las soluciones basadas en un solo procesador gráfico

[img*]http://s2.subirimagenes.com/otros/previo/thump_5891570asus780i1nvidia.jpg[/img]
ATI CrossFireX http://game.amd.com/us-en/crossfirex_about.aspx
ATI CrossFireX™ is the ultimate multi-GPU performance gaming platform. Enabling game-dominating power, ATI CrossFireX technology enables two or more discrete graphics processors to work together to improve system performance. For The Ultimate Visual Experience™, be sure to select ATI CrossFireX ready motherboards for AMD and Intel® processors and multiple ATI Radeon™ HD graphics cards.

[img*]http://s3.subirimagenes.com:81/otros/previo/thump_5891571atiquadcrossfire.jpg[/img]

Y yo vuelvo a decirte: La consola no está preparada para eso. Las cosas en informática y electrónica no ocurren así como por arte de magia. Esas tecnologías requieren cambios en la placa, soporte específico en la tecnología de la GPU (la cual dudo que tenga PICA200) y la salida de vídeo de la segunda gráfica sale a la pantalla como una segunda imagen.
Aunque los fps del juego sean los mismos, la generación de frames se duplica.

capitanquartz escribió:Y yo vuelvo a decirte: La consola no está preparada para eso. Las cosas en informática y electrónica no ocurren así como por arte de magia. Esas tecnologías requieren cambios en la placa, soporte específico en la tecnología de la GPU (la cual dudo que tenga PICA200) y la salida de vídeo de la segunda gráfica sale a la pantalla como una segunda imagen.

Como que cambios en la placa! Si la placa ha sido diseñada para funcionar en 3D XD

Lo que tenían que haber hecho es una vram de doble acceso. El diseño de la consola está mal porque duplica información. Lo suyo seria tener una gpu que genere las imágenes de 2 en 2 y luego se añada el postprocessing. El diseño de la consola está mal en el momento en el que tiene que duplicar la información para que funcione.

A partir de ahi, vale, aceptamos que por cuestiones tecnológicas no han podido hacerlo y es necesario tener 2 gpu para procesar en 3D. Entonces necesitaremos también procesar 2 veces ambas imágenes, por que será necesario duplicar también todos los elementos que intervengan en la generación de imagenes, es decir, entre ellos la edram.

Es que simplemente leyendolo te das cuenta. Tienen problemas de lectura porque no se puede leer dos veces a la vez, y eso provoca una desincronización. Para arreglarlo han duplicado componentes. Coño, lo coherente sería que a partir del momento de división de procesos, todo esté dividido. La edram debe estar también duplicada.


Otra cosa. A caso el cerebro al final no mezcla las dos imágenes para componer una imagen con profundidad en la cabeza? No sería quizás coherente aplicar los filtros a una sola imagen y dejar que el cerebro se encargue de mezclar la imagen arreglada con la que no?
capitanquartz escribió:
nanoxxl escribió:
capitanquartz escribió:La función de la segunda GPU no es "doblar los frames", es crear una segunda imagen que será la usada en el 3D.

es lo mismo , en 2d a 30fps , en 3d 60fps ( 30fps para cada ojo )

Creo que te estás haciendo un lío. Los FPS no se suman. Si en 2D son 30FP, al pasar a 3D no se duplican los FPS, continuarán los mismos FPS en cada imagen, por lo que siguen siendo 30FPS.

pero son 2 imagenes en 3d 30FPS = 60 imagenes y en 2d solo una 30FPS = 30 imagenes , en 2d podria mostras 60FPS = 60 imagenes
capitanquartz escribió:
nanoxxl escribió:
capitanquartz escribió: Las cosas no funcionan así, por arte de magia, y no puedes hacer de forma tan sencilla que 2 GPUs procesen una misma imagen. En todo caso, podría servir como CPU de apoyo, pero puede que esto no fuese posible debido al diseño del circuito.

NVIDIA SLI http://www.nvidia.es/object/sli-technol ... ew-es.html
NVIDIA® SLI™ es una tecnología revolucionaria que permite aumentar drásticamente el rendimiento gráfico combinando varias GPUs NVIDIA en sistemas con una placa base certificada para SLI. SLI utiliza algoritmos de software exclusivos de NVIDIA y una lógica de escalabilidad especial en cada unidad de procesamiento gráfico (GPU) para duplicar el rendimiento (con 2 tarjetas) o multiplicarlo por 2,8 (con 3 tarjetas) en comparación con las soluciones basadas en un solo procesador gráfico

[img*]http://s2.subirimagenes.com/otros/previo/thump_5891570asus780i1nvidia.jpg[/img]
ATI CrossFireX http://game.amd.com/us-en/crossfirex_about.aspx
ATI CrossFireX™ is the ultimate multi-GPU performance gaming platform. Enabling game-dominating power, ATI CrossFireX technology enables two or more discrete graphics processors to work together to improve system performance. For The Ultimate Visual Experience™, be sure to select ATI CrossFireX ready motherboards for AMD and Intel® processors and multiple ATI Radeon™ HD graphics cards.

[img*]http://s3.subirimagenes.com:81/otros/previo/thump_5891571atiquadcrossfire.jpg[/img]

Y yo vuelvo a decirte: La consola no está preparada para eso. Las cosas en informática y electrónica no ocurren así como por arte de magia. Esas tecnologías requieren cambios en la placa, soporte específico en la tecnología de la GPU (la cual dudo que tenga PICA200) y la salida de vídeo de la segunda gráfica sale a la pantalla como una segunda imagen.

como :-? pero realmente sabes lo que dices :-? , la 3ds no trabaja con dos imagenes ( una para cada ojo , por eso lo de la dos gpu ) :-?
Aclarar cosas:

1. La imagen procesada en cada GPU no es exactamente la misma. Existe un desplazamento en el eje de las X para poder llevar a cabo el efecto 3D.

2. La placa está diseñada para generar 2 imágenes a la vez mediante 2 GPUs, trabajando cada GPU por separado en una imagen diferente.

3. Efectivamente han tenido que poner 2 GPUs para evitar la desincronización, pero la velocidad de transferencia de la eDRAM es suficiente para las 2 imágenes. No se necesita por tanto otro módulo de eDRAM. Se duplican componentes, pero solo los necesarios, y otro módulo de eDRAM no se necesita.

Saludos.
Cuando los propios desarrolladores dicen que hay cosas que no se pueden hacer al activar el 3D, sí que es necesario.
capitanquartz escribió:Aclarar cosas:

1. La imagen procesada en cada GPU no es exactamente la misma. Existe un desplazamento en el eje de las X para poder llevar a cabo el efecto 3D.

y , desde hace mucho tiempo se puede conectar dos monitores con dos imagenes distintas en una sola grafica , nada nuevo
capitanquartz escribió:2. La placa está diseñada para generar 2 imágenes a la vez mediante 2 GPUs, trabajando cada GPU por separado en una imagen diferente.

de donde lo sacas , fuentes , eso mismo se puede hacer con una sola gpu , la 3ds tiene dos gpu para que en 2d use una gpu y cuando pase a 3d use las dos y no sufra un bajo de frames ( en 2d 30frs = 30 imagenes , 3d 30frs = 60 imagenes ) y perdida de calidad grafica
capitanquartz escribió:3. Efectivamente han tenido que poner 2 GPUs para evitar la desincronización, pero la velocidad de transferencia de la eDRAM es suficiente para las 2 imágenes. No se necesita por tanto otro módulo de eDRAM. Se duplican componentes, pero solo los necesarios, y otro módulo de eDRAM no se necesita.

Saludos.

no hace falta tener 2 gpu para eso , y otra vez con la velocidad , ¿ Se duplican componentes, pero solo los necesarios ? ZzzZZ
nanoxxl escribió:
capitanquartz escribió:Aclarar cosas:

1. La imagen procesada en cada GPU no es exactamente la misma. Existe un desplazamento en el eje de las X para poder llevar a cabo el efecto 3D.

y , desde hace mucho tiempo se puede conectar dos monitores con dos imagenes distintas en una sola grafica , nada nuevo
capitanquartz escribió:2. La placa está diseñada para generar 2 imágenes a la vez mediante 2 GPUs, trabajando cada GPU por separado en una imagen diferente.

de donde lo sacas , fuentes , eso mismo se puede hacer con una sola gpu , la 3ds tiene dos gpu para que en 2d use una gpu y cuando pase a 3d use las dos y no sufra un bajo de frames ( en 2d 30frs = 30 imagenes , 3d 30frs = 60 imagenes ) y perdida de calidad grafica
capitanquartz escribió:3. Efectivamente han tenido que poner 2 GPUs para evitar la desincronización, pero la velocidad de transferencia de la eDRAM es suficiente para las 2 imágenes. No se necesita por tanto otro módulo de eDRAM. Se duplican componentes, pero solo los necesarios, y otro módulo de eDRAM no se necesita.

Saludos.

no hace falta tener 2 gpu para eso , y otra vez con la velocidad , ¿ Se duplican componentes, pero solo los necesarios ? ZzzZZ

Si lees el texto te lo explican. Es por el framerate.

En cuanto al uso de la segunda GPU, se ha de tener en cuenta que el 3D requiere duplicar recursos y por tanto aumentar la tasa de framerate al doble por lo que el sistema pasa a tener la mitad de tiempo para realizar el segundo frame, la segunda GPU no es accesible por el desarrollador y esta completamente controlada por el sistema, se encarga de hacer de apoyo a la primera y en el modo 2D de los juegos esta segunda GPU no hace acto de presencia y queda completamente apagada.

Si tan convencido estás de que todo el equipo técnico de Nintendo está equivocado, vas allí con tu título de ingienería y se lo dices. Pero en lo que a mí respecta, creo que esta conversación está durando demasiado.
nanoxxl escribió:y , desde hace mucho tiempo se puede conectar dos monitores con dos imagenes distintas en una sola grafica , nada nuevo


Pero realmente es la misma imagen, aunque esté dividida (que es diferente a a generar dos imágenes diferentes).

Un saludo.
capitanquartz escribió:Si lees el texto te lo explican. Es por el framerate.

En cuanto al uso de la segunda GPU, se ha de tener en cuenta que el 3D requiere duplicar recursos y por tanto aumentar la tasa de framerate al doble por lo que el sistema pasa a tener la mitad de tiempo para realizar el segundo frame, la segunda GPU no es accesible por el desarrollador y esta completamente controlada por el sistema, se encarga de hacer de apoyo a la primera y en el modo 2D de los juegos esta segunda GPU no hace acto de presencia y queda completamente apagada.

Si tan convencido estás de que todo el equipo técnico de Nintendo está equivocado, vas allí con tu título de ingienería y se lo dices. Pero en lo que a mí respecta, creo que esta conversación está durando demasiado.

y quien a dicho que el equipo técnico de Nintendo está equivocado , una gpu en 2d crea x framerate y dos gpu en 3d ( aumentar la tasa de framerate al doble ) crea el doble de framerate , lo que estoi diciendo yo [rtfm] , yo me quejo de que para fomentar las 3d an bloqueado la segunda gpu ya que si se usan las dos gpu para juegos 2d es imposible pasarlo a 3d sin perder calidad grafica , lo de la eDRAM me da igual pero es mas de lo mismo , no se puede usar toda la eDRAM en 2d para no perjudicar las 3d [noop]
Carlos A. escribió:
nanoxxl escribió:y , desde hace mucho tiempo se puede conectar dos monitores con dos imagenes distintas en una sola grafica , nada nuevo

Pero realmente es la misma imagen, aunque esté dividida (que es diferente a a generar dos imágenes diferentes).

Un saludo.

yo puedo ver una pelicula en un monitor y navegar en el otro , eso no son dos imagenes distintas [+risas]
Carlos A. escribió:
nanoxxl escribió:y , desde hace mucho tiempo se puede conectar dos monitores con dos imagenes distintas en una sola grafica , nada nuevo


Pero realmente es la misma imagen, aunque esté dividida (que es diferente a a generar dos imágenes diferentes).

Un saludo.

Xacto. Pero es que además está el framerate, y la salida de vídeo no va a la misma "pantalla" que la del 2D.
nanoxxl escribió:
capitanquartz escribió:Si lees el texto te lo explican. Es por el framerate.

En cuanto al uso de la segunda GPU, se ha de tener en cuenta que el 3D requiere duplicar recursos y por tanto aumentar la tasa de framerate al doble por lo que el sistema pasa a tener la mitad de tiempo para realizar el segundo frame, la segunda GPU no es accesible por el desarrollador y esta completamente controlada por el sistema, se encarga de hacer de apoyo a la primera y en el modo 2D de los juegos esta segunda GPU no hace acto de presencia y queda completamente apagada.

Si tan convencido estás de que todo el equipo técnico de Nintendo está equivocado, vas allí con tu título de ingienería y se lo dices. Pero en lo que a mí respecta, creo que esta conversación está durando demasiado.

y quien a dicho que el equipo técnico de Nintendo está equivocado , una gpu en 2d crea x framerate y dos gpu en 3d ( aumentar la tasa de framerate al doble ) crea el doble de framerate , lo que estoi diciendo yo [rtfm] , yo me quejo de que para fomentar las 3d an bloqueado la segunda gpu ya que si se usan las dos gpu para juegos 2d es imposible pasarlo a 3d sin perder calidad grafica , lo de la eDRAM me da igual pero es mas de lo mismo , no se puede usar toda la eDRAM en 2d para no perjudicar las 3d [noop]

No se usa el segundo en modo 2D por cuestiones técnicas.
capitanquartz escribió:No se usa el segundo en modo 2D por cuestiones técnicas.

ya que sebes tanto di cuales son las cuestiones técnicas que impide usar dos gpu en una sola imagen ,
para las 3d se necesita el doble de potencia que se necesita para las 2d , asin de facil , si se usan las dos gpu en 2d no se puede pasar el juego a 3d por que necesitatia cuatro gpu , igual que no se puede usar toda la eDRAM en 2d por que en 3d necesita el doble de memoria para hacer lo mismo
capitanquartz escribió:Si lees el texto te lo explican. Es por el framerate.

No es por el framerate. Es por la memoria. Se acaba la memoria, se empieza a usar la ram en sustitución y al ser la mitad de lenta baja a la mitad el framerate. El framerrate es el daño colateral
Blue escribió:
capitanquartz escribió:Si lees el texto te lo explican. Es por el framerate.

No es por el framerate. Es por la memoria. Se acaba la memoria, se empieza a usar la ram en sustitución y al ser la mitad de lenta baja a la mitad el framerate. El framerrate es el daño colateral

Es es efectivamente la explicación al problema con el Resident Evil ;-) Aunque yo hablaba de los problemas en el uso del segundo procesador también para el 2D ;-)

Saludos.
nanoxxl escribió:yo puedo ver una pelicula en un monitor y navegar en el otro , eso no son dos imagenes distintas [+risas]


Veamos, si, son dos imágenes distintas pero por decirlo fácil y rápido las podrías combinar en una sola, ¿cierto? Imagina pegar las dos pantallas, tendríamos una imagen 2D (con un viaje de pixeles, pero 2D).

Cuanto tú quieres hacer el efecto 3D si que tienen que ser dos imágenes diferentes pero, como entenderás, no pueden ser cualquiera: tienen que venir de la misma representación de una realidad 3D pero entre ambas tiene que haber una diferencia de distancia en el eje de abscisas. Eso implica unos costes computacionales que cuando tú quieres representar la reproducción de una película y el navegador en pantallas diferentes no existen, es más, con tu PC actual seguro que puedes abrir cinco navegadores y siete películas simultáneamente que no se cosca, ahora intenta que de un mundo 3D te saque 5-6 perspectivas diferentes de forma dinámica... (piensa en cuantos juegos no puedes poner con una sola perspectiva en una resolución determinada).

Espero que me hayas entendido :), y si no pues dilo, intentaré ser más explicativo.

Un saludo.
Carlos A. escribió:
nanoxxl escribió:yo puedo ver una pelicula en un monitor y navegar en el otro , eso no son dos imagenes distintas [+risas]


Veamos, si, son dos imágenes distintas pero por decirlo fácil y rápido las podrías combinar en una sola, ¿cierto? Imagina pegar las dos pantallas, tendríamos una imagen 2D (con un viaje de pixeles, pero 2D).

Cuanto tú quieres hacer el efecto 3D si que tienen que ser dos imágenes diferentes pero, como entenderás, no pueden ser cualquiera: tienen que venir de la misma representación de una realidad 3D pero entre ambas tiene que haber una diferencia de distancia en el eje de abscisas. Eso implica unos costes computacionales que cuando tú quieres representar la reproducción de una película y el navegador en pantallas diferentes no existen, es más, con tu PC actual seguro que puedes abrir cinco navegadores y siete películas simultáneamente que no se cosca, ahora intenta que de un mundo 3D te saque 5-6 perspectivas diferentes de forma dinámica... (piensa en cuantos juegos no puedes poner con una sola perspectiva en una resolución determinada).

Espero que me hayas entendido :), y si no pues dilo, intentaré ser más explicativo.

Un saludo.

Genial explicación, gracias Carlos ;-)
es lo mismo , en 2d a 30fps , en 3d 60fps ( 30fps para cada ojo )


No se suman los fps, si cada GPU está generando 30fps para cada ojo, tu percibes 30fps y no sesenta.

Otra cosa seria que entre ambas generaran una unica perspectiva y se repartieran la tarea para alcanzar las 60 ips

Por cierto alguien me explica por que el DOA en modo 2D va a 60fps y con el 3D activado lo hace a 30? es por culpa del framebuffer?
Carlos A. escribió:
nanoxxl escribió:yo puedo ver una pelicula en un monitor y navegar en el otro , eso no son dos imagenes distintas [+risas]


Veamos, si, son dos imágenes distintas pero por decirlo fácil y rápido las podrías combinar en una sola, ¿cierto? Imagina pegar las dos pantallas, tendríamos una imagen 2D (con un viaje de pixeles, pero 2D).

Cuanto tú quieres hacer el efecto 3D si que tienen que ser dos imágenes diferentes pero, como entenderás, no pueden ser cualquiera: tienen que venir de la misma representación de una realidad 3D pero entre ambas tiene que haber una diferencia de distancia en el eje de abscisas. Eso implica unos costes computacionales que cuando tú quieres representar la reproducción de una película y el navegador en pantallas diferentes no existen, es más, con tu PC actual seguro que puedes abrir cinco navegadores y siete películas simultáneamente que no se cosca, ahora intenta que de un mundo 3D te saque 5-6 perspectivas diferentes de forma dinámica... (piensa en cuantos juegos no puedes poner con una sola perspectiva en una resolución determinada).

Espero que me hayas entendido :), y si no pues dilo, intentaré ser más explicativo.

Un saludo.

pero que diceas :-? para que quiero combinarlas , lo que dije es que un pc con una grafica se puede conectar dos monitores y tener dos imagenes distinta ( no hace falta dos gpu para crear dos imagenes distintas ) ,
lo de ( con tu PC actual seguro que puedes abrir cinco navegadores y siete películas simultáneamente que no se cosca ) en tu pc puedes conectar 12 monitores :-? , en el mio no asin que no puedo hacer lo que dices ;)
creo que no as entendido mi comentario anterior [oki]
Natsu escribió:No se suman los fps, si cada GPU está generando 30fps para cada ojo, tu percibes 30fps y no sesenta.

Otra cosa seria que entre ambas generaran una unica perspectiva y se repartieran la tarea para alcanzar las 60 ips

Por cierto alguien me explica por que el DOA en modo 2D va a 60fps y con el 3D activado lo hace a 30? es por culpa del framebuffer?

pu percibes 30fps pero la consola genera 60fps , eso es lo que estoi diciendo , a los fps que trabaja la consola
lo del DOA la unica escusa que puedo sacar es que en 2d este trabajando con las dos gpu y por eso el bajon en 3d , cosa que si es asin para mi estaria muy bien :)
Natsu escribió:
es lo mismo , en 2d a 30fps , en 3d 60fps ( 30fps para cada ojo )


No se suman los fps, si cada GPU está generando 30fps para cada ojo, tu percibes 30fps y no sesenta.

Otra cosa seria que entre ambas generaran una unica perspectiva y se repartieran la tarea para alcanzar las 60 ips

Exacto ^^
Natsu escribió:Por cierto alguien me explica por que el DOA en modo 2D va a 60fps y con el 3D activado lo hace a 30? es por culpa del framebuffer?

Sí, es el mismo problema que con el Resident Evil.
nanoxxl escribió:
Carlos A. escribió:
nanoxxl escribió:yo puedo ver una pelicula en un monitor y navegar en el otro , eso no son dos imagenes distintas [+risas]


Veamos, si, son dos imágenes distintas pero por decirlo fácil y rápido las podrías combinar en una sola, ¿cierto? Imagina pegar las dos pantallas, tendríamos una imagen 2D (con un viaje de pixeles, pero 2D).

Cuanto tú quieres hacer el efecto 3D si que tienen que ser dos imágenes diferentes pero, como entenderás, no pueden ser cualquiera: tienen que venir de la misma representación de una realidad 3D pero entre ambas tiene que haber una diferencia de distancia en el eje de abscisas. Eso implica unos costes computacionales que cuando tú quieres representar la reproducción de una película y el navegador en pantallas diferentes no existen, es más, con tu PC actual seguro que puedes abrir cinco navegadores y siete películas simultáneamente que no se cosca, ahora intenta que de un mundo 3D te saque 5-6 perspectivas diferentes de forma dinámica... (piensa en cuantos juegos no puedes poner con una sola perspectiva en una resolución determinada).

Espero que me hayas entendido :), y si no pues dilo, intentaré ser más explicativo.

Un saludo.

pero que diceas :-? para que quiero combinarlas , lo que dije es que un pc con una grafica se puede conectar dos monitores y tener dos imagenes distinta ( no hace falta dos gpu para crear dos imagenes distintas ) ,
lo de ( con tu PC actual seguro que puedes abrir cinco navegadores y siete películas simultáneamente que no se cosca ) en tu pc puedes conectar 12 monitores :-? , en el mio no asin que no puedo hacer lo que dices ;)
creo que no as entendido mi comentario anterior [oki]

Mira qué casualidad. Yo sí tengo un Dual Screen y un equipo potente ;-) Por lo que sé del tema. Y la cuestión no es tanto que sea la misma imagen o no, sino que los frames se repiten en el mismo momento... para hacer lo que tú quieres tendrían que sincronizarse las GPUs para mostrar las imágenes de forma escalada (lo cual ya de por sí es complicado) porque no te sirve de nada tener 2 imágenes en la misma milésima de segundo, ya que solo puedes mostrar una. Después están las limitaciones técnicas, como que la salida de vídeo de la segunda GPU es diferente.

Saludos.
capitanquartz escribió:Mira qué casualidad. Yo sí tengo un Dual Screen y un equipo potente ;-) Por lo que sé del tema. Y la cuestión no es tanto que sea la misma imagen o no, sino que los frames se repiten en el mismo momento... para hacer lo que tú quieres tendrían que sincronizarse las GPUs para mostrar las imágenes de forma escalada (lo cual ya de por sí es complicado) porque no te sirve de nada tener 2 imágenes en la misma milésima de segundo, ya que solo puedes mostrar una. Después están las limitaciones técnicas, como que la salida de vídeo de la segunda GPU es diferente.

Saludos.

en un Dual Screen puedes conectar 12 monitores :O esplica como lo haces [plas]
nanoxxl escribió:
capitanquartz escribió:Mira qué casualidad. Yo sí tengo un Dual Screen y un equipo potente ;-) Por lo que sé del tema. Y la cuestión no es tanto que sea la misma imagen o no, sino que los frames se repiten en el mismo momento... para hacer lo que tú quieres tendrían que sincronizarse las GPUs para mostrar las imágenes de forma escalada (lo cual ya de por sí es complicado) porque no te sirve de nada tener 2 imágenes en la misma milésima de segundo, ya que solo puedes mostrar una. Después están las limitaciones técnicas, como que la salida de vídeo de la segunda GPU es diferente.

Saludos.

en un Dual Screen puedes conectar 12 monitores :O esplica como lo haces [plas]

No he dicho en ningún momento que tenga 12 monitores, eso lo has entendido tú. Tengo 2 monitores. Es más, si digo que tengo Dual Screen, es que tengo 2 monitores, como podrás ver en la misma definición de Dual: http://es.wiktionary.org/wiki/dual

Ya que me imagino que me pedirás de nuevo "referencias" y "pruebas", aquí pongo de prueba un mensaje en Software Libre: hilo_asi-es-linux_911058_s4610#p1722674570

Saludos.
Estais confundiendo la frecuencia de la pantalla con el framerate.

El framerate es la frecuencia de generación de frames. Se mide en FPS: frames por segundo.

La 3DS tiene un ciclo de cpu a 60 Hz, quiere decir que ejecuta 60 ciclos en 1 segundo. En cada ciclo, genera 2 frames. Por lo tanto, 60x2= 120 fps.

Sin embargo, los frames se muestran de 2 en 2. al mostrarse a la vez, el refresco de pantalla sigue siendo el mismo: 60 Hz.

La frecuencia de CPU, de refresco de pantalla y de generación de frame es independiente, aunque deban estar en cierto modo sincronizadas.

Por ejemplo, la pantalla siempre va a emitir a 60 Hz, aunque la frecuencia de generación de frames sea a 30 fps. Al no refrescarse la imagen, reproducirá dos veces la misma imagen.

El ciclo de cpu tampoco tiene por qué ser el mismo que el de generación de frames. Por ejemplo, si tenemos un juego a 60 Hz y pasase a 30Hz, veríamos como el juego se ejecuta a la mitad de velocidad, ralentizado. Es lo que sucede cuando el tiempo de procesamiento de un ciclo del juego es superior a la frecuencia, lo que supone una ralentización de la aplicación.

Sin embargo existe el frameskip o salto de frames. Una de las cosas que más tiempo consume es la generación de frames. Cuando hay problemas de tiempo, lo que se suele hacer es saltarse una generación de frame y utilizar ese tiempo ahorrado para procesar lo que quede. Por eso cuando un juego cuando dice que va a 53 fps en lugar de a 60 quiere decir que en ese segundo, ha tenido que saltarse la generación de 7 frames para que el juego se ejecute en frecuencia constante a 60 Hz. Esto hace que el juego vaya siempre a velocidad constante, aunque la imagen pegue tirones.

Para solucionar este problema, especialmente en consolas (ya que cada PC es diferente y entonces es muy dificil controlar las frecuencias, mientras que en consola la velocidad es la misma en todas) se opta por bajar el juego a una velocidad constante. Suele ser 30 debido a la sincronización con las pantallas a 60Hz. De esta manera se usan dos ciclos de cpu para generar un solo ciclo de juego. De esta manera evitamos los tirones, haciendo que tanto el proceso de juego como el refresco de pantalla sean, aunque lentos, constantes, por lo que los tirones no se perciben /no son molestos.


Por lo tanto, hay que tener en cuenta esto:

- La 3DS tiene un ciclo de cpu de 60 Hz.
- La 3DS tiene un refresco de pantalla a 60 Hz.
- La 3DS tiene un framerate de 120 fps en 3D y 60 fps en 2D.
- Los juegos que aprovechan la capacidad al máximo, al pasar a 3D, por carecer de recursos se recorta el framerate 3D a 60 Hz y el refresco de pantalla a 30 Hz. El ciclo de CPU sigue siendo de 60 Hz y el de juego, depende de como se programe, también a 60 Hz.
193 respuestas
1, 2, 3, 4